Bevállalta a jobboldali Tőkét a Katona József Színház. És jól tette.
Szegény, saját megaláztatását végsőkig kiélvező idősebb Vidnyánszky Attila Marx Tőkéjét fogja bemutatni a Nemzetiben, Leninnel — és gondolom, MP-vel — egy kisebb mellékszerepben. Ha valaki mindent felad, akkor adjon fel tényleg mindent, alapon.
Máté Gábor viszont a jobboldali Tőkét, Alisza Zinovjevna Rózenbaum The Fountainhead című regényét (Schmidt Mária és Bayer Zsolt már a „Rózenbaum” miatt fel fogják jelenteni a Katonát) rendezte meg. Nem ez volt az első Rózenbaum mű, amit bemutattak Magyarországon. Még Amerikában olvastam, hogy egy különös bírósági drámáját játszották a harmincas években. Megnéztem, jól emlékeztem, 1936 novemberében mutatták be a Január tizenhatodikán éjjel-t a Royal Színházban.
A Szentpétervárott született Alisza Rózenbaum Ayn Rand néven vált különleges amerikai jelenséggé: író és filozófus, a libertariánus szektavezér és a láncdohányzás apostola.
Amikor ’89 őszén kikerültem Amerikába, a Fountainhead kötelező olvasmány volt jobboldali körökben. Akkor még nem Marjorie Taylor Greene — Georgia Skrabszki Fruzsinája, a neandervölgyiek kedves ajándéka — volt a jobboldali mainstream, létezett eredetien gondolkodó konzervatív értelmiség, akik tényleg elolvasták Ayn Randot. A jobboldali egyetemisták bőszen magyarázták nekem az objektivizmust (ez Rand saját ideológiája).
A Kamrában Octogon néven bemutatott színdarab számos ponton eltér az eredeti regénytől, és hiányzik belőle az a túltolt individualizmus és az altruizmusellenesség, ami híressé tette Ayn Rand művét. (A filmváltozatban Tasnádi Bence karakterét Gary Cooper, Rujder Vivienét Patricia Neal játszotta.)
Rand nem volt vicces — az Octogon az.
Amiért Máté Gábort és a regényt színpadra adaptáló Török Tamarát a Szuverenitási Hatóság egykori háromperhármasai ki fogják hallgatni, az az, ahogy a középszerűség uralma ellen lázad a darab főhőse. Ahogy a megfelelés ellen lázad, a közízlést kiszolgáló manipulátorokkal szemben, egyetlen mondatnyi „áthallás” nélkül.
A meritokrácia szelíd forradalmáról szól a darab (a regény végső, optimista kicsengését egyébként elhagyva) — ami sokkal veszélyesebb, mint a hatvanpusztázás vagy egy „Zsolti bácsi” nevű karakter.
P.S. Nem tudok színikritikát írni — az egy szakma.
De Bán János… istenem, de jó.

Pont ilyen egy modern színikritika.
Fúúúú, lehet, hogy nem kéne kommentelnem.
Ayn Rand már többször előkerült itt a blogon és én is írtam róla hosszabban, a lenti kommentemben. Ugye személye azért (lehet) fontos, mert Curtis Yarvin az, aki napjainkban túlspilázza Ayn Randot, technofasiszta irányultságú nedves álmaiban. El tudom képzelni, hogy Rand a túlvilágból, Yarvin-ra sercintve elereszt egy „gondolta a fené”-t. Yarvinnak a hülyeségeihez, meg csak egy jó kis referencia a kicsit „dilinyós” Rand, semmi több. Nem vagyok benne biztos, hogy Yarvin Rand reinkarnációja, de azért nem megnyugtató honnan hová tartunk a világban.
És ha már színház és Id. VIdnyászky meg Máté Gábor darabválasztása. Lehet egyedül vagyok vele, de mintha Máté Gábor mintha jobban érezné a vibe-ot, meg azt, mitől döglik a légy. Merthogy míg Marx kapcsán Id.Vidnyánszky jól el lehet saját szalmabábjainak kergetésével, addig Máté Gábor roppant érzékeny, valós, élő problémateret firtat a teljes modern valóságunkba beágyazottan, még ha ez némileg kiprojektálásnak hangzik is.
https://www.orulunkvincent.hu/trump-es-zelenszkij-meg-fognak-egyezni-azthiszemposzt/comment-page-5/#comment-342843
Bán János korszakos zseni, mindig is az volt. Valamikor a nyolcvanas évek legelején láttam először a stílusgyakorlatokban és azóta is tartja a szintet amit akkor és ott emelt fel igen-igen magasra.
Hiv.: @nyulambator:
Stílusgyakorlatok… Hogy imádtam a könyvet és a legendássá vált színházi előadást. Szerencsére utólag felvételről is meg tudtam nézni többször is.
Milyen érdekes, hogy Bán János és Dörner György két tehetséges színészember, hogy el tudott távolodni egymástól, szellemben, lélekben. Van még ilyen a színháztörténetben, hogy egy zseniális darab kiváló két alkotója, évtizedek alatt, ennyire szembefordujon egymással, szellemi téren?
Stílusgyakorlatok… Egyszer régen a gyerekeimnek esti mese helyett a Stílusgyakorlatokat olvastam fel, ill. „játszottam el”. Annyira nevettek…
@tahonoli: Hát talán Willy Clark és Al Lewis
Hiv.: @nyulambator:
Neil Simon: The Sunshine Boys/A napfény fiúk? Én Hauman Péterrel (Willie Clark) és Garas Dezsővel (Al Lewis) láttam Játékszínben. Ma már egyikőjük sem él.
@ipartelep
Nálunk is alapmű. Hű de stabil…
Ne menjünk el szó nélkül a poszt alapvető kontextusának körbejárása nélkül:
Mi történik akkor, amikor a kulturális „oldalak” épp az ellentétes eszmerendszer nagy műveiben fedezik fel saját kifejezési lehetőségüket — és ezeken keresztül próbálnak szólni a saját közönségükhöz?
Irattam a ChatGPT-vel egy esszét, a mostani konkrétumokra szűkítetten és ez a konklúzió esett ki belőle rengeteg (jellemzően – szerintem – nagyon gyenge szinvonalú) érvelés után:
„Összegzés: amikor a művészet túlnő az ideológián
Ez a kettősség arra mutat, hogy Magyarországon:
[1] az ideológiai táborok nem zárt rendszerek, hanem vágytérképek — mindkettő hiányt próbál betölteni;
[2] a művészek ösztönösen oda nyúlnak, ahol hiányzik a saját táborukban a mély reflexió;
[3] a színház így a nemzeti dialógus utolsó működő terepe, ahol még lehetséges az „átjárás”.
Én a fenti három pontot be tudom integrálni magamba:
Noha egyébként az én megközelítésem tök más volt eredetileg:
érteni vélem, hogy igény van/lenne tágítani a színháznéző perspektíváját, na pláne az agyonmanipulált, félretájékoztatott Magyarországon,
érteni vélem a művészi szándékot, hogy az „ellentétes” oldallal plasztikusabban lehet „sokkolni” (nyilván kulturált értelemben értendően),
ugyanakkor Magyarország utolsó 35 éve a protest-attitüdről szól, hogy ami van az elvetendő, nem megjavítandó. Ami kellenének érződik; az meg mindig homályos vagy délibábos vágy vagy illuzió precízebb kibontás nélkül. Egy vergődési spirált beindítva, gondolati majd tevőleges szélsőségekbe kicentrifugálóan.
Az AI meg a saját zajaival rátett további lapátokkal a zavarra:
– A „protest attitüd”-nél szétválasztani a jogos és nem jogos kritikát még sokkal nehezebbé vált.
– A „teremtő alternatíva” fókuszát tartani is sokkal nehezebb lett.
@tahonoli: Köszi, számomra ez amelletti érv, hogy a ChatGPT tényleg nem érti se a kérdést, se a saját válaszát, de bullshitelni/akárhonnan összeszedett közhelyeket puffogtatni nagyon tud. Vagy, ha nagyon megengedő vagyok, akkor azt mondom, hogy értelmes válasz helyett valami emocionális alapú, zavaros outputot présel ki magából. Ez egyrészt meglepően emberi (lehet, előbb jön létre valódi érzelmekkel bíró géplény, mintsem egy valóban okos), másrészt nekem továbbra is hiányzik a „Mittudomén!” válasz lehetősége.
\
Példa: „amikor a művészet túlnő az ideológián” <— ennek a félmondatnak mi az értelme? Van-e értelme egyáltalán? Miként tud a művészet növekedni — tekintettel arra, hogy a ‘növekedés’ szó jelentése magában foglalja a mérhetőséget? Hogyan tud az ideológia növekedni és ez a két növekedés miképpen vethető össze?
@Hottentottenstottertrottelmutterattentäter… usw: a GPT5 brutálisan „okos”, csak egyrészt rosszul használod, másrészt nem teljes fegyverzettel. mi az, hogy „nem érti”? ez nem egy ember, ez egy mérnöki architektúra. meg tudja oldani, finetuning nélkül, az olimpiai matematikafeladatok jelentős részét. amit most ebből ki lehetne hozni nagyon nagy költséggel persze, az már közel lehet ahhoz, aminem mindenki örülne, ha csekély költséggel is meg lehetne valósítani. hát lehet, hogy ez nem fog összejönni, elképzelhető, hogy kiderül, hogy túl nagyok a költségek, és kidurran a AI buborék, de az sem azt jelenti, hogy ez egy tévút, csak azt, hogy ez egyelőre nem tud megtérülni, és nem érdemes ezermilliárdokat befektetni az elkövetkező öt évben. talán te sem érted a világot. valamit csinálnak a neuronjaid, amit nagyon magas szinten képes egy agyi terület propozícionálisan interpretálni és ezzel az értés illúzióját kelteni (azaz ez az interpretáció az „értés”).
@Hottentottenstottertrottelmutterattentäter… usw: csak a te kedvedért rákerestem az arcanumban a „Művészet túlnő” kifejezésre. Van majd száz találat, az első 1899-ből Keszler József tollából származik, a Magyar nemzetben:
Namost ez nem jelenti azt, hogy ez nagyon okos fordulat, de azt igen, hogy újságírók tucatjai használták már.
A Qbiten volt a minap egy cikk, amiben arra jutott a szerző (szerintem teljesen megalapozottan), hogy
Szerintem akkor tudnak majd nagyon nagyot tovább lépni, ha az LLM modelleket ügyesen tudják ötvözni a szabályalapú megoldásokkal, úgy, hogy egyrészt legyenek szabályok, amikkel ellenőrizni tudja a modell outputjait a gép, másrészt, hogy a modell alapján maga is konstruáljon új szabályokat.
Persze tahonoli majd mindjárt dob egy tucat linket, hogy ezt mennyire nagyon csinálják már.
Hiv.: @Hottentottenstottertrottelmutterattentäter… usw:
Hiv.: @jotunder:
Nagyon egyetértek JT-vel. Jól kell kérdezni az LLM-eket, jó válaszokhoz. Én direkt nem okoskodtam bele a ChatGPT-nek feltett esszéírásos felszólitásomba, befolyásolást kerülve meg tág terepet hagyva neki. Ez közrejátszhatott abban, hogy nem voltam elégedett a dolgozatával.
Hiv.: @nyulambator:
Tényleg sokan és nagyon dolgoznak az LLM-ek meg a GOFAI-s szabályalapúság összehozásán, ami a keresztségben a „neuroszimbolikus AI” nevet kapta.
%%%%%%%%%%%%
Definició: Egy neuroszimbolikus rendszer, képes nyelvi és fogalmi inputból logikai modellt építeni, logikailag következtetni, tervezni és cselekvést előre jelezni, önmagát ellenőrizni, cáfolni vagy javítani valamint magyarázni, hogy miért döntött úgy, ahogy, miközben új helyzetekből tanul, de nem felejti el a korábbi tudást (folyamatos stabil tanulás).
%%%%%%%%%%%%
Kérdeztem a ChatGPT-t: 20-25%-ra becsüli ennek jelenlegi készültségét.
Demó szinten ezt úgy lehet elképzelni, hogy olvas egy szabad szöveget egy ilyen rendszer, amit tudásgráfba és ontológiába képez le.
%%%%%%%%%%%%
1.A plüssmaci nem játék, hanem játékszer.
1a.Kezdeti tudás: (plüssmaci, subclassOf, játék)
1b.Új információ az LLM-től: A plüssmaci nem játék, hanem játékszer
1c.Ontológiai frissítés
(játékszer, subclassOf, tárgy)
(játék, subclassOf, tevékenység)
(plüssmaci, subclassOf, játékszer)
1d.Itt fogalmi átrendezést látunk: nem törlődik tény csak helyes jelentéstartományba kerül
%%%%%%%%%%%%
2.A plüssmaci már nem a gyereké, hanem a múzeumé.
2a.Kezdeti tudás: (plüssmaci, tulajdonosa, Gyerek)
2b.A szabály: (ha X tulajdonosa Y, akkor Y játszhat X-szel)
Új információ: (plüssmaci, tulajdonosa, Múzeum)
Konfliktus; most két ellentétes tulajdonos van. A szabályrendszer ellentmondást talál, mert egy tárgynak csak egy tulajdonosa lehet.
2c.Ontológiai frissítés; a logikai motor feloldja a konfliktust:
DELETE (plüssmaci, tulajdonosa, Gyerek)
KEEP (plüssmaci, tulajdonosa, Múzeum)
azaz
NOT (Gyerek, játszhat, plüssmaci)
2d.Az AI itt önkorrekciót végez: nemcsak frissíti az adatot, hanem módosítja a hozzá kapcsolódó következtetéseket.
%%%%%%%%%%%%
3.Ha valamit szeretnek és nem él, az játékszer.
3a.Megfigyelések:
(Gyerek, szereti, plüssmaci)
(plüssmaci, nem él)
(Gyerek, szereti, babaruha)
(babaruha, nem él)
3b.LLM felismeri a mintát: Olyan dolgokat, amiket szeretnek, de nem élnek, játékszernek neveznek.
3c.Új általános szabály (ontológiai szintű absztrakció)
(ha X szereti Y-t ÉS Y nem él, akkor Y subclassOf játékszer)
3d.Következmény:
(babaruha, subclassOf, játékszer)
(plüssmaci, subclassOf, játékszer)
3e.Az AI absztrakcióval és generalizációval új fogalmat és új szabályt alkotott, amit a későbbiekben más tárgyakra is alkalmazhat (pl. “kedvenc kavics” → játékszer).
@jotunder: : „meg tudja oldani […] az olimpiai matematikafeladatok jelentős részét.” Amit te meg a kollégáid találtak ki a matlétáknak. Ergo ez elvárható az MI-től. A millió dolcsis gráljaitokból – tudtommal – még nem oldott meg.
Az MI – jelen szintjén – egy új „multiméter” (incl. zsebrevágható szkóp) mérnöknek-technikusnak-villanyszerelőnek. Egy új, fejlett, hasznos, és persze messze „multifunkcionálisabb” 😉 tool (ti. nem csak mérnöknek-technikusnak-villanyszerelőnek 🙂 ) , mint egy multiméter. Ennyi. Köszi-köszi, örülünk neki. Persze egy multiméterhez kell a villamosságtani (alap)ismeret (mindenkinek a maga szintjén), plusz meg kell tanulni használni. És tudni mire jó.
Én kódot jelen szintű MI-vel nem íratok, mert „Microsoft” kódot produkál (nagy, döher, nem hatékony, de legalább „aljasul bugos”, és tuti nincs benne semmi „gyönyörű lebegés”, egy „ejha!”, amitől alél a lélek; ha jól emléxem Szemerédi kollégád bizonyításától aléltál hasonlóképp… anyway, az akkor már munka, és én világéletemben utáltam dolgozni 😉 ). Szóval ami időt nyerek, elvesztem értelmetlen kontrollon (ráadásul idegen gondolkodásmódot kell szokni). Akkor már inkább kész Fn/ObjLibs-ből szemelgetek. Többnyire stabil, tesztelt (és a „puzzle” mégiscsak közelebb áll a játékhoz, mint a munkához 😉 ).
Viszont roppant hasznos MI-t olyasmihez használni, amit utálok csinálni, de muszáj (ráadásul anyanyelvemen sem egyszerű számomra). Ebben nagyon stabil és kevesebbet „dumál mellé”. Néha nagggyon kkkonkkkrét! szakmai guglinál visítok a röhögéstől, ahogy az AI-assist bullshitel (ld. Rossz tanuló felel). Amit lök az persze nem hülyeség (legalább nem küld a törikönyvhöz), de köszi nem vagyok kinn a vízből.
Biztos lesz majd fejlődés, de szvsz. nem is az MI fejlődése kérdéses, hanem a homo sapiensé. Mert egyelőre úgy látom, hogy a rászabadult nagyérdemű csak nagyobb szartengert generál vele, mint hasznos produktumot. Abból meg úgyis túlternelési válság volt eddig is. De ez nyilván a következő generáció ügye, nekik kell vele együttélni (remélhetőleg nem lesz „Amused to death” ).
Hiv.: @ijontichy:
Szerintem roppant barátságtalan és problémásan általánosító a verdikted.
Olimpiai bajnoknak egyből születik az ember, vagy másképpen kérdezve pár év meló után lesz valakiből olimpiai bajnok? A 2017-es alapcikk óta 8 év telt el, a ChatGPT még nincs 3 éves és matek szent grál megoldását várnád el, ha meg nincs, akkor az kudarc?
Miért kéne IMO-feladatokat megoldani, kapásból? Van 600+ darab ilyen feladat összesen, a legkülönfélébb matek témákból. Abból kéne tudni megoldani az össze jövőbeli iMO-feladatot, triviálisan, csak mert ember konstruálta őket? Miért jogos elvárás ez?
A minapi Gauss ügynök 25000 Lean-kódsort köpött ki magából 3 hét alatt, többek között a strong prime number theorem formalizálása során a hiányzó analízises könyvtár from scratch felépítésével (állítások, szabályok, lemmák, stb.), amihez fogható formalizálások korábban emberévekig tartottak. Nem HITL, hanem 100% HOTL(=human-on-the-loop, azaz matematikusi rásegítés nélkül) 100% LLM-mel, 0% neuroszimbolikus AI-vel (elképzelhető mi lesz, ha azt is bevetik majd).
@tahonoli: : Nem vagyok barátságtalan, csak realista. Viszont mintha téged a „szerelem” vakká tenne 😉 . Kiemelem a lényeget: „nem is az MI fejlődése kérdéses, hanem a homo sapiensé”
Szinte látom, ahogy lázba borult tekintettel (olvasd vissza magad 😉 ) gründolják a milcsiket datacenterekre… a jelenlegi vason. És még mindig „keresztatyámat” tartom zseninek (ld. „Donda prof”, persze nem szó szerint értelmezve), és nem az elon-larry-altman(&al)-féle nem is big, hanem könyékig (nyakig?) „hugedata”-ba merülést áhítozó csapatot. @Big JT szemei előtt azért felrémlett egy buborék képe. De hajrá!!
Hiv.: @ijontichy:
Én konkrétumokkal igyekeztem előjönni.
Illetve én is realistának tartom magamat (én sem hallgatom el negatívumokat), ami nyilván kérdésesebb, hogy melyikünk elemez jobban történéseket.
Ami az AI-buborékot illeti az én (biztosan véleményes) nézetem szerint PhD-szintű disszertációt igényel az elemzése, annyi a feldolgozandó anyag és annyira nehéz a korrekt átlátása, a téma érdemi kifejtése, megírása.
Hiv.: @ijontichy:
Van egy másik aspektus is, amit teljesen másképpen látok.
* Én voltam, aki kezdettől fogva rühelltem és szembementem itt a blogban (bloggazdával szembe is) a „trillion-dollar cluster”-rel. Értelmetlennek, pénzkidobásnak, Big Brotheres cucc-nak, f@szméregetésnek gondoltam mindig is, noha a világ nem tett róla lassan 1,5 éve (Leopold Aschenbrenner (volt OpenAI-alkalmazott): Situational Awareness, 2024.június körül, 165-oldalas esszében fordult elő először a gondolat, tudtommal). Deepseek v3.0-val erősödött meg bennem 2024.decemberében. Szóval szó nincs arról esetemben, hogy „Szinte látom, ahogy lázba borult tekintettel (olvasd vissza magad 😉 ) gründolják a milcsiket datacenterekre… a jelenlegi vason”. Nézetem szerint az AI fejlődéséhez semmi szükség ekkora vasakra, eleve teljesen más irányba képzelem az egészet a neuroszimbolikus AI-n is túl (tudom; magánügy).
* Mindez szóra sem érdemes („who the fuck cares”), de az imént belefutottam egy LinkedIn-cikkbe, ami egyszerre mutatja azt, hogy mit gondolok
1.a trillion-dollar clusterről illetve
2.az AI-buborékról (hogy miért PhD-t igénylő téma).
Nem gondoltam volna, hogy egyszer magamat olvasom vissza más szövegében, két ennyire speciális és nehéz témában. 😉
„Corporate America is now spending about $364 billion a year on AI infrastructure, with utilization running between 12% and 18%. That means roughly 80% of capacity sits idle, while more than 100,000 people have been laid off to “fund transformation.”
https://www.linkedin.com/posts/stephenbklein_heres-how-generative-ai-would-compare-to-activity-7389089845308088321-xvJI/
@tahonoli: Nem könnyű PhD téma ami annyira gyorsan változik, hogy a három hónapos információ már elavult és érvénytelen. Mire egy PhD ebből megszületik, már tök érdektelenné válik a tartalma.
Majd 10 év múlva lehet visszamenőleg közdazdasági PhD-ket írni arról, hogy hogy sikerült a világnak újra belefutnia egy ilyen lufiba és miért nem vettük észre, vagy arról, hogy miként változtatta meg a teljes gazdaságot az AI a temérdek befektetésnek köszönhetően, esetleg arról, hogy a világforradalom kitörésében mi volt a szerepe az AI fejlesztésnek.
@nyulambator: : „hogy sikerült a világnak újra belefutnia egy ilyen lufiba és miért nem vettük észre” Hát ez az :-/.
Hiv.: @nyulambator:
Ja-ja, nyilván. Meg, ha lesz lufi-durranás, akkor az nem fog várni 2 évet, a PhD tézis megvédéséig, ha valaki most vág bele (ha jól tudom, kb. ennyi manapság a PhD-nek az átfutása az elvégzendőkkel, cikk-publikálásokkal, stb.). Különben is minden lufi-válság másképp néz ki, más a lefutása, elég ehhez megnézni csak a posztbel dotcom-osat, 2008-as subprime-válságot, meg a mostani fenyegető AI-s válságot nézni.
Én csak annyit mondok, hogy (1) van értelme előzetes válság-elemzésnek, (2) hiteles verzióban nagy lenne rá a kereslet, (3) PhD-nehéz a téma. Mondanám, hogy NP-nehéz, de annak nem lenne értelme 🙂
Sajnos a színházas poszt alatt offtopik, viszont a komment-thread miatt idekivánkozik.
* Levágja mindenki a számok mögötti üzenetet?
* Elon Musk, xAI, Colossus, két fázisban teljes kiépítésben 200.000 részben mára „elavult” Nvidia H100-as GPU-t tartalmaz, ha jól emlékszem akkori áron 11 milliárdból (szerverrel, árammal, teljes wing-to-wing).
* A mostani lenti hír
- 4-5 millió db GPU (1200 W/GPU + Datacenter-Overhead) = 10 GW (4 db Paks2)
- Blackwell GPU piaci ára már lecsökkent $70-80.000-ről $30-40.000-re, nyilván a projekt $20.000-rel számol.
- Ezzel Sam Altman (OpenAI) „fallosza” minimálisan is 20x nagyobb lesz Elon Muskéhoz képest. Ha natívan nézzük (2 db H200 = ~1 db Blackwell GPU), akkor 50x-es. Mivel Elon Musk „jól” tűri, ha más fallosza (különösen Sam Altmané) 50x nagyobb, így talán a világ joggal reméli, hogy a spirálos bepörgés evvel talán megáll. Oh, wait…
* A trillion-dollar cluster alapjának ($500 million) a fele ezzel a projekttel meglesz.
.
Nvidia plans to invest up to $100 billion in OpenAI as part of data center buildout
https://www.cnbc.com/2025/09/22/nvidia-openai-data-center.html
@tahonoli: „At the heart of this vision is a plan to develop 30 gigawatts of computing resources, aiming to add one gigawatt of computing power every week.” 1000 MW hetente, nem normális, tényleg nem normális.
Földrengés-kaliberű (aka Deepseek v3); nyugat AI-bajait, több fronton is, potenciálisan akár horrorisztikusan növelő cikkel jött ki három kínai szerző , és mikorra máskorra időzítve, mint okt.31-re (Halloween).
CALM (=Continuous Autoregressive Language Models)
https://arxiv.org/html/2510.27688v1
* Azonosították a legszűkebb skálázási szük keresztmetszetet (token-by-token prediktálás: szókészlet mérete × softmax költsége × token-alapú generálás). Nyilván mennyivel jobb lenne, ha idea-by-idea lenne, mondjuk K=4 mellett, egy idea első körben legyen csak 4 token.
* Az egész valószínűségesdi wrapper kuka ugyan (keletkezett egy „kis” munka pluszban, lásd pl.: robosztus autoencoder igénye), de azonnal relevánsan nagyobb a kontextushossz, olcsóbb a training+inference. Feleződnek a számítási flop–igények, és ami szép rendszerbekódolt minőségvesztés nélkül. Mitőbb kompatibilisen a meglévő LLM-ekkel, fine-tuning költségeket is csökkentve
* Magyarán Kína valóban skáláz és költséget csökkent (jobb energia-infrastruktúra mellett). Nyugat meg 10-20%-okat javít csak (GPT-4 vs GPT-5; hello AGI!) AI-lufit fúj, körkörös befektetésekkel szemfényt veszt, trillion-dollar clustert épít, 10GW kaliberű energia-ellátásra méretez, látnivalóan brutálisan növeli az iparági pazarlást.
* El lehet gondolkodni azon, hogy vajon az OpenAI (zártan) fog e gyorsabban célbaérni AGI-val, nehezedő körülmények között, avagy Kína egy tök másfajta geopolitikai stratégia mentén kerül jobb pozicióba.
Megjelent egy szerintem (is) fontos könyv az AI-ról, magyarra lefordítva.
600 oldal. 10 ezer forint. 2025-11-10 megjelenés. HVG-könyvek sorozat.
Csinos kínai csajszi írta, 250 mélyinterjú alapján utánamenve a Sama-sztorinak.
Karen Hao: Az AI birodalma
Álmok és rémálmok Sam Altman OpenAI-jában
A hír az FB-AI Hírek csopiból jött: YT-videós, HVG-s beszélgetés a könyvről (olvasatomban elég gyenge lett). A könyv viszont bizton mondhatom brutális. AI-lufi témában is adhat adalékokat.
https://www.facebook.com/groups/730310438659106/posts/1385486286474848/