Az Orbán-rezsim esete a mesterséges intelligenciával (déliposzt)
Nagy Márton gazdasági miniszter a Hell energiaital állítólagosan AI által megtervezett (“szia GPT, csinálnál nekünk energia italt? persze, tegyetek bele több ezt, kevesebb azt, és esetleg zellert”) változatát emlegette jelentős AI-fejlesztésként és egy olyan történetet adott elő kínai kvantumszámítógépekről, amelyek arra mutatnak, hogy elég sok mindenről nincs fogalma. Ami nem feltétlenül baj, ha vannak körülötte emberek, akiknek van. És szemlátomást nem nagyon vannak.
A huszadik század hatvanas éveitől kezdve a John Haugeland filozófus által GOFAI-nak, Good Old Fashioned Artificial Intelligence-nek nevezett AI-tól várták az áttörést, ezek a GOFAI rendszerek, mint pl. a CYC nevű számítógépes ontológia volt hivatott arra, hogy univerzális szakértői rendszerként elinduljon a valóságos mesterséges intelligencia irányába. Mérő László számára, akit nem szeretnék bántani, a mai napig a GOFAI a mesterséges intelligencia. A kezdeti sakkozó gépek, amelyek már megverték a legjobb sakkozókat is (Stockfish) GOFAI alapúak, tulajdonképpen mi emberk is szeretünk GOFAI alapon gondolkozni, rendszerezni a tudásunk. Az akkugyárak is azok, nem? Tehát nincs itt semmi baj.
Az, ami miatt kitört a hisztéria 2022 végén egy LLM (large language model) based AI. 2017-ben publikálta Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin az Attention is All You Need című cikket, ez azóta (a poszt megírása alatt is változni fog) 88761 hivatkozással bír, ami egészen komoly magyar felsőoktatási intézmények összes munkatársa összes publikációjának összesített idézettségéhez mérhető. Az AI-hype mögött a transzformer architektúra állt, de még a transzformerek közül is a GPT-3.5 és GPT-4 emelkedett ki, valószínűleg ideiglenesen. Engem nagyon meglepne, ha a Vaswani et. al. féle Multiple-Head Attention elv lenne az utolsó jelentős bemondás a témában. Nem, egyáltalán nem értek hozzá, nem az én világom, valamelyest megértettem a GPT-nél jóval korábbi language modellek filozófiáját (ami lényegesen rafináltabb, mint amit gondoltam) és megdöbbenve olvastam a Mikolov et. al. féle word2vec model viselkedéséről. Magyarországon vannak jó szakemberek, de egészen bátran állíthatom, hogy lényegesen többre lenne szükség, mondjuk úgy, a húszezres scholar.gugli kategóriában. Sajnos Magyarország mesterséges intelligencia stratégiájának javított kiadásában, mondhatni a kardozós változatban, nincs egyetlen szó sem a nagy nyelvi modellekről.
Orbánék egy nagy, erős Magyarországról delirálnak, ami az akkugyártásra épül, nagy vasdobozokba öntenek gusztustalan folyadékot. Nem tudom, vannak kételyeim, főleg ha az egészet kínai mérnökök felügyelik és még a beöntést is fülöp-szigeti és indiai munkások végzik, a magyarok feladata legfeljebb a környezetvédelmi problémákkal kapcsolatos relaxált attitűd fenntartása lesz.
Épp 120 éve született Neumann János, akinek még mindig nem bocsátották meg Bayerék a származását, és az nem pálya, hogy valamiféle utódai legyenek Magyarországon. Az Orbán-rendszer feladta azt, hogy Magyarországon nyugati típusú tudásalapú társadalom legyen, etnonacionalista társadalmat építenek, amely társadalom Orbán Viktor személyes képességeire bazírozza a jövőjét (ez tényleg így van, a rezsim influenszereinek ez a legfontosabb üzenete a hívek felé).
Én nem hiszem, hogy az AI meg fogja ölni a világot, de azt igen, hogy a világ lényegesen AI-bb lesz, mint lítiumakkumulátor. Orbánéknak nincs semmi elképzelése erről az új világról, az MCC is lojális végrehajtók képzésére lett kitalálva nem Large Language Modellekben gondolkozókéra. Az amúgy kicsit aggasztó Fudan-projekt látható ejtése is azt mutatja, hogy most tíz évig akkumulátorokról és a hozzájuk gyengéden simuló kombinált ciklusú gázerőművekről szól majd Magyarország.
Orbánék erre fogadtak, a rendszerük erre jó, az embereik erre jók, az MCC-jükkel, a matyijaikkal, fruzsijaikkal, megafonosaikkal, osztó kopaszaikkal, francesca rivafinolijaikkal és a hozzá tartozó megadjatestvéreikkel együtt. Lánczibandi kell ide és a Mari, sok kicsi szilvay és békésmarci, csak még párszáz elköltött milliárd, és a haza valamire derülni fog.
Nem feltétlenül fényre.
@poszt:
Ez a puzséri lendület nagyon magával ragadó, de joggal kérdezhetné a kedves olvasó, hogy hát jó, hát jó, mégis hogyan szállhatna be egy szegény kelet-európai ország ebbe a hajszába (ami amúgy szerintem borzalmas, kontraproduktív és rettenetesen híg)?
Segítek: vigyázó szemünket vessük a bolgárokra: https://ethz.ch/en/news-and-events/eth-news/news/2022/04/new-partnership-with-bulgaria-for-artificial-intelligence.html
Ezt nálunk kellett volna megcsinálni.
@mr_caiman: bulgária még szegényebb, mint magyarország, de szemlátomást van egy releváns bolgár professzor az ETH-n. a cseheknek ott van Tomas Mikolov. szerinted én miről beszélek? pont erről.
@jotunder: Vechev ügyes, de azért a fairség kedvéért tegyük hozzá, hogy vannak jó magyar nevek is, pl. Szepesvári a Deepmindnál + U of Albertán (tudománymetrikai monomániásoknak: közel 20-al magasabb h-index és 2x annyi idézés, mint Vechevnek – https://scholar.google.com/citations?user=zvC19mQAAAAJ&hl=en)
Ez természetesen az ügyes, “homegrown” magyar AI srácok-lányok deriváltjáról nem mond semmit, mielőtt a mandineres fiúk vállon veregetik magukat, inkább csak arra mutat rá, hogy ne írjunk blődségeket és ne fetisizáljunk egy olyan területet, amit legfeljebb érintőlegesen értünk.
@mr_caiman: kedvenc társszerzőm bátyjának 200000 felett van a scholar-google idézettsége, de nem hiszem, hogy segítene. milyen blődséget írtam?
@jotunder: az előbbi posztban implikáltad, hogy nincsenek releváns magyar profok az újhullámos AI-ban – vannak, Szepesvári is ilyen. Önmagában az LLM hypevonatra ugrás megbocsátható bűn persze, de e mentén értékelni a régió gazdaságait semmiképpen sem célravezető (az említett INSAIT is többről szól ennél).
@mr_caiman: magyarországon, ember, magyarországon. hát a világ egyik legismertebb kutatója is magyar, csak nem itt él, ahogy szepesvári sem. a éás
amúgy külön leírtam, hogy az LLM kicsit hypeszerű. de… azt is gondolom, hogy a mesterséges intelligencia valószínűleg egyetlen útja. amit nem gondolok az az, hogy az LLM fejlesztésre kell koncentrálni, az egy benchmark maximum. de itt speciel az AI-ről van szó, nem klasszikus értelemben vett robotikáról, nem smart technológiákról, stb stb, amelyek fontosságát csak őrültek vitatják. a poszt erről szól. a másik a giorgia meloniról, és? nem gondolod te ezt egy kicsit túl? engem ez valamilyen szakmai okból érdekel, de nem LLM fejlesztéssel kapcsolatosan, ahhoz én nem értek. ez inkább matematika, ami távolról érinti a nagy nyelvi modelleket. ez elmúlt pár hétben kicsit többet foglalkoztam vele, miután befejeztük a cikkünk.
@jotunder: miért, Vechev bulgáriában él? mégis összehozta az INSAIT-ot Szófiába. Mikolovunk valóban nincs. Arról, hogy túlgondolom-e, este írok bővebben, de én is éppen konferenciára kéne, hogy hajrázzak.
@mr_caiman: a másik…. annyira nem érdekel engem a h-index, meg a többi, de benchmarkként nem olyan rosszak, amikor egy ország egy bizonyos területéről van szó. és arra is rá lehet jönni, hogy egy területen melyek a legfontosabb cikkek. én nem gondolom azt, hogy az 50000-szer idézett Watts-Strogatz cikk a világ teteje lenne, de jó tudni róla…
[@jotunder:] – ha valaki nem ért a témához, az én vagyok – de ez nem tart vissza, hogy érdekeljen 🙂
Így egy abszolút laikus felvetés, érzés: szerintem LLM alapon nem nagyon képzelhető el szingularitás, míg GOFAI alapon sokkal inkább.
?????
@Geo: azok a kutatóközpontok, ahol a legtöbbet költik AI-ra (GoogleAI, Meta, OpenAI, baidu/bytedance) szerintem nem foglalkoznak GOFAI-al. van ez a fogalom, az “AI winter”, amikor hirtelen lecseng a hype és kimerülnek a források. a GOFAI esetében több ilyen “AI winter” időszakot dokumentáltak. elképzelhető, hogy pár év múlva lesz egy LLM-AI-winter. sokan gondolják, hogy elkezdett leállni a hype. de ez elég gyorsan változhat. ilyen szintű emberekre ennyi pénzt soha nem költöttek el. a legjobb emberek segge alá raknak dollártízmilliókat vagy többet és hát itt azért a jövedelmek is csillagászatiak. nem mernék tippelni arra, hogy mi lesz a következő lépés. szívesebben olvasok LeCunnt, mint ElonMuskot és akkor finom voltam. én nem szeretnék Szingularitást, egyszerűen nem. hadd legyen még az ember pár évtizedig a legintelligensebb creature a Földön, és ha mindig az lesz, so be it.
@poszt
Mi számít GOFAI-nak? Az okés, hogy a szakértői rendszerek igen, de az ML is (mert azt legalább már tényleg használják).
[A legjobb MI-definíció persze Fateman-é: amit szeretnénk, az MI, ami már működik, az valami más. (Azt hiszem, akkor mondta, amikor arról volt szó, hogy az MI hőskorában a formulamanipulációt is MI-kutatásnak tekintették, amikor meg már működött, és termék lett belőle, akkor nem.)]
@jotunder:
Mondjuk azt megértem, hogy jó érzés a legintelligensebbnek lenni, de ha már annak nagyon kicsi az esélye, hogy mi vagyunk a legintelligensebbek az egész Univerzumban, akkor nem jobb, ha közel is van intelligensebb, és azzal jóban vagyunk?
@szazharminchet: Haugeland írt erről egy könyvet, ami nem aratott osztatlan sikert AI-körökben (Artificial Intelligence – the Very Idea). A 112. oldalon definiálja a GOFAI-t, mint egy olyan intelligenciát, ami szimbolikus manipulációk segítségével reprezentálja a világ kauzális struktúráját (nagy vonalakban). Ő filozófus volt, nem mérnök és ezt a könyvet 1985-be írta, amikor a CYC még nem bukott meg, és amit Haugeland GOFAI-nak gondolt az a CYC nevű ontológia volt (nagy vonalakban). A lényeg a szimbolikus manipuláció, a függvényekre,predikátumokra épülő, alaptudásból magasabb tudásra jutó rendszer. Ez számomra teljesen idegen persze, belenéztem, olvasgattam, ennyi.
Korábban már említettem volt, hogy a fidesz a természetes unintelligencia csúcsrajáratásában világelső, hogy nem mondjam piacvezető. Kinek mi.
@jotunder: egy viszonylag híres magyarázat arra, hogy miért nem működött a GOFAI és miért nem érdemes ebből az LLM-ek korlátaira következtetni: http://www.incompleteideas.net/IncIdeas/BitterLesson.html
“Nem feltétlenül fényre.”
Hmm, az “örök világosság” is fény,nem?
@szazharminchet: : “amit szeretnénk, az MI…” Nincs új a nap alatt. A programozók egyik alaptörvénye: Egy számítógépes program nem a vágyaidat, hanem az utasításaidat teljesíti. Csakhogy ennek kiterjesztése, az MI területén meglepetéseket okozhat.
Azért ne misztifikáljuk túl az AI-körüli publikálási vihart. A felsőoktatás-világ egy más tészta az ipari fejlesztőközpontok világához képest…. Az előbbinél nagy a publikálási kényszer (az okok sokaságát ismerjük), a céges fejlesztőközpontokban inkább titkolódzás folyik. Már zajlik az AGI-ra való rákészülés (értsd: a problémahalmazon való rágódás). Az egyetemen se értik a kollégáim, hogy mit keres egy műszaki asztalán a pszichológia és kollégái témakörű könyvhalmaz…:). Pozícióváltás után rám is kiterjed a publikációkényszer, most az lesz a legnagyobb kihívás, hogy ne írjak le olyat, illetve úgy leírni, hogy valamelyik multi ne ugródeszkának használja és az tollasodjon meg rajta.Ez nem írigység, de a kiber- és katonai alkalmazók vastagon meg vannak támogatva, küzdjenek meg érte maguk (pláne, ha a “pálya másik oldalán áll”)
A jelenlegi AI számára van egy roppant nagy könnyebbség, ami egy fejlettebbnek már nem biztos, hogy rendelkezésre áll.Jelenleg ennek a könnyebbségnek az abszolválásánál tartunk….
Egyszerre több felé kellene reflektálnom…..Az MI struktúraépítés első körben (a másodikban sem) nem a programozók belügye, ha a koncepció kész, lehet a programbaöntést megkezdeni (na, ez most jól le van egyszerűsítve). A matematika szerencsére nem túl eszközigényes, éppen ezért tudnánk ebben labdába rúgni.(Mondjuk most kezdjük elveszíteni a korábbi előnyeinket, lásd tanárképzés és matekoktatás problémaköre), Illetve nem lepődünk meg, ha a matek hangsúlyozottan jelen lesz a pszichológus és egyéb szakterületei képzésében. legalábbis jobb helyeken.
@ijontichy:
De itt nem programról van szó. Hanem hogy bizonyos dolgokat MI-nek tekintettek, amíg csak jó ötlet volt, de amikor sikerült megvalósítani, akkor már “csak” egy ügyes programnak. Fateman részt vett az egyik első komolyabban használható formulamanipulációs program fejlesztésében* (MACSYMA, a mai Maxima őse), mint MI-kutató. És amikor készen voltak, akkor mindenki azt mondta, hogy jó, de ez csak formulamanipulációs program, nem MI.
*voltak korábbiak (FORMAC, ALTRAN), és a MACSYMA-val egyidőben a Reduce (a MACSYMA-t matematikus kutatók fejlesztették, mint a kutatás tárgyát, a Reduce-t egy fizikus, mint eszközt a saját kutatásához, tett is rá megjegyzést, hogy előbb lett belőle használható, hordozható program — a Titanic-ot profik építették, a bárkát amatőrök).
@macskahala: Az AI publikációkat a google, deepmind, meta emberek csinálják általában. Persze sokan már saját céget alapítanak. Vannak, akiknek van egyetemi affiliációjuk is, de LLM-ben én úgy látom, hogy a tipikus publikáció magáncégekből származik.
https://time.com/collection/time100-ai/ elég érdekes lista. mindenféle emberek, politikusok, művészek, aktivisták is. azt én nem hiszem, hogy itt az AGI-ra készülnek. itt nem készülnek semmire, próbálják megcsinálni a következő lépést whatever it means. ilyen feeding frenzy nagyon régen volt. bevallom kedvet kaptam hozzá, nem a pénz miatt, egyszerűen szeretnék valamennyire résztvenni ebben. kicsit jelen lenni.
Azért a publikációkat tekintve (amikbe bele tudtam futni, megvallom, állandó időzavarban vagyok), darabszámra van, azért a tartalom: “tudok valamit, de nem árulom el” illetve rébuszokba és sok matekba csomagoltan….Vagy csak én látom ilyen pesszimistán? Az itthon előforduló előadások zöme is, 5 perc mondanivaló a többi időhúzás. Mondjuk nagy húzóerő a kvantum számítógépek fejlődése, a kvantum matematikai nyelv kicsírázása, mert a jelenlegi helyzetben az AI brutálisan erőforrás igényes . A kvantum-matematika sem biztos, hogy nem lesz többirányú, a most előtérben lévő superdence codig, belecsomagolva az “igen-nem”-et még akár kevés is lehet…
@macskahala: nem tudom, ezek a nyelvi modellek meglehetősen pontosan vannak leírva. egy hét alatt kb. négyszáz preprintet tesznek fel AI-ból az arxivra. A GPT kulcsszó az elmúlt fél évben 1000 darab ilyen arxiv-AI preprintben volt benne. nem találtam olyan egyetemi jegyzetet, amelyben jól le van írva a transzformer, olyat találtam, ami éppen írás alatt van, és elég sok minden van benne nagyon jól leírva. szerencsére,nekem ez csak egy marginális hobbym.
Az Orbán-rezsim esete a mesterséges intelligenciával:
arc plakát
https://mi.nemzetilabor.hu/hu/hirek/kulfoldon-kutato-magyarokat-hozott-ossze-mesterseges-intelligencia-nemzeti-laboratorium és https://qubit.hu/2023/09/22/christian-szegedy-elfogyott-az-adat
@jotunder: Az benne a szép, hogy “A szervezést és a költségek jelentős részét a 2020-ban indult Mesterséges Intelligencia Nemzeti Laboratórium vállalta”.
Namost a Mesterséges Intelligencia Nemzeti Laboratórium viszont a RRF-2.3.1-21-2022-00004 projekt keretében 9 439 666 600 Ft támogatással az Európai Únió finanszírozásában jött létre és működik. A rohadt Brüsszel nem elég, hogy a GM-mel fertőzné a mezőgazdaságunkat, még ezt az AI-t is a nyakunkra hozza.
No, itt a versenyképességi stratégia telis-tele mesterséges intelligenciával.
Erősen hivatkozik Magyarország Mesterséges Intelligencia Stratégiájára.
Lesz itt akkora AI hogy a fal adja a másikat. Mármint minimum egy milliárdot már eltapsoltak a “MI INNOVÁCIÓS- ÉS KOMPETENCIAKÖZPONT, ADATVAGYON-GAZDÁLKODÁSI KAPACITÁS KIALAKÍTÁSA A HAZAI KKV-K SZÁMÁRA MESTERSÉGES INTELLIGENCIA ALKALMAZÁSOK ÖSZTÖNZÉSÉRE” című EU finanszírozott projectben de állami pénz itt nem lesz erre, az tuti.
@nyulambator: A mesterséges intellligencia stratégiában nem szerepel a nyelvi modell kifejezés. Ami azért megdöbbentő. 2020 óta nem írták át..
@jotunder: Ezzel együtt a sikerek tagadhatatlanok és máris megmutatkoznak