Mi történt ma reggel a mesterséges intelligenciával?
A Meta ma reggel az arXivon nyilvánosságra hozta az Llama 3 Herd-et, ami egy ún. dense transformer model (mint az „Attention is all you need”, Vaswani et. al. ) Elvileg 128000 token a context ablaka.
15 terabye többnyelvű tokenen lett tanítva és összesen 3.8-szor tíz a huszonötödiken lebegőpontos műveletet hajtottak végre a tréningelésnél. Magyarország leggyorsabb szuperszámítógépe a Komondor egy másodperc alatt 6 -szor tíz a tizenötödiken műveletre képes.
Azt mondják, hogy van olyan jó, mint a GPT-4. A kérdés az, hogy ez a hír milyen hatással lesz az AI-val kapcsolatos várakozásokra. Az elmúlt hetekben a Goldman and Sachs által kiadott és többek között Daron Acemoglu által jegyzett jelentés sokakban kétségeket ébresztett az AI jövőjével kapcsolatban, ami meglátszott az NVIDIA részvényárfolyamán.
Nem lehetséges, hogy ez a realitás? Hogy ennél százszor több token, százszor több flop már nincs, és akkor az AGI álmok eltolódtak 2050 utánra, vagy…? Én abszolúte amatőr vagyok, bár a legismertebb magyar AI gurunál, Tilesch Györgynél lényegesen jobban értek a százalékszámítás tudományához, és az elmúlt pár napban olvasgattam a capex cycle-okról, amelyek kijelölhetik az AI útját az elkövetkező tíz évben (ez a világ teljesen idegen számomra, és mindjárt abba is hagyom a posztot). Vagy mégis ez az áttörés jele?
A kérdés most az, hogy érdemes lehet-e 1000 milliárd dollárt befektetni az AI infrastruktúrába, érdemes-e beletenni nagyjából a kanadai GDP felét, hogy ez megtörténhet-e (akkor az NVIDIA lehet a világ legnagyobb cége, olyan számokkal dobálóznak tőzsdei kapitalizációban, ami az amerikai nemzeti jövedelem triplája közelében van).
Mit tudom én. Ilyenkor szoktak biztató hírek jönni a Q*-ról (ami most már Strawberry), ilyenkor szokott Gary Marcus cikket írni arról, hogy Hinton és LeCun mennyire benézte, valami majd történik az NVIDIA részvényekkel.
Minket ez nem érdekel, a mi capexünk azt jelenti (a semminél lényegesen több), hogy kínai tulajdonú cégek, más távolkeleti cégeket beszállítóként és alacsonyan képzett, de monotontűrő külföldi vendégmunkásokat alkalmazva nagy darab vasakba gusztustalan sűrű folyadékot fognak önteni, és ami ebben hozzáadott érték, annyi itt fog keletkezni. Ez lesz, ezt mondta Orbán, ennek tapsolnak a magyarok, a Nagy Világmagyarázatnak, ahogy Orbán lenyomja Acemoglu-t aki csak nyomatja a diplomás hülyeségeit, ahelyett, hogy a magyar nép eredendő intelligenciájára (ami azért nem involválja a fent már említett százalékszámítás készségszintű ismeretét, lásd számtanérettségi) építene.
Ez van, más most nem nagyon, majd meglátjuk.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16531608-6793c728184a2' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16531608&origin=www.orulunkvincent.hu&obj_id=192691293-16531608-6793c728184a2&n=1' data-name='like-post-frame-192691293-16531608-6793c728184a2' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Csak az történik, ami mindig: https://www.gartner.com/en/newsroom/press-releases/2023-08-16-gartner-places-generative-ai-on-the-peak-of-inflated-expectations-on-the-2023-hype-cycle-for-emerging-technologies
Tavaly volt az, amikor mindenki azt hitte, hogy a gen AI a válasz mindenre is. Most majd jön némi csalódás meg kiábrándiulás de aztán megtalálja a helyét és termelő erővé válik.
És ha áramszünet lesz? Milyen jól jönnek majd akkor a mi akkumulátoraink, hogy a mesterséges intelligencia ki tudja tanálni, hogy lehet a hibát elhárítani! Ugye, ugye…
A tulipánhagyma lényegesen egyszerűbb szerkezetnek tűnt annakidején és a piaci folyamatok is konkrétabbak voltak az amszterdami kofáknál, aztán mégis bezuhant az akkori világ egyik legfeljettebb, leginkább világra nyitott, leginkább polgáriasult stb. holland tőzsde (egy időre). Pedig volt már egy Spinozájuk (na jó, kisgyerekként, de volt…)
Azon túl, hogy némi technológiai hype-szkepticizmusra azért megtaníthatott minket ez elmúlt negyedszázad, az is világos, hogy egy ennyire elenyésző pénzügyi és (sajnos) tudástőkéjű ország mihez ne mérje magát (lásd még korábbi kedvenc vitatémáinkat a rankingekről). Hogy erre a helyzetre rossz válasz a bokroslajosi-kókajánosi-demjáni-parraghi-orbáni suttyósítás-stratégia, az valószínűsíthető. De sztem nem azért, mert a posztban említett nagyságrendeknek a büdös életben nem jutunk a közelébe AI vagy bármi ilyesmi befektetéseivel. Túl elérhetetlen célokat nem érdemes kitűzni, az csak frusztrál. Azt se tudom, képes-e egy ilyen adottságú ország vagy éppen régió az első liga közelébe jutni, de legalább a második-harmadikba? És persze (anélkül, hogy wokiták antikolonialista felindulását akarnám átvenni) milrt is gondoljuk,, hogy az igazi nagy játékosok ebben a tűznek bármilyen közelébe oda akarnának engedni bárki mást, mikor egyszerűen elég nekik a legjobb agyakat megvenni, esetleg komprádorokra hagyni, ami innen kellhet nekik? OV válasza ugyan végtelenül romboló, tűrhetetlen életet hozó, ostoba dolog, de egy valós kérdésre/problémára: mit kezdjünk kicsinységünkkel egy egyre inkább koncentrálódó és a gyengébbeken túllépő erőközpontok által uralt világban? Erre volt a komprádor válasz, a majmolás és kiárusítás, ami azért nem lett sikertörténet. Most ott az inga az ellenkező végen (és másféle kiárusítással, tegyük hozzá), de vajon létezik-e jó válasz? Az AI azt az illúziót is hozta (mint annakidején az internet), hogy abban bárki bármikor nagyot dobhat. De hát éppen JT posztjai mutatják, hogy milyen elképesztő tudástöbblet és vastöbblet és tőketöbblet kell akárcsak közepeset is dobni. Nyilván lehetne ezermilliárdokkal megdobni a közoktatást, hogy cca húsz év alatt felhozza a szükséges fiatal elméket a szintén százmilliárdokkal megdobott egyetemekre, akik szerte a hazában megmaradva (ja, persze, csakis itthonmarad…) dübörögtetik a tudástőkét, de igazn kiváncsi vagyok arra a kormányra, amelyik egy ilyen pogramot el tud fogadtatni a tömegdemokrácia (ezt akartad, katinka, ugyebár…) népével. Az elmaradottabb világrészeken szovjet, szingapúri, tajvani, délkoreai típusú diktatúrákban megy ez, és hát akkor megérkeztünk a kettővel ezelőtti OVálomhoz…
@fortin2:
Szerintem az a baj ezekkel a világmodellekkel, amiben van 1-2 erőközpont és hátrahagyott egyebek, hogy nem veszi figyelembe azt, hogy miközben a legújabb technikai újításról a hátrahagyottak lemaradnak (tőke hiányában), addig azért az előző technikai újítások már olcsón elérhetők sokaknak, sem azt, hogy mi a hatása ezeknek az újításoknak az erőközpontokban.
Egyrészt a régebbi technikai újítások között ott vannak a tömegpusztító fegyverek, másrészt, ez az iszonytató energiaigényű AI azért nem biztos, hogy sokkal drágább, mint az Amerikában egyre inkább az út szélén hagyott munkás- és középosztály. Szóval én vagy valami sokkal kollaboratívabb jövőt tudok elképzelni, vagy sokkal szomorúbbat. Az előbbi esetben pedig azért valahogy le kell tudni ülni a tárgyalóasztalhoz, ha nem akarunk teljesen kimaradni belőle, és ahhoz meg kell tanulni késsel-villával enni meg pythonozni. Az utóbbiban persze mindegy.
@fortin2: a poaztban egy árva szó nincs arról, hogy Magyarországnak mit kellene csinálnia. van egy enyhe célzás arra, hogy a monokultúrás lítiumakkugyártásnak esetleg lehetnek problematikus részei (pl, hogy kínai tulajdonban van, de még a beszállítók is ázsiaiak és a munkások jelentős része is az lesz). lengyelország ma kicsit több akkut gyárt (gwh-ban), mint magyarország, de ez pár év múlva talán már nem lesz így. az biztos, beszállnak a chipgyártásba. én semmibe nem merek beleszólni, mert acemoglu ezzel foglalkozik egy ideje és akkor nekem mégis miért kellene erról véleményt nyilvánítanom. de azt gondolom, hogy orbán feltűnően negligálja a tudásipart, valamiféle ellenszenvet is érez iránta talán. azt sem gondolom, hogy direkt módon kell törekedni a magas QS-rankingra, de azt igen, hogy fejleszteni kellene az elit tudásstruktúrákat. a cseh szintet be lehetne lőni. az osztrák reménytelen. bár… a magyar matematika szerintem az osztrák előtt jár, és pár más területen is így van.
De! Négyből négy magyar versenyző érmes lett a kémiai diákolimpián. Gondolom ők nem részei a világmegfejtésnek 😀
A GPT-5-öt 2025-re tippelgetik már régóta, ezeket a modelleket tanítani is, tesztelni is sokáig tart. Egyelőre annyi történik, hogy mindenki előjön a maga GPT-4 szintű modelljével, ami önmagában semmit nem mond arról, hogy mennyi fejlődési lehetőség van még a technológiában.
Amennyire értem, a GPT-4-nél egy nagyságrenddel nagyobb számítási kapacitást még nem olyan problémás egy piacvezető cégnek előteremteni, tokeneket találni nehezebb, de mostanában egyre több GPT-4 szintű modell jön ki, amit jelentős részben szintetikus tokeneken tanítottak, szóval nem biztos, hogy az a skálázás iránya, hogy meg kell várni, amíg a redditen tízszer annyi komment lesz.
A Llama leginkább abból a szempontból érdekes, hogy minél jobban utolérik a nyílt AI-k a zártakat, annál nehezebb lesz befektetőket találni, mert ha egy év késéssel lesz egy AI ami ugyanazt tudja ingyért, akkor nehéz a bármennyire is okos új modelleket monetizálni.
Magyarország az, ami, de az AI témáról meg úgy általában egész Európa elég csúnyán le van maradva. A Stability meg a DeepL nagyjából az a két cég, ami rajta van a térképen, ami egy az USA-nál kicsit nagyobb lakosságú és gazdaságú régiótól elég gyenge eresztés. De majd Orbán még egy kicsit harcol a brüsszeli bürokraták ellen, és akkor biztos minden jobb lesz.
@tgr: a brit kormány ma reggel bejelentette, hogy egyelőre jegelik a szuperszámítógép programot (az edinburgh-i gép és a cambridge-i AI-t támogató gép sem épül meg) 1.3 milliárd fontnyi beruházást állítanak le a tech/AI szektorban.
@jotunder:
A cseh szintet? Már írtam itt korábban: az INSAIT-al a bolgárok (!) vertek köröket a magyarokra. Most ICML-en is vagy 8 cikkjük volt, NIPSen is lesz vagy 3-4… otthoni magyar csapatok a közelében sincsenek.
Én próbálok néha segíteni, otthoni társszerzőket bevonni, stb, de olyan vakon van mindenki, hogy hihetetlen…
@tgr:
Mistralról azért ne tessék megfeledkezni.
Tilesch miert van ennyire a bogyotokben? 🙂 en szorakoztatonak talalom (marmint azt, hogy a bogyotokben van), de erdekel van-e barmi konret, amivel ezt az ellenszenvet ki tudta valtani.
Nagyon jó volt a posztot és tgr illetve mr_caiman infóit olvasni, nagy köszönet értük.
Ha jól tévedek a GPT4 context windowja ugyanúgy 128.000, a training data 1-2 TB, míg a FLOPS lebegőpontos műveletek száma 100-as osztó erejéig gyengébb. És ehhez képest tudja kb. ugyanazt a Llama3 Herd, mint a GPT4. Magyarán kevés idő telt el a kettő között, és hozzá nem látszik releváns áttörés: sem vas-felskálázásban, sem benchmarkban. De hát ez volt a logikus/előrejelezhető kimenet (nem ez volt az izgalmas, ahogy tgr rámutatott, hanem, hogy gyorsan reprodukálható volt az eredmény open source alapokon is).
Az én állításaim:
(1) Az OpenAI óriásit durrantott eredendően, mondhatni fekete hattyú jelenségként, dacára, hogy az LLM-ekben már sok tudás és munka halmozódott fel korábban.
(2) Mind a vas, mind az AGI-s felskálázás (pláne látványosan meg piac-konform módon)) rohadt nehéz feladat. Ráadásul több téren folyik a verseny: a francia Mistral például kevesebb erőforrásból ér el jó eredményeket.
(3) Előbbiek mindketten magukba foglalhatnak fekete hattyú szintű nagy előrelépés(eke)t És ezt jelenleg senki nem képes átlátni hihetően, szvsz. Hiszen a Nassim Nicholas Taleb fekete hattyúja, mint tudjuk, előrejelezhetetlen. Bármi lehet még és annak ellenkezője is, függetlenül az Nvidia minapi tőzsdei gyengélkedése ellenére (ami így akár még koincidencia is lehet)
(4) A Q* meg quantum learning képes lehet beszállni a fejlesztésekbe, az AGI-t megtámogatva. Legalábbis a potenciál megvan rá, amennyire én átlátom ezt.
(5) Az én félelmem az, hogy jelenlegi jó minőségű modellezést szerintem el lehet qrni, a csúcsdöntögetési kísérletek illuziójában. Mint a megapixel-hajszánál volt a fényképezésben.
(6) Nem látok okát normál (azaz nem beszakadásos) üzletmenet mentén, hogy befékeződne a verseny, sőt.
(7) És hogy konteót is írjak, szerintem fogalmunk sincs, miről tudunk pontosan a jelenleg AGI-helyzetről, legalábbis publikusan elérhető infók alapján (tekintve a MI-veszélyeket is a megalapozott titkolózásokhoz)
@tahonoli: Nem túl kellemes dolog pdf file-ban megszámolni a szavakat. Azt javasolják, hogy az ember konvertálja át valahogy word formátumba és utána használja a microsoft eszközt.
Úgyhogy megkértem GPT-4-t, hogy számolja meg a szavakat egy pdf dokumentumban. Kíváncsi voltam, mit csinál. Írt egy python programot ami interpretálta a file-t. Nem adtam neki semmiféle clue-t. Én nem hiszem, tényleg nem látok egyelőre erre utaló jelet, hogy egy transzformer emberszintű módon képes legyen matematikát pláne fizikát csinálni, de emberszintű módon képes hozzáállni napi dolgokhoz. Kértem, hogy írjon egy rövid esszét Esterházy stílusában a halászléről (feltöltöttem neki egy eredeti Esterházy szöveget és tudtam, hogy elég sok tapasztalata van Esterházyról a training setjéből). Nem jó, de jobb, mint amit egy nem túl jó újságíró produkálna, és némi promptolással elérhető a tűrhető kategória.
@jotunder:
Mondjuk a szószámlálást parancssorban is meg lehet csinálni a pdftotext és a wc parancsokkal, de azért nem rossz. Eszterházy-szövegre nem tudok egyszerű megoldást 🙂
Először PDF szószámlálás téma
(1) Vállalat vagy-e, aki fizetsz a ChatGPT Plus-ért és/vagy az OpenAI API hívási lehetőségéért (nem túl sokat)? Avagy magánzóként ingyenesen és korlátozott használatot akarsz a ChatGPT-től (az OpenAI API-ért mindneképpen fizetni kell 3 hónap trial időszak után)?
Amennyiben vállalati fejlesztő vagy, akkor minden ingyenes vagy fizetős internetes vagy egyéb szolgáltatás API-hívását tudod integrálni egy relatíve pársoros Python progiba. Egyik szálon az OpenAI API-t hívod, másik szálon pdf-et feltöltesz és konvertálsz, a harmadikon szavakat számolsz programból. Első alkalommal még kézzel kell hegesztgetned az összeintegrálást, aztán villámgyorsan tudhatsz automatizálni is. Ami a fontos, hogy minden szükséges Python-progit (alprogramot, modult) meg tudsz iratni az MI-vel.
(2) Magánzóként free ChatGPT-vel a workflow így nézhet ki:
(a) A ChatGPT ablakodban megkérdezed milyen (open source/github) Python könyvtárak vannak pdf-ben lévő dokumentumok szavainak megszámolására (milyen előnyökkel és hátrányokkal). Opcionálisan lekérdezheted ezen könyvtárak havi letöltéseinek számát, vagy legutóbbi aktivitás/frissítés időpontját is, ezeket csökkenő sorrendben priorizálod. Nyilván a lista élén van az aktív legtöbbek által használt könyvtár projektje.
(b) Miután kiválasztottad a neked legszimpibb Python könyvtárat kérsz egy Python progit (ennek a könyvtárnak a használatával) a ChatGPT-től egy abszolút PATH-on lévő PDF szószámlálására, amikor is paraméterben adod át az abszolút PATH-on lévő PDF nevét. Ekkor a ChatGPT megadja neked
(aa) a pip install parancsot is (ezt neked előzetesen meg kell futtatnod a lokális Python környezetedre),
(bb) magát a futtatandó Python progit végül a
(cc) Python progi hívását.
(3) Amennyiben nem akarsz – vagy valaki más nem tud – kínlódni Python-nal, akkor is megkérdezheti az ember a ChatGPT-t, hogyan tudja legegyszerűbben megoldani a feladatot, és kap minimum 4 db lehetőséget, pl.: Google DOC használatával.
A technológia perpillanat ennyit tud. Előbb-utóbb lesz majd lehetőség PDF, ChatGPT-be való feltöltésére is biztosan 🙂
@jotunder:
És akkor a matematika 🙂
(1) Nem tudom ismered-e az alábbi hosszú interjút:
https://www.valaszonline.hu/2023/03/10/szegedy-krisztian-matematikus-google-mesterseges-intelligencia-interju/
Egy 1982-es születésű matematikus Szegedy Krisztián a Google-nél dolgozik azon, hogy a jelenleg nyitott matematikai tételeket az MI tudja bizonyítani.
(2) Ahogyan én képzelem a problémát.
(a) Az első fecske a négyszíntétel, amit számítógéppel bizonyítottak. Azt gondolom ez az út is skálázható felfele.
(b) Aztán jött Babai László, aki valószínűségi alapokra helyezte a bizonyítást. „Ha 99%-ban jó a bizonyítás, akkor jónak fogadjuk el” alapokon.
(c) Aztán jött a Sakk, Go, ami matematikát csinált a játékból nulláról indulva.
(d) Egy minapi lehetőség lenne például a Riemann-sejtés bizonyítása. Rengeteg nekifutást történt már a világban a témában. És rengeteg szöveg hozzá, hogy hol mi a probléma a bizonyítás befejezéséhez. Meglehet elég lesz valami nem túl elegáns, ám számítási kapacitással kezelhető emberi agynak uncsi algoritmizálás a teljes bizonyításhoz. Elég lehet csak a következő próbálkozási lépést megtalálni az MI-nek.Amiből jöhet az automatizálás is, meg aztán a kánaán. 🙂
@tahonoli: Szegedy Krisztián szerint (mai tweet) 2026-ra jön a superhuman mathematician AI. Erre szerintem nem sok minden mutat. Yann LeCun szerint teljesen alapvető új gondolatok kellenek a továbblépéshez. A PCP tételek (az egyiknek Babai a társszerzője, de van olyan, amelyiknek Szegedy Krisztián bátyja, aztán Lovász, szóval elég magyar ügy volt ez) nem mutatnak ebbe az irányba. Az, hogy létezik számítógéppel igazolható bizonyítása a 4-szín tételnek, dittó. Jelenleg diákolimpiai típuspéldákat tudnak megoldani AI-val, leginkább geometriát és valamiféle polinomalgebrát. Ezek olyan osztályokba esnek, ahol egy számítógép képes megoldani a problémákat. Emiatt nagyon nagy training seteket lehet generálni. Az analitikus számelméletben 1000-szer nagyobb training setet kellene generálni, mint ami rendelkezésre áll és hát bőven olyan osztályokról van szó, amire már igaz a Gödel-feltétel. Nem zárok én ki semmit, csak azt mondom, hogy sokkal óvatosabbnak kell lenni. Nem vagyok szakember, kicsit sem Nagyon sok nyilatkozat, talán tudat alatt, talán tudatosan a hype fenntartásáról szól. Ezermilliárd dollárról beszélünk, minimum, az NVIDIA részvényárfolyamáról, aminek a napi oszillációja a tőzsdei kapitalizációt tekintve nagyobb, mint az egy éves magyar GDP.
@jotunder:
(1) Legyűjtöttem az adatokat és számolgattam egy kicsit a négy alapművelettel.
(a) Meta Grand Teton platform, amely 16,384 darab Nvidia H100 GPU-val (egy darab 30.000 USD, 60 teraflops-szal), a teljes szuperszámítógép kb. fél milliárd dollár), dolgozott a Llama3 Herd tréningelésén (405 milliárd paraméteres legnagyobb változat). A platform 983 petaflops-os, azaz 983.10^15 flops.
(b) Mivel a teljes számításigény (posztból szedve) 3,8 x 10^25 flops volt, a kettőt osztva secundumban kapjuk meg a hozzávetőleges futási időt. A végeredmény 3,87*10^7 sec, ami 1,23 év. (A neten olvasható adatok szerint viszont csak 54 nap volt a tréning, ráadásul hibákkal tarkítottan)
(c) A jelenlegi legnagyobb effektív létező szuperszámítógép, Nvidiás architektúrával Elon Muské, neve: xAI Colossus. 100.000 Nvidia H100 GPU van benne, de bővíthető további 100.000-rel. Illetve bővíthető még jelenlegi tervek szerint további 50.000 db – jelenleg már létező – H200 GPU-val, aminek ára már 40.000 USD, 70.000 teraflops-szal. Tokkal-vonóval lenne 8 milliárd, ebből jelenleg már 3 milliárd már ki van fizetve, működik. Az 5 milliárd dollárból upgradelendő szuperszámítógép 15,5 exaflops-ot fog tudni. Míg a jelenlegi effektív létező szuperszámítógépek ~1 exaflops-osak. És ezt kvázi csak meg kell rendelni, ki kell fizetni, gombot megnyomni rajta, más feladat nincs.
(d) Az analitikus számelmélet tudtommal legnehezebb problémája az emlegetett Riemann-sejtés, mind matektudás-mélységet, komplexitást tekintve (új tudás szerzésének igényét), mind training-set igényt nézve. Az utóbbi méretigényét tekintve indulásként 2-5 exabyte-tal lehet kalkulálni, szakirodalom szerint. Azaz még nyers erővel sem ködbevesző a perspektíva. És akkor még nem beszéltünk, további párhuzamosítási, optimalizálási, újabb mintafelismerési – big data kezelési – algoritmus-ensemble lehetőségekről. 2026 után pikk-pakk meglehet a bizonyítás 🙂
(2) A GPT-4 szerint a legdurvább megoldandó egyéb problémáknál is (P=NP, Navier Stokes egyenletek) elég a max. exabyte training-set nagyságrend. És ugye a fejlődés pillanatról pillanatra folyamatos, jelen tudásunk szerint.
(3) Beszélni kéne mit is jelent „superhuman mathematician AI”
(a) Tudna nagyméretű matematikai problémákat kezelni
(b) Képes lenne új összefüggések (minták) felismerésére
(c) Képes lenne eddigi bizonyítások ellenőrzésére, tömörítésére. Képzeljük el, hogy milyen lenne a Poincaré-sejtés bizonyítása egyetlen A4-es oldalon, gimiben taníthatóan. (Csak poénkodok nyilván….)
(d) Ígéret szerint képes lesz önálló kutatásra is, gondolom amolyan Temu-s reinforcement learning-féleséggel.
Amit biztosan nem fog tudni első körben (nem kalkulálnak vele):
(a) Intuitív-alapon felfedezni, ami igaz Gödel-feltétel teljesülés mellett nyilván probléma lesz. De addig is van bőven megoldandó és kezelhető feladat. Ne akarjunk mindent egyszerre és azonnal.
(b) Absztrakt megértést sem fog tudni. A „halászléről” is ugye úgy ír az MI, hogy f*ngja sincs róla, hogy mi is az valójában.
(c) Nem fog autonóm lenni (interaktálni fog az emberrel, iterációkban, ahogy ez nekem lejött eddig)
Ostoba voltam és nyomában senki nem javított ki.
Nekem az alap, síma ChatGPT is a korlátlan lehetőségek birodalma és így még sosem nézegettem a GPT Store-t. Az imént néztem rá, és azonnal kiveri az ember szemét a PDF AI PDF (de biztos van rá más GPT is). Ez pl.: a myaidrive-ra feltölti a PDF-et, majd nyilván meg fogja tudni számolni a benne lévő szavakat (nem próbáltam, de átlátható a szolgáltatás). És persze nyilván össze is fogja tudni foglalni a PDF-et. Ha viszont ezt már tudod, tudtad, akkor teljesen félreértettem az alapkérdést. A konkrét GPT-ben kell chat-et folytatni.
Fejlődik egy @ mentions cucc is, vagyis amikor a chat-be be akarsz vonni egy másik GPT-t. Onnan olyan számodra jó választ kaphatsz, amit alapjáraton, nem tudsz kipréselni a ChatGPT-ből.
Ki tudja, lehet, hogy van matematikai bizonyítások GPT a Store-ben, és csak meg kell kérni őt, hogy a Riemann sejtést bizonyítsa be :D:D:D:D
Elérkezett a Colossus xAI híre Magyarországra is:
https://raketa.hu/mukodesbe-lepett-elon-musk-szuperszamitogepe-a-colossus
Az evolúciós folyamatokkal általában úgy szokott lenni, hogy bizonyos fázisokban egyszer csak – hipp-hopp – emergens jelenségek ütik fel a fejüket. Ilyesmiről van szó most (ilyesmitől nem tartanak most) AI-körökben?
Hiv.: @labrys:
„Élj úgy, mintha örökké élnél, de készülj fel rá, hogy holnap meghalsz.” – Marcus Aurelius római császár (170 körül)
Az én hozzáállásom az ügyben:
(1) Már az OpenAI ChatGPT elött is felskálázódott a lehetséges pusztítások ereje, lásd piszkos és/vagy hátizsákos atombombák. Vagy önmagában Putyin is elképesztő pusztító erővel bír. Amihez jön még a természetes veszélyek lehetőségei.
(2) Az MI bizony kerülhet gonosz kezekbe és tudják használni rossz célra. Nyilván nem úgy kérdezve a ChatGPT-t, „hogyan kell piszkos atombombát csinálni”. Ez mára már napi valóság. Ehhez képest, ha az MI felskálázódik a Riemann-sejtés szintjére az már nem ad nagy hozzáadott értéket (pusztításilag) szvsz.
(3) A Skynet szerintem nem napi probléma, pontosabban egy pusztítási lehetőség a sok közül, aminek feltételei még nincsenek meg: van sokkal több valószínűbb gond a világban.
(4) Másik oldalról Marcus Aurelius sztoikus filozófiájánál szerintem nincs jobb. „Ha jön az atomháború ültetek diófát” szemlélet jegyében minden pánikot érdemes lehet kerülni (pláne, ha a médiából érkezik), mert roncsolja az ember életerejét, homályosítja látását. Az egyetlen feladat, hogy mindenkinek el kell tudnia dönteni, hogy tud-e hozzáadott értéket adni a témában. Ha nem tud, akkor avval kell foglalkozni, amivel tud.
@labrys: nagyon sokan foglalkoznak az AI lehetséges veszélyeivel.
@tahonoli: Lehet, hogy a fő – és reális – veszélyt a szélesebb közvéleményben nem is sokan kategorizálják még veszélyként.
„Az AI majd fogja irányítani a közlekedést, merthogy jobban tudja, mint az emberek”
„Az AI majd elvégzi a rákszűrést, merthogy jobban tudja…”
„Az AI majd kezeli a pénzügyeinket, merthogy…”
„Az AI majd megcsinálja helyettünk….”
Ezek jó ötletek, nem? Hiszen az AI többet lát, többet tud, nem befolyásolják buta incendental tényezők, jobban dönt.
És oda jutunk, hogy tulajdonképpen az ember szerepe mi is? Az ember haszna mi is? Miért is élünk? Nem olvastam át az irodalmat (nemigen érek rá), úgyhogy nem tudom még jól megfogalmazni, de erről biztos írtak már fontos cikkeket.
Hiv.: @Grrr:
(1) Én még nálad is durvábban fogalmaznék („incidental”, mint járulékos, mellékes)
Az én hozzáállásom (amúgy technooptimistaként), hogy minden technikai fejlődésnek először van egy multiplikatív hatása, majd ez átcsap degeneratív hatásba, kvázi óhatatlanul.
(2) Leszakadva az MI-ről mi van a tévével? Milyen jó volt, hogy Öveges József-nek annó voltak fizikai kísérletei? Volt Iskolatévé, Mindenki iskolája, később Mindentudás egyeteme. Fel tudott skálázódni mind a közvetítendő tudás, mind a bevonható emberek tömege (multiplikatív hatás). Már mivé lett a tévé? Köztévé formájában propaganda, kereskedelmi formájában valóságshow (tágabb értelemben véve, hiszen Hajós András Dalfutárja is az, szvsz). Lásd degeneratív hatás.
(3) Egy példa az MI-ből: hogyan kérdezi az ember a ChatGPT-t? Magyarul vagy angolul? Hiába jó angolos valaki, ha áttér a magyar anyanyelvére az bizony az elkényelmesedés irányába fog hatni. Hosszabb távon és tömeges léptékben.
(3) Ha egy készséget nem használunk az elsorvad. Iskolatévénél korábban presszió volt minden tanáron, hogy minél többet adjon át a diákoknak, a diákon presszió volt, hogy minél többet átvegyen a kevesebből. A multiplikatív hatás ezt bizony roncsolja, degenerálja.
(4) Rákszűrés dettó. Kiváltság meg cool volt volt jó rákdiagnosztának lenni. Ám egyre több rákszűrés felvétel van, egyre több embernél (olcsóbbá meg hatékonyabbá váló technológia miatt), És ami fő, ráadásul időben is felskálázódva. Nincs elég jó rákdiagnoszta ennyi felvételhez. Kézen fekvő az MI bevetése.Sőt. Az MI vissza is tud nyúlni régebbi felvételekhez, ha újabb mintát tanul meg (mint olimpián: régi vért is újra megvizsgálhatnak doppingra és el is veszik az érmet, ha doppingot találnak). Fog elsorvadni valami? Hát gondolom én, a jó rákdiagnoszta kell, hogy értsen az MI okos használatához, ami így MI-torzult lehet, humán képességek sorvadása mellett.
(KONKLÚZIÓ?) Mindez valós veszély (sztoikus filozófiai értelemben is), mert rajtunk is múlik, hogy mit ismerünk fel belőle, illetve nyomában hogyan állunk a témához. Putyinra nincs közvetlen ráhatásunk (csak elszenvedni tudjuk többségében), azonban erre van. Pontosabban lenne. Ha működőképes társdalomban élnénk. Ha ránézünk csak a legutóbbi Bese Gergő-sztorira is, akkor mindez, amit fentebb próbáltam pedzegetni, még eléggé messzelévőnek látszik. Az ember agyban és kultúrában sokkal nehezebben követi le a technológiai fejlődést és az olló csak nyílik és nyílik.
@tahonoli: Ai weh! Van tényleg ráhatásunk? Vagy lehet ráhatásunk, ha elkezdünk komolyan beszélni róla? Az EU-nak van ugye AI Act-je, de jobbára csak parciális etikai problémákkal (mások is, pl. CEN-Cenelec már jóval az LLM-ek megjelenése előtt elkezdett az AI etikával foglalkozni – elsősorban a döntések ‘explicability’-jével), a versenyképesség/tiszta verseny témával, adatszuverenitással foglalkoznak, nem azzal a fundamentális kérdéssel, hogy az emberi civilizáció hogyan alakul át.
Ha senki nem törekszik és tényleg nem lesz semmi ráhatás, akkor egyedül a szabadesésben zuhamás marad.
De amúgy szerintem többféle ráhatás van, aszerint, hogy milyen típusú AI-problémával akarunk foglalkozni.
(a) Skynet típusú gonosz módon önjáró AI megakadályozása
(b) Hogy ne lehessen a konkréten már használható AI-t terrorra felhasználni.
(c) Fékezni a rohamos technológiai fejlődést, hogy legyen esély fejben-agyban-kultúrában legalább valamelyest utolérni az elkészült új cuccokat.
(d) Az optimumra törekvés jegyében (amiről imént volt szó), minél több AI előny mellé minél kevesebb AI-hátrány társuljon, a napi használatok során.
Stb.
Mint minden ez is szabályozás kérdése és azon múlik milyen elvek mentén milyen olyan szükséges és elégséges szabályok tartandók be, amiket számon is lehet kérni. És mint minden szabályozási kísérlet ez is (bőven) kihívások elé támasztja az emberiséget.