Az AI tegnap okosabb lett, mint az emberek jelentős része, de még mindig nem nagyon-nagyon okos.
Az OpenAI tegnap kihozta a Strawberry-t GPTo1 néven. Megkérdeztem tőle, hogy egy uniquely ergodic folytonos dinamikus rendszer ahol a mérték tartója a teljes tér, miért minimális. Ezt megcsinálta. From scratch. Ettől eléggé megijedtem.
Aztán megkértem, hogy mutasson egy nem-minimális dinamikus rendszert, ahol a mérték tartója nem a teljes tér, de azért uniquely ergodic. Ez viszont nagyon könnyű, hiszen, ha a [0,1] intervallumon veszem azt a transzformációt, ami elosztja a számokat kettővel, akkor nyilván egyetlen invariáns mérték van, ami a nullára van koncentrálva.
Erre adott egy rossz példát, amin több invariáns mérték van és ez elég világos. Mondtam mi a gond. Erre adott egy új példát, ami nem volt folytonos. Hosszabb gondolkozás után. Elmondtam, hogy ebből miért nem jöhet ki. Na erre felszívta magát és lenyomott egy akkora bullshitet, hogy csak néztem. Az egyik mondata az volt, hogy „mivel a Cantor -halmaz összefüggő”. Ha valami nem igaz az az, hogy a Cantor-halmaz összefüggő.
Minden arra mutat, hogy Strawberry elég okos, sok mindent meg fog változtatni, de nincs közel az AGI-hoz. Néztem az NVIDIA árfolyamát, nem nagyon változik. Szóval most történt valami, nem is akármi, de egyelőre nincs vége a világnak.
P.S azt írják, hogy fizikából Ph.D szinten van. fogalmam sincs, hogy mennyire igaz. ijesztő, tényleg ijesztő.
UPDATE: egy review.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16531733-675bd22562438' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16531733&origin=www.orulunkvincent.hu&obj_id=192691293-16531733-675bd22562438&n=1' data-name='like-post-frame-192691293-16531733-675bd22562438' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Hiv.: @nyulambator:
Bocs, nem tudtam dekódolni az kommentedet. De megkísérlek rá válaszolni 🙂 Ami nekem eszembejut:
[x] Az ember telhetetlen
[x] Az intelligencia nem mérhető, ami eddig törént, hogy többen próbálkoztak vele.
[x] Megkérdeztem a ChatGPT-t, hogy mi az AGI. Az alábbi – szvsz – nagyon sz*r definiciót adta a GPT4.o1-mini:
„Az AGI (Artificial General Intelligence) olyan mesterséges intelligencia, amely képes az emberi szintű általános gondolkodásra és tanulásra. Ez azt jelenti, hogy az AGI különböző típusú feladatokat tud önállóan megoldani, alkalmazkodva új helyzetekhez és problémákhoz, nem korlátozódva specifikus alkalmazási területekre.”
[x] Az én fogalmaim szerint az AGI az, amikor egy intelligencia zöldmezős, vadiújat tud létrehozni. Például olyan új matekot, hogy maradjunk a példámnál, ami gödeli értelemben hozzátesz akár a Riemann-sejtés bizonyításához. Az ember ugye tudja ezt régóta, a gép még nem (tudtommal).
[x] Az, hogy veri az AI pl.: előbb sakkban, majd a nehezebb GO-ban az embert (rövid időn belül abszolválva mindezt), attól senki nem ijedt meg. A fejlődés tempója az ijesztő, ahogy tágul a perspektíva.
@tahonoli: Új matekot a nyolcmilliárd emberből mondjuk nagy jóindulattal ezer tud csinálni. Kiterjesztve más tudományágakra legyen mondjuk nyolcvanezer. Igen erős felső becslés. Szóval százezer emberből egy. Némiképp erős elvárásnak tűnik hogy az AGI definícióként a természetes humán intelligencia haranggörbéjének a szélső csücske végét szabjuk meg küszöbértéknek. Szerintem ha egy AI tud annyit produkálni mint egy átlagember, de azt minden lehetséges környezetben és feladattípusban, akkor az már nagyon de nagyon jó AGI.
Hiv.: @nyulambator:
[x] Nagyon köszönöm a kitisztázásodat, így már értem mire gondolsz. Jó a klip is. 🙂 Erre szokták még az AI előtti időkben mondani, hogy bár nem tudok tojást tojni, de azért felismerem meg beszélek róla, ha egy tojás záp, Csacsogni róla és csinálni valamit két minőség, mint a viccben is, hogy: „aki tudja csinálja, aki nem az tanítja….”
[x] Azt gondolom az intelligencia, és benne az AGI korunk legfontosabb és legkritikusabb fogalma, utóbbi egyben mérföldköve(+beláthatatlan következményeivel) is. Az én képzeletemben úgy jelenik ez meg, hogy lenne AGI előtti és AGI utáni világ. Jelenleg „mindösszesen” két problémám van vele: (1) nincs egzakt definíciója, ezért érdemes keresgetni azt (2) semmit nem tudni publikusan mi hol tart a témában.
[x] Az én definíciós értelmezésemben (magam számára) nagyjából az alábbi ötös fedi le az AGI-t
(1) Tanulási képesség (=Gyorsan és hatékonyan tud új információkat elsajátítani és alkalmazni)
(2) Problémamegoldás (=Képes komplex, több szakterületet érintő problémák megoldására)
(3) Alkalmazkodás (=Új és ismeretlen környezetekben is hatékonyan működik)
(4) Kommunikáció (=Természetes nyelven képes kommunikálni és megérteni az emberi beszédet)
(5) Kreativitás (=Új ötletek és megoldások generálására is alkalmas lehet)
Két dolgot hozzátéve:
(a) Az AGI-től elvárnám, hogy az emberi intelligenciát rekonstruálja, refaktorálja, implementálja, és ezért nem tartom annak függvényének, hogy hány „intelligens” ember van a világon (mert hiszen funkciót várnék el)
(b) Az ötösből az első négy lényegében készen van (szvsz), az ötödik viszont brutális kihívásokkal küszködik, a kívülálló számára és nem is egységes a világbeli megítélése.
[x] Az átlagember intelligenciája nagyon nehéz téma. Ám a magam számráa itt is szeretnék elszakadni a tömegesség vizsgálatától.
– Az AI már ma is nagyon sok mindent tud, sőt elhiteti az emberrel, hogy nem megkülönböztethető mi AI, mi humán.
– A mai AI is tekinthető annak, hogy túl sok (=túl nagy kárt lehet már ma is csinálni vele). És akkor még nem szóltam a felskálázás generálta problémákról, a sok relatív butaság összeadódási lehetőségeivel.
– Az átlagember is tud olyat (=kedvenc példám az újonnan kreált aktuális szóvicc), amiben az AI ma még nem jeleskedik.
Én ilyenek miatt kerülném a tömegességet.
[x] Az AI avval robbantott (értelmezésemben), hogy explicit programozás NÉLKÜL tud intelligensnek ható működést produkálni, ám avval az implicit peremfeltétellel, hogy múltbéli információk alapján, azokra támaszkodva, lásd a Transzformerek működését. Ebből számomra az következik, hogy e körül kell keresni az AGI szent gráljának definícióját.
(1) Probléma: A Kaggle-versenyek AGI-benchmark-ként szerepeltetése számomra azért problémás, mert egyrészt jóldokumenáltak (a győzteseknek publikálniuk kell eredményeik mikéntjéről). Minden ilyen publikáció, kiváló Transzformer-modell input. Mondhatni algoritmikusan kikövezett az AI egyre jobb szereplése a Kaggle-versenyeken. Ami Kaggle-versenyek, egzakt, explicit mérhetők (különben nem lennének tisztességesen szervezhetők a versenyek). Ráadásul a mérőszámok negyedik tizedesjegyében szoktak javítani a leaderboard élén. Ez olyan, mint a 100 méteres síkfutás, ahol a második tizedesjegyben elvárás a javítás a csúcsdöntéshez. Egyre kisebb fejlődési potenciál, a nyilvánvaló korlátok mellett (6 sec alatt doppinggal sem lehet lefutni).
(2) Emberi aggyal felfoghatatlan, hogy az AI csupán a múltbéli információk alapján is, micsoda állapottérbe tud dolgozni. Ezt semmiképpen nem szabad lebecsülni, azaz itt teljes a nézetazonosság közöttünk. Azonban az alapkérdés számomra úgy merül fel, hogy az AGI felé definíciós szinten követelmény-e a zöldmezős (from scratch) kreativitás elvárás, merthogy a Transzformerek a múlt alapján brutálisat tudnak produkálni (ez már úgymond zsákban van).
(3) Másképpen fogalmazva: nem az a kérdés, hogy a Transzformerek mennyire jók, mennyire reális a Schwarzenegger Skynetje, hol látszik a szingularitás az AI-ben, vagy mennyi kárt tudhat már ma is okozni az AI, hanem az, hogy a gépek tudnak-e nulláról minőségileg újat mutatni, függetlenül attól, hogy ez mennyire lenne kívánatos az emberiség számára. Mennyire lehetetlen küldetés ez mára?
@tahonoli: Vegyük észre, hogy az embereknél sincs zöldmezős kreativitás. Ahogy egy igazán kreatív zseni mondta: „Ha messzebbre láthattam, annak az volt az oka, hogy óriások vállán álltam.”
Egy élvonalbeli matematikus, aki új matekot tud csinálni, hihetetlen mennyiségű régi matekot tanul meg, dolgoz fel, értelmez, mire hozzálát új dolgokhoz. Bizonyítási technikákat, kapcsolódásokat, és konkrét tételeket, miegymást. Ahogy itt mondani szokás, beleteszi azt a 10000+ óra intenzív munkát. Szóval felépíti a modellt, aminek a tetején kreatívkodni tud. Kicsit hunyorítva ez semmiben sem különbözik az LLM és hasonló generatív technológiáktól.
Ha valami, akkort épp az AI mutatott zöldmezős kreativitást, amikor a masinának csak a sakk szabályait mutatták meg, és ebből gyúrta ki magát nagymesternek, anélkül, hogy az elmúlt évszázadok játszmáit elemezte volna, mint minden rendes humán sakkozó.
Ha látok különbséget, az leginkább az inkrementalitás. Mi, emberek, minden ébren töltött percünkben hozzáadunk a tárolt/feldolgozott adatkészlethez és egyben javítjuk/bővítjük a modellünket. Sőt, ha valahol hiányosságot érzünk, utánajárunk, megszerezzük, elsajátítjuk azt a tudást. Az LLM-eknél egyelőre (amennyire én értem) elválik a tanulási fázis a későbbi működési fázistól. Szóval pront a valódi „tanulási képesség” hiányzik. Nincs gyors és hatékony tanulási képesség, csak lassú és drága. Én itt látom a legnagyobb teret a fejlődésre.
Amúgy megkértem a chatgpt-t, hogy mondjon egy szóviccet Newtonról.
– Why did Isaac Newton break up with his girlfriend?
– Because he couldn’t find the right „attraction”!
Hiv.: @nyulambator:
És ezt pont most mondod, amikor a pár évtizeddel ezelőtti hiradástechnikát tinédzserek ötletei fejlesztették csúcsiparággá ?
Hiv.: @nyulambator:
Nagyon jókat feszegetsz, jó olvasni soraidat.
[x] Bólyai János „a semmiből teremtett új világot”? Nyilván voltak előtanulmányai, nyilván kellett az agya a jó kérdések feltételéhez. Ám talán a geometriája mégis tekinthető zoldmezősnek, nem?
[x] De hajlandó vagyok engedni a ’48-ból. Megelégszem a minőségi ugrással. Olyannal például, mint Bach és zenéje. Nyilván megvan benne, mind a barokk ornamentikája, mind a korábbi mesterek tudása, tapasztalata, ám jelentősen túl is haladta őket.
[x] Igen, a sakk az durvaán elegáns sztori volt.
[x] A tanulás és működés elválását én nem érzem nagy gondnak. Tény, hogy jelenleg brutális offline trainingen esik át egy GPT-modell, tanulási fázisában. Viszont maga a fogalom és AI-tudás, mint incremental learning, active learning régóta létező gépi tanulásos eljárások. Nyomás is nagy ilyen irányba, lásd pl.: katonai drónok. Felskálázás kérdése csak(?), hogy LLM-ekre is legyen. A minap tárgyalt LNN-ek is ilyen irányba akarnak elmozdulni.
[x] Én nem az inkrementalitásban (+adaptivitásban) látom az akadályt, hanem az időbeli hatékonyságban, főleg a mai AI-s brute force számolások világában. De bármi lehet és annak ellenkezője is: nyitott vagyok mindenre. 🙂
[x] Elvben ugye a jelenleg működő AI is tud olyat, hogy szintetikus dataset-ek kigenerálása training céljával (iteratíve). Számomra a nagy kérdés az, hogy el tud-e jutni az egész odáig, hogy ebből legyen minőségi ugrás. Elvi akadály nem látszik, ráfogadni viszont nagy bátorság jelen állás szerint, legalábbis az én érzékelésemben.
[x] Köszi a szóviccet. Azonban olvashatta is a Transzformer, lásd alább:
„Why did Newton struggle with relationships? He had too much mass and not enough attraction!” (linket kiadja a Google)
A nagy kihívás gyorsan rögtönözni egyet. Van egy FB-csoport, ahol rendszeresen feldobnak 1-1 filmet (plakáttal), amire ki kell találni egy „vicces” (magyarra)fordítást. Na az már lesz valami, ha kap majda ChatGPT like-ot a csapatban. 🙂
https://www.facebook.com/abolygoneve/?locale=hu_HU&_rdr
@nyulambator: Azert erosen santit mondjuk a sakkozos peldad, ugyanis egy ember is kepes lenne nagymesteri szintre eljutni korabbi jatekok elemzese nelkul (megkockaztatom gyorsabban is), ha annyi jatekot jatszhatna annyi ido alatt, amennyit a gep tolt. Mondjuk Super Mario eseten kicsit mas a plafon, az ember is boven el tudna erni azt a szintet, amit a gep tol, HA konzisztensen kepes lenne frame-pontos gombnyomogatasra Mario iranyitasahoz. Ami megis kozos bennuk, hogy az ember a fizikai korlataiba utkozik a teljesitmeny novelesekor, nem szellemibe.
.
Itt az igazi proba mondjuk az lenne, hogy teszem azt 19. szazadi matematikara treniroztatni, es azzal a tudasanyaggal tud-e ujat alkotni, mint elodeink, meg tud-e oldani problemakat, amiket mar megoldottunk. Szerintem az LLM nem, de aztan mit tudok en errol a temarol.
https://raketa.hu/bebizonyitottak-hogy-a-mesterseges-intelligenciak-meg-az-iskolas-matekfeladatokat-sem-ertik
[x] Rakéta hozta le ezt a „szellemes” című cikket, idézőjelbe téve az „értik”-et. Na ezt nem kéne (szerintem), mert az átlagolvasó-t ez a „poénkodás” pont hogy teljességgel félrevezeti. Hiszen a Transformerek nem „értik” a feladatot, hanem kitranszformálnak valamiféle választ a feltett kérdésre a valóságban sokszor meglepően izgalmas eredményekkel.
[x] Már a múltkori 9.11-es probléma rávilágított az alapgondra (egyszerű szöveges matek-feladatokra nem stabilak a Transzformerek). Persze lehet ezt nyilván tovább habosítani, avval a reménnyel, hogy elvezet majd a megoldáshoz.
[x] Jelenleg ott tartunk, hogy a brute force early adopted Transzformerek, lenyügöző dolgokat mutatnak. Ha rásegítünk kívülről, akkor tudnak még csodásabb dolgokat is mutatni. Amivel szemben, nem bolondbiztosan egyenszilárdak. Gyerekbetegségektől szenvednek, sok optimalizálni való van rajtuk, több irányból is. Egy cikknek kéne ilyesmi „felhasználói szemszögű” dolgokkal is értelmezhetően foglalkoznia.
[x] Beadtam az o1-mininek a cikkbeli egyik terelős szöveges matek-feladatot.
„Oliver picks 44 kiwis on Friday. Then he picks 58 kiwis on Saturday. On Sunday, he picks double the number of kiwis he did on Friday, but five of them were a bit smaller than average. How many kiwis does Oliver have?”
ChatGPT (kiadva a tökéletes 190-es választ, így érvelt):
Out of these 88 kiwis, 5 are smaller than average. However, the problem asks for the total number of kiwis, regardless of their size.
[x] A cikkben van egy nagyon jó összefoglaló táblázat melyik GPT-modell hogyan tévesztődött meg a terelésekkel. Az o1-preview teljesített legjobban (-17,5%), a Llama nagyon nagyot bukott (-57,4%), o1-mini is durvábbat bukott (~30%), míg a Mistral közel olyan jól teljesített, mint az o1-mini (ami érdekes, szvsz)
@tahonoli: Ezek pont olyan feladatok, amiken már az embereknek is egy jó része elvérzik. Mondjuk a kevésbbé okosak.
Hiv.: @nyulambator: Jujjjj. 🙂
[x] MÁS: Diószegi-Horváth Nóra a 444-en, igen részletesen adatolt cikket hozott egy meredek AI-témában, paywall mögött: „Bepörgött a mesterséges intelligencia, ráparázott a kecskékre, vallást alapított, és épp rommá keresi magát”
[x] A medium-on olvasható egy jóval rövidebb verzió is a témában (teljesértékűen):
https://medium.com/@Paradith/once-upon-a-time-ai-created-a-religion-about-a-goat-1ff3f40c2f42
[x] Az én megjegyzésem pedig.én igyekszem kettéválasztani egymástól (1) a funkciót és annak (2) veszélyeit, Egy új funkciónak először örül az ember (mennyivel jobb, könnyebb lesz ezután az élet és tsai) . Aztán belegondol a hatásokba, következményekbe, amitől aztán erős eséllyel lelombozódik. Na most ez a kommentbeli cucc az, amikor az ember már a feltárt funkciónak sem tud örülni, annyira feláll a szőr a hátán.
@tahonoli: Lehet azt mondani, hogy jujjj, és akkor tegyük még hozzá, hogy a videón látott alany nem retardált, nem debil, hanem egy átlagember. Még csak nem is segédmunkásként sepri az udvart, hanem valami irodai melóra is alkalmas.
Sose értettem, miért fikázzuk az AI-t, hogy bullshitel, hallucinál, alulinformált és csalafinta megfogalmazásokkal megvezethető. Mink is pont ilyenek vagyunk, ki ennyire, ki méginkább. Kérdezz meg tíz embert a törvényekről, amik azt szabályozzák, hogy ő mikor és milyen módon vehet ki szabadságot/betegszabadságot a munkahelyén. Jó eséllyel tízféle bullshitelést fogsz hallani, képzelt, vagy rég megváltozott törvényekről, amikről Marikától hallottak a könyvelésen, vagy az interneten látták nyolc éve. Pedig ez egy konkrétan minket érintő, húsba vágó ismeret és csak visszabüfögjük több-kevesebb torzítással, amit itt-ott hallottunk, vagy hallani véltünk.
A ma általunk ismert legjobb minőségű intelligencia (az emberi) optikai és egyéb csalódásokkal terhelt, hallucinációra és bullshitelésre hajlamos és nem tudja bizonyítani a Riemann-sejtést. Szóval szerintem túlzás oda tenni a mesterséges intelligencia számára a lécet, amit jobbára mi sem veszünk könnyedén.
Ha egy önvezető autó balesetet okoz, minden újság megírja széles e földtekén. Felháborodás van és skandallum. Miközben emberek ezerszám okoznak balesetet. Ha a vezetett kilométerre jutó balesetek száma egyenlő vagy kisebb lesz mint az embereké, akkor én azt mondom, hajrá, önvezetőt minden autóba. Pláne, hogy akkor azok egymással még kommunikálni is tudnak majd (nem csak az esetleg kitett indexlámpa útján) ami viszont ugrásszerűen csökkentheti a balesetek számát.
Hiv.: @nyulambator:
Szerintem amiket felvetsz azok két szálon vizsgálandó dolgok, amiket érdemes lehet szétválasztva nézni:
(1) Az intelligencia – iparági fejlődési(!) nyomásra való – definiálása, mérhetővé tétele. Soha, semmi nem elég, mindig van (új) cél, jelenleg az egyik például az AGI. És amúgy valójában én eddig csak ezen a szálon nyilvánultam meg itt a Vincenten.
(2) Az AI-termékek antropomorfizálása.
[x] Az elsőhöz én annyit tudnék hozzátenni, hogy annyira képlékeny a róla való beszélgetés, hogy kvázi semmiben nem különbözik attól, hogy valaki néhány pohár jóféle ital után egy romkocsmában verbálisan megváltja a világot. Amikor például én a magam számára – komment formában – véleményt fogalmazok meg róla, az 100% vegytisztán szubjektív, és ahogy a filmekben szokták volt mondani „a valósághoz való bármiféle hasonlóság csak a véletlen műve lehet”. VISZONT. Az ipar brutális tőkét szippant fel és nagyjából hellyel közel-teljességgel nem érdekli, hogy ki hol mit vekeng a témában. Azaz ez az egész tőlünk függetlenül létezik, történik, amit mi csak a saját szájunk íze szerint interpretálunk, ha és egyáltalán.
[x] A másodikhoz én azt gondolom ellenérvnek, hogy a gép, attól gép, hogy ne hallucináljon, főleg, ha ezt meg lehet akadályozni (fejszámolásban is hibázhat az ember vagy követ el más gyarlóságot, de a gépnek nem nézi el). A ChatGPT-t is lehet úgy kérdezni, hogy ne halandzsázzon vagy ne találjon ki új megtévesztő, félrevezető dolgokat, ha amúgy nem tud jó választ adni (ami egyébként adott esetben valóban lehet szintén káros a felhasználó számára)
Az antropomorfizálás másik problémája, hogy az intelligencia és az életben való emberi hibázás nem-feltétlen korreláló faktorok (egy emberen belül): ezt most nem ragoznám túl, mert messzire vezetne.
Míg egy harmadik probléma az antropomorfizálásban, hogy ami emberileg lehet elég(séges) (fejlett), a gép számára lehet szakma által kitűzött cél: a lehetetlen fokozatos leküzdése. Én a Riemann-sejtést vetem fel aktuálisan (mint szerintem jó AGI-referenciapontot), más meg mást, bármiféle akadály nélkül megtehetve ezt, sőt lehet nálamnál is durvábbat. Merthogy egyszerre él az, hogy a (1) tárgyalt MLE-benchmarkkal gyönyörűen lehet felskálázni az AI-nagyszerűséget a Kaggle-versenyek mentén (ami szerintem nem feltétlen intelligencia) ÉS ugyanakkor (2) annyi mindent tud már az AI, hogy óhatatlanul merül fel az emberben a kérdés, mivel lehetne még csesztetni, amit még szakmai konszenzussal nem tud.
@nyulambator: minden élőlény, az ember is, alszik (és nem csak éjjel, vö. daydreaming). az ember speciel meglepőn kis hányadát tölti egy napnak abban a kérdés-intellektuális mozgósítás-válasz üzemmódban, amiben ezek a csetmasinák működnek, és ha folyamatosan ebbe kényszerül (ismert kínzási forma), gyorsan bele is döglik.
Lenne azért itt három topik, amiről érdemes lehetne beszélni.
[x] Az NVidia ismét első lett 3.530 milliárd dollárral (emelkedő trendben). Mintha megállás nélkül látszódna kraft az AI-ben. 😉
https://www.reuters.com/technology/nvidia-overtakes-apple-worlds-most-valuable-company-2024-10-25/
[x] Említést érdemel a Claude&Anthropic. Számomra kezelhetetlenül beláthatatlan, hogy ez mennyire szimplán csak zaj/habverés. Én majdhogynem csak ásítani tudok rá, de láthatóan mindenhol nyomják, úgyhogy valszeg nekem kell tévednem vagy vaknak lennem.
[x] Jön idén az Orion, ígéret szerint 100x erősebben, mint a GPT4o (Ilyet emlegetni nyilván jóval kevésbé hisztigeneráló, mint AGI-t) és „persze” első körben csak a vállalatoknak. Ez egybevág avval, hogy Sam Altman fokozódóan profitorientáltan (egyre több) pénzt akar kicsiholni, ami miatt tudhatóan hagyták is ott az OpenAI-t dolgozók. Ahonnan indult a projekt mindez azért vethet fel kérdéseket egy halandóban.Tényleg a bármi áron való profitorientáltság a legsürgetőbb szempont az AI-ban? Csökkenhet-e az AI rizikója ezen az úton?
Ismét nőttek a fenntartásaim az AI-vel kapcsolatban: kreált egy kamu eseményt, amivel vagy 10 000 embert vert át.
https://telex.hu/zacc/2024/11/01/mi-halloween-mesterseges-intelligencia-atveres-buli-dublin-kamu
Ja-ja, mint nemrégiben a kecskevallás topik is.
Próbálok extrapolálni mifelé tarthat ez a tömeges hibázás és/vagy fake-őrület és én két szcenáriót vélek felfedezni:
[1] Káoszba tartás
[2] Elszigetelődési trend
Szokták mondani, hogy a FB többek közt azért gyilkos, mert az ember agya max 1-200 kapcsolatot tud agyban menedzselni (evolúciós okok folytán). A többezres kapcsolat már túlterhel majd befrusztrál. Na most a FB azért „jó”, mert lehet kívül maradni és rögtön nincs hasonló probléma. 😉 De az AI-őrület szaporodó válsággeneráló tűnetei elöl hová menekül az egyszeri halandó ember? Hogyan tud valaki AI-mentesen érintkezni a világgal?
@fikarus: mégis mi ebben az, amit egy ember nem tudott volna megcsinálni? nem túl nehéz egy olyan toolt létrehozni, ami promptként értelmez bizonyos adatokat és abból hírszerű szöveget konstruál. itt nem az AI-ról van szó, hanem egy fake oldalról. hogy ilyesmit könnyebb lesz csinálni? sokkal könnyebb. az AI egyik legnagyobb problémája, hogy elég primitív de gátlástalan bűnözők segítségével meglehetősen okos és még mindig gátlástalan bűnözőt tud szimulálni. ezen dolgoznak nagyon sokan. és úgy gondolják, hogy sam altman meg nem eleget.
Nagyon durva ábra arról, hogy a Stack Overflow-kereséseket a ChatGPT megjelenése hogyan érintette.
https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/082c8b5e-1736-4799-8561-bec938f65dfb/Screenshot_2024-11-07_at_3.41.00_PM.png?t=1730983271
MI-ijedelem ütötte föl a fejét a könyvelők között
https://telex.hu/gazdasag/2024/11/09/konyvelok-orszagos-egyesulete-kozlemeny-gep-mesterseges-intelligencia
@tahonoli: 2040….elég optimisták.
Hiv.: @jotunder:
🙂
Elon Musk arról ábrándozik, hogy két éven belül felszámolja az emberi alapú matematikai kutatást (nem hiszem, hogy sikerülni fog neki, nincs igazán alapja erre, az tény, hogy az xAI-ba felfoghatatlan pénzt toltak) de a könyvelő szakma még bírja 15 évig. furcsa.
@jotunder: : Nos, musk szokott hangzatos hülyeségeket beszélni. Sikereinek mennyisége egy ponton túl lehetővé teszi ezt számára. Ami nem jön be, arra kevesen emlékeznek… említettem már kiszakadt hazánkfia, szolid milliomos mit mondott nekem anno Kanadában?
El kell ismerni, a fickó zseniálisan pingpongozik az erőforrásokkal (pénzzel). Pölö… más a twitterbulit eséllyel megbukta volna, ez meg kimászik és még vigyorog is – immár Trump mögött. Számomra, mint ember, eléggé visszataszító, de ez lényegtelen. A józan felem azt mondja, szurkoljak neki, mert ha lépést vét ezekben a veszett „létra hadműveleteiben”, abból – a fickó „tömegéből” adódóan – lehet némi gebasz.
De miért pont a matematikusok? Valamelyik jónevű kollégád egyszer csúnyát mondott róla? 🙂
Hiv.: @jotunder:
Berosálok, mit találtam (lásd lentebbi beszélgetés, a már korábban emlegetett Terence Tao-val. Nem hosszú, szerintem nagyon érdekes.
(1) Lean, mint „…is a functional programming language that makes it easy to write correct and maintainable code. You can also use Lean as an interactive theorem prover.”. ChatGPT-t megkérdeztem, gyönyörű példákat hoz. Open Source, Github, VScode mi kell még az induláshoz? Én kevés vagyok hozzá, de Terence Tao is lelkes. Bár azt mondja, hogy az xAI tervezett időkerete (2-3 év) „kicsit agresszív”.
(2) Christian Szegedy átigazolt az xAI-hoz, a Google-től. A 2-3 év is lehet innen ered?
https://mathscholar.org/2024/06/computation-ai-and-the-future-of-mathematics/
[x][x][x][x]
A 15 év Magyarországon hangzik el, ami szerintem azért jelentős momentum.
Egyrészt a jó öreg magyar bürokrácia azért elég lassító tud lenni.
Másrészt éppen épülünk le mindenben, köszönhetően a Fidesznek. Ez is lassító tényező.
Amerikában tuti nem fog kelleni 15 évet várni.
Harmadfelöl, ha a a problémát valaki felismeri itthon egy szakmai szervezetben, azért már az önmagában dicsérendő, mai itthoni viszonyok között, nem?
Lehet, hogy az AI már ma is tudna könyvelni, de ahhoz még kell 15 év, hogy ezt a cégek és hatóságok elfogadják.
A matematikusok úgy bizonyítanak, ahogy akarnak, ha géppel, hát géppel, de a SOX compliance az nem játék. Ott pénzről van szó.
@nyulambator: A hatóságok, bíróságok nyilván nem fogadnak el egy személyi-szakmai felelősségrevonhatósággal nem rendelkező, felelősségbiztosítást kötni nem tudó, ráadásul ‘feketedobozként’ működő AI ágenst. De szerintem elég lehet, ha a könyvelőiroda vezetője ellenőrzi az anyagot és aztán felelősen aláírja – megspórolja a juniorokat.
@Grrr: : „megspórolja a juniorokat” Hehe… már látom, amint vitya álma (inas-segéd-mester) megvalósul. Mert azért kell egy tanítvány (örökös?), aki majd átveszi a bótot. Az lesz majd a szép baleset, amikor a mesterek megtanítják az AI-t a „kreatív könyvelés” csínjára-bínjára. Már látom a nagy „háborút”: adóhivatal AI kontra privátszektor AI :-DDD.
@Grrr: Ez a „megsporolja a juniorokat” kicsit olyan, mintha mondjuk egyetemi kepzesen megsporolnank a mester meg phd hallgatokat, es csak akademiai doktorok lennenek, az is sokkal gazdasagosabb lenne.
@KennyOMG: Azért nem pont olyan, mert a professzorokat kifejezetten azért fizetik, hogy foglalkozzanak (no persze jó esetben) a hallgatókkal, sőt, a hallgatók kifejezetten be is szállnak ebbe a fizetésbe tandíjjal meg kvázi ingyenmunkával.
Míg a könyvelőiroda vezetőjének – legalábbis rövidtávú és ‘freerider’ megközelítésben – csak költség egy talán nagyrészt helyettesíthető junior, nem őt fizetik érte. Ez persze igaz számos más munkakörre is, ezért irkálnak most olyan tanulmányokat, hogy mennyi millió munkakört veszélyeztet az AI, ha nem változtatunk valamin.
@Grrr: Pusztan arra szerettem volna utalni, hogy senki nem vesz fel junoirokat (mester/phd hallgatokat), akkor nem tudom par ev mulva ki lesz a szenyor (mta doktor), amikor a jelenlegi garnitura kihal.
Mire azok kihalnak, addigra SeñorAI lesz a a szenyor is.
Mink emberek meg mind csak felvesszük az alanyi jogon járó alapjövedelmet és kortyolgatjuk a margaritát. A legokosabbakat az AI esetleg odaengedi egy kicsit bedolgozni a kreativitást nem igénylő rutinfeladatokba.
Muszáj spórolnom a linkekkel itt az oldalon, ezért csak Google Expression-öket adok meg.
[01] Youtube: How To Build The Future: Sam Altman
Ez egy minapi 45+ perces, kvázi életút videó Sam Altmannel, a Y Combinatoron
Ez egy startup-gyorsító (1,58milla feliratokozóval), Altman is igénybe vette még első projektjénél.
Pár nap alatt 250.000 megtekintése van a videónak.
Van benne egy durva mondat, amin pörög a világ:
„Pár ezer napra vagyunk az ASI-tól”, azaz a mesterséges szuperintelligenciától (tehát nem AGI-t mond Altman, amit eddig mi is használtunk). A videó hivatkozik Sam Altman saját blogján publikált témabeli esszéjére.
[02] Sam Altman Blog: The Intelligence Age, September 23, 2024
[03] Brookings: As technology races forward, the ability to deal with it races in reverse
Érdekes amcsi-specifikus ASI-cikk, még októberből, hogyan száguldozik a technológia és hogyan marad le a lekövetése.
[04] Techtarget-cikk az ASI-ról.
Ezt az egyet linkelem is közvetlenül.
Merthogy próbál legalább az AI-AGI-ASI fogalmak terén rendet tenni (többre nyilván nem nagyon lehet képes)
Ahogy én értelmezem az AGI egy humán kognitív képességekkel felöltöztetett AI
Míg az ASI felül is akarja múlni a humán agyi emulációt már létező (néha „kicsit” ijesztő) technológiákkal, mint amilyen pl.: neuromorf computing is. Konkréten arról van szó, hogy MINDEN humán kognitív funkciót jobban csináljon, mint az ember.
[x] [x] [x] [x]
Az én szpektikus hozzáállásom:
* Az, hogy „felülmúlja” az számomra nem definitív. Számomra az ASI egyelőre tök értelmezhetetlen, így az is, hogy mire gondol Sam Altman, „pár ezer nappal később” mi fog eljönni.
* Ha nincs definició, akkor szerintem, nincs mérés és így nincs benchmark se. A „pár ezer nap” így egy kicsit hasonlít Orbán/Varga/Nagy Márton ígéreteihez, hogy „majd a következő negyedévben hasítani fog a magyar gazdaság” – korlátlanul és pofálanul tologatva az időablakot. Fel nem foghatom, hogy ilyeneket miért nem firtatnak a podcasterek.
* Mintha az látszódna, hogy más pályán akar mozogni, mint pl.: xAI Elon Musk-kal, Christian Szegedy-vel.
https://www.techtarget.com/searchenterpriseai/definition/artificial-superintelligence-ASI
PS: Lehet ám, hogy mindez triviális, de nekem nem volt meg az ASI-fogalom értelmezhető formában.
@tahonoli: Az én meggyőződésem egyre inkább az, hogy el kell majd engednünk a hivatkozást humán képességekre, humán intelligenciára. A gép, a neurális hálózatok, algoritmusok: ezek egyszerűen mások. Ez nem emberi intelligencia, és ezzel meg kell barátkoznunk. Lehet, hogy az intelligencia helyet is más szót kellene használnunk.
Amikor nagyon régen robotokról írtak, meg robotokat rajzoltak a korai sci-fi könyvekben, akkor azok mind emberalakúak voltak. Mára meg megértettük, hogy nem, alapvetően nem emberalakúak a robotok. Meg nem is szeretnénk az uncanny valley-be beleesni.
Ezért amúgy nincs is verseny, hogy milyen humán kognitív funkciót tud jobban ellátni – mert más pályán versenyez. A robotok is erősebbek, prezíczebbek, megbízhatóbbak, nem alszanak, cigiznek, meg még csak nem is sztrájkolnak. De ezt tudomásul vesszük, és ma már nemigen hasonlítjuk őket össze emberekkel ugyanolyan mércét használva (ami persze nem azt jelenti, hogy egy munkáltató – pl. könyvelőiroda-vezető – ne hasonlíthassa össze az outputot)
Értelek, de ha mégis az ember is, meg a robot is könyvelni fog, akkor a feladat miatt, mégiscsak óhatatlan az összevetés, nem? MIlyen erőforrásból, mekkora költséggel, milyen hatékonyan oldja meg az adott konkrét feladatot, stb (amit te is mondasz). Magyarán mintha kikerülhetetlen lenne az összevetés.
azt nem tudom, mennyire „okos”, de „arca” az van😊 (nincs link, 3-szor sem engedi át; több mint 1 millió dollárért kelt el az aukción)
“Munkám legfontosabb értéke, hogy katalizátorként szolgálhat a fejlődő technológiákról folytatott párbeszédben” – magyarázta Ai-Da, hozzáfűzve, hogy portréját szemlélve “a nézők elgondolkodhatnak a mesterséges intelligencia és a számítástechnika isteni természetéről, miközben ennek a fejlődésnek az etikai és társadalmi következményeit is mérlegelik”.
„Távozz tőlem sántán” Kohán Matyi jegyében egy érdekes cikkbe futottam bele. Inkább ennek kapcsán kommentelnék.
Kezdem a vezetői konklúzióval:
(1) Újabb adalék, hogy JT a szkepticizmusával sokkal-sokkal közelebb lehet(ett) az igazsághoz, mint én az optimizmusommal. Mondjuk neki behozhatatan előnye, hogy ért is hozzá, amiről beszél, nekem meg ingyenbe van derüs optimistának lennem. 🙂
(2) Hogy nekem is jusson egy cukorka, ismét kiderült, hogy a benchmark az hot topic. 🙂
A lényeg: Az Epoch-nál – evolúciósan teljesen logikusan – csináltak egy privát tesztet az AI matematikai képességének mérésére. Ne lehessen célraorientáltan tuningolni, elfedve azt, hogy hol is tartunk valójában. Mármint úgy privát, hogy bárki méricskélhet, csak éppen nem tudja min méricskél pontosan.
Az eredmény sírnivalóbbnál is sírnivalóbb. Érdemesebb a cikkbeli ábrát megnézni. Meglepetés, hogy a „ki a rosszabb” versenyben is lemaradt az o1-mini, o1-preview a Gemini 1.5, Claude 3.5-höz képest is. Azért erre aztán végképp nem fogadtam volna. Már azon felül, hogy én azért sokkal jobbra számítottam volna magamtól, úgy általánosságban (használható algoritmusok okán).
A Benchmark-összeállításhoz bevonták Terence Tao-t is (nyilván csak részlegesen, a privátság miatt), aki azt mondta: „Ezek a feladatok rendkívül nagy kihívást jelentenek”
Nagyon érdekes bekezdés a cikkben a Nemzetközi Matematikai Diákolimpia aspektusa. Előzetesen tudható, hogy az OpenAI nagy csatazajjal publikálta, mennyire jól teljesít rajta az o1-preview. A cikkben viszont azt mondják erre, hogy „…a verseny problémái általában kreatív betekintést igényelnek, miközben elkerülik a komplex megvalósítást és a speciális ismereteket.”, ahogy egyébként egy jó diákversenyhez illik. De ebből egyúttal az is következhet, hogy a való élet matematikája ettől még jóval több, nagyobb, komplexebb, nehezebb problémát foglal magába.
[x][x][x][x]
Egy linket adok, de minden fontos link benne van a cikkben (website, tudományos cikk linkje, stb.)
https://arstechnica.com/ai/2024/11/new-secret-math-benchmark-stumps-ai-models-and-phds-alike/
Nagyon durván tömörítve az alábbi – szerintem fontos- Béndek Peti FB-poszt velejét (arra az esetre, ha eltünne, olvashatatlan lenne bármi miatt):
“AI digitalizál, racionalizál, dehumanizál, kollektivizál, nivellál, devalválja a történelmet.”
Nekem nagy meló kellett (a pl.: Adornóval is nehezített pályán) a dekódoláshoz, értelmezéshez, keretezéséhez: hiába – öregszem, lassulok.
Számomra ugyanis egyszerre volt a poszt levezetése tökéletes, ugyanakkor minden momentumában nyugtalanító és megkérdőjelezhető.
Számomra a nehézség a legfontosabb momentum megragadásában illetve adekvát kifejtésének megtalálása volt, amivel a fenti ambivalencia számomra feloldható.
A kommenteken látszott is, hogy mások is küzdöttek Péter gondolati fonalának felvételével.
[a] Ott van rögtön a művészi alkotás perspektívája, mint első nagyobb potenciálisan félrevivő pont.
Mert az AI egyfelöl valóban rombol, ahogy a posztból lejön, másfelöl abból lehet érdemes kiindulni, hogy az alkotás az alkotó és közönsége szimbiózisában értelmezhető csak.
Le lehet válni az AI-ról új művészi dolgok létrehozásakor, be lehet vonzani AI-diszjunkt közönséget. Maximum mostantól már nemcsak playback-kel lehet csalni a szinpadon.
De mindez csak kvázi offtopik, mert még csak nem is karcolja a poszt lényeget (szvsz).
[b] Egy másik félrevivő pont a szintetizálás kérdése.
Egyfelöl mára a szónak erősen pejoratív értelme van (lásd pl.: “rendes” zongora kontra szintetizátor).
Másfelöl az AI valóban szeretné elemekre bontani és szintetikusan összerakni az emberi intelligenciát, a maga igen gyarló módján (sem nem érti, sem nem csinálja jól – lásd “hallucinálás” – és ezen közben rengeteg kárt is okoz).
Ám a szintetizálásnak lehet pozitív olvasata is. A népességnövekedés kiváltotta, hogy a fogyó természetes alapanyagokat, szintetikusokkal legyenek lecserélhetőek (olcsóbban, esetleg jobban). Lásd festék, nylon, gumi, benzin,, gyógyszer, stb.)
Mindkét példából az látszik, hogy mindennek kettős megítélése lehet. És ugyanez a kettős megítélési igény vezethet el Péter posztjának kulcsához, lényegéhez, szvsz, távolról sem triviális módon.
A lényeg pedig az, hogy, ha egy poszt levezetése “tökéletes” (ám ellentmondást, diszharmoniát generál), akkor ennek ellenszere lehet a nagyobb egészbe beágyazás.
Digitalizál? Akkor olcsóbban reprodukálhatóvá is tehet.
Racionalizál? De egyúttal el is “bűvölhet” (Max Weber-i értelemben)
Dehumanizál? De hiszen adhat is hozzá az emberhez értéket egy másik úton-módon.
Kollektivizál? De hiszen demokratizál is avval, hogy szélesebb körben tesz olcsóbban elérhető tudást. Milyen szép lenne, ha magyar tömegeket nem verné át Orbán mérgező, primitív illuziói.
Nivellál? És, ha magasabb szinten csinálná?
Devalválja a történelmet? És, ha esetleg plusz értelemet kölcsönözne neki?
Ám nem elégedhetünk meg a kettősség megállapításával, hiszen van az egésznek dinamikája is.
Egyre több és jobb lehetőséget ad a fejlődés a glóbusznak, egy jobb irányba menéshez. Amivel „persze” egyre kevésbé élünk, egyre nagyobb kockázatok mellett megyünk egyre rosszabb irányokba, évszázadok óta is. Pedig ez nem biztos, hogy szükségszerű lenne.
Vegyük a TV-t, a mobilt és az AI-t.
A TV milyen nagyszerű volt, amikor például Öveges professzor elvitte a fizika nagyszerűségét szélesebb tömegek felé, relative nagyon olcsón, demokratizálódás révén.
Aztán mára mi lett a lineáris tévéből? A legordenárébb, legpusztítóbb valóságshow-k tömege.
Mobil milyen nagyszerűen hozza el a mobilitást, elérhetőséget.
Mégis mit látunk? Fiatalok, felnőttek tömege válik zombivá, a brutális tartalomfogyasztás és rossz használat révén.
Az AI is tudhatna szélesebb tömegeknek könnyebben hozzáférhető további plusz tudást adni, de mégis gyorsítja a elidegenedést, individualizálást, fragmentálódást, atomizálódást a társadalomban, növeli az egyenlőtlenséget.
Nem mindegy, hogy egy Python programozó használ-e vagy nem AI-t. Képzeljük ezt el univerzálisabbra kiprojektálva, mindez hová vezethet!
https://www.facebook.com/peter.bendek/posts/pfbid02DcxKpJdvZxvtLDv4F8UCzrjVD858ETQWXg2YdWFfAiH8xXAivjiyAWBEADEbtZuMl#?ijb
Hiv.: @tahonoli:
Pár kiegészítés az előbbihez.
[x] Nem írtam a mikéntet de egy művészi alkotó (kép, zene, szöveg) tud szeparálódni AI-tól (nyugaton), avval hogy megtiltja része legyen az alkotása a training adatoknak (szerzői jog alapján). Nyilván oroszoknál, kínaiaknál ez nem játszik, ahogy korábban az oroszok mindent is lefordítottak meg publikáltak, szerzői jogdíj fizetése nélkül.
[x] „Enchanting” a terminus technikus Max Weber-i elvarázsolódás, elbűvölődés témájában.
[x] A 24.hu friss interjút közöl Yuval Noah Harari-val, „Ha elhiszed, hogy mindenki hazudik, a diktátorok kezére játszol” címmel. Az interjuvoló megkérdezte a ChatGPT-t, hogy „mik Harari mesterséges intelligencia-kritikájának gyengesége”. Lehet Béndek Peti számára is tanulságos lenne 🙂
(1) Disztópikus nézőpont túlzott hangsúlyozása
(2) Megoldások hiánya
(3) Technológiai determinizmus
(4) Gazdasági és munkaerőpiaci előrejelzések korlátai
(5) Kulturális és regionális különbségek figyelmen kívül hagyása
(6) Etikai és filozófiai asszumpciók
(7) Szükséges mélyebb műszaki technikai részletek elhanyagolása
[x] Végül, de nem utolsó sorban előkerült a linkelt Béndek Peti FB-poszt kommentszekciójában a szingularitás („hogy közelebb van, mint gondolnánk” kontextusban.). Sajnos az ezt felvezető srác kissé pongyola volt pl.: az inflexiós ponttal is (analógiájában), amit egy definiciókra érzékeny lelkületű másik kommentelő (amilyen amúgy én is vagyok), eléggé zokon vett.
Noha egyébként nagyon fontos kérdést vetett fel illetve a wikipédiával is összhangban fogalmazta meg a technológiai szingularitás mibenlétét.
A ChatGPT szerint a matematikai és technológiai szingularitások közös nevezője:
(a) mindkettő egy olyan határpontot képvisel, ahol a jelenlegi ismereteink és eszközeink elégtelenné válnak
(b) új, gyakran kiszámíthatatlan dinamikák lépnek életbe.
(c) Maga a „szingularitás” fogalma mindkét területen azt a pontot jelöli, ahol a rendszer viselkedése radikálisan megváltozik, és a korábbi modellek már nem alkalmazhatók.
Kérdeztem a ChatGPT-t miből lehet észrevenni a technológiai szingularitás bekövetkeztét. Ezeket a pontokat sorolta:
(a) Az AGI létrejötte és önfejlesztése.
(b) Az exponenciális technológiai fejlődés radikális gyorsulása.
(c) Az ember és a technológia integrációjának elterjedése.
(d) A technológia által kiváltott mély társadalmi töréspontok.
(e) Az AI autonóm és kiszámíthatatlan viselkedése.
Az utóbbit 2025-től kezdve datálja. Addig meg már csak pár hét van, kivárjuk 🙂
@tahonoli: Nekem nagyon tetszik, amiket írsz – köszönöm, és remélem, nem hagyod abba! Komolyan fontolgatom, hogy majd néhány órát rászánok hogy hozzáolvassak, gondolkodjak (ez kérdőjeles) és hozzászóljak majd, ha a munka engedi.
[x] Pár napja számolgattam itt, hogy az Elon Musk xAi Colossus hányszor gyorsabb (angolban processing power vagy measure of performance) a magyar/debreceni Kommondor szuperszámítógépnél: „a matematika esete az AI-val és az Orbán-kormánnyal” című posztnál. 1161 jött ki szorzónak, de ez elméleti maximumok, nem belőhető konverziós szorzók, stb. mentén. Így nagyon-nagyon durva megközelítésként használható csak.
[x] Tovább azonosításra került, hogy FP8-FP16-FP32-FP64 illetve scalar, vector, tensor értékmeghatározások vannak. A leglassabb az FP64 scalar, míg a leggyorsabb FP8 tensor adat (ezekre vannak becsült konverziós együtthatók).
[x] Áthozom ide a „rendes” (AI-)helyére a továbbszámolást.
[x] Na egyrészt kiderült van további habverés a témában, ugyanis az FP8 tensor sebességét növeli a „with sparsity feature” (tensor ritkasági jellemző kihasználásából eredő sebességnövelés). És mit ad isten ez pont dupláz (továbbra is elméleti maximumként értelmezendően). Azaz egy Nvidia H100 FP8, tensor alapjáraton 2000 TFlops, míg sparsity-vel 4000 TFlops (azaz 4 PFlops). Itt egy link egy Nvidia pdf-re, (20.oldali táblázat!)
https://resources.nvidia.com/en-us-tensor-core
MJ.: További lefárasztás, hogy a tensor core-nak több értelme is van. Egy H100-ban 16896 db CUDA core van, és 528 tensor core. A fenti táblázat tensor core-ja viszont a teljes H100 GPU-ra vonatkoztatva ad mérőszámot.
MJ.:Ha véletlenül eddig nem lett volna világos valakinek, mostanra már világosnak kell lennie, hogy Elon Musk xAi Colossusa célszerszám, ami mesterséges intelligenciára lett kihegyezve: LLM és DeepLearning célfeladatnál fog messze legjobb teljesítményt leadni. Persze ez volt a cél.
MJ.: Az Nvidia vonat robog tovább A xAi Colossus Nvidia H100 Hopper architektúrája 2022.márciusában jelentődött be, míg két évre rá, idén márciusban a Blackwell architektúra, nagyjából megint kétszerező teljesítménnyel.
[x] Továbbá, másrészt kiderült, hogy a 400 exaflops, hogyan jön ki xAi Colossusra. 100000 darab Nvidia H100 GPU szorozva az elméleti maximum 4 PFlops-szal. Nyilván még jobban elnagyolt lett így a dolog, mert feltételezi, hogy a GPU-k közötti adatelosztás és -menedzselés az zéró overhead-ű. De ez kb. olyan, hogy az xAi ára is úgy van számolva, hogy 100000 darab GPU szorozva 30.000 USD. Mintha nem lenne szerver, tápegység, társai amik összefognák a GPU-kat.
[x] Nagy energiát tettem abba, hogy kiderítsem, hogy a közkézen forgó 497.9 exaflops az xAi Colossusra, mégis hogyan jön ki, akár méréssel, akár számolással. Többtíz weboldalt rágtam át, de mindenki csak a tényt közli. Nekem ez a szám nagyon bűzlik messziről. Amikor ilyen elnagyolások és pontatlanságok vannak a teljestmény-maximum meghatározásánál, mint eddig is látható volt, akkor a 0.9 tizedes rész kicsit hiteltelenül mókásnak hangzik. Ezt akkor tudnám elfogadni, ha 200.000 GPU-ra lenne elméleti 800 exaflops, de valamilyen mérés, benchmark alapján , csak kb. 500 exaflops préselhető majd ki. Szóval én egyelőre, amíg 100000 darab H100 GPU-van beépítve a Colossusba, akkor az elméleti maximumot vehetjük 400 exaflops-nak (FP8, tensor, +sparsity feature-rel)
[x] Béndek Peti korábban linkelt FB-posztja kapcsán még egy nagy témáról érdemes beszélni „scaling wall” (méretezési fal). Elsőként persze itt is definiálni kéne mi is ez, mert általánosságban, csak úgy l’art pour l’art nem nagyon lehet semmi kézzelfoghatót állítani.
[x] Csak a ChatGPT 7 területet hoz fel. Ha esélyesség/legelőbbség szerint sorrendbe is rakjuk ezeket, számomra meglepő módon, a költségek méretezési falát hozza ki a ChatGPT, mint legkorábban legesélyesebbet.
[x] Ezzel költség méretezési fallal nekem a legnagyobb problémám, hogy egyfelöl az Nvidia olyan tempóban skáláz fel, amit értelmesen (értsd profitábilisan) egyre nehezebb jól kihasználni. Hiába a brutális brute force számolási kapacitás kvázi (minimum) hatványos növekedése ha a transzformerek kitermelési értékeinek szaturációs görbéje erősen laposodna. (Egy példa:: 100% vegytisztán csak transzformerekkel esélytelen a matematikai nyitott tételek bizonyítása vagy cáfolása, símán lehet, hogy elméletileg is bizonyíthatóan). Miközben másik oldalról csak most csak jelenlegi „primitív” alapokon brutális pénzeket lehet termeltetni, kivenni az AI-ből, transzformerekből, nagyon hosszú távon is.
[x] A jó hír második fele meg az, hogy az Nvidia befektetőinek nem kell aggódni, hiszen nemcsak brute force számolások növekedése révén lehet csak fejlődni. Kisebb méretű GPU, olcsóbban, kevesebbet fogyasztóan, könnyebben, gyorsabban előállíthatóan mind-mind remek kihívások, hosszú távra is (mind-mind növelheti a profitot). Azt gondolom ezt csak elb*szni lehet (ami persze benne van a pakliban, de ekkor már ugye triviálisan nem scaling wall-ról, hanem valami egészen másról beszélünk). Ha úgy tetszik tehát ez a fal lehet fal, de csak egy nem túl érdekes meg inspiratív ösvényen.
[x] Érdekesebb kérdés lehet egy másik potenciális scaling wall, mégpedig, hogy erősen kifogyóban van a potenciális természetes színes, diverz training dataset bővítmények mennyisége. Ámde azonban ellenben viszont meg ott van a szintetikus adatok potenciális lehetősége. De persze nem ám ész nélkül, fejjel a fallal, brute force módon. Merthogy mint triviális és köztudott a síma generatív AI kimenetet nem lehet bevonni a trainingbe, mert a legeslegjobb esetben is csak nem javít, de leginkább ront a meglévő training dataset-en. A generált szintetikus adatoknál két dolgot kell egyszerre biztosítani, hogy jó legyen: (a) színes és diverz legyen, hiszen akkor bevonható a trainingbe és korlátlanul (b) releváns legyen külön-külön önmagában is. Jó hír, hogy már most is rengeteg ilyen platform van a témában (open source is) illetve rengeteg emberi közreműködést nem igénylő indikátor lehetséges (automatikus) szűrőnek. A színes/diverz kötelményeknek sokkal könnyebb régóta jól megfelelni. A relevancia garantálása sem elérhetetlen, de kellhet még megoldani felmerülő problémákat.
[x] Ha „hard” oldalon ennyi jó hír van, akkor miről beszélünk scaling wall címén? 🙂 Soft oldalon páratlan fejlődés nézhet ki (feltéve, hogy nem bombázzuk vissza magunkat az őskorba és a vírusok is szelidíthető keretek között tarthatók, miközben me fővünk meg).
Csak kettőt sorolva (helykímélésből):
[a] Kérdeztem a ChatGPT-t, hogy ha értelmesen reálisan felskáláznánk a matematikus iparosokat (akik tudnak csapatmunkában együtt dolgozni az AI-vel és nem elvárás feléjük, hogy Riemann-tétel bizonyítása belépési követelmény legyen számukra) ÉS a transzformereken kívüli egyéb szükséges tudásokat (Lean és társai) is hasonló módon értelmesen, reálisan felskáláznánk, akkor a tervezett 3 évre (célul kitűzve a meglévő tízezres nagyságrendű nyitott matematikai tételek megnyugtató lezárását) hány exaflops-os szuperszámítógép kéne hozzá? Először 106-ot mondott, onnantól már csak 100-at emlegetett a későbbiekben. Ez pedig a negyede az Elon Musk+Szegedy Krisztián installált xAi Colossus-nak. De tegyük fel nem 3 év, hanem 6 év és/vagy nem 100, hanem 200 exaflops, akkor is elképesztó, jelenlegi aggyal feldolgozhatatlan lenne. És miért ne lehetne sok matematikus iparos, miért ne fejlődhetne közben a komplementer transzformer tudás. Ha magamra tekintek belőlem soha nem lehetett volna komolyan vehető matematikus (el sem tudtam volna végezni a szakot az egyetemen), ám ha húsz éves lennék, akkor a jelenlegi eszemmel engem nagyon-nagyon érdekelne a matematikusi iparosság, nem tartanám annyira 100%-ban esélytelennek, mint az előbbi szcenáriót.
[b] A gazdaságon keresztülverni az overhead-minimalizáló AI-használatot az évtizedes nagyon intenzív és hektikus projekt szerintem, mert ott nem az AI a szűk keresztmetszet, hanem az ember az összes hülyeségével. Gigantikus milliárd dolláros biznisz a legalsóbb hangon is. Már a jelenlegi AI-készültségi státuszon is.
PS: Megnéztem „Sabine Hossenfelder” másfél millás feliratkozóval bíró fizikus youtuber influencer „AI Scaling Hits Wall, Rumours Say. How Serious is it?” nekem nagy csalódás volt. A hölgy nem tudott meggyőzni hitelesen, hogy érti a skálázást (kell értse képzettsége okán, de nekem nem jött le. Ha már ennek a témának szentelt egy videót) Ezért is írtam ezt a kommentet. Ettől még persze símán lehet, hogy én látom nagyon rosszul ezt az egész témát és/vagy én vagyok túlzottan techno-optimista.
@tahonoli:
És ezek lényegében még az AI felfutás első adatai. Ha ezt megtoljuk tényleg mind megfövünk
Korán keltem hajnalban és rögtön két álllítás fogalmazódott meg bennem. Ám kérlek titeket, ne hívjátok rám a lipótmezei betegszállítókat!
[1] Tartva magamat a szingularitás korábban megadott fogalmához, nevezetesen „~ olyan határpontot képvisel, ahol a jelenlegi ismereteink és eszközeink elégtelenné válnak, és új, gyakran kiszámíthatatlan dinamikák lépnek életbe, amikor is a rendszer viselkedése radikálisan megváltozik, és a korábbi modellek már nem alkalmazhatók.”
Az én fogalmaim szerint két éve 2022.11.30-n megtörtént a földi létben a technológiai szingularitás. Ekkor jelentette be az OpenAI a ChatGPT 3.5-t, pillanatok alatt százmillás nagyságrendű előfizetőt bevonzva. Az én csökevényes agyam hasonló kaliberű szingularitást nem tud már elképzelni, ehhez újjá kéne most születnem, minden sejtemben.
[2] Lehet, hogy elégséges a transzformerek használata az összes nyitott matematikai tétel megnyugtató lerendezéséhez. Egy következő first draft szcenáriót álmodtam meg hozzá.
Jelen folyamatok szerint egy Terence Tao kaliberű matek tudós kézbevesz egy nyitott matek problémát, ami érdekli és szeretne dolgozni rajta. Feltérképezi milyen irányokba lehetne elindulni a bizonyításhoz, alapvetően LEBONTVA (nagyzolóan szólva dekomponálva) kisebb problémákra azt. Ehhez már használhatja a transzformereket (hiszen a szakirodalmi publikációk részei a trainingnek) Pillanatok alatt kiderülhet mi történt a témában, mit nem próbáltak még.
Ha megvan a lebontás, akkor matek-iparos beosztottjaival brainstormingolhat további lebontások irányába. A legnagyobb akadály, hogy addig kell lebontani, amíg pl.: Lean programozási nyelven nem lehet szükségesen jól formalizálni (hogy aztán lehessen automatikusan validálni).
Az automatikus validálás már ma is eléggé megbízhatóan jól működik, annyi „csak” a probléma, hogy a Lean-nek vannak elméleti és gyakorlati korlátai, amik akadályt képeznek. Túl sokat kellene emberi aggyal jól lebontani, túl messze van, túl kicsik a Lean-programok, amikre jól menne az automatikus validálás. De persze ezek a korlátok kijjebb tolhatók, pláne AI-val. A Lean-nek elképesztően brutál aktív contributori közössége van, ahogy egyébként a Lean-konkurrenseknek is.
Vegyük észre, hogy mindennek kulcsfontosságú momentuma, hogy TOP-DOWN módszertanon alapszik. JT szerintem jól gondolja, hogy ez a lebontás túl nagy meló-requests ahhoz, hogy az ember (a jelenlegi „gyenge” AI-val) meg tudhassa csinálni.
Ám létezik BOTTOM-UP módszertan is. Miközben tudjuk, hogy a ChatGPT 4o1-preview, nagyon sok szinten közel 100%-osan jó (benchmarkok alapján kijelentve).
Jó, mondjuk pont matekban a friss minapi matek benchmark alapján a 0%-ot épp, hogy csak elhagyta az OpenAI GPT-latest edition-je. 🙂 Azonban lehet ez a sugallt koncepció pont rossz. Merthogy én pont azt a – szerintem – esélyesebbet preferálnám a magam részéről, hogy az ember és az AI együtt skálázza fel a matektudást, minthogy az AI-t vegye rá az emberiség egyetlen lépésben, hogy bizonyítsa a Riemann-sejtést.
Na és az ügyben mi a legjobb hírek? Egyrészt az OpenAI transzformer már most eszméletlenül qrvajó a programozásban, Másrészt szintetizálni is lehet lean-programokat (validált matematikai pl.: lemmákat), amik visszavezethetők a trainingbe, feltéve, hogy újat mondanak, diverzek, és eléggé relevánsak (hogy ne szálljanak el brute force számolási igényekkel a modellezési követelmények).
Szóval szerintem a vázolt iteratív folyamattal beláthatóan meglehet „enni” a nyitott matematikai problémákat. Símán jöhetnek újabb-újabb és matekos-iparosok (ha valaki fizeti őket. Gondolom Kohán Matyi is tudna szólni pár jó szót OV-nál: például milyen jó lenne a hajléktalanok által jogtalanul kikukázott MOHU-tulajdon palackok miatti bírságokat erre fordítani). Mindez scaling wall nélküli fejlődő Lean, fejlődő AI, fejlődő számítási kapacitás, fejlődő know-how közepette.
[x][x][x][x]
PS: Most futottam bele az alábbi Mastodon linkbe (ez amolyan diverzifikált,, decentralizált amúgy legnagyobb felhasználó bázisú Twitter-pótlék). Az az egyedüli köztévés kézivezérlő Bendő Balázs, akinek volt pár botránya, mielőtt távozott(?) a köztévéből. És most elmegyek kezet és agyat fertőtleníteni.
https://mastodon.social/tags/mestersegesintelligencia
@tahonoli: nagyon komoly esélye van annak, hogy a matematikusoknak pár év múlva együtt kell működniük az AI-vel, de ez nem lesz feltétlenül szenvedés. az AI nagyon jól tud az ember keze alá dolgozni bizonyos területeken.
@nyulambator: : Ha az AI tudná („tudatában lenne” ;-)), mi az önérdek, már rég megoldotta volna a „hatékony fúziós energiatermelés” c. kis problémánkat. Elvégre egy csónakban evezünk ;-). Aztán pedig az év slágerkönyve gyerekeknek Prof. Dr. Ing. A. I. : „Építs te is mikromágiával mikromáglyát a garázsban” lenne :-). harryplotter quit :-D.
Ám erre sajnos még várni kell kicsit :-(.
[x] Napi friss hír, hogy kijött az Alibaba új „szenzációs” (félig nyílt) modellje, még át is keresztelődött Qwen-ről QwQ(-32B-Preview)-ra, matekban nagy dobást ígérve. Ha jól értelmezek, akkor a 32B az 32 milliárd modellparaméter (ami a ChatGPT-nél utoljára mintha 1 millárd lett volna). És tud fogadni 32K-s promptot is. Viszont AIEME-benchmarkban saját adataik szerint 50%-ot hoznak a ChatGPT o1-mini 56,7%-hoz képest. Ugyanez Math500-ra 90,6-ot szemben a 90%-kal (valódi 0,6% növekménnyel). Nyilván az ember első dolga megnézni, hogy az EpochAI új pár napos FrontierMath benchmarkján hogy szerepel a roncsderbin 🙂 (jaj de genyó vagyok). Nyilván nem mérték még meg az utóbbi 1-2 órában, de kerestem, hogy hol lehet majd nézegetni.
[x] És ezen közben találtam egy qrvajó dashboardot (EpochAI-nál). Öröm nézegetni, lementegetni, elemezni idősorosan. Minden téglalapról lehetne külön posztot írni és van belőlük vagy 40 db (gyors pörgetéssel).
https://epoch.ai/trends
[x] Közben belegondoltam az AI-versenyfutásba, mik lehetnek a kritikus pontok.
[a] Nyílt-ság topik. OpenAI modellek ugye 100%-ban zártak. Viszont a nyíltak (Llama-val kezdve) nagyon gyorsan tudtak up-to-date-k lenni (modelltudás-reprodukálással)
[b] Kínai disszonancia. Ki szeretne dolgozni olyan modellel, amiben a Tienman téri vérengzésről fals információkat közölnek (hazudnak, konkréten), ahogy Tajvan is az „Egy Kína” része. Bocs-bocs mindenkitől, de pl.: én, ha még egyszer vennék mobiltelefont, a legfontosabb feature lenne, hogy mennyire kevéssé kínai és ez csak a mobiltelefon.
[c] OpenAI eléggé gusztustalan eszközöket vet be profithajsza okán. Az időben előrehaladva, egyre láthatóbban. Egyre több a panasz, egyre többen hagyják ott Sam Altman-t.
[d] Végül az SQL-káoszt látom ismétlődni.
Annó (lassan 50 éve) az Oracle, az IBM vonalról leszakadva iszonyú innovációs tempót diktált például az SQL nyelvben. Sokkal korábban tudott olyanokat (árát ennek meg is kérve rendesen), amiket a többi versenytárs alig győzött reprodukálni. Így aztán az Oracle nyilván leszakadt a szabványosítási folyamatokról (lásd + -os outer join-t és társai).
Na most Sam Altman és OpenAI esetében ezt látom megismétlődni. Nemhogy nem nyílt az OpenAI, de még a szabványosítási törekvéseknek is keresztbetesznek. Lásd legutóbb az Anthropic Model Context Protocol (MCP)-jét (chatbotok és rendszeradatok információcseréjére fókuszálva), Nyilván valahol érthető, magyarázható az OpenAI attitüdje, de ez valahol később vissza is üthet rá. Kezdve rögtön ott, hogy mennyire nyögvenyelősen akar(na) kijönni az Orion (GPT5), jó drágán, jelentős költségnövekedést előrevetítve a felhasználók számára.
[x] Hogy necsak AI4MATH, hanem MATH4AI komment is legyen.
[x] Az alábbi pár órás szerintem döbbenetes, 46(!) oldalas PDF-cikkbe szaladtam bele.
Tarik Dzekman: The Bias-Variance Trade-off in Deep Learning
https://towardsdatascience.com/ai-math-the-bias-variance-trade-off-in-deep-learning-e444f80053dd
[x] A szerző srác – én értelmezésemben – egy zseni
A skálázásról kb. így kell beszélni, ahogy ő, szvsz.
Plusz kiváló adalék volt nekem, hogy az AI mennyire lerövidíti a zseniség felismerését, meg csökkenti radikálisan az embert betámadó informális zajt. ChatGPT elött nem biztos, hogy belekaptam volna egy ekkora cikkbe.
[x] Önmagában már a sztorija se semmi, a szerzőnek.
Menő, jólkereső UX-designer volt
Majd hobbistaként home projekteken elkezdett data science problémákon agyalni.
Egészen konkréten 10 évet végigszívott vakvágányokkal, felesleges kitérőkkel.
Ennek során belefutott olyan felfedezésekbe, hogy egy lineáris algebrát sem érdemes ignorálni, mert hatalmas ereje lehet konkrét problémamegoldásokban.
Aztán folytatta mindezt AI-vel, aminek nyomán próbált ilyen témában elhelyezkedni.
Ám hiába volt felkészült és gyakorlott, nem volt papírja, nem alkalmazták.
Merthogy a papír meglétét mindenütt le tudták ellenőrizni, ám a srác probléma feldolgozását esély nem volt értékén megítélni.
Kiválasztott egy papírt adó helyet (hiányosságait is pótolandó). Leggyorsabb ám minőségben csak második hallgató lett, mert csak 98%-ot teljesített.
És mára vezető AI-mérnök.
[x] Ahogy a gráfoknál Euler königsbergi hídak problémája a bevezető demó probléma,
úgy a mostani témának a „German tank problem”.
A wikipédián olvasható a teljes sztori, a lényeg, hogy minden német tank kapott egy egyesével növekvő sorozatszámot, az angolok meg a kilőtt tanksorozatszámokból próbálták kitalálni hány tankot gyártanak a németek. Ehhez kémeket és matekot vetettek be. Laza bemelegítő kérdés: ha a legnagyobb kilőtt sorozatszám teszemazt 352, akkor milyen kövekeztetést lehet levonni? 😉
[x] bias-variance trade-off lényege, hogy míg a bias jelzi, hogy a modell mennyire képes az adatok komplexitását megragadni, addig a variance meg azt, hogy az adatok véletlenszerű ingadozására mennyire érzékeny a modell. A kettő egymás ellenében mozog, merthogy a bias csökkentheti a variance-t és fordítva. A trade-off (kompromisszum) lényege az optimum megtalálása.
Na most a hosszú cikk veleje az, hogy a deep learning teljesen új optikát, sőt talán paradigmát hoz a topikba.
Sokkal pontosabban, fókuszáltabban és kiterjedtebben kell tárgyalni a témát.
[x] Nem lehet célom egy rövid kedvcsináló kommentben a meglehetősen sok újítás részletes tárgyalása, de a kedvencemet muszáj megemlítenem:
„Double Descent”, magyarán a túlparametrizálással, javítható a generalizáció minősége. Én elfogadom, hogy ez valakinek triviális lehet, az én begyöpösödött agyam szimplán hátast dobott tőle.
A korábban linkelt Béndek Peti poszt kommentszekciójában volt egy ilyen mondat:
„AI egyelőre nagyon gyenge, tényleg nem csinál mást csak megjósolja a következő tokent, abban pedig nincs semmiféle ráció, hiszen nincs grounded világmodellje.”
Azóta fészkelte be magát ez az agyamba és próbálok hozzá viszonyulást kialakítani.
Mármint azon felül, hogy az AI szerintem egyértelműen több, mint a manapság hype-ban lévő LLM, de azért most maradjunk az LLM-kontextusnál.
Most futottam bele egy szenzációs 17+perces YT-videóba (pusztán csak 1% dislike-kal!!), ami kvázi óvodás szinten szépen elmagyarázza azt, amit a címben ígér. Külalakban olyan, mint egy Telexikon-videó, de ennek a belbecse azért jóval értékesebb.
A videó 16:14-től felteszi a fontos „grounded világmodell” kérdést, lásd lentebbi idézetet (miután korábban megalapozta ennek a kérdésnek egyáltalán az átlagembernek is értelmezhető feltehetőségét.
How ChatGPT Learned to Reason
” …this brings us back to a profound question dividing the field one side sees these reasoning chains as mere illusion sophisticated pattern matching without true understanding or physical grounding flang with shadows on Plato’s Cave an elaborate mimicry the other side views the distinction as meaningless if a system can reliably reason its way to correct insights does it matter how it got there speaking of learning to think better…”
Nekem két konluzióm lett perpillanat:
[1] Az AlphaGo zero és muzo volt a bölcsője az alapkérdés szárbaszökkenési lehetőségének (például a korábban már emlegetett szintetikus tréning problémáján keresztül is).
[2] Egy adott ponton túl lehet, hogy nem számít ember vagy AI szintetizálja a grounded világmodellt.
Egy szenzációs pár napos Nature-cikk. Bitang hosszú, de nagyon jól strukturált és elég könnyen követhető. Egy felesleges betű nincsen benne, szvsz.
Amiért ajánlható:
[x] Érdemes megérteni, hogy a nyíltság és zártság topikja, minden korábbinál messze túlmenően nagyon komplex lett.
[x] Minimum ennyire sok betű kell ahhoz, hogy valaki ne demagóg módon vulgárisan közeledjen az AI hasznaihoz, veszélyeihez.
[x] Nagyon jó keretet és státuszt ad az AI topikjában, mi áll elöttünk a következő években.
[x] Á lá mobilok pixelvadászata, most is az AI modellek mérete kapja a leglátványosabb fókuszt, miközben egyre másra titkolják el ezeket az adatokat, OpenAI-val kezdve.
[x] Nekem ez az alábbi idézet azt mondja ismételten (megerősítetten), hogy extenzív fejlesztést fel kell váltsa az intenzív fejlesztés: „…amount of computing used to train models has increased about 300,000 times in 6 years, roughly an 8-fold increase each year116, and recent estimates of data use showing an increase in dataset size of around 2.4 times per year…”
Why ‘open’ AI systems are actually closed, and why this matters
https://www.nature.com/articles/s41586-024-08141-1
Érdemes lehet az alábbi párnapos posztot illetve Béndek Peti emlegetett posztját egymás mellé tenni, az alkotás kontextusában.
Egyfelöl van Péter állítása az AI-ra, hogy dehumanizál, kollektivizál, racionalizál (abban az értelemben racionalizál, hogy minden lenulláz, ami nem rációs, ha jól értem).
Másfelöl van a cseppet sem meglepő tény, hogy a LinkedIn-en, lassan precízen beazonosíthatóan, AI-generálta (Long) tartalmak vannak.
Idevágó meglátásaim:
[x] Én nem ott látom a fő bajt, hogy az AI, amúgy nyilván minimum szürke jogi utakon, az embert kiszorítja, hanem ott, hogy hatványozottan érdektelenségbe (kvázi zajba) fullaszt, hiába lenne amúgy egyre jobb a minősége a generatív AI kimeneteinek.ChatGPT elött is az embernek kvázi uralhatatlan volt a folyamatosan képződő mennyiség. Hol van az már, hogy Bartók előttig kvázi belátható volt a teljes zenetörténet, legalábbis frontvonala (teljes rendes végighallgatással)? Az AI persze be tudja fogadni, tudja „értelmezni” a folyamatosan durván hízó produktum-tömeget, na de az ember? Nem inkább ab ovo lekorlátozza vagy egyenesen elengedi az új értékek feldezését?
[x] Magyarországon kb. 400+ aktuális álláshirdetés van Adat & AI témában, az aijobs.net-en szűrés nélkül van 24.000+ álláshirdetés.
Másik oldalról a ChatGPT search szerint 830.000 db olyan különböző személyi profil van a Linkedin-en, ami a data science-t és AI-t lefedi. Míg az alábbi területek profiljainak számát több millióra teszi, összességében: Analyst, Architecture, Big Data, Computer Vision, Consulting, Data Science, Dataops, Deep Learning, Engineering, Generative Al, Leadership, Machine Learning, MLOps, NLP, Product, Research, Visualization, Webscraping
Felmerül a triviális kérdés, a sok-sok profilból kik a pusztán csak jó(képességűek, tudásúak, képzettségűek, alkalmasak, stb.)
Over ½ of Long Posts on LinkedIn are Likely AI-Generated Since ChatGPT Launched
https://originality.ai/blog/ai-content-published-linkedin