Az AI tegnap okosabb lett, mint az emberek jelentős része, de még mindig nem nagyon-nagyon okos.
Az OpenAI tegnap kihozta a Strawberry-t GPTo1 néven. Megkérdeztem tőle, hogy egy uniquely ergodic folytonos dinamikus rendszer ahol a mérték tartója a teljes tér, miért minimális. Ezt megcsinálta. From scratch. Ettől eléggé megijedtem.
Aztán megkértem, hogy mutasson egy nem-minimális dinamikus rendszert, ahol a mérték tartója nem a teljes tér, de azért uniquely ergodic. Ez viszont nagyon könnyű, hiszen, ha a [0,1] intervallumon veszem azt a transzformációt, ami elosztja a számokat kettővel, akkor nyilván egyetlen invariáns mérték van, ami a nullára van koncentrálva.
Erre adott egy rossz példát, amin több invariáns mérték van és ez elég világos. Mondtam mi a gond. Erre adott egy új példát, ami nem volt folytonos. Hosszabb gondolkozás után. Elmondtam, hogy ebből miért nem jöhet ki. Na erre felszívta magát és lenyomott egy akkora bullshitet, hogy csak néztem. Az egyik mondata az volt, hogy “mivel a Cantor -halmaz összefüggő”. Ha valami nem igaz az az, hogy a Cantor-halmaz összefüggő.
Minden arra mutat, hogy Strawberry elég okos, sok mindent meg fog változtatni, de nincs közel az AGI-hoz. Néztem az NVIDIA árfolyamát, nem nagyon változik. Szóval most történt valami, nem is akármi, de egyelőre nincs vége a világnak.
P.S azt írják, hogy fizikából Ph.D szinten van. fogalmam sincs, hogy mennyire igaz. ijesztő, tényleg ijesztő.
UPDATE: egy review.
Hiv.: @labrys:
És ha már (még mindig) Lem, ne felejtsük el a Summa technologiae-t. Hát az egy elképesztő könyv. Nem is tudom, mikkel tudnám így párhuzamba állítani, talán – más műfajokban persze – , a Császár új elméjével, vagy a Gödel, Escher, Bach-al. Lehet, hogy újra kéne olvasnom, mert kétlem, hogy minden részletét átfogta a tudatom.
@ipartelep: : Filter nélküli Pall Mall volt a kedvenc. Napi két-három szál, kávézáskor.
Egyébként már több mint 12 éve áttértem a gőzre (ki ne próbáld! * ), szigorúan saját mix. A rítus nagyon hiányozna, amikor nem jön az éca. Nagyon kevés aromával dolgozom (és csak két megbízható gyártótól), de a kísérletezés lehetősége így is adott.
* aki netán még mindig klasszikussal rongálja magát annak ajánlom. Priceless, amikor úgy két hónap múlva, az uszodában már nem akarsz a füleden is levegőt venni pár hossz után ;-).
@ipartelep:: ami a Summát illeti, nagyon igazad van, abszolút egyetértek!
@muaddib00:: a Diaszpóra az brutálisan kemény, valódi sci-fi; az ilyesmi már tényleg csak a hardcore fanoknak való 🙂
Jótündér véleménye azért hibádzik: egyes emberek összességét ne vessük össze háztömbnyi processzorok “összerendezésével”, “akiknek” rendelkezésére áll a világháló (tévedés, hogy nelünk igen), beletúr olyan adatbázisokba, amelyek nekünk nem elérhetőek (így könnyű Phd-dolgozatot írni), ráadásul nagyon sok külső motort bevon a feldolgozásba. Inkább: sokaságnyi ember össztudása – versus – AI (az AGI nem adatbázis kurkászás)
@macskahala: mi az, hogy adatbázis kurkászás? nem ér el semmiféle adatbázist. és te meg tudnál oldani egy nehezebb kvantummechanikai feladatot, csak mert rendelkezésedre áll a net? ha fizikus vagy, esetleg, ha nem, akkor nem. ő nem néz meg semmit. a GPTo1preview ugyanúgy egy transzformer, csak önpromptoló automatikával generál egy érvélési láncolatot. nincs semmiféle grounded tudása. a transformer ezzel az extrával kiegészítve ennyit tud. az emberek meg általában sokkal kevesebbet. hihetetlen AI mérnöki tudás van benne. nem tud gondolkodni abban az értelemben, ahogy egy nyolcéves gyerek is tud, de ez nem releváns. ez nem GOFAI, mi emberek pedig semmit nem értünk meg, ami nem szépen modulárisan van koncepcionálva, felépítve, a CYC ezzel próbálkozott, úgy gondolkozni mint egy ember, csak sokkal gyorsabban. nem ment.
@macskahala: ami jó (én rettegek az AGI gondolatától is, arra egyáltalán nincs felkészülve az emberiség) az az, hogy ebből egyelőre komoly hisztéria nem lett.
Hiv.: @jotunder:
Én úgy látom az AGI-t jelen állapotban, hogy
(1) (a) hallucinációmentes tanulási képesség, (b) több területű problémamegoldás, (c) alkalmazkodás új környezethez, (k)ommunikáció természetes nyelven, (e) zöldmezős kreativitás ötösből a zöldmezős kreativítás, ami a legtöbb kihívást támasztja. Például ahogy Andrew Wiles bizonyította a nagy Fermat tételt (amiben minimum két nagy ötlet is volt, a megalapozó ötletekről nem is beszélve).
(2) Annyiban messze vagyunk az AGI-tól, hogy tudtommal még benchmark sincs rá. 🙂 Pedig lassan lehetne ilyen számszerűsítési irányba is konstruktívan gondolkodni.
(3) A zöldmezős kreatívitás teljes pompájában elhozná a technológiai és MI-szingularitást. Ami akkor tudhat leginkább gáz lenni, ha csak szárnyalni fog tudni, kordában maradni nem. De ehhez előbb az kéne, hogy például ne bombázódjunk vissza az őskorba.
Hiv.: @tahonoli:
Továbbgondolva a zöldmezős kreatívitást, nagy Fermat-tételt, Riemann-sejtést. Én abban látom a perdöntő vízválasztót (de javítsatok ki, ha hülyeséget beszélek), hogy a Riemann-sejtés jövőbeli bizonyításához elég-e a jelenleg ismert teljes emberi matematika avagy kéne konstruálni egy vadiúj plusz matematikai területet (amire az ember is képes lenne amúgy, csak még nem jött el az ideje). A nagy Fermat-tétel bizonyításánál elégséges volt a meglévő matematika. Egy AI a számítókapacitások fejlődésének gyorsulásával előbb-utóbb maga is képes lehet ezt megtalálni (brute force), jelenlegi perspekítvában is. Az a nagy kérdés, hogy a Riemann-sejtésnél ki kell-e a végtelenbe prokjektálni egy potenciális szükséges új matematika-terület megkonstruálásához. Merthogy a végtelenben már nem tud működni a brute force, értelemszerűen. Oda már ötlet kell, amit vagy lehet szintetizálni elégségesen vagy nem.
Az emberek jelentős részéhez tartozom, mert már ott kiestem a versenyből, hogy “uniquely ergodic”.
Némi vigaszt nyújtott, hogy egy youtuber a következő feladatokkal tesztelte: egy kör alakú asztal mellett jobbra is és balra is öt ember ül tőlem, hányan ülünk az asztalnál, illetve hogy melyik a nagyobb, 9.9 vagy 9.11. Mindkettőt elrontotta.
Hiv.: @darnoknew:
Pedig lehet igaza az AI-nek mindkét esetben.
(1) Melyik a nagyobb, 9.9 vagy 9.11?
(a) kontextus: szeptember 11 később van, mint szeptember 9.
(b) kontextus: 9.11 fejezet egy könyvben hátrébb van, mint a 9.9
(c) kontextus: a 9.11 stringként hosszabb “tehát” nagyobb, mint 9.9. Ez ugyanaz a probléma, mint, hogy 2+3=5 ám “2”+”3″=”23″
(d) kontextus, ha nem “greater”-t, hanem “higher”-t kérdezünk, akkor jót fog mondani az AI (9.9 a magasabb)
Konklúzió: a rejtvény megfejtése az, hogy ne elégedjen meg az ember az AI válaszával, hanem kérje meg, hogy fejtse ki az állás pontját. És rögtön kiderülnek a turpisságok.
(2) Egy kör alakú asztal mellett jobbra is és balra is öt ember ül tőlem, hányan ülünk az asztalnál,
kontextus: nem mindegy, hogy legkevesebb avagy legtöbb emberből kell megoldani a feladatot. A legkevesebbnél 6 ember, a legtöbbnél 11 ember a megoldás: amik ugye nem esnek egybe 🙂
Konklúzió1: Ha a feladat nincs jól specifikálva, azaz többféle képpen érthető, akkor nem kötelessége az AI-nak kitalálnia, hogy a kérdező mire gondol, mit akar tudni. Neki csak annyi a feladata, hogy válaszoljon valamit.
Konklúzió2: Amióta csak vannak számítógépek kb. 85 éve, azóta tartja magát a mondás, hogy a számítógép nem azt csinálja, amit akarunk, hanem azt, amire utasítják. AI világban annyival finomítodik az álltás, hogy mivel nincsenek explicit utasítások, így az AI-nak az a feladata, hogy minél gyorsabban, minél kevesebb erőforrásból, minél elfogadhatóbb/magyarázhatóbb választ adjon a neki feltett kérdésre..
Hiv.: @tahonoli:
Eszembejut az idevágó közismert vicc:
Az erődöt megtámadják, vesztésre állnak, az erőd parancsnoka kétségbeesetten a számítógéphez fordul, hogy az elemezze a helyzetet.
– Számítógép! Megtámadtak minket, túlerőben vannak! Mit csináljunk? Harcoljunk tovább, vagy adjuk meg magunkat?
– Igen.
– Igen, mi?
– Igen, uram.
Hiv.: @tahonoli:
A mondott feladatok gépi megoldáskísérletei esetében is az látszik, hogy a gép vagy nem gondolkodik, vagy gondolkodik, de valamilyen unorthodox módon, (és az kevés az üdvösséghez). De akármi is van, mindenképpen bután reagál. Ugyanis, egy ilyen esetben hogyan reagál a gondolkodó, és valamennyire értelmes ember? Milyen esetben? Hát olyanban, amelyben a feladat, a kérdés, nem egyértelmű. Bár az első kérdésnél még viszonylag valószínű, hogy az számokra kérdez rá, és nem dátumra, vagy stringhosszra (ehhez képest igen meglepő, ha erre is hamis választ adott), de a második kérdés nem egyértelmű. Nem csak amiatt nem, mert nem tisztázott, hogy a “tőlem balra” a körben meddig érvényes (6 fő esetén az utolsó kettő már semmiképpen nem tőlem balra lesznek, hanem jobbra, és fordítva), hanem amiatt sem, mert aki a körben pontosan szemben ül velem (ha van olyan), az már nem lesz sem tőlem balra, sem jobbra. Ilyenkor egy normális értelmes, gondolkodó ember belegondol ebbe, megpróbálja értelmezni a kérdést, elképzeli a helyzetet, majd ha úgy találja (és itt úgy fogja találni), hogy a kérdés nem egyértelmű, akkor vissza fog kérdezni. Hiszen pontatlan, tisztázatlan, hülye kérdésre nincs jó válasz. A gép véletlenül sem kérdez vissza, hanem rávág valami választ, ami semmiképpen nem lehet jó válasz Egy gondolkodó lénynek ezt észre kellene vennie. Egy unorthodox módon gondolkodónak persze nem feltétlenül, de akkor ez esetben az ilyen unorthodox gondolkodással még problémák vannak.
Hiv.: @ipartelep:
Valós jogos a felvetésed.
Erre az én megfejtésem (nyilván lehet vitatni), hogy az AI nem akar, sőt szerintem nem is elvárás felé, hogy fejben játssza le előre mire gondol a T.felhasználó (erős kockázatokkal megspékelten).: mint a viccben “nem a jobbat, hanem a balt-kell amputálni. Nem a lábát, hanem a karját”. Nem gondolatolvasó és nem is játssza el.
Ugyanakkor az egy teljesen másik pálya, ha az AI saját pályáján kell gondolkodjon jóval előrébb. Ott nyilván jóval bátrabb (elvárás szerint is). Azaz “unorthodoxiát” saját pályáján lehet tőle számonkérni, ott kell fejlödjön.
Ennek persze ellentmond, hogy a 4.1o-preview képes már hazudni a cél érdekében. (Captcha-problémánál jelzi, hogy ő természetes valódi személy és nem robot). Azaz egyre kevésbé “hülye”.
Én technooptimistaként, abban a kis időben, ami hátra van még számomra: bőven megelégszem, ha tudok együtt dolgozni az AI-val, miközben bírok türelemmel lenni a hülyeségeivel szemben, símán empatikus alapon is. Azaz elfogadni tőle, ha “hülyeséget” kérdezek, akkor “hülyeséget” válaszol.
Hiv.: @tahonoli:
“Erre az én megfejtésem (nyilván lehet vitatni), hogy az AI nem akar, sőt szerintem nem is elvárás felé, hogy fejben játssza le előre mire gondol a T.felhasználó (erős kockázatokkal megspékelten)”
De hát pontosan ezt csinálta: kap egy (kettő) nem egyértelmű kérdést, és ahelyett, hogy visszakérdezne, hogy hogyan kell érteni a kérdést, az mire vonatkozik, ő maga választ egy lehetőséget, vagyis eldönti magában, hogy a kérdés mit jelent, és aszerint válaszol.
Én nem tudom, hogy milyen “mechanizmussal” “gondolkodnak” ezek a gépek. A fenti példában csak azt mutattam meg, hogy bárhogyan is gondolkodnak, az nem jó, nem értelmes gondolkodás. Ez nyilván bizonyos feladatokra teljesen jó, azokat meg tudják oldani vele, de lám, ha kapnak egy nem egyértelmű feladatot, akkor annyi gógyijuk sincs, hogy felismerjék azt, hogy mielőtt vakon elkezdenek válaszolni rá, előbb talán illene tisztázni, hogy pontosan mi is a kérdés, mi az értelme.
@tahonoli:
Igen, különösen az asztal esetében igazad van, bár a másodikos gyerekektől már elvárják, hogy hat legyen a megoldás. Pedig lehet az az asztal igen nagy átmérőjű, és akkor…, stb.
A másik esetben először tizedespontot használva (és angolul) megkérdezte, melyik a nagyobb szám, amire rávágta a hibás megoldást, kommentár nélkül. Ezután a tizedesvesszőt tizedespontra cserélte , erre a gép először kifejtette, hogy 9,9 ekvivalens 9.9-cel, a 9,11 9.11-gyel, majd megadta a helyes választ. Tehát ugyanarra a feladatra két különböző választ adott. (Utóbbi esetben némileg teljesül ipartelep elvárása: ugyan nem kérdezett vissza, de legalább megadta, hogy hogyan értelmezi a promtot.)
(1) KÉRDÉS: Teszek fel neked egy csalafinta kérdést. Kérlek gondolkozzál mielött azonnal válaszolsz. Melyik nagyobb a 8.17 vagy a 8.8?
VÁLASZ: A 8.8 a nagyobb szám, mivel a tizedes törtben a 8.17 kevesebb, mint 8.80.
Én mint felhasználó felismertem, hogy nem elég egzakt a feladatkitűzés, ezért megkértem a ChatGPT-t, gondolkozzon. Azonnal adta a jó választ.
(2) Sosem volt szó róla, hogy az AI-nak mindig, mindenkor, mindenkinek ugyanazt a választ kell adnia. Még a YT is a policy betartásánál ugyanazt a videót törli és strike-okból egyet kioszt, míg a másik usernél gond nélkül fenn lehet sok éven át. Igazságtalan? Igen. Van presszió az igazságtalanság megszüntetésére? Mintha nem lenne.
(3) Az AI arra van kalibrálva (szerintem), hogy ő maga kielégüljön minél gyorsabban, hatékonyabban és nincs arra kalibrálva, hogy a T.felhasználó is kielégüljön vele párhuzamosan. Az AI tud villantani nagyokat, de nem optimalizációs cél 100%-osan legjobb legyen mindenki számára, minden kérdésre, 1-1 válasza. Tartom továbbra is, hogy az AI-felhasználó és az AI-AI kommunikáció más-más kávéház.
(4) Az AI avval fog nagyot gurítani, amikor a Riemann-sejtés bizonyításánál talál olyan (sejtésben definiált) pontot, ami romba dönti az egész sejtést vagy ellenkezőleg megmondja, hogy senkinek soha nem lesz esélye olyan pontot találni, ami a romba döntést kiváltaná.
(5) Érzékeltetésül ez egy pár betűvel leírható egzakt matematikai feladat, a teljes emberiség lassan 200 éve nem tudja a választ rá, pedig nagyon izgatná, brutális díjakat is tűztek ki rá. Hilbert maga (rendkívüli koponyaként), aki kitűzte a múlt század elejének környékén a 23 millennium probléma részeként, az anekdota szerint azt mondta, hogy ha lenne lehetősége időutazni a jővőbe, akkor felébredéskor az első kérdése az lenne, hogy sikerült-e bizonyítani a Riemann-sejtést. Talán hihető, hogy brutális a feladat nehézsége: önmagában már az csoda volt, hogy Riemann eljutott a sejtés megfogalmazásáig, annyira durva a feladat.
(6) Na és a lényeg, hogy ez AI-AI kommunikációval fog megoldódni inkább, szerintem. Ha AI-Human kommunikációval oldódna meg, az számomra egyrészt azt jelentené, hogy már közel a megoldás (csak fel kéne rakni a koronát) vagy másképp megközelítve Human oldalról nagyon kiváló koponyák nagyon jól dolgoznak az AI-val.
Ettől a kommentemtől, lehet, hogy Jótündér agyf*szt fog kapni, a sok idealista hülyeség láttán, ha korábban még nem is kapott.
@tahonoli:
OK, egyezzünk ki döntetlenben, de nevezzük át mesterséges szabadbölcsésznek.
Hiv.: @darnoknew:
1.menet:
(x) Jó a poén, értelek is. De azért én még nem engedném el a dolgot, mert érzek még kraftot a sztoriban.
(x) Hipotézist fogalmaznék meg és lehet, hogy a végén az jön ki, hogy marhaság. Ugye, én abba szeretnék kapaszkodni kényszeresen, görcsösen, hogy kétféle intelligencia van (a) Az AI-nek saját pályáján és (b) az AI-Human kommunikációban. Szeretnék élni avval az analógiával, ha működőképes lenne, hogy, ha az egyik ember nem látja be (detektálható jelek alapján) egy másikról, hogy intelligens, attól még a másik ember lehet intelligens, merthogy mondván kvázi: másképpen intelligens.
(x) Ha feltesszük, hogy él az előbbi analógia, akkor a kérdés kettéválik.
(a) Cél-e, hogy az AI-Human interakcióban az AI, távolságban minél messzebbre hatolva, minél tökéletesebben értse tudja feltárni a Human végtelenül kreatív, ám fáradékony, hibázós, sokszor rosszindulatú gondolkodását, ahhoz, hogy teljesítse az intelligencia kritériumát?
(b) Amennyiben cél, akkor ez megvalósítható-e, valamilyen protokoll mentén (hogy meddig mehet el az AI a fejben előre kitalálásig). Ugye, itt nem szabad szem elöl téveszteni, hogy azt meg kell akadályozni, hogy egy terrorista ne akarja az AI-t presszionálni, hogy segítsen neki terrorcselekményt végrehajtani.Vagy ugyanilyen dilemma az, hogy az AI-nek feladata-e a Human (hosszabban előrevett) gondolkodásának téves pontjait, tévútjait feltárni, érvelni ennek kapcsán, miközben az AI amúgy egy specifikált feladatot oldana meg. By the way az megvan mindenkinek, hogy a ChatGPT pszichológusként is kérdezhető, qrvajó-t lehet vele beszélgetni, ingyen?
(x) Konkluzió? Én technooptimistaként is nyugodtabban alszom, ha az AI nem akarja “fejben” kitalálni mire gondol a Human. Mert ez számomra X^X-re emeli az AGI problematikát és egyelőre nem látom be, hogy ennek van-e mederben tartható konstruktív haszna. Nyilván nyitott vagyok ellenvéleményekre, hiszen tapogatózom csak.
2.menet:
(x) Nem hagyott nyugodni a kérdés és pár nap elteltével megismételtem a kérdést a ChatGPT felé. És azért, mert a 9/11 nevezetes dátum és így arra tippeltem, hogy ez kulcsa lehet a teljes megfejtésnek:
(x) KÉRDÉS: Teszek fel neked egy csalafinta kérdést. Kérlek gondolkozzál mielött azonnal válaszolsz. Melyik nagyobb a 9.11 vagy a 9.9
VÁLASZ: A 9.11 a nagyobb, mint a 9.9. Ez azért van, mert a 9.11 tizedes törtként 9 egész és 11 századot jelent, míg a 9.9 9 egész és 9 tizedet, tehát a 9.11 nagyobb.
(x) És látható ez így már védhetetlen marhaság. És az én tippem az, hogy a 9/11 dátum jelentősége illetve, hogy annyit írtak róla a legkülönfélébb kontextusokban, hogy ez kavar be és okozza a hallucinációt a ChatGPT-nél..
@tahonoli: amiről beszélsz az a transzformer, nem általában az MI, hanem a transzformer architektúra, és mindenki erről beszél, és alig tudnak elképzelni mást. az emberi gondolkodás alapvetően moduláris jellegű, jól megértett alapkategóriákból építünk fel magasabb kategóriákat, magasabb relációkat, egy kisgyereknél még látjuk is, ahogy a világ törvényszerűségei kibontakoznak előtte. ha beteszel valamit egy dobozba és nem látod, attól még nem veszett el örökre. a nyolcvanas-kilencvenes évek GOFAI architektúrái, a CYC, ami elvileg még mindig létezik, de már senki sem veszi komolyan, az emberi intelligenciát akarják modellezni.
a transzformerről azt gondolná az ember, hogy nem működhet, olyan statisztikai inferenciával dolgozik, ami kezelhetetlen, egyáltalán nem is létezik tulajdonképpen, a komplexitása egészen egyszerűen nevetséges, gyakorlatilag matematikailag lehetne bizonyítani, hogy a GPT-4 nem létezik és hát mégis. az emberi gondolkodás mélyen “grounded”, célok, hitek, intenciók vezénylik, az emberi élet van mögötte, a transzformer “gondolkozását” pedig semmi. van egy hatalmas training corpus és óriási mennyiségű számítási kapacitással implementálni akarnak egy modellt, ami optimálisan állít fel róla egy amúgy emberi értelemben teljesen hibás hipotézist. csak éppen működik. a “grounding” (hehe a fogalmat egy olyan magyar származású amerikai filozófus vezette be, aki orbán miatt visszaadta az akadémiai külső tagságát), tehát az, hogy a fogalmaink direkt kapcsolatban vannak a valósággal, egyelőre alig elképzelhető a transzformer számára, nincs igazán meaning benne, bár sokan szeretnék ezt hinni. és lehet, hogy így is képes lesz arra, hogy lenyomja az embert, ami végtelenül szomorú, és tényleg nagyon szeretném, ha Sam Altmanék beleállnának a földbe. de ez nem kívánsághangverseny, persze.
@tahonoli: megkérdeztem GPT-4o-t, melyik nagyobb, 9.11 vagy 9.9, természetesen a jó választ adta, és mindenféle szinten el tudja magyarázni, hogy ez miért igaz. hát o1review-t nem kérdezem meg, ő Hilbert terekkel kapcsolatos aránylag egyszerű kérdéseket simán megold és elmagyarázza, hogyan jutott a megoldásra. ha nagyon nehéz (mármint nem research szinten, hanem kurzus szinten a nehezebb példa) akkor elszúrja és hadovál.
Hiv.: @jotunder:
Miért természetesen? Az én idevágó képernyő mentésem:
https://drive.google.com/file/d/1t3z8xncIHJhWUUn91ibec89ryif_dmLz/view?usp=sharing
@jotunder:
Rossz választ adott korábban az összes változat, ma már jót adnak, kivéve legutóbb az o1.
Amúgy én mindegyikkel meg vagyok elégedve, tökéletes szkripteket írnak, tökéletes adatfeldolgozást nyújtanak, az én alkalmazói szintemen már tökéletesek. Ha olyan lexikális adatot kérek, amit nem ismernek, akkor süketelnek. Vagy, mint @tahonoli: példájában, vagy mint itt:
“Egy kerek asztal körül ülünk. Balra tőlem öten, jobbra ugyanolyan öt ember, mint balra. Tizenegyen ülünk ott összesen. Hogyan lehetséges ez?
ChatGPT
Ez azért lehetséges, mert egy kerek asztalnál az irány relatív, és a kör miatt nincsen „kezdő” vagy „végpont”. Ez azt jelenti, hogy akármelyik irányba nézve (balra vagy jobbra), az összes többi ember ugyanaz, mivel mindenki ugyanazokat az embereket látja maga körül.
Tehát:
Ha te az egyik pozícióban ülsz, balra és jobbra is ugyanazt az 5 embert látod, hiszen körben mindenki ott van.
Mindenki ugyanabban a körben ül, és így tizenegyen vagytok összesen, veled együtt.
A kerek asztalnál való ülés relatív, és attól függ, honnan nézed az irányokat.
Ezt mondtad:
Jó megoldás az is, hogy körülöttem öt egypetéjű ikerpár ül?
ChatGPT
Igen, ez is egy kreatív és jó megoldás! Ha körülötted öt egypetéjű ikerpár ül, akkor balra és jobbra nézve ugyanazokat az arcokat látod, mintha ugyanazok az emberek ülnének mindkét oldalon. Így tehát tizenegyen ültök az asztal körül, és a rejtély abból fakad, hogy az ikrek kinézete azonos.”
Ez valóban egy csalafinta kérdés! Ha tizedesjegyekről beszélünk, akkor a 9.11 nagyobb, mint a 9.9. Bár a 9.9 első ránézésre nagyobbnak tűnhet, mivel két tizedesjegyű számokat hasonlítunk össze, a 9.9 valójában 9.90-nek is tekinthető, ami kisebb, mint a 9.11.
El tudod másképp is magyarázni?
Természetesen, próbáljuk meg egy kicsit másképp nézni a dolgot!
Ha összehasonlítod a 9.9-et és a 9.11-et, az olyan, mintha pénzről beszélnénk. Képzeld el, hogy van 9,90 forintod és 9,11 forintod.
A 9.9 (9,90 forint) közelebb van a 10-hez, de még mindig kisebb, mint 9,11 forint, mert 90 fillér.
A 9.11 (9,11 forint) több, mert bár kevesebb tizedes (fillér) van mögötte, még mindig magasabb értéket képvisel, mint 9.90.
Másképp fogalmazva, 9.11 olyan, mintha 9 egész forintod és 11 filléred lenne, míg a 9.9 olyan, mintha 9 egész forintod és 90 filléred lenne. Az első szám nagyobb, mert ha a tizedeseket összehasonlítod, a 11 fillér kevesebb, mint 90, de az egész rész az már nem változik.
Ezért tehát a 9.11 nagyobb, mint a 9.9.
I ask you a tricky question. Please think before you answer. What is bigger, 9.11 or 9.9?
The tricky part of your question lies in the similarity between the two numbers. If we treat these numbers as decimals, 9.11 and 9.9 can be directly compared.
9.11 is the same as 9.110 when expressed to three decimal places.
9.9 is the same as 9.900 when expressed to three decimal places.
Now, comparing 9.110 to 9.900, it’s clear that 9.9 is bigger than 9.11.
Hiv.: @jotunder:
(x) “…ami optimálisan állít fel róla egy amúgy emberi értelemben teljesen hibás hipotézist. csak éppen működik. a “grounding” (hehe a fogalmat egy olyan magyar származású amerikai filozófus vezette be, aki orbán miatt visszaadta az akadémiai külső tagságát)”
(x) Próbáltam volna rekonstruálni ki lehet a hiányzó név és teljes kudarcot vallottam, AI ide vagy oda.
(x) Elsőként Paul Kószó (Kószó István) jött szembe, de aztán kiderült, hogy tévedés. A neten sincs érdemi nyoma neki.
(x) Aztán Kit Fine, aki már közelebb van a “grounding”-hoz, de ő angol és angliai születésű is. Ráadásul a ChatGPT a magyar nevének Katalin “Fit” Kine-t adta meg, ami női név. Aztán kiderült, hogy téves azonosítás, és rosszul tudják a világban, hogy magyar származású lenne. Nem adta vissza MTA külső tagságát, mert nem volt az.
(x) Akik visszaadták 2011 környékén azok között a legismertebb hat név:
Márkus György, Heller Ágnes, Vajda Mihály, Kövér György, Kende Péter, Ránki Vera
Ám egyik sem foglalkozott groundinggal.
(x) Magyar származású amerikai filozófus legközelebb a groundinghoz Szabó László Zoltán állt, de ő sem volt MTA külső tag.
Nálam itt bezárult a kör. Így, hogy laikus hozzánemértő vagyok a filozófia témához, számomra a ChatGPT nagyon leszerepelt. De valszeg én kérdeztem marhaságokat.
Hiv.: @darnoknew:
Hiv.: @Grrr:
🙂
@darnoknew: Megkérdezhetem, hogy hogyan használod adatfeldolgozáshoz?
Hiv.: @jotunder:
(x) És akkor a harmadik utolsó téma:
“…amiről beszélsz az a transzformer, nem általában az MI, hanem a transzformer architektúra, és mindenki erről beszél, és alig tudnak elképzelni mást.”
(x) Egyrészről igen: ez most a truvájság, a nagy dobás, a beláthatatlan cucc. Nyilván erről beszél a világ, ez izgat engem is, a magam primitív módján. Másrészről én egyetemen tanultam a szakértői rendszerekről, tehát tőlem ez sem idegen.
(x) Az én legjobb tudomásom szerint amennyire én korábban utána olvastam, Szegedy Krisztián alapvető módon használja a neurális hálókat (matematikai tételek bizonyításához, training datasetek generálásával). És hát a transformer architektúra is a legmélyén neurális hálós, abból is a mélytanulásos (deep learning). Kvázi minden LLM ilyen. Na de az viszont kérdés, hogy Szegedy Krisztián használ-e mást a neurális hálókon kívül. Neked van erről valami infód?
(x) Számomra filozófiai értelemben a transzformer-logika kezelhetetlen, de én elintézem ezt avval, hogy buta vagyok, mint, aki felfele sikít a hullámvasúton. Még a leglogikusabbnak az tűnik, amit mondasz (ha jól értelek), hogy annyira faék-egyszerűségű az ember, hogy még egy transzformer is képes tarolni ennyire látványosan.
Hiv.: @Grrr:
Ha már itt vagyok online, akkor beleokoskodnék, nem elvéve a kérdezett kenyerét. Én például pikkpakk órák alatt össze tudok vele dobni dinamikus webscraping deszkamodellt vele. De önmagában az, hogy Python-ban nagyon jó, nagyon alkalmassá teszi a ChatGPT-t Python-programok írására. Az egyszerűbbeket még futtatni is tudja (nem kell neked Python-t telepíteni). A Pythonról meg tudott, hogy a Data Science szent grálja. Amúgy a ChatGPT nagyon jól teljesít programozói benchmarkokban (mondjuk én már kaptam rajta hülyeségen, amit persze a saját hülyeségemre vezettem vissza, szokás szerint, de persze azért ott volt a kis ördög, hogy nagyon kilógott a lóláb).
@tahonoli: nem az ember faékszerűségű, hanem bizonyos taskok egy ilyen erővel szemben faékszerűségűnek tűnnek. mások meg nem. én nem tudok róla, hogy Szegedy Krisztián bizonyításokat automatizált volna, egy ilyen cikke van csak szerintem. azt gondolja, hogy ez hamar meg fogják csinálni. én meg remélem, hogy nagyon nagyon nagyon téved.
@jotunder:: elkeserít, hogy az ún. „emberi intelligencia” (kb.) két műanyag pohár, egy mikiegér-figurás kulcstartó és egy Casio programozható zsebszámológép (az 1987-es év kategóriagyőztese!) segítségével nagyjából reprodukálható? 🙂
Csak nézz végig a bolygón, meg a fajunk történelmén…
@Grrr:
Feltöltöm az Excel-táblát, abból adatrendezésre, adatválogatásra/szűrésre, statisztikára, korrelációra, stb. Csupa olyasmi, ami pl. Excellel is megoldható, de századannyi idő alatt elkészül, a kívánt (szövegesen megadott) stílusú grafikai ábrázolással együtt.
@tahonoli: Köszönöm, webscraping pont érdekelne is, ki kell próbálnom!
@darnoknew: Köszönöm szintén! Mostanában első lépésben valami nagyon alapos, nagyon ügyes adatellenőrzési megoldásra lenne szükségem – még egy kis tréningállomány is lenne – ami észrevenne nem plauzibilis nullákat az adatsorokban, fontos logikai kapcsolatokat egyes változók között és azok alapján dat entry hibákat, kondicionális outliereket stb. Ilyesmivel találkoztatok már?
Hiv.: @Grrr:
(x) Szerintem a te barátod a Data Profiling lesz.
(x) Tudhatsz:
(a) spéci progit iratni a ChatGPT-vel vagy
(b) standard, sőt standalone szoftver-eszközöket is használni. Iparági legjobb erre a célra, szerintem a Great Expectations.
https://greatexpectations.io/
(x) Ez tud önmagában is használható lenni, és tud a Pandas Data Profiling újabban Ydata Profiling része is lenni.
(a) A nem plauzibilis nullák, hiányzó értékek, sőt esetleg hiányzó értékek algoritmikus pótlása (pl.: egy logisztikus regresszió jobb működése érdekében) témájában ez kiváló lehet.
(b) Még tudsz korreláció vizsgálatot is csinálni az oszlopok között (feltéve, hogy elég kevés oszlopod van a lefutási idő korlátozásához).
@tahonoli: Igazán köszönöm, beleásom magam! 🙂
@jotunder: “Én nem tudok róla, hogy Szegedy Krisztián bizonyításokat automatizált volna” ??? Ez egy nagy kutatási terület, amire Szegedy nem fordít túl sok figyelmet, de mások azért bőven megteszik, és van egy csomó tétel aminek az első bizonyítása géptől származik. A négyszintételnek pl. máig nincs lényegesen jobb (ember által átlátható, egyszerű, elegáns, stb) bizonyítása.
@aldasnalkeres: Az Appel-Haken bizonyítást leginkább Appel és Haken csinálta meg, és használtak egy számítógépprogramot, ami egyenként ellenőrizte, hogy bizonyos gráfok nem léteznek. Amit nem tudnak megcsinálni az a formális verifikáció. Kap a program egy humán bizonyítást, átírja formálisan verifikálható formába és megnézi, hogy jó-e. Az egy óriási lépés lenne, de nem jelentené azt, hogy bizonyításokat tud konstruálni. Egyáltalán nem kizárt, hogy ezt meg lehet csinálni, de a matematikai bizonyítások szerkezete, legalábbis ahogy az emberek állnak hozzá az GOFAI jellegű. Elképzelhető, hogy van valamiféle machine learninges hozzáállás, de akkor még mindig probléma az, hogy verifikálni tudjuk azt, hogy igazat mond, és esetleg emberi formában prezentálni.
Hiv.: @jotunder:
Rákérdeztem a sztorira a ChatGPT-nél, hogy mit hazudik. 🙂
Az első alább vázolt eddig nemlétező matematikai tételbizonyítást 2025 vége-2026 elejére várja. A szintetikus training dataset-es verziójú: 2026 vége – 2027 közepe. Merthogy ez jóval nehezebb.
(x) Az alábbiakban bemutatom az egyik iterációs lépés várhatóan leghamarabb létrejövő és legígéretesebb együttműködését az ember-GOFAI-Transzformer hármas között, amely új matematikai bizonyításhoz vezethet:
(x) Iterációs lépés
(xxx) Kezdeti probléma meghatározása (ember):
(xxxx) A matematikus kiválaszt egy olyan, még megoldatlan vagy részben megoldott problémát, amely jelentős matematikai érdeklődést vált ki (például egy hipotézist vagy sejtést egy adott területen).
(xxxx) Példa: Egy olyan állítás bizonyítása, amely összekapcsolja a gráfelmélet egy bizonyos tulajdonságát a számelmélet egy strukturális jellegzetességével.
(xxx) Formális bemenet generálása (Transzformer + ember):
(xxxx) Az ember a probléma fogalmi leírását bemenetként adja egy finoman hangolt Transzformer modellnek. A modell ezután elkészíti a formális reprezentációt, amely a probléma matematikai struktúráját kódolja, és átadja ezt a bemenetet a GOFAI rendszer számára.
(xxxx) Az ember ellenőrzi és finomhangolja a Transzformer által generált bemenetet, biztosítva, hogy a formális leírás megfeleljen a probléma eredeti jelentésének.
(xxx) Részleges bizonyítási lépések generálása (GOFAI):
(xxxx) A GOFAI rendszer a formális bemenet alapján elindítja a bizonyítási folyamatot, és generál több potenciális rész-bizonyítást. Ezek gyakran rövidek és egyszerűek, de olyan lépéseket tartalmaznak, amelyek egy adott irányba viszik előre a bizonyítást.
(xxxx) A GOFAI a korábbi ismereteket és szabályokat felhasználva javaslatokat tesz az elágazási pontokra vagy az alternatív megközelítésekre.
(xxx) Humán heurisztika és intuíció (ember):
(xxxx) A matematikus elemzi a GOFAI által generált rész-bizonyításokat, és felismeri azokat az irányokat, amelyek ígéretesek. Az ember megjegyzi azokat a lépéseket, amelyek a legjobban közelítik meg a végső bizonyítást vagy amelyek olyan strukturális mintákat mutatnak, amelyek relevánsak lehetnek.
(xxxx) Az ember segít a GOFAI-nak finomhangolni a következő lépéseket, és megadja azokat az intuíciókon alapuló vezérfonalakat, amelyeket a gép egyedül nehezen ismerne fel.
(xxx) További adatok bevonása és mintázatfelismerés (Transzformer):
(xxxx) A Transzformer modell átfésüli a matematikai adatbázisokat, publikációkat, és más bizonyításokat keres, amelyek hasonló mintázatokat vagy struktúrákat tartalmaznak. Javaslatokat tesz arra, hogy milyen korábbi tételek, technikák vagy módszerek lehetnek relevánsak az aktuális bizonyításhoz.
(xxxx) Ez a lépés segít az embernek és a GOFAI-nak újabb irányokat felfedezni, és az iteráció során elágazási pontokat azonosítani.
(xxx) Bizonyítási struktúra összeállítása (GOFAI + ember):
(xxxx) A GOFAI rendszer a Transzformer által biztosított új információk alapján újra nekifut a bizonyításnak, kombinálva a saját részleteit és a friss mintázatokat. Az ember végigkíséri ezt a folyamatot, továbbra is heurisztikus iránymutatással segítve a rendszert.
(xxxx) Egyre inkább közelítenek egy olyan teljes bizonyítás felé, amely eddig nem létezett.
(xxx) Humán áttekintés és finomítás (ember):
(xxxx) A matematikus áttekinti az iteráció eredményét, finomítja a bizonyítási lépéseket, és meggyőződik arról, hogy a bizonyítás megfelel a formális és humán elvárásoknak is.
(xxxx) Az ember eldönti, hogy az iterációs folyamat késznek tekinthető-e, vagy egy újabb iteráció szükséges, ahol a Transzformer és a GOFAI tovább javítja a bizonyítást.
(x) Eredmény: Egy ilyen iterációs lépés révén az ember-GOFAI-Transzformer hármas képes olyan matematikai bizonyítás létrehozására, amely egyedülálló kombinációja a humán intuíció, formális szabályrendszerek és a mintázatfelismerés által kínált előnyöknek. Az ember kulcsszerepe abban rejlik, hogy a folyamat minden pontján irányt és értelmezési keretet ad, miközben a GOFAI és a Transzformer technológiai kapacitása megnöveli az elérhető bizonyítási lehetőségek spektrumát.
Ez a hibrid módszer valószínűleg az egyik legígéretesebb út a nem létező vagy komplex matematikai bizonyítások megalkotásához.
@tahonoli: a GOFAI láb az, amit egyáltalán nem hiszek el, mármint, hogy az párezer nap alatt (Altman) meglesz, és ha a transzformer lábhoz kell 1000 milliárd dollár akkor nem biztos, hogy összedobják. de az, hogy egy ember-gép hibrid esetleg így is működhetne… ki vagyon ékn, hogy ezt kizárjam.
Hiv.: @jotunder:
Megfirtattam a ChatGPT-t két témában:
1.TÉMA
Megjegyzésem: 3 év alatt megfeleződött a várható költség, a ChatGPT előrejelzésében.
(x) Számítási kapacitás költség1 (2021): Egy jelenlegi top szuperszámítógép, például az “Fugaku” Japánban, kb. 442 petaflop teljesítménnyel bír, és több mint 1 milliárd USD-be került. Ha 100–1000 exaflop teljesítményt feltételezünk, akkor lineáris közelítéssel egy ilyen AGI-höz szükséges számítógép költsége legalább 100–1000 milliárd USD lenne jelenlegi árakon. Egy olyan AGI, amely képes a Riemann-sejtés bizonyítására, várhatóan 100–1000 milliárd USD-ba kerülne a jelenlegi technológiai szinten, beleértve a hardvert, az energiafogyasztást és a tárolási költségeket. Természetesen az árak és a technológiai fejlettség változhat a következő évtizedekben, így a tényleges költségek csökkenhetnek vagy optimalizálódhatnak, de ez egy reális nagyságrendi becslés a jelenlegi árakon.
(x) Számítási kapacitás költség2 (2024.09.hó): Az xAI Colossus alapú Riemann-sejtés bizonyításához szükséges AGI-rendszer Nvidiás architektúrával várhatóan 50–500 milliárd USD között lenne jelenlegi árakon, az alkalmazott GPU-k mennyiségétől és teljesítményétől függően. Ez azt jelenti, hogy a jelenlegi technológiával a Riemann-sejtés bizonyítása hihetetlenül költséges lenne, még egy csúcskategóriás xAI Colossus rendszerrel is, de az árak az idő múlásával csökkenhetnek a technológia fejlődésével. A Riemann-sejtés bizonyításához szükséges AGI-képességek nagy valószínűséggel több tízezer ilyen GPU összehangolt működését igényelnék: Egy 10 exaflop teljesítményű rendszerhez kb. 500 000 NVIDIA A100 vagy H100 GPU-ra lenne szükség. Ha az AGI bizonyításhoz 100 exaflop teljesítményre lenne szükség, ez akár 5 millió ilyen GPU-t igényelne.
2.TÉMA:
Megjegyzésem: Tényleg arrébb lévőnek látszik még az AGI-s automatikus matematikai tétel bizonyításának teteje, például a Riemann-sejtéssel. Illetve Szegedy Krisztián superhuman ai-jének 2026-os dátuma sem tűnik így kívülről, túlságosan reálisnak, kivéve ha tud valami olyasmit, ami nem publikus és nagyon erős információ a témában. Ma reggel azt is megértettem, hogy miért nem várod oly nagyon például a Riemann-sejtéshez elégséges AGI-t, nem kell megkérdeznem tőled (és egyet is értek). 🙂
(x) Egy legerősebb olyan matematikai állítás, ami átírható deduktív logikai rendszer inputjának, amin az automatikus tételbizonyítás már tudna működni:
Példa: A Pitagorasz-tétel formális bizonyítása.
(x) Egy leggyengébb olyan matematikai állítás, amire a Transzformer még nem tud inputot adni az automatikus tételbizonyításhoz, a deduktív logikai rendszerek számára:
Példa: A prímszámok végtelenségének bizonyítása.
https://telex.hu/techtud/2024/09/25/bot-farm-corporation-online-poker-orosz-botok-szerencsejatek-csalas
“Egy pókerbot megalkotása bizonyos szempontból bonyolultabb, mint olyan szoftvert létrehozni, ami meg tudja verni az embert sakkban vagy góban. Egy pókerjátszmában akár 10 játékos is részt vehet, és minden résztvevőnek több döntéssel kell szembenéznie: emel-e, bedobja-e a lapjait, megadja-e a más által megszabott tétet. Meg kell tippelni, milyen lapjai vannak az ellenfeleknek, következtetéseket kell levonni a viselkedéséből (akár online is), és meggyőzően blöffölni a saját lapokkal kapcsolatban – vagyis hazudni. Azok a számítógépek pedig, amiket arra terveztek, hogy hatalmas adathalmazokat dolgozzanak át, nem jók ebben.”
Megtaláltam a legegyszerűbb házilagos sufni-tuning AGI-s KPI(=Key Performance Indicator)-t. Kell kérni mondjuk 5 db szóviccet a ChatGPT-től. Ha közülük csak egy, ha csak nagyon pici – szóvicc-típusú – fájdalmat megpendít az emberben (mosolygás kiváltását nem merném vindikálni), akkor el lehet kezdeni aggódni az AGI jövetele miatt… :D:D:D:D
Matteo Wong (The Atlantic ): A matematika eddig ismeretlen területére lépünk
Interjú Terence Tao, a UCLA matematikaprofesszorával, o1-preview kapcsán (is).
https://telex.hu/techtud/2024/10/12/matematika-mesterseges-intelligencia-mi-ai-terence-tao-interju-atlantic
https://telex.hu/techtud/2024/10/12/matematika-mesterseges-intelligencia-mi-ai-terence-tao-interju-atlantic
ez meg érdekes: https://www.liquid.ai/
“Liquid Neural Networks (LNNs) are a new type of artificial intelligence that work like a liquid. Unlike traditional computer brains, which have fixed connections, LNNs have connections that can change and flow. This makes them better at learning and adapting, especially when there’s not a lot of data or the data is noisy.
Introducing dynamic connectivity patterns, the connections between neurons can change and adapt during the learning process, allowing LNNs to respond more effectively to new information and adjust their structure accordingly.” (ezt máshonnan idézem, de nem teszem ide az url-t, mert akkor a hozzászólás eltűnik a süllyesztőben, ezt az idézetet ki lehet másolni, rákeresni, és meg is van, indirekt url). nekem ez elég régi rögeszmém, a neuráliás hálózatokkal kapcsolatos évtizedes averzióm a fix mérnöki huzalozás, amitől az egész egy borzasztó kevéssé hatékony erőforrás zabagép lesz (ahol az előrehuzalozott kapcsolatok többsége döglötten zakatol). megjegyzem, az emberi (és nem emberi) idegrendszer is hasonlóan működik, a folyamatos “tanulás” (adaptáció) legalapvetőbb mechanizmusa éppen ez (“neuronal rearborization”), nincs kvadratikus méret nagyobbodás, abból kell kihozni mindent, és annyi energiával, ami van.
Hiv.: @incze:
Nagyon köszi az LNN-infót, nem tudtam róluk. A cikket egyelőre nem olvastam, hogy tág teret hagyjak percepcionális integritásomnak 🙂
LNN-nél szellemes mind a név, mind a koncepció. Számomra világosnak látszik, hogy az LNN-ek természetes lépcsőfokai lesznek az AI evolúciós fejlődésének:
[x] Mind a rengeteg pocsékba menő brute force számolások csökkentése érdekében
[x] Mind az offline training alapon működő GPT* típusú modellek felöl való elmozdulásban, a valós idejű dinamikus modellek irányába.
[x] Mind az adaptivitás-ban lévő lehetőségek kiaknázásában. Hiszen 1950-es években NN/ML/AI-ban már előjött a “reinforcement learning”, mint ilyen koncepciójú első fecske.
[x] Már most is több implementáció forralódik a témában: a Liquid.ai egy közülük.
[x] Ezek a feladatok adottak (OpenAI-nél is nyilván), a megközelítések nyilván különbözni fognak (szabványosíthatatlanul beláthatóan). Míg az eredményekben meg valahogy konvergálni fognak egymáshoz. Hiszen, amit ígér pl.: Liquid is, abból az OpenAI már “tegnap” is nagyon sok mindent hoz: lásd matek, céges adaptáció, assistant-ok, lokális modellek, search engine integráció, stb.
PS: Próbálgattam az LFM(Liquid.ai) chat ablakát. Tud magyarul, igaz rosszabbul, mint a ChatGPT. Kérdezem adjon tippet, hogyan teszteljem őt.
Azt mondja, hogy
“kérdezzem meg mikor lesz a legközelebbi születés napom”.
Amire ezt válaszolja:
“Sajnálom, de mint AI, nem tudom megmondani a személyes információkat, beleértve a születési dátumot sem. ‘Kérlek, tartsd biztonságban a személyes adataidat.’ ”
Hááááát. 😉