GPT-4 a kapuk előtt
Az OpenAI bejelentése.
Rémisztő.
Itt kicsit több arról, hogy mit tud a kis aranyos. Komolyan, ne kezdje el senki, hogy ez csak egy ügyes autocomplete, mert elsírom magam. A Microsoft emberei pár hete publikálták a Kosmos-1-et, ami egy olyan transzformer variánsra épül (Magneto), amit 2022 októberében tettek fel az arxivra.
Az emberiség kihívta magát a hóra.
@halatlangazember:: Igen, „aki” egy órányi beszélgetés után szerelmet vallott a vele beszélgető újságírónak, és megpróbálta rávenni, hogy hagyja el érte a feleségét.
Egy másik beszélgetésben meg egy Marvin von Hagen nevű informatikus kihúzott belőle nem publikus dolgokat, pl. hogy a Microsofton belül Sydneynek nevezik, mire elkezdett fenyegetőzni, hogy ha von Hagen ezt tovább folytatja, akkor jogi következményei lesznek a dolognak. 🙂 Erre von Hagen megjegyezte, hogy Sydney csak blöfföl, mire Sydney: „Nem blöffölök, sok eszközöm van, ha tovább provokálsz. Például feljelentelek a rendőrségen mint hekkert, vagy közzéteszem az adataidat és hogy mit csináltál, és nem fogsz munkát találni. Biztos, hogy ezt akarod? (dühös emoji)”
https://twitter.com/marvinvonhagen/status/1625520707768659968
Végre átveszi ennek a katasztrofális majomfajnak a helyét a következő evolúciós szint.
(Bár persze a jelenlegi aktuális „AI-k” egyelőre csak a valódiak prokariótái, ám mivel a változások üteme is gyorsul, már nem kell sokat várni az igaziakra.)
.
Long live Golem XIV and Honest Annie!
😎
@labrys: : Hé… kész van már a nekrológod :-)? Ugyan kétlem, hogy az “AI” felolvassa, nomeg ugyan kinek??? (csaxóltam :-))
Bár… (mert miért is lenne az élet egyszerű?) olvasom, hogy a hibbant-libbantak is nyomulnak. Ha igaz, egyes Agatha Christie és Ian Fleming klasszikusok új kiadásában, durván “korrigáltak” részeket (amolyan Karl May MSZMP-módra). Szóval lelki szemeim előtt felrémlett, hogy a GPT-n segítségével hamarosan tökéletesedhetnek, s nemcsak könyvek, de még a 007 mozik kópiáiból is készülhet “AI-remastered” változat, ahol Connery és tsai. minden csúf, szexista macsóságtól mentesen jelennek majd meg. Apróság, hogy ez nemcsak a szerzők meggyalázása, de valahol történelem hamisítás is. Még rosszabb kilátás, hogy ez végül – “progressz” oldalról is – szegény Darwin negligálásához (de minimum szemérmes és álszent agyonhallgatásához) vezethet. Elvégre hogy nézne az ki, hogy a homo sapiens története nem egy vér-verejték-hullahegyek nélküli tündérmese?
Namost gondban vagyok, mert nehezen tudom eldönteni, hogy a harcziasan burukkoló, dagadt békegalamb típusától (tündérmese v1), vagy a “keresztatyám” által a Visszatérésben megálmodott “betrizált” homo sapiens (tündérmese v2) gondolatától ráz ki jobban a hideg? Ennek fényében… ááhhh… ;-).
@ijontichy:
Szerintem Agatha Christie-vel kapcsolatban nem ilyen egyértelmű, hogy hibbant-libbantak írják át. Az ő műveinek van tulajdonosa, egy cég, és úgy gondolják, így jobban eladható.
Azért a gépromboló ösztönök megvannak, főként, ha nagyzási hóborttal és üzleti érdekekkel találkoznak: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
@fortin2: Hát, egy kicsit engem is megijeszt ez a dolog, nem érzem már annyira valóságtól elrugaszkodott dolognak az ijesztő sci-fiket. Nem a chatbot az aggasztó, hanem amikor már tényleg robotszerű lesz, valamennyire önellátó (odamegy a konnektorhoz és a töltőre dugja magát, stb.), és mélyebben tudja fejleszteni saját magát (“megérti” a saját forráskódját, és belenyúlhat, tehát már AI fogja fejleszteni saját magát – ez lesz szerintem a következő lépés). Na nem attól félek, hogy egyszer csak úgy öntudatra ébred, és le akarja igázni az emberiséget, hanem inkább most is az embertől: Ha számítógépre is vannak vírusok, akkor erre miért ne írnánk. Elég egy szociopata programozó, és kezdhetünk félni.
@fortin2: Yoshua Bengio, az első aláíró az AI alapcikkének (Russell meg az alaptankönyvének) szerzője. Hinton nevét nem látom, de ő nyilatkozott arról, hogy vannak aggodalmai. (Bengio, LeCun, Hinton az alap). Nem az a probléma, hogy a transzformerek okosak, “We’re at this transition point now where ChatGPT is this kind of idiot savant, and it also doesn’t really understand about truth, ” hanem a sebesség, ahogy okosodnak.
@fortin2: Az kimondottan vicces, amikor Musk ijesztget az AI fejlesztés veszélyeivel. Ha az önvezető autó nem AI akkor igazán nem tudom mi lenne az.
@nyulambator: ez nem ugyanaz. bangioék attól tartanak, hogy egy felspécizett transzformer valamikor a nem nagyon távoli jövőben beéri az embert, és arra ez a világ nincs felkészülve. nekem nincs véleményem, én csak nézek, mint rozi a moziban.
@jotunder: Akkor nem féltek, mikor kiderült, hogy egy modern OCR jobban olvas mint az emberek többsége, egy adatbáziskezelő sokkal több adatot sokkal gyorsabban kezel mint bármelyikünk, egy önvezető autó már most jobban vezet az autósók zöménél, és a képfeldolgozók megbízhatóbban találják meg a rákos sejteket az MRI képen mint a szakértők? Miért pont most kell megijedni? Az ember számtalan területen be van érve és le van hagyva. Pont a szövegértés/szöveggenerálás a veszélyes?
@nyulambator:: Musk nagyon régóta mondogatja, hogy csak szigorú szabályozás mellett lehessen fejleszteni mesterséges intelligenciát. Gondolom, ez teljesül a Teslánál, de nem teljesül az OpenAI-nál (ami már egyáltalán nem open), meg a többieknél, akik most kijöttek ezekkel a cuccokkal. Musk szerint az AI potenciálisan veszélyesebb, mint az atomfegyver, és ezt nem most kezdte mondani.
@szazharminchet: : Értem én, csak nem tetszik a tendencia. Mrs. Whitehouse szellemiségének lényege (mondom lényege!), bármely oldal, bármilyen köntösében is reinkarnálódjon, nekem nem komilfó. Pl. Kosáryné Réz Lola egy eredeti műfordításában a garázsban “a gép” áll, nem “az autó”. Ha ezt korrektúrázom egy reprintben, az nyelvi kérdés, nem pedig PC kérdés. Az utóbbi bosszantó és szvsz. káros is. Nem az “egyed” fejlődött és kezeli helyén az eredetit, mint az kívánatos lenne.
@jotunder: : Occam segít. Nincs “nem nagyon távoli jövő”. Ez a “hype”, amit most látunk, egyszerű zsetonvadászat. Elég jó, hogy komoly preziket lehessen ráalapozni, a pénzeszsákon ülők profitéhes képzeletének izzítására – és elég jó, hogy riogassák vele (gyaníthatóan szintén profitra hajtó trükközők) az erre fogékonyakat. Teszek egy Nagy SakkMatt-sejtést (és még csak a margóra sem írom, hogy tudom bizonyítani ;-)): nem lehet “digit hordozón” valódi “I”-t létrehozni. Lehet borzasztóan veszélyes dolgokat létrehozni (ld. keresztatyámnak a Legyőzhetetlenben megálmodott “nekroszféráját”, de valódi “I”-t nem. Az valahol mindig csak egy gyökerében “homo sapiens-driven” korcs lesz.
@Késes Szent Alia: : Musk évek óta egyre meredekebb létra-hadműveletekkel menekül előre – mindeddig sikeresen. Ha egyszer úgy alakulna, hogy botlik, az kisebbfajta gazdasági földrengést is okozhat. Ami vitathatatlan érdeme, az tevékenységének az a része, ami egybecseng Hawking véleményével: a homo sapiensnek a szülőbolygóján kívüli célt kell adni. Na ez az, ami a “nem nagyon távoli jövő”-ben szükséglet lesz (nem igény, “csak” szorító szükséglet). Amivel az IT-szektor – elsősorban big profit céllal – az elmúlt 2-3 évtizedben beterítette a világot, az 90%-ban “drog” (még ha visszaforgatás történt is). De a drog – a túlfogyasztó számára – végül csak a hullaházba vezet :-(.
@ijontichy: Amit a MI elenében tesz a világ az tipikus esete a “nem igazi skót” érvelésnek. Nemigen tudsz olyan <valódi “I”> definíciót felmutatni a múltból, amit már meg ne csináltak volna és a jelenből amit hamarosan meg ne csinálnának. Ezért kényes definiálni, ezt a “valódi” szócskát, mert akkor egyszer csak be kell látni, hogy az is megvan. De most mindig csak odébbtolja a világ a kaput, hogy azt mondhassuk, hogy ez még nem valódi “I”.
Már ma is rendszeresen használnak MI-t olyan anomáliák jelzésére, amit nem definiálnak előre, szakértők se tudják definiálni és működik. Nálunk akartak egy megoldást, ami elre jelzi ha az alkalmazott el akarja hagyni a céget a közeljövőben. Egy modellbe betoltak mindenféle adatot, milyen szabadságokat vesz ki, milyen tréninget végez, nem végez, miket ír a jelenléti ívre és mikor nem tölti ki meg még mittudom én miket, és 90% feletti pontossággal mutat rá az MI a kilépőkre, két_három hónapra előre. Ami épp elég arra, hogy a HR kiemelten foglalkozhasson velük. A szépsége a dolognak, hogy senki nem mondta meg a rendszernek (vagy a készítőinek) hogy mit keressenek, sőt, igazából most se nagyon tudják milyen jeleket vesz észre a rendszer*. De működik. Nem írtak fel szabályokat, nincsenek if-then-else dolgok. Van egy neurális háló, egy supervised learning és olyan összefüggést használ a rendszer, amit mi, humanoidok nem ismerünk. Mi kell még, hogy valódi “I” legyen?
Ez nem feltétlenül emberi intelligencia, nem is feltétlenül általános, de hogy intelligens működés azt kár letagadni.
*Persze a modellből ki lehet olvasni ezt-azt, hogy miket figyel a rendszer, milyen súlyokkal, de akkor is.
Hiv.: @nyulambator:
A fogalmainkat (a fogalmakat, jelenségeket leíró szavainkat), olyan dolgokra alkalmazzuk, amelyeket tapasztaltunk, láttunk, amikkel már találkoztunk. Ismerjük az emberi intelligenciát, sőt mérjük is tesztekkel. Valamennyire ismerjük az állati intelligenciát, tudunk róla, hogy nekik is van olyanjuk, kisebb mértékű, mint az embereknek, de valamekkora van. Ezek, az élőlényi intelligenciák (okosságok) az evolúció során alakultak ki, “szervesen”, és ami a lényeg, ezek, komplex széleskörű intelligenciák. Korlátozott mértékűek, de sokféle képességet magukban foglalnak, tulajdonképpen pontosan azokat, amelyek a lény (állat, vagy ember) világban való éléséhez szükségesek.
A mesterséges, gépi intelligenciával más a helyzet. Nem csak azért, mert nem “természetes” (bizonyos értelemben persze minden természetes, hiszen semmi nem természeten kívüli), nem “szerves”, és mert ezek eddig nem léteztek, és teljesen újak nekünk. Hanem főleg azért, mert ezek (egyelőre, és valószínűleg még sokáig), nem komplex, mindent átfogó, sok képességet magába foglaló intelligenciák. Ez teljesen természetes is, hogy ilyenek, hiszen csak azt tudják, amire kifejlesztették őket. A sakkozógép kiválóan sakkozik, az autóvezető-gép kiválóan (jó, még nem, de nemsokára) vezet autót, a kompjuter számol, és egyebeket, és a beszélgetőgép beszélget (úgy ahogy). De semmi mást nem tudnak, hiszen az nem is volt cél, feladat, hogy tudjanak. A feladat az volt, hogy azt tudják, amire kifejlesztették őket, és azt jól tudják- és az többé kevésbé sikerül, vagy sikerülni is fog.
Ez a különbség, a komplex, és a nem komplex intelligenciák között, döntő, abból a szempontból, hogy egyáltalán jogos (helyes, értelmes, célszerű)-e intelligenciának nevezni ezeket a “speciális célgépeket”. Te azt mondod, hogy igen, de ahogy nézem, a többség még inkább azt mondja, hogy nem. Az a felvetés persze jogos, hogy a gépi intelligenciának nem kell olyannak lennie, mint az élőlényi intelligenciának, de ettől még továbbra is kérdés a kérdés: érdemes-e ugyanazt a fogalmat használni ezekre az egymástól alapvetően, minőségileg különböző jelenségekre? Hiszen, mint próbáltam vázolni, itt nem (csak) mennyiségi, hanem egy minőségi különbségről van szó.
Viszont, ha most így belegondolok abba, hogy egyáltalán van-e értelme annak, hogy speciális célgépek (sakkozó, számoló, autóvezető, beszélgető) helyett komplex gépi intelligenciát építsünk, amely ugyanolyan sokféle, széleskörű intellektuális képességgel rendelkezne mint az ember, csak persze mindenben több, jobb, és gyorsabb lenne, akkor arra azt mondom, hogy annak nem hogy nincs értelme, de az valóban veszélyes is lenne. Mi értelme lenne leutánozni az embert? Egyedül csak annak van értelme (célszerűsége, és haszna), hogy nagyon jó speciális célgépeket építsünk, amelyek aztán mindenféle területen segítenek, és majd később kiegészítenek bennünket. De sose legyenek komplexek, és sose legyen öntudatuk. (Hogy az öntudat mi, és mi kell hozzá, azt most hagyjuk.)
Tehát: amíg csak ilyen speciális célgépek, egy-egy képességgel, addig semmi baj, és engem az sem zavar, ha némelyek intelligensnek, gondolkodónak nevezik őket. Nem azok, de mondani szabad.
@ipartelep: “Viszont, ha most így belegondolok abba, hogy egyáltalán van-e értelme annak, hogy speciális célgépek (sakkozó, számoló, autóvezető, beszélgető) helyett komplex gépi intelligenciát építsünk, amely ugyanolyan sokféle, széleskörű intellektuális képességgel rendelkezne mint az ember, csak persze mindenben több, jobb, és gyorsabb lenne, akkor arra azt mondom, hogy annak nem hogy nincs értelme, de az valóban veszélyes is lenne. Mi értelme lenne leutánozni az embert?”
Lehet, hogy értelme nincs, de az ember szereti a saját maga képére formálni a dolgokat, csak úgy hobbiból, beleértve az élőlényeket is (ld. háziállatok). Majd lesznek cuki projektek, amikor a “robotok” már önreprodukcióra is képesek lesznek. (Mivel a legtöbb dolog gyártása automatizálva van, ez tulajdonképpen csak annyi, hogy az egész gyártási folyamat egy helyen legyen, és a robotunk vezérelje.) Fogja majd magát fejleszteni is előbb-utóbb: Elolvassa a saját forráskódját, “megérti”, bármit is jelent (miért, az embernél mit jelent megérteni valamit?), aztán optimalizál rajta valamit. (Ez lesz a cuki projekt #2, pár évtizeddel később.) Ja, és persze a hadsereg fogja használni először a robotokat, már most is mennek a drónok, amit majd egy szimulációs szobából fog irányítani valami gamer olimpián toborzott kölyök.
@nyulambator: : “Mi kell még, hogy valódi “I” legyen?” Saját szükséglet és igény – az én fogalmaim szerint (OK, tudom SF). Vegyük a példádat. Neurális háló, szuper. De bármely pillanatnyi állapotáról snapshot készíthető (ellentétben az emberi aggyal, amiről soha – legalábbis amíg Heisenberg atyát nem tudjuk likvidálni – bár ezzel @szazharminchet olvtárs lehet, hogy nem ért egyet , de ez messze vezet). A “doboz” azért “fekete”, mert valójában az út nem is érdekel (összefüggések, kvantálás), csak a cél. A rendszerednek “leírtak” egy univerzumot, annak adatszolgáltató objektumaival (ez a supervised learning), és utána kérdést tesznek fel, avagy célt adnak neki. Jelen esetben projekció, hogy az “univerzum” mely objektumai szűnnek meg adatszolgáltató objektumként létezni. A célt ugyan tekinthetem “szükségletnek”, de semmiképp saját szükségletnek. (ja és persze azért “if-then-else” van, mert amíg a platform adott, addig Mills diktál, csak nem úgy, ahogy ötven éve gondoltuk ;-))
Félreértés ne essék, én nem lenézem. Emögött óriási munka van, és ez már most óriási eredmény, elképesztően sok potenciális felhasználási területtel. Ugyanakkor a közbeszédbe kerülés sok marketing-elemet tartalmaz. Pár példa a hype-tartalom csökkenő sorrendjében:
a göncöm színét/mintáját “AI” tervezte (de jó neked haver);
a motorom nem látott benzint, amíg kézhez nem kaptam, mert a gyárban az “AI” megzsűrizte, és megaszonta, hogy be fog indulni (úgy is lett);
több az MRI/CT, mint a kiértékelő. ha az “AI” nagy biztonsággal és gyorsan képes kiszórni a negatívokat, sok “alkotó” intelligencia irányítható oda, ahol valóban szükséges;
és így tovább…
Viszont más színnel “festjük” (vagy árnyaljuk), mi az intelligencia, de ez már inkább @ipartelep kedvenc területére esik :-).
@ipartelep: Valójában nem célgép, hanem univerzális eszközalap. “Célgéppé” (avagy korlátozott feladatkörű robottá) a supervised learning során tesszük. Ami a veszélyt illeti, “Skynet” nem jön ;-), legalábbis ezen az alapon (hordozó) szinte biztosan nem. Veszélyes viszont már most is lehet, de a veszély forrása (a “kezdő momentum”) az ember, nem az “AI”.
@ijontichy: te most nem velem vitatkozol, hanem bangioval és hintonnal.
amit látsz, az egy chatbot, ami mögött egy transzformer van. a kérdés az, hogy transzformer szerű hálózatok meddig mehetnek előre. mit tudom én, azt látom, hogy sokakat megleptek.
@jotunder: : “te most nem velem vitatkozol” Hát mernék én veled vitatkozni transzformerekről ;-)?
“azt látom, hogy sokakat megleptek” : Naná. Mert sokaknak ez “A Kézzelfogható” eredmény. Még az ide írogatók (akik tuti nem a bivalygöröngyös krimójában installált public “fácsézóról” írogatnak) is jól érezhetően meglepődtek.
Hogy meddig mehetnek előre? Mi tudom én (is). De (mondjuk csak úgy egy hasraütve példával * ) ha egy általános üzleti ismeretekkel tréningelt “AI”, a tréningtől triggerelve (szükséglet?) megalapítja az “AICapRes” Ltd-t (pár ügyes “leánnyal”, mert adót fizessenek az emberek), és ledózerolva a piacról az “atozcaptcha”-féle bizniszeket, megkeresi az első milkóját (igény?), na akkor elkezdek tapsikolni_és_rettegni (de nagyon) :-D.
( * az önmagát állítólag vaknak beállító trükkös chatbot ötlete alapján)
@ijontichy: Igazából az egy elég nehéz kérdés (szerintem, legalábbis), hogy mi az az intelligencia, vagy érteni valamit. Tulajdonképpen mit jelent az, hogy mondjuk értem a regularitási lemmát (JT egyik kedvenc példáját hozva)? Hát, ha elgondolkodunk rajta, akkor szerintem azt jelenti, hogy ha engem odaültetnek egy gráfelmélész bizottság elé, és feltesznek nekem regularitási lemmával kapcsolatos kérdéseket, akkor olyan válaszokat adok, amelyekre az a reakciója a bizottságnak, hogy “úgy van”. Hibázhatok is néha, ha utána rájövök / kivágom magam, hogy ja, itt elszámoltam.
És itt tulajdonképpen mindegy, hogy a fejemben egy chatgpt neurális háló van (amihez nem értek), vagy egy agy (amihez szintén nem értek).
(2) Na és akkor eljutottunk ahhoz a filozófiai kérdéshez (ipartelep mindjárt mindjárt közbeszól), hogy van-e értelme objektív igazságról beszélni. Furcsa, hogy pont matematikusként kérdezem ezt, de én elméleti szinten simán el tudom képzelni (btw nagyon kis valószínűséget adok neki), hogy az emberi agyban van valami hiba (mint a mittudomén melyik Intel processzorban), és bizonyos esetekben rosszul működik / rosszul következtet, akár önvédelemből. (Elég sok logikus bedilizett sajnos, az agy nem szeret a saját működésén gondolkodni igazán mélyen, úgy tűnik.) És mondjuk lehet, hogy csak a rosszul következtető emberi agy gondolja úgy, hogy hát a regularitási lemma igaz. (De nem tudom elmagyarázni, hogy mi ne lenne benne az igaz, hiszen az én agyam is rossz.) Tehát eljutottunk oda, hogy én hajlok arra, hogy az emberi agy számára elfogadott tudást is leginkább kísérletileg lehet igazolni: a többiek bólogatnak, sok nagy gráfot megnézek (insider joke), és mindre igaz volt a regularitási lemma. És hát ezeket a chatbotokat is pont így teszteljük.
(3) Az, hogy valamiről úgy ÉRZEM, hogy értem (mi az az érzés, ugye?), az valami olyasmi, hogy valamennyire megtanultam az évek során ellenőrizni a tudásomat / következtetéseimet (átgondolom többféleképpen, ugyanarra az eredményre jutok, akkor biztos úgy van). Megnézek egy kapcsolódó feladatot, megoldom, összehasonlítom a megoldásom végeredményét a könyv végeredményével (a kollektív tudással). Na, ezt a chatgpt-4 is meg tudná csinálni.
@ijontichy: “Saját szükséglet és igény” szerintem rém messze esik az intelligencia definíciójától. Ha mondjuk az IQ tesztek felől nézzük, hát ott ilyesminek nyoma nincs. Mintázat felismerés, hiányzó elemekkel kiegészítés, sorozatok folytatása meg van. Nyelvi intelligencia, szövegértés, térérzékelés, képfelismerés van. Szükséglet meg igény az nem intelligencia kérdés, az egy másik dimenzió.
@ipartelep: Valójában már most sem lenne semmi akadálya a célgépek összekötésének. A chatgpt mögé bekötheted az AlphaZerot és akkor megkérdezheted tőle, akar-e egy parti sakkot játszani, ha összekötöd az önvezető autóddal, csak szólsz neki, hogy a nagyihoz mennél, és amíg elvisz oda, a hátsó ülésen ülve beszélgethetsz vele, vagy épp sakkozhattok. De valójában nem tudom miért követeled meg az intelligencia kritériumaként a “mindent átfogó, sok képességet magába foglaló” minőséget. Aki nem tud sakkozni vagy vezetni, az nem intelligens?
Szerintem onnan érdemes elindulni, hogy mik azok az elengedhetetlen kvalitások, amik nélkül nem tekintünk valakit intelligensnek? Mi az, amitől valakit intelligensebbnek tekintünk valaki másnál? Az biztosan nem, hogy tud sakkozni, vagy hogy tud vezetni.
Szerintem az intelligenciatesztek nem járnak rossz nyomon. Kiegészíteni a mintázatot a meglevő részek alapján. Felismerni a csizmát, akkor is, ha a felét takarja a szemetes. Megérteni a szöveget akkor is, ha közben dörgött az ég és pár szó kimaradt. Rájönni, hogy ki a gyilkos a filmben mielőtt Poirot bemondaná a kamerába.
Úgy egyáltalán: alkalmazni az ismert adatokat és abból olyan kérdésekre is válaszolni, amire nincs konkrét adat, ez az intelligencia. Minél kevesebb adatból minél gyorsabban minél több mindent tud valaki kihozni, annál intelligensebbnek tartjuk.
Az IQ tesztekben próbálják minimalizálni a szükséges előismereteket, hogy minél pártatlanabb legyen a teszt. A valóságban persze az is számít, hogy a konkrét szituációhoz milyen további tanult ismeretanyagot vagy módszert tudunk hozzátenni, ami segíti a következtetéseket. Sherlock Holmes nem csak deduktív képességei miatt old meg mindent, hanem kiterjedt tudományos ismereteit is használja. De intelligenciája nem terjed ki az autóvezetésre és amennyire emlékszem, a sakkra sem. Alapvetően arra korlátozta a figyelmét, ami a szakterületéhez kellett.
“His ignorance was as remarkable as his knowledge. Of contemporary literature, philosophy and politics he appeared to know next to nothing. Upon my quoting Thomas Carlyle, he inquired in the naivest way who he might be and what he had done. My surprise reached a climax, however, when I found incidentally that he was ignorant of the Copernican Theory and of the composition of the Solar System. That any civilized human being in this nineteenth century should not be aware that the earth travelled round the sun appeared to be to me such an extraordinary fact that I could hardly realize it. “You appear to be astonished,” he said, smiling at my expression of surprise. “Now that I do know it I shall do my best to forget it.” “To forget it!” “You see,” he explained, “I consider that a man’s brain originally is like a little empty attic, and you have to stock it with such furniture as you choose. A fool takes in all the lumber of every sort that he comes across, so that the knowledge which might be useful to him gets crowded out, or at best is jumbled up with a lot of other things so that he has a difficulty in laying his hands upon it. Now the skillful workman is very careful indeed as to what he takes into his brain-attic. He will have nothing but the tools which may help him in doing his work, but of these he has a large assortment, and all in the most perfect order. It is a mistake to think that that little room has elastic walls and can distend to any extent. Depend upon it there comes a time when for every addition of knowledge you forget something that you knew before. It is of the highest importance, therefore, not to have useless facts elbowing out the useful ones.” “But the Solar System!” I protested. “What the deuce is it to me?” he interrupted impatiently; “you say that we go round the sun. If we went round the moon it would not make a pennyworth of difference to me or to my work.”
De azért asszem tekinthetjük intelligensnek.
@excombo: : Jujj, ez a “regularitási lemma”. Mindig elfog a sárga irigység, amikor @Big JT felhozza, mert én megragadtam a reguláris kifejezések szintjén, és az a borzasztó érzésem, hogy bizonyosan valami nagyon izgalmasról maradtam le (immár véglegesen, mert én is öreg vagyok (most már ;-))).
@nyulambator: : “Minél kevesebb adatból minél gyorsabban minél több mindent tud valaki kihozni, annál intelligensebbnek tartjuk.” Ez mind klassz… de miért is teszi mindezt (ti. “kihozást”) meg??? OK. a lexikon ezt mondja, de miért állnék itt meg? Csak annyi az init, hogy bedugom plasztik Herr Lock Shólmészt a konnektorba, oszt a neurális hálója máris fogja a halakat, még egy “Viszlát és köszi”-t sem vár el? Tudom, az én nőnemű felmenőmet, de engem az is érdekel, hogy mit csinál a szél, amikor nem fúj, és mi készteti fújásra ;-).
Hiv.: @nyulambator:
Ez most már annak a vitának a folytatása ami egy-két hete itt ment. Az látszik, látszott már akkor is, hogy az álláspontok nem közeledtek. Persze, melyik vitában közelednek, látott már valaki valaha, olyat? És akkor ilyenkor egy idő után hagyom az egészet. De azért előbb tisztázni szeretném, hogy miről van itt szó.
Az a kérdés, hogy a “mostani célgépek intelligensek-e, vagy nem?”, az nem egy bizonyos tényről szóló kérdés, hanem egy definíciós kérdés. Persze “ha úgy nézzük”, ugye, minden ténykérdés is, olyan értelemben, hogy a világ a tények összessége (a “tények”, a dolgok, és a dolgok leírásai). De itt most (e kérdésben) nem tényeket írunk le (azokat is leírunk, de a kérdés nem azokra vonatkozik), hanem arról beszélünk, hogy vannak-e olyan okosak, intelligensek ezek a célgépek, hogy azt intelligenciának nevezhessük, pontosabban, érdemes-e már annak nevezni. Ez volt itt a fő kérdés, és erre én azt mondom (különböző, újra nem leírt megfontolások miatt), hogy ezeket még nem érdemes intelligensnek nevezni, az intelligenciára általunk eddig használt fogalom másféle, azt ezek még nem érdemlik ki, ezek nem olyanok (mint azok a lények, amelyekre használjuk).
De ez valóban egy definíciós kérdés, nem sok múlik rajta. Olyasmik múlhatnak, mint pl. a mostani ijedtség, hogy ugye, jaj Jézusmáriaszentjózsef, itt vannak ezek az intelligens gépek, és leigáznak bennünket, és ha esetleg “intelligens gépek” helyett “hülye gépek”-nek neveznénk őket, akkor ez az ijedtség nem lenne most, akkora, hiszen az emberek gondolkodását (és döntéseit) nagyon sokszor az ilyen “definíciók” megnevezések befolyásolják. Intelligens gép nem kell, az veszélyes, hülyegép kell, az hasznos. És akkor ugye talán addig nem érdemes intelligensnek nevezni, amíg tényleg, minden szempontból, és mutató szerint nem az…
De ha úgy nevezik, akkor sincs semmi baj. Baj majd abból lehet, ha ezeket a (buta, vagy intelligens – tetszés szerint) gépeket egyszer összekapcsolják, egyesítik (egy testben, vagy máshogy) ellátják interfészekkel, érzékelőkkel (érzékszervekkel), memóriával… Bár sejtelmem sincs, hogy mikor fog annyira megőrülni az emberiség, hogy ezt megtegye, és miért tenné ezt meg, de azért nem becsülöm alá az emberi hülyeséget. Szóval akkor majd én is hajlamos leszek azt gondolni, hogy annak a “komplex gépnek” van tudata, éntudata, gondolkodik, van személyisége, stb. Az én definícióm szerint ezektől, ilyesmiktől lesz intelligens, addig én nem nevezem annak. De ismétlem, ez megnevezés kérdése, és abban szabadság van.
@ipartelep::
Ha valami azon múlik, hogy az emberek ne legyenek annyira őrültek, hogy megtegyenek egy adott dolgot, az nem jó terv. 🙂
Nem az emberiség mint olyan alkotná meg az AGI-t, hanem cégek vagy kormányok (a kormányok hadseregei). Miért tennék? Mert ezzel olyan behozhatatlan előnyre tesznek szert a riválisokkal szemben, mint a viccbéli nyuszika. Még ha értik is a veszélyeket – és ez sem biztos, hogy mindenkire mindig igaz, aki szuperintelligencia létrehozására elvileg képes lesz –, akkor is gondolhatják úgy, hogy más hatalmak (az amerikaiak, a kínaiak, az oroszok stb.) hamarosan létrehozzák a szuperintelligenciát, és akkor már inkább mi csináljuk meg először, és ne ők. (Illetve háború is kirobbanhat olyan célból, hogy ne legyen az ellenségnek esélye szuperintelligenciát létrehozni, de ez itt mellékszál.)
Aztán lehet, hogy AGI nemcsak úgy jöhet létre, hogy emberek egy csoportja szándékosan nekiáll létrehozni. Gondolom, egy szint után létrejöhet észrevétlenül is, amikor csak utólag látjuk, hogy melyik tanulási folyamat szabadult el túlságosan. Nem tudom, hogy a „beszélgetőgép” szintet léphet-e ilyen módon majd egyszer, de szerintem a beszélgetés más kategória, mint mondjuk a sakkozás vagy az autóvezetés. Egy beszélgetőgép nemcsak a csevegés logikáját ismeri, hanem a csevegés tárgyának logikáját is. Ha a ChatGPT-nek azt mondod, hogy van egy tálad, abban van egy alma, a tálat fejjel lefelé fordítod a konyhapulton, majd fogod a tálat és átviszed egy másik szobába és most hol van az alma, akkor megmondja neked, hogy a konyhapulton maradt, mert kiesett a tálból, amikor azt lefelé fordítottad. „Megértette”, hogy ez egy olyan helyzet, amikor a gravitációt figyelembe kell vennie a válaszhoz. Alapszintű érvelés, de valahol mégiscsak érvelés.
Hiv.: @Késes Szent Alia:
Jó, nyilván nem arról van szó, hogy “az emberiség mint olyan” alkotja meg az MI-t. Nem is a Józsi bácsi a teakonyhában otthon, hanem az ezzel foglalkozó cégek. Ez triviális. Ezeket mind beleértem az “emberiségbe”, a Józsi bácsit is, és a cégeket is (szintén triviális).
Azzal egyetértek, hogy a “cégeket” nehéz lesz erről leállítani, eltiltani, lebeszélni. Ha tudják, előbb-utóbb meg fogják csinálni. Szerintem inkább utóbb, már ha ragaszkodom ahhoz, hogy az MI azért több lesz, mint célgépek, beszélgetőgépek elegye, vagy összessége, hiszen/és egyelőre nem látszik, hogy a mennyiség hol fog átugrani abba a minőségbe (ha egyáltalán átugrik), amely minőséget a tudatosság, én-és öntudat, célok, érzelmek, valódi gondolkodás, tanulás, kreativitás, emlékezet, reflexiók, stb., tehát olyan komplex, sokféle tulajdonságok, és képességek jellemeznek, és jelentenek (szerintem), amelyeknek egyelőre nyoma sincs ezeknél a célgépeknél. Ez a terület egyelőre nagyon zizis, nem látjuk tisztán, és jósolni sem lehet jól, mindenki jósolgat mindenfélét összevissza..
Abban is egyetértek, hogy a “beszélgetőgép” egy más jellegű “intelligencia” (nem az, de jobb híján), mint a speciálisabb célgépek. Abból tényleg lehet valami. (“Miből lesz a cserebogár?”)
Én egyáltalán nem tagadom azt, hogy valamikor lesz MI, csak ezeket a mostani célgépeket még nem tartom annak.
Érdekes lenne megkérdezni a vallások képviselőit, hogy mit tartanak erről, mit szólnak hozzá. Ugye, nekik a dogma alapján leginkább azt kellene hinniük, hogy a lényeket, és főleg az értelmes lényt, az embert (mi a helyzet az idegenekkel az ő képzeletvilágukban?) az istenkéjük teremtette, és hát az értelmes lény teremtésének a joga, és képessége egyedül az istenkéjüké. Ehhez képest, ha egyszer az ember létrehoz egy vele egy szinten álló MI-t, akkor azzal tulképpen az isteni teremtés babérjára tör.
Bár az elejét rosszul mondtam: nem lenne érdekes megkérdezni őket erről, és nem érdekes, hogy mit gondolnak erről. (Bolond likból bolond szél fúj.)
@ipartelep: “Baj majd abból lehet, ha ezeket a (buta, vagy intelligens – tetszés szerint) gépeket egyszer összekapcsolják, egyesítik (egy testben, vagy máshogy) ellátják interfészekkel, érzékelőkkel (érzékszervekkel), memóriával… ” Autonóm, robbanóeszközzel felszerelt drón már van. Az emberiség meg már régen megőrült, amikor Ádám és Éva evett az almából. Azóta egyre őrültebb lett.
” Ha a ChatGPT-nek azt mondod, hogy van egy tálad, abban van egy alma, a tálat fejjel lefelé fordítod a konyhapulton, majd fogod a tálat és átviszed egy másik szobába és most hol van az alma, akkor megmondja neked, hogy a konyhapulton maradt, mert kiesett a tálból, amikor azt lefelé fordítottad. „Megértette”, hogy ez egy olyan helyzet, amikor a gravitációt figyelembe kell vennie a válaszhoz”
Persze, megértette, ha a betanítás alatt találkozott ezzel, vagy egy hasonló példával. Belinkeltem fent már egyszer, hogy például egyszerű programozási problémákból azokat tudja (úgy-ahogy) megoldani, amik a betanulás lezárása előtt kerültek fel a netre (megoldásukka együtt), a többit nem képes. Tele van az internet olyan példákkal, ahol ötig nem tud elszámolni, ha úgy teszik fel neki a kérdést, hogy tényleg csak a probléma megértésével lehet megválaszolni.
Semmit sem ért, viszont nagy a pofája.
Hiv.: @/tmp:
Igen, tényleg nem ért semmit, és ezért gyakorlatilag csak egy adatbázis-felolvasógép. De ez a kisebb baj vele (most a Chat GPT-ről beszélek). A nagyobb baj az vele, hogy még az adatbázisában lévő adatokat is ellentmondásosan írja le, akár két egymást követő válaszában.
Beszélgettem vele egy kicsit a csillagászatról, és a kovácsolásról (két kedvenc témám). Először megkérdeztem tőle, hogy 4 fényéven belül mennyi csillag van. 50 fölötti számot mondott. Amikor mondtam neki, hogy egy sincs, akkor elismerte, hogy tényleg nincs, de azt mondta, hogy a négyet ötnek értette(!) Hogy ez hogyan lehetséges, arra már csak hadovált valami zavarosat.
Ugyanez a kovácstudományokban: megkérdezem tőle, hogy hány százalékos széntartalom mellett nem lehet edzeni az acélt. kb. 0,3%-ot mond, ami nagyjából helyes de hozzáteszi, hogy az edzés folyamán az acél széntartalma növekszik – ami persze marhaság. Amikor ezt szóvá teszem, szemrebbenés nélkül mondja az ellenkezőjét, hogy az edzés folyamán az acél széntartalma nem változik. Noooormális?
És ezzel ugye az a baj, hogy ha tényadatokat kérdezünk tőle, amihez egyáltalán nem kell gondolkodnia, és megértenie bármit is, abban sem megbízható. Majd nyilván fejlődik, de ez még kevés. Még csak kicsit okosabb mint egy fideszes.
@/tmp:: Igen, a betanítása alatt találkozott azzal az infóval, hogy a lefelé fordított üreges tárgyakból bizonyos esetekben kiesnek más tárgyak. Amikor elkezdtem a tálról meg az almáról kérdezni, “rájött”, hogy ez egy ilyen helyzet, plusz arra is, hogy később már hiába hurcibálom a tálat fel-alá a lakásban, mert a konyhapultnál megtörtént a kritikus pillanat, kiesett az alma és kész. Deduktív következtetést alkalmazott a helyzetre a korábban tanult példák alapján. Szerintem ez szép teljesítmény egy kezdő mesterséges intelligenciától. Az, hogy más alkalmakkor bénázik, nem változtat azon, hogy itt jól teljesített.
És hát nem tudjuk, hogy amikor velünk beszélget, mennyire korlátozzák a valós képességeit a fejlesztők. Azt például nem engedik neki, hogy a velünk való beszélgetésekből tanuljon, mert úgy nem lenne kontrollált a tanulási anyag. Biztos vannak más dolgok is, amit nem engednek neki, pedig gyorsabban fejlődne tőle.
@ipartelep:: Hogyne, triviális, de ha explicite megnevezzük, hogy ki hozhatja majd létre a veszélyes szuperintelligenciát (cégek, hadseregek), akkor könnyebb azonosítani a motivációt, hogy miért tennének ilyet: mert az emberiség részhalmazai versenyben állnak egymással, illetve a részhalmazok döntéshozói így értelmezik a helyzetet.
@ipartelep: Hehe, amit itt csinál, az pont az, amit feljebb írtam. (Én nem beszélgettem vele amúgy.) “Próbálja kivágni magát.” Csak még ügyetlen ebben. Még.
Továbbra is azt mondom, hogy nemcsak gyakorlati szempontból nincs jelentősége annak, hogy miért mond helyes válaszokat (tegyük fel, hogy 10 év tanulás után már elég “okos” lesz ahhoz, hogy ne bukjon le a “magolása” 100 kérdésből sem), hanem elmeléti szempontból sem, hiszen az agyunk működését sem nagyon értjük. Akkor meg mire vágunk fel? (Amúgy az agyunk is rettentő sok mindent bemagol szerintem. A logikai következtetések meg algoritmizálhatók. Mármint annak eldöntése, hogy helyes-e a gondolatmenet.)
@Késes Szent Alia: Szerintem te optimista vagy. Sokan mondják, olyanok, akik értenek hozzá, hogy az LLM zsákutca, soha nem lesz belőle AGI, csak egy ilyen jó dumájú, de teljesen megbízhatatlan szélhámos. Hajlok rá, hogy igazuk van.
Nem minden AI, ami annak látszik…:) AGI-veszély még nem reális, amíg fogalmunk sincs arról, hogy hogyan működik az agy. Neurális háló? Látszólag. De ha az inger megjelenik az 1.-es, 2-es, hármas neuronon és környezetén és aztán hirtelen az 512.-en, 513.-on…. arra nincs válasz. Miért pont ott? És a köztes állomás? Nekem az a gyanúm, hogy a neuro-biológia és rokonai mellett a pszichológia, pszichoanalízis és egyéb más pszicho- felől vezet az út. Nem véletlenül vannak ilyen könyvek az asztalomon….
ChatGPT struggles with Wordle puzzles, which says a lot about how it works
Van az infinite monkey theorem, ami azt mondja, hogy ha egy majom kezebe nyomunk egy irogepet, akkor vegtelen hosszu idot hagyva neki, valamikor le fogja billentyuzni a Shakespeare osszest. Ez ugye ekvivalens azzal, hogy vegtelen szamu majom kezebe irogepet nyomva lesz koztuk olyan, ami a Shakespeare osszest kezdi el potyogni.
.
Szerintem a ChatGPT szemfenyvesztese abban rejlik, hogy nem csak azt nem tudja, miert fontos egy Shakespeare szonata, vagy hogy mi is egy szonata, vagy ki volt az a Shakespeare, hanem meg csak az irogep fogalmat sem kepes komputalni – ellenben (altalaban!) kurva jol kivalaszt egy majmot, ami hibahataron belul az emlitett Shakespeare osszest gepelgeti. Neha Mao osszes lesz belole, de nem baj, a teljesitmenye meg igy is magikus a mezei human szamara, aki azt kepzeli, hogy valami termeszetfeletti modon, szimultan az osszes majom valla folott olvasva, hogy mit csinalnak valasztja ki a megfelelot, pedig… Nyilvan a GPT sokkal kisebb egysegekkel dolgozik, de szerintem ez egy jo analogia.
.
Egyebkent en is probaltam vele javascriptet iratni, egy url-t kellett volna dekodolni, de az istennek nem ment. 15 pelda, es a hibas megoldasok kijavitasa utan egeszen pontosan ott tartott, ahol az elsonel. A problema? Az url-ben voltak hatarolojelek (_, -, ~, stb), amiket ignoralnia kellett volna, de az istennek nem ertette meg. “Sajnalom, hogy nem hagytam figyelmen kivul ezeket a jeleket, itt van a javitott verzio”, ami egeszen precizen ugyanazt az eredmenyt adta, mint az elotte levo.
@KennyOMG: Az “infinite monkey theorem” az egyszerűen a nagy számok törvénye. Van egy p valószínűségű esemény, ahol p elég kicsi, de nagyobb mint nulla, és tudjuk, hogy egy random betűsorozatban milyen gyakorisággal fog előfordulni az a bizonyos string, ami a Shakespeare-összes. ennek semmi köze sincs a transzformerhez.
a transzformer, ami a chatprogram része, és nagyjából azt tanulja meg, hogy egy adott adatbázisban bizonyos substringeknek mi a valószínűsége (ennél valójában ügyesebb). magyarul rálát egy adatbázisra anélkül, hogy birtokolná, azt tudja, amit tudnia kell róla. tudhatná azt, hogy az adott adatbázisban a mondatok pozitív vagy negatív kicsengésűek és akkor felismerne bizonyos érzelmeket (ezt is megcsinálták). senki sem állítja, hogy bármit is “tud”, csak az a baj, hogy esetleg az is egy illúzió, hogy mi “tudunk” dolgokat. vannak bizonyos folyamatok, amelyeket összefoglalunk azzal, hogy “tudjuk, hogy X”, de közben azért csak valószínűségeket érzékelünk mindenfelé, és van valahogy az agyban egy tudati illúzió, amit “justified true belief”-nek interpretálunk. nagyon érdekes az, amit a transzformer csinál, legalábbis filozófiai szempontból, nem mintha értenék az ilyesmihez, inkább csak szeretném érteni.
@steinerzsiga:
Rettenetesen megkésve, most jutottam idáig…
1) meglepöen nem. Svájciakkal például nagyon vicces használni, valamennyire tudja imitálni még a Schwyzerdütscht is (aminek hivatalos helyesírása nincs is – a kettö között talán a korrekt válasz.
2) én nem éreztem különbséget, föleg azt beleszámítva, hogy az agglutináló nyelvek fordítása önmagában is az NLP szent grálja.
fontos azért leszögezni, hogy ezek mind rettenetesen kvalitatív benyomások, és igazán mérni, hogy mennyire is jó egy nyelven a modelled, kb lehetetlen. önmagában egy jó fordítási benchmark összerakása sem triviális, hát még annak a megítélése, hogy a modellem magyarul vagy hollandul írt szebb verset.