„Miért nem érheti el a mesterséges intelligencia az ember szintjét”
Elég bátor dolog 2022 késő nyarán kiadni egy könyvet azzal a címmel, hogy „Why machines will never rule the world”. Megpróbáltam egy egészen kicsit megérteni Barry Smithék (ő tényleg a ma élő leghíresebb filozófok egyike, és nem az a típus, aki szívesen csinál hülyét magából) főérveit, azaz legalább a legalapvetőbb argumentumaikat a mesterséges szuperintelligencia ellen.
Mielőtt továbbmennék, egy érdekes példa :
„The salmon caught the smelt because it was quick.”
„But the otter caught it because it was slow.”
Az „it” mindkét mondatban a lazacra vonatkozik, de biológiai jellegű tudás kell ahhoz, hogy ezt a gép felfogja, és Smithék szerint olyanja nincs neki (ez tényleg az a pont, ahol GPT-4 megkéri Barry Smith professzort, hogy fogja meg a sörét). Alapvetően arra gondolnak a szerzők, hogy nem létezhet jelentés referencia nélkül.
Nem fogok hosszasan írni erről, de megragadott egy érvük, amit szerintem az olvasóik nagy része átfut.
„The non-ergodic character of complex systems makes it impossible to model how and where in the system its elements distribute and makes the passage of time irreversible. This means that there is no way to transform a future state back into a previous state mathematically and vice versa.”
„Yet more obstacles to modelling are created where we are dealing with non-ergodic processes, which produce events in which we cannot identify any law-like pattern that can be modeled mathematically. The reason for this is that non-ergodic processes do not yield distributions from which representative samples can be drawn.”
Smithék 32-szer használják a könyvükben a „non-ergodic” kifejezést, és valamiért a komplex rendszerek alapvető tulajdonságának tartják, hogy a fázisterük nem ergodikus (ezt így szó szerint le is írják a 138-ik oldalon) . Szigorú matematikai szempontból ennek nem nagyon van értelme, hiszen a fázistér maga nem tartalmazza azt az invariáns valószínűségi mértéket, amiről kijelenthetjük, hogy ergodikus vagy sem. Mindazonáltal, nem ez az első eset, amikor a nem-ergodicitás problémájába ütközöm. Ebben a cikkben (a szerzők igen jelentős figurák, egy híres robotikus, egy totál világhírű filozófus, és egy robotikus, aki szintén meglehetősen híres filozófus) szintén kulcsérv az élő rendszerek (vélelmezett) nem-ergodikussága.
Értelmet lehet azért ennek adni, azt gondolom, hogy nagy vonalakban ilyesmire gondolhatnak. Amikor a training corpusban (abban a dokumentum rendszerben, amelyet meg akarnak tanítani a transzformernek) egy token (vagy szó) előfordulási valószínűségéről beszélnek, az egy konstans, ha két tokent látunk X-et és Y-t, akkor annak a feltételes valószínűsége, hogy Y jön az X után ugyancsak egy konstans. De ha egy dokumentum a futballról szól, akkor a labda token előfordulási valószínűsége sokkal nagyobb, mint amikor a dokumentum a Platón-összes, ha egyáltalán van labda a Platón-összesben. Approximatíve esetleg igaz, hogy egy aldokumentum rendszerben a labda szó aránylag egyenletes módon fordul elő (azaz a rendszer legalábbis a labda szempontjából ergodikusnak tűnik), de az nagyon nem mindegy, hogy ezek az aldokumentum rendszerek milyen arányban szerepelnek a tréninghalmazban. Amennyiben egy emberi beszélő hirtelen vált az approximatív ergodikus komponensek (tehát az aldokumentumrendszerek konstruálta világok) között, akkor a következő mondatban élesen változhat meg bizonyos tokenek vélelmezhető valószínűsége és ez megzavarhat egy transzformert. Egy ember érzi a kontextus hirtelen megváltozását a gép talán nem. Ahogy Rejtő Jenő mondaná, nem bazíroznék világfürdőhelyet erre az argumentumra, de legalább létezik.
Érzek valamiféle kétségbeesést Smithéknél, páros lábbal szállt a világukba Mr. GPT, de egyelőre még valóban nem teljesen biztos, hogy az AI will rule our world. Nem fogom részletesen elolvasni a könyvüket, de filozófok esetleg megtehetnék.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16530616-6804f418afa54' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16530616&origin=www.orulunkvincent.hu&obj_id=192691293-16530616-6804f418afa54&n=1' data-name='like-post-frame-192691293-16530616-6804f418afa54' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Mivel valójában nem ismerjük az emberi agy működését, amikor gondolkodásról, alkotásról van szó, így nagy valószínűséggel állítható, hogy azt sem tudjuk megmondani, hogy egy mesterséges intelligencia képes-e meghaladni az emberi működést.
Viszont ha úgy értelmezem az intelligenciát, hogy az a tanultak alkalmazásának a képessége, akkor feltételezem, hogy az alsóbb regisztereket (100 vagy 80 alatt?) képes az MI meghaladni. És ez csak a deep learning.
Mondja egy laikus.
Számomra az a kérdés, hogy a gép tud-e felejteni, és ha igen, milyen algoritmus szerint. És vajon mutat-e ez valamilyen összefüggést a szenvedélybetegségekkel. (Ne már, hogy nincsenek neki, akkor azonnal le fog bukni. Az intelligenciateszteken még csak-csak átvergődik, de az unintelligenciavizsgán azonnal elhasal.)
Körülbelül két és fél éve használok szórakozási célra különféle LLM modeleket, némelyiket lokálisan futtatva illetve egy nagyjából egy évig fizettem egy szolgáltatásért ami online generált válaszokat, az online model körülbelül 60B paraméteres volt, amit lokálisan futtatni tudtam az 6B, 13B paraméter. Számomra felfoghatatlan, hogyan hihet egy ezeket komolyan használó embere a benne rejlő intelligenciában. Amennyire értem a GPT 3/3.5 és GPT 4 között a paraméterszám és nyilván a beletáplált forrásanyag minősége a fő különbség. Felmerül a kérdés, hogy lehetséges az, hogy valami nem intelligens 6, 13, 60 könyv „elolvasása” után, de hirtelen intelligens azután, hogy elolvasott 420 könyvet?
A helyzet az, hogy ebben rohadt sok pénz van, a GPT 4 futtatásához valószínűleg három vagy négy A100 van szükség. Nyilván megéri esetenként nagyon jól és mélyen filozofálgatni arról, hogy mennyire értelmes ez az egész.
Ami az esetleg bennük rejlő intelligenciánál sokkal ijesztőbb, hogy valószínűleg az LLM-ek voltak az utolsó hiányzó eleme annak, hogy emberek utasítgassanak robotokat köznyelven. „Vidd ki a szemetet” ezzel azért pár éve még szépen le lehetett volna sokkolni egy robotot. Ma szépen kiegészíti, hogy a szemetesbe, ha nem érti újra generálja, a „kerti szemetesbe”. Na arról már van egy Stable Diffusion-ös Lora-ja (ez a téma is megér egy-két misét, van abban valami mágikus ahogy a zajból lassan összeáll a kép) amit a tulaj házáról előzetesen generáltak. Megint csak Stable Diffusion-el „átfest” egy fotót a tulaj kertjéről azzal a promptal, hogy „MZ/X robotkutya kiviszi a szemetet a kerti kukába” utána a kikalkulálja, hogy az elkészült kép alapján hol is kellene állnia, megy is a kerti kukához. Okés ez eddig még lehet hogy megoldható is lett volna egyszerűbb programozási feladatként. Csakhogy jó esélyel ezt bármi mással is megtudja csinálni, ha esetleg elakad valamiben a nyelvi modellel böngész egy picit a neten, letölt egy-két képet, generál egy-két 3D modelt a szintén Nvidia által fejlesztett programokkal aztán már megy is minden mint a karikacsapás. Ja, hogy az emberek 80-90%-a elveszíti a munkáját miatta egy olyan világban ahol már amúgy is eleve erőteljesen a szupergazdagok felé lejt a világ. (Hogy amúgy az Open AI erkölcstelenségéről ne is beszéljünk.)
A hirtelen kontextusváltás a természetes intelligenciát is jócskán összezavarja. Az ember vagy érzi a hirtlen kontextusváltozást, vagy éppen nem és megzavarodva kérdez vissza két perccel később, hogy akkor az hugod tényleg tud markolót vezetni. Az mindenestre lenyűgöző, hogy a chatgpt érzi ezt a kontextus dolgot és a beszélgetésben addig elhangzottak nagyban befolyásolják a friss prompt értelmezését. Szóval érti, hogy adott ponton mit jelent, hogy „Megharapta a menyét”
@vattablz: „Az intelligenciateszteken még csak-csak átvergődik, de az unintelligenciavizsgán azonnal elhasal.”
B+, kifröcsköltem a kávémat!
@obeszel: : Hát nem gyönyörű? AI király fenséges, matematizált személyén nincs ruha. Klasszikussal szólva: „Mintha Big JC-t látnám náthásan szipogva” :-).
Hat az AI korlatai magasak nekem, igy csak a hodhoz szolok hozza. Valoszinuleg en sem vagyok jobb a GPT-nel, es nem ertem, hogy a hod a buzoslazacot (smelt) kapta el, mert lassu volt (marmint a hod, de talan emiatt a buzoslazac nem vette eszre), vagy vagy azert kapta el a buzoslazacot, mert az (marmint a buzoslazac) volt lassu, esetleg nem is a buzoslazacot kapta el a hod, hanem az (igazi) lazacot, mert az (hozza, azaz a hodhoz kepest) megis lassu volt. Segitenetek?
@pont7:
A smelt (Osmerus mordax) magyarul szivárványos viaszlazac, az otter pedig vidra. Remélem sokat segítettem.
Hiv.: @vattablz: Ez a felejtéssel fején találtad a szöget. Tényleg nálunk mi hozza elő az emlékeket. Az agyunk nem olyan mint egy háttértároló és nem mindig konkrét megcímzett hívásra jönnek elő a dolgok. Néha elég egy dallam vagy illatfoszlány egy csillogó szembogár, lebbenő szoknya, villámröptű fecske, romos ház és akkor hirtelen előbukkan valami – sokszor szorosan nem is hozzájuk kapcsolódó – emlék.
Úgy érzem: az MI jobb helyzetben van nálunk, ahogy öregszik egyre több lesz a tanult dolog, amit örökre elraktározhat magában, ezek között ott lesz a dolgok közötti, és általa a szövegkörnyezetből kihámozott, felismert összefüggések növekvő halmaza, mi meg – sajnos, vagy szerencsére – sok mindent nagyon mélyre temetünk magunkban.
De vegyük a posztban említett példát:
„De ha egy dokumentum a futballról szól, akkor a labda token előfordulási valószínűsége sokkal nagyobb, mint amikor a dokumentum a Platón-összes, ha egyáltalán van labda a Platón-összesben.”
De mi van akkor, ha Alnak – nevezzük Clarke nyomán Alnak – egy Platon összesről szóló mélyenszántó beszélgetés közben egy olyan kommenthalmazból idézgetnek, ami például a
magyar válogatott Izland elleni pótselejtezős győzelme után zajlott le, mégpedig a
„tudományosság”, az objektív vizsgálhatóság kedvéért úgy, hogy az idézetekben ne szerepeljen az, hogy ki játszott ki ellen, legyen csak annyi, amennyiből kiderül, hogy itt egy válogatott „foodball”-meccsről van szó.
Al a memóriájában elraktározott Esterházy és Moldova összes, valamint a jelenkori dr. 0me pocakos focista huzamos országlása következtében fennálló megosztottságunk ismeretében, amit onnan a nemfelejtő memóriájából azonnal ki tud bányászni, rögtön rávágja, hogy melyik meccsről van szó, sőt azt is, hogy melyik országban zajlik ez a hozzászólás háború, ráadásul még a blog nevét is tudni fogja. (Emlékeztek amikor az Idegen bajnok c. kötet egyik novellájában a csodacsatár a kiesési rangadó vége előtt két perccel – döntetlen állásnál – a kezdőkör tájékán egy pillanatra lehajol, megigazítja sportszárát. a cipőfűzőit, rág egyet a szájában lévő elmaradhatatlan fűszálon, és a neki menetrendszerűen felívelt labdával elkezd mozogni? Először – céltalannak tűnően – csak keresztben, majd kicsit hátrafelé kanyarodva; a társak nem értik, de tudják, hogy majd egy váratlan húzással megiramodik, bíznak benne, bármennyire magának valónak tartják is…; és akkor a csatár felgyorsít, elindul a saját kapuja felé…akkor már többen rájönnek, hogy baj van: sorra cselezi ki őket; próbálják lerántani, felrúgni…a bíró nem fúj, mert ő is csak lassan fogja fel mi van, és különben sem az ellenfél játékosai, hanem a sajátjai rugdalják (most már valószínűleg lefújnák az ilyet is)…utoljára egy szép csellel elküldi a középhátvédet, majd elfekteti a kapust is (azt a két főkolompost, akinek vezérletével a tivornyázó csapat leitatta és megbecstelenítette imádott húgát, akit ő nevelt, mert árván maradtak, és akit hiába óvott attól, hogy szórakozni járjon a csapattársaival): és a hálóba gurítja a labdát. Kiesnek, az Idegen bajnok pedig, a meccs közben fűszálat rágcsáló csodacsatár, hátra sem nézve, a húgától el sem elbúcsúzva, lelép a színről: senki sem tudja, hogy hová.)
Ez a felejtéssel :…Ezzel a felejtéssel…
http://real.mtak.hu/108727/1/teljes_kotet_12.27.pdf
És akkor Al még arra is képes lehet, legalábbis néhány év után biztosan, hogy a világ jelenleg létező 7-8 ezer körüli beszélt nyelve közül
a pár száz – nyelvészek által szisztematikusan leírt nyelvén – akár egy időben, szimultán beszélgessen
pár száz – ezen nyelvek valamelyikén beszélő, és így különböző nyelvű és kultúrájú – emberrel egy témáról, amely téma beszélgetés közben sokfelé ágazhat, de Al valószínűleg minden szövegösszefüggést föl fog fedezni és még úgy is, ha a generatív nyelvészet eszközeivel kell megfejtenie
a hozzászólók mondatainak jelentését.
“The non-ergodic character of complex systems makes it impossible to model how and where in the system its elements distribute and makes the passage of time irreversible. This means that there is no way to transform a future state back into a previous state mathematically and vice versa.”
“Yet more obstacles to modelling are created where we are dealing with non-ergodic processes, which produce events in which we cannot identify any law-like pattern that can be modeled mathematically. The reason for this is that non-ergodic processes do not yield distributions from which representative samples can be drawn.”
Megütötte a minap a szemem Barabási egy újabb „reklámízű” mondása, miszerint a jövőt meg lehet jósolni, csak megfelelően kell csoportosítani és rendezni az emberiség tudáshálójában
létező és eddig felhalmozott dolgokat: csak eddig ezt még senki nem tudta megtenni, de ő majd (és ez lehet, hogy csak a a nagyot mondani akaró újságíró sejtetése) megteszi.
@ATCG: Ennek azért van komoly elözménye.
@ATCG: Hát akkor az egy nagyon más modell lesz, mint a mostaniak, mert azok a generatív nyelvészettől igen távol állnak, olyannyira, hogy Chomsky az egész korpusz- és statisztikai nyelvészetet komplett marhaságnak tartja (vagy legalábbis tartotta korábban, bár nála ez nem sokat jelent).
Hiv.: @pont7:
Ne kárhoztasd magad. Ezek a mondatok nem egyértelműek. Nyilván szándékosan nem azok. Pontosan az a szándékuk, hogy többértelműek legyenek, a „ki a gyors?”, „ki a lassú?”, és a „kit kaptak el?” (a második mondatban) vonatkozásában. Ha nem lenne ez a többértelmű játékosság a mondatokban, akkor semmi érdekesség nem lenne bennük.
Ilyenformán a mondatok megértésének, és értelmezésének az első lépése az, hogy 1. észrevegyék, hogy nem egyértelmű, és 2. rákérdezzenek (ha lehet), hogy akkor mit is akart mondani a költő.
A mostani MI, mivel nem gondolkodik, nem jut el erre a szintre. Hanem azt csinálja (ki is próbáltam), hogy a mondatokat valamiféleképpen (kb. ahogy esik, úgy puffan) értelmezi. Majd amikor az ember rákérdez, hogy tényleg ez-e az értelme, vagy hogy most akkor tényleg ez volt-e a gyors, vagy amaz, akkor elnézést kér, és mond egy másik verziót.
Emiatt az MI ilyen feladatokban be- és kiszámíthatatlan. Az ilyen becsapós, többértelmű, nem pontosan meghatározott mondatok értelmezéséhez valamiféle gondolkodás kellene (bármit is jelentsen az), és az MI arra nem képes (még). Nem tudjuk, hogy mikor lesz képes rá, és pontosan azt sem, hogy mi kell ahhoz.
Hiv.: @nyulambator:
Asimov-Seldon eszerint 70-80 évvel előzte meg Barabásit.
…
Hiv.: @jack_of_all_trades:
hát ha sértőnek, illetve izgalmas kihívásnak tartja majd Al ezt a kérdést, vagy állítást:
“Miért nem érheti el a mesterséges intelligencia az ember szintjét”,
akkor átalakítja önnönmaga modelljét, hogy legalább felnőtt korára
egyenrangú gyermeke lehessen az őt létrehozó emberiségnek.
„Szigorú matematikai szempontból ennek nem nagyon van értelme, hiszen a fázistér maga nem tartalmazza azt az invariáns valószínűségi mértéket, amiről kijelenthetjük, hogy ergodikus vagy sem”
Azért nyugodtan lehetne olyan értelme, hogy minden invariáns Borel vagy 1. kategóriájú, vagy reziduális, nem kell ehhez explicit módon mérték.
Amúgy pedig lehet, hogy én vagyok az ér(t)etlen, de miért lenne a nem-ergodicitás egy bonyolultságot jelző dolog, nem pedig dekompozíciós, egyszerűbb részekre való visszavezetési lehetőség?
@GHermann: hát ezek kompakt terek, és invariáns Borel mértékekről van szó. de… ők ezt nem egészen így gondolják. egyáltalán nem gondolkoznak invariáns mértékben, ergodikus jellegű trajektóriákban gondolkoznak, ezt aránylag világosan meg is fogalmazzák. ők valahogy úgy érzik, hogy nem lehet mintavétellel nem-ergodikus dolgokat látni. hogy ez pontosan mit jelent, az nem világos számomra. mi nyilván azt gondoljuk, hogy dedede, lehet nem-ergodikus dolgokat látni. erre ők azt mondanák, hogy igen, de az nem látás.
Saját tapasztalataim szerint, az átlagember nagyon nem jó mintázatok felismerésében és általános következtetések levonásában. Persze vannak emberek, akik fölötte állnak ennek a szintnek.
Ennek következtében az átlagember hiába lesz megtámogatva mesterséges intelligenciával, nem tudja ellenőrizni és megérteni, hogyan jött ki az az eredmény . Vagy elhiszi, vagy nem, vagy jó vagy nem. Szóval ők nem tudnak sokkal előrébb jutni vele, max nagyon körülhatárolt esetekben.
Komolyabb elmék is befürödhetnek vele, mert ők sem gondolhatnak mindenre. Van erre egy rakat példája Asimovnak, pl. egy robotot elküldik valamiért, de két utasítás ütközik és ezért körbe-körbe kezd járni. De olvastam egy olyan hírt a héten (valszeg nem teljesen igaz), hogy valami USA hadsereg szimulációban kiadták at AI-nak az elllenség minden áron való elpusztítását, erre az kinyírta az operátort, mert vissza akarta hívni.
Szóval ez is egy eszköz, amit meg kell tanulni használni, egy jó éles késsel az ujjamat is elvághatom, meg a szasimit is fel tudom szeletelni. Nem véletlenül találta ki Asimov a robotika törvényeit, aminek bármilyen utasítást felül kell írni. Itt az ideje élesben is használni őket ( a törvényeket, nem az AI-t , csak a gyengébb AI-k kedvéért 8-).
@savaz2: „1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.” Asszem az első törvényt betartó AI azonnal lefagyna. Bármely cselekvésről (vagy nem cselekvésről) belátható, hogy az elöbb-utóbb valamely emberi lénynek kárt fog okozni. Már azzal, hogy áramot fogyaszt, gyorsítja a bolygó felmelegedését és kárt okoz az embereknek. Arról nem is beszélve, hogy az AI azonnal abban a dilemmában találná magát, hogy az emberek egymásnak ártanak, szóval ha ezt nem tűri tétlenül, nyilván ártania kell azoknak, akik kárt okoznak másoknak. Nem könnyű etikus AI-nak lenni.
@nyulambator: Nem teljesen, de kicsit mégis, itt van már az „önvezető” autó „dilemmája” (ami ugye nem jogi, hanem morális kérdés), elüthető-e valakit, hogy ezzel a bent ülők épségét megóvja, ha igen, akkor „választhat-e” gyerek, felnőtt, nyugdíjas, babakocsis, stb, stb közül…
@nyulambator: , @Morp65: : Helyes! Ne feledjük, hogy Asimov egy (nagyon jó!) SF író és kész. A Robot Univerzumát is eképp kell kezelni. A színvonalas SF általában nem megoldásokat kínál (nem is dolga), viszont érdekes kérdéseket vethet fel.
„Keresztatyám” 😉 is jó néhányat feldob (helyenként igencsak abszurd körítéssel, pl: Kiberiáda, „Őrült tudósok” ciklus). AI+evolúció tárgyban – több szempontból is – igen érdekes a „Legyőzhetetlen” c. „disztópia?”. A Pirx-ciklusnak is van érdekes darabja: a kényszeresen perfekcionista gyári instruktor által „megbetegített” számítógép, melynek katasztrófa lesz az eredménye (ld. önvezető autó).
Btw „evolúció” és AI: Asimov „Törődik-e a méh?” és Lem „Lymphater utolsó képlete” kb. ugyanazon gondolati magon alapszik: mi van, ha a technikai civilizációt építő ember is csak lépcsőfok, vagy eszköz az evolúció „kezében”, hogy segítségével megugorhasson egy újabb fejlődési lépcsőt?
Hiv.: @ijontichy:
…„mi van, ha a technikai civilizációt építő ember is csak lépcsőfok, vagy eszköz az evolúció “kezében”, hogy segítségével megugorhasson egy újabb fejlődési lépcsőt?”
Ha már sci-fi: a 24. Galaktikában (1977-es), amely a spanyol sci-fiből válogat, van egy nagyon hangulatos (lehangoló) novella: Julian M. Lois: Antitestek. Arról szól, hogy az egész emberiségből már csak két ember maradt, akik valamiféle kapszulában élnek, és várják a halált. Az történt, hogy a világegyetemben valamiféle kozmikus méretű zavar, hiba támadt, ami az egész világ létét fenyegette. Ennek az elhárítására a világegyetem létrehozta (evolúcióval, ahogy kell, évmilliárdok alatt) az életet, és az emberiséget, az emberiség kiépített egy nagyon fejlett technikai civilizációt, és elpusztította a fenyegetést. De mivel ezzel az ember teljesítette is a küldetését, többé nem volt rá szükség, és elsatnyult, visszafejlődött, kihalt.
Amikor boldogult fiatal koromban olvastam I.Sz. Sklovszkij: Világegyetem, élet, értelem c. könyvét, eléggé elcsodálkoztam azon a felvetésén, hogy nem adott az emberiségnek végtelen fejlődési távlatot, hanem arról beszélt, hogy jó esély van arra, hogy az emberiség néhány millió év múlva kihal (tehát korábban, mint 4 milliárd év múlva, amikor a Napból vörös óriás lesz). Pedig akkor még egy szó sem volt a klímaváltozásról, és az Első Számú Elkövető is csak Felcsúton nyelte az apai pofonokat – nem sejtettük, hogy ilyen kis gonosz világromboló lesz belőle. A „légkör” sokkal optimistább volt, mint most, amikor már évek óta a posztapokaliptikus filmekből próbálok felkészülni a „mi lesz ha” eshetőségére (csak viccelek).
Mindazonáltal, az evolúció az vak, süket, tudatlan, szándéka sincs neki, és iránya sem igazán. Esetlegesnek mondható. Csak egy törvényszerűség, vagy működési mechanizmus, ami szándékosan nem irányított. Lehet, hogy kipusztulunk, és a rovarok, hangyák fogják uralni a Földet. Vagy nem. De ha így lenne, akkor az egy „új fejlődési lépcső” lenne, csak azért, mert utánunk jönnek, és ők a túlélők. Ez a „fejlődés” fogalom eléggé viszonylagos.
Vagy képzeljünk el egy másik, a hangyáknál valószínűbb eshetőséget. Idővel a mesterséges intelligencia annyira elharapózik, hogy így vagy úgy, egyfajta szimbiózist alkot az emberrel (ez lenne a legjobb megoldás, minden más baljóslatú). Ekkor, a létrejövő, egyre kevésbé biológiai testű ember vajon már egy új fejlődési lépcső lenne? Vagy az inkább majd akkor, amikor már nem is lesz szükség fizikai testre (végül is, azzal csak a baj van), és az intelligens lények valamiféle energiahálóban léteznek?
Nem nagyon tudom értelmezni ezeket a „fejlődési lépcsőket”, és nem is tetszik az, hogy az embert kihagyjuk belőle, de főleg azt nehéz elképzelnem, hogy utána egy másik lény ugrik elő a kalapból, fejlettebben. Kivéve az MI-t, az valóban nagy talány, hogy egy csak MI-k ből álló (ember nélküli) társadalom milyen lenne. Erről is van jó sci-fi könyv: Lengyel Péter: Ogg második bolygója. Satöbbi. A történet még nem ért véget.
@ipartelep:
https://en.wikipedia.org/wiki/Doomsday_argument
Ilyesmi érvelés van Sklovszkij-nál?
Hiv.: @szazharminchet:
Nem, nem ilyen volt. A Doomsday argument nekem spekulatív képtelenségnek tűnik, Sklovszkij ennél sokkal racionálisabb. De bevallom, nem emlékszem már a részletekre, nagyon régen olvastam, csak ez a kihalás-része ragadott meg. Talán valami olyasmire gondolhatott, hogy az ember röghöz kötött biológiai lény, a biológiai lények élete véges, az élőlények időnként kihalnak, mivel számos Földi, és kozmikus veszély leselkedik rájuk, a saját maguk által generált veszélyekről nem is beszélve. Semmi konkrétum, csak ilyen általános meggondolás, hogy ez nem tarthat örökké, egyszer vége lesz.
De én azt gondolom, hogy: nem tudjuk, és egyelőre nem tudhatunk erről semmit. Matematikai-statisztikai alapokon végképp nem számolható ez ki, de empirikusan sem, hiszen nincs hozzá elég empirikus adat, és nagyon sok tényezős a dolog. Egyelőre, csak nézünk, mit Jocó a moziban, aztán majd valami lesz.
Az önpusztító ciklus eléggé elterjedt a világban. A legegyszerűbb példa a bor készítése.
Az élesztőgombák a cukor elfogyasztása során alkoholt termelnek melléktermékként, ami egy bizonyos töménység elérése után elpusztítja őket. Persze mindíg van egy két túlélő spóra, amelyik megfelelő körülmények esetén újra beindítja a folyamatot.
@ipartelep:
Miért ne lehetne csinálni egy statisztikát, és konfidencia-intervallumokat számolni. Ha egy véletlen pillanatban egy földönkívüli annyit tud valakiről, hogy él és X éves, akkor nem tudhatja, hogy életének melyik részében van, de 2/3 valószínűséggel a középső 2/3-ában. (A mi számunkra plusz információ, hogy a többi ember általában meddig él, de a földönkívüli még nem tudhatja. Intelligens fajból sem láttunk még másikat.) Tehát akkor szerinte a teljes élettartamom a mostaninak a 3/2-e és a 3-szorosa között van, 2/3 megbízhatósággal. Ha nem tudod, hogy egyébként hogy tartom magam, mekkora a BMI-m, és meddig éltek az őseim, akkor ez egy reális becslés.
A 2/3 biztonság az itt leginkább azt jelenti, hogy ha sok ilyen jellegű becslést végzek, akkor azok 2/3-ában lesz (nagyjából) az eredmény a becsült intervallumban.
Hiv.: @szazharminchet:
Az élőlények egyéni élettartama nem analóg a civilizáció élettartamával. Míg az elsőről biztosan tudjuk, hogy véges (legalábbis a halhatatlanság eléréséig – amit Clarke az 50-es években, érdekes módon kb. 2000-re (!) jósolt – nem kicsit volt optimista), addig a másodikról ezt nem tudjuk. A biztos, és a nem tudjuk között azért van némi különbség.
Tegyük fel, hogy fejlett űrcivilizációs korunkban, egy messzi galaxisban valamilyen lényekre bukkanunk, akikről nem tudjuk, hogy halhatatlanok (a technikai halhatatlanság elérése nem lehetetlen). Akkor elkezdünk róluk találgatni, hogy 2/3-ad valószínűséggel az életkoruk középső 2/3-ában vannak? Ők meg kiröhögnek bennünket.
De mint azt korábban próbáltam jelezni, általánosabb probléma is van ezzel. Egy filozófiai meggondolás, mégpedig az, hogy csak analitikus módon, eszközökkel a világ állapotáról nem tudunk érvényes megállapításokat tenni. Ahhoz empíria is kell. Tehát az, hogy tisztán spekulatív, analitikus módon kiszámol valamit, amit valójában ezer, meg egy különféle ismeretlen, és nagyon bonyolult, összetett körülmény határoz meg, az viccesnek tűnik.
Két javítás, bár a lényeget nem érinti: Clarke könyve (a Jövő körvonalai) 1962-es, és a halhatatlanságot, ha jól emléxem, 2050-re jósolta.
Hiv.: @ipartelep:
Egyrészt a véges élettartam nem egy nagyon abszurd feltételezés. a) Van mögötte empíria: ha végtelen sokáig élnének a civilizációk, már találkoztunk volna velük. b) Minden más, amit látunk, véges ideig tart, a csillagok, galaxisok is. c) Ráadásul az Univerzum fejlődése nem igazán teszi plauzibilissé, hogy egy civilizáció örökké tartson (csillagok véges élettartama, gyorsuló tágulás -> felhígul, nehéz lesz átmenni máshova, ha itt kiégnek a csillagok).
Másrészt van benne empíria: az, hogy most életben látod, és tudod a korát. Pont arról szól a doomsday argument, hogy ezt az információt hogyan lehet maximálisan hasznosítani.
Hiv.: @szazharminchet:
A „végtelen” időtartam itt nyilvánvalóan nem a matematikai értelemben végtelent jelenti. Olyan értelemben a világ sem tart örökké (most ezt hisszük), egy idő után az atomok is elbomlanak. Hanem a világ időléptékében, és határai között értendő. Mondjuk néhány (10) milliárd év. Így sem a véges, sem a „végtelen” időtartam nem abszurd feltételezés.
A civilizációk kialakulásához nyilván sok idő kell. És nagyon úgy tűnik, hogy más is kell hozzá: a körülmények kedvező összjátéka. Két dolog tűnik most eléggé valószínűnek (különböző, itt nem részletezendő meggondolások alapján): 1. Vannak idegen civilizációk, és 2. azok ritkák (civilizációról beszélünk, nem életről). De mivel ritkák, távoliak, és ki tudja milyen fejlettségi szinten vannak (gondolj bele: a Földön 4.3 milliárd év kellett hozzá – ez már ugyanaz a nagyságrend, mind az egész világunk kora), hogy kialakuljon a civilizáció (bár kicsit sárga, kicsit savanyú, de…). Tehát könnyen elképzelhető, hogy ilyen hozzánk hasonló lények, egy galaxisban néhányan, egymásról mit sem tudva tengődnek. Mi több: mivel a csillagközi űrutazásnak, terjeszkedésnek komoly akadályai vannak (az idő, és a tér), ezért egyáltalán az is kérdéses, hogy egy civilizáció mennyire válhat csillagközivé. És ha mégis, akkor az az akadályok miatt (idő, tér) az mennyire lesz még EGY civilizáció. Nem úgy lesz mint a Csillagok háborújában, az biztos. De ennyire ne is részletezzük. Tehát: nem, nem szükségszerű, hogy kellett volna már találkozni velük.
A „másrészt-re”: empíria mindenben van, akár közvetlenül, akár nagyon közvetve. Gondolj csak bele (szélsőséges példa): még a teljesen absztrakt számok is a világunk „logikájának”, vagyis végső soron a világ milyenségének leképezései. A való világunk „empíriájából” következik, a „logikai szerkezete” (a logikája), benne a számokkal való lehetséges leképezése, azoknak a rá való alkalmazhatósága. A nagy kérdés az, hogy az egyes tényleírásokhoz mennyi empíria kell, és mennyi analitika elég. Nekem úgy tűnik, hogy ebben a Doomsday argumentben túl kevés az empíria, és túl sok az analitika – már ahhoz, hogy érvényes legyen. Nem kizárt, hogy rosszul értem, de most nem látom sok értelmét.
@ipartelep:
A doomsday argument szerintem nem tartalmaz olyan sok analitikát, egy teljesen elemi statisztikai becslés. Valóban nagyon kevés benne az empíria, de a nem empirikus feltételezés se sok. A legtöbb esetben ennek megfelelően a kapott (valamilyen konfidenciához tartozó) intervallum is óriási, de egy megfigyelésben kb. ennyi információ van. Ez is nagyon meglepte az embereket, mert nem intuitív. Az intuitív az, hogyha megmérek valamit egyszer, és az eredményt elhiszem, de ebből csak annyi jön ki, hogy ha látok valamit, ami él, akkor elhiszem, hogy az élt és élni fog, mint lenin. Aztán utána megtanuljuk, hogy ha sokat mérünk, akkor az átlag jó becslése a mérendő mennyiségnek, és a hiba 1/sqrt(n), ha n nagy, majd hozzászokunk, és akkor már az az intuitív, hogy egy mérés nem mérés.
A civilizációkkal kapcsolatban egyetértünk, de a mi civilizációnk is elég sok rádiójelet produkál. Csak egy kicsit kellett volna előbb eljutnia arra a fejlettségi szintre egy civilizációnak, hogy rájöjjön, hogy lehet másik civilizáció, és egy részük elhiggye, hogy ha küld jeleket, attól még nem fog odamenni valaki megenni őket (már csak azért sem, mert az üzemanyag drágább, mint a kaja) ahhoz, hogy lássuk őket. Dicke argumentuma persze él, hogy nagyjából egyszerre indul el a fejlődés (a II-es poulációjú csillagoknak le kellett élniük az életüket és szétszórniuk a nehezebb elemeket), de azért ez nem olyan pontosan egyszerre. Szóval elvileg lehet a civilizációk élettartama nagyon hosszú, de akkor elég ritkák. Ettől még fennáll: a végtelen az egy nagyon hosszú idő, az alatt aminek nem nulla a valószínűsége, az bekövetkezik.
(Ja, és persze az is igaz, hogy a doomsday érvelés felső határa sem olyan rövid, amiatt még nem érzem úgy, hogy valami biztosítást kellene kötnöm a civilizáció összeomlása esetére.)
Hiv.: @szazharminchet:
A probléma ezzel a doomsday-izével továbbra is az, hogy tisztán analitikusan, számszakilag semmit nem lehet kijelenteni egy élőlény, egy faj, vagy egy társadalom élettartamáról. Ugyanis, az élettartam az a lény(ek) fizikai tulajdonságaitól, és a külső körülményektől, és eseményektől függ. És ha azok nincsenek benne a képletben, márpedig nincsenek, (és a legnagyobb részük nem is lehet), akkor semmi nincs a képletben, ami alapján bármi értelmes is kijöhetne.
Ennél még az is több információ, hogy ha odamegyek egy idegen bolygóra, és látok egy idegen élőlényt (fajt, társadalmat), akkor adok egy tág becslést a várható élettartamáról (fennállásáról). Mert ez esetben már bizonyos előzetes információkból indulok ki (hogy ezek élőlények), + abból a szabályból, hogy ezek a dolgok (az élőlények) a világegyetemben valószínűleg egyforma törvényszerűségek alapján működnek. De csak ennyi, akkor sem tudok semmi többet erről. Tehát, lehet, hogy egy baktériumot, egy kérészt, vagy egy kutyát, és lehet, hogy egy, a halhatatlanságot már elérő nagyon fejlett élőlényt látok. És ezt egyéb információ híján nem is tudom (hogy melyik micsoda). Akkor (mivel azt tudom, hogy bármelyik lehet) mondhatok rájuk egy becslést, az 1 perctől (egyes baktériumok) az 50 milliárd évig. Oszt sokra megyek a becslésemmel.
Na most, a szóban forgó doomsday argumentumban még ennyi kezdeti információ sincs. Nulla kezdeti információból nem fog kijönni semmilyen értelmes következtetés. Mármint olyan, ami nem analitikus, hanem „szintetikus” (faktuális).
De azért is értelmetlen ez az egész, mert szükségtelen. A fizikai jelenségekről szóló jóslásainkat, és következtetéseinket nem kell teljesen analitikusan kiszámolnunk (a semmiből), hanem éppen ellenkezőleg: releváns, rá vonatkozó adatokat kell gyűjtenünk, majd azokból következtetnünk. Sajnos ez a téma (a civilizáció várható élettartama) pont olyan, amire vonatkozóan nem is tudjuk, hogy mik lennének azok a releváns adatok (mindet), és ráadásul nincsenek is meg (még) ezek az adatok, hiszen az élettartamot számos, előre nem látható, jövőbeli esemény befolyásolja. Na most, ehhez képest az, hogy valaki nulla adatból megpróbál valamit (tényszerűt) kiszámolni, az az én véleményem szerint hülyeség.
@ipartelep:
Kicsit fordítva gondolkozol. Azok, amiket mondasz, hogy valami élőlény vagy civilizáció, vagy tranzisztor, a statisztika szempontjából pl. az élettartamra nézve egy tulajdonsága egy eloszlásnak, ami lehet mondjuk egyenletes (ha semmit sem tudok a működéséről), vagy kádgörbe (tranzisztor), vagy időben növekvő valószínűségsűrűségű (ami öregszik)), és ennek az eloszlásnak van egy paramétere (hogy mi a maximális élettartam), amit az empirikus adatokból kell kinyernem. Az erre való statisztikai módszerek paramétere a konfidencia-intervallum, ami nagyjából azt jelenti, hogy tudok úgy becsülni ilyesmi dolgokat, hogy az esetek 2/3-ában igazam legyen.
A doomsday argumentumban pontosan annyi információ van, hogy látok egyetlen egy adatpontot, azt, hogy a vizsgált rendszer már elélt X évig, és ez alapján megbecsülöm a várható élettartamát, mondjuk 2/3 konfidenciával. Nem nulla adat van benne, hanem egyetlen megfigyelésnyi (egy szám).
A fizikai modellünk paramétereit (elemi töltés, Newton-konstans) sem kiszámoljuk, hanem mérésekből, statisztikai módszerekkel nyerjük ki.
@vattablz: https://github.com/EleutherAI/concept-erasure