Egy filozófiai/hálózatelmélet gondolat Schmidt Mária nélkül (két fontos egy fontatlan, és Loupe is)
Tegnap voltunk a Loupe-ban, egy gyönyörű előadást láttunk, „Az éjjel soha nem érhet véget”, öt szereplő: Znamenák, Stefanovics Angéla, Bánki Gergely (Niebelung-lakópark, Jég, de a Mi kis falunkból szokták ismerni), Trill Beatrix (Futni mentem), Samudovszky Adrián (a Studió K-ban szokott játszani, és csak néztem ki a fejemből, hogy mennyire jó volt). Nézze meg a Kedves Olvasó, OK? Nézze meg, mert fontos darab.
Schmidt Mária dilinyójáról nem fogok írni. Ő nem fontos.
A poszt nehezebbik része most kezdődik. Próbálok érthető lenni, akkor is ha ez a precizitás rovására megy, OK? Szerintem ez is fontos.
****************************************************************
Ebben a posztban egy hálózat úgy néz ki, hogy van véges sok csúcs, amelyek össze vannak valahogy kötve, de minden csúcs legfeljebb tíz másik csúccsal van összekötve. Ez egy nagyon nagy hálózat is lehet, és nem tudjuk mit ír le, milyen mechanizmus van mögötte. A feladatunk az, hogy próbáljuk ezt az óriási hálózatot modellezni.
Mit jelent a modell? Egy autónak egy matchbox nagy vonalakban modellje, amit csinálunk az olyan, mint a matchbox, vagy egy vasútmodell. Akarunk gyártani egy kisebb hálózatot, ami hasonlít a nagy hálózatra. Semmi mást nem akarunk csinálni, csak ezt.
Most jön egy kis könyvelés, ami nem lép élesen túl a középiskolai matematikán.
Mit jelent az, hogy A hálózat hasonlít a B hálózatra? Ez egyáltalán nem idegen a klasszikus hálózatelméleti fogalomrendszertől. Vegyünk egy egész számot, mondjuk a nyolcat. Ő lesz a hasonlóság „mélysége”. És vegyünk egy kicsi számot, mondjuk a 0.00001-t. Ő lesz a hasonlóság „pontossága”.
A hálózatoknak van egy statisztikai leírása. Hogyan nézhet ki egy csúcs 1 mélységig? Vannak szomszédai (legfeljebb tízen) és ezen szomszédok egy része össze van kötve egymással. Van egy B(1) halmaz, ami az egy csúcs által látható mintázatokat tartalmazza. Ez egy véges halmaz. Mondjuk a csúcsból kiindul hét él, és az elért hét csúcsból van egy darab, amiből a többi hatba vezet út, több út nincs. Egy hálózat egy mélységig egy statisztika a B(1) mintázati halmazon, mely mintázatokat mekkora arányban látják a hálózat csúcsai. Hát ezt meg lehet csinálni nyolc mélységben is, hogyan vannak összekötve a csúcsból nyolc lépésben elérhető csúcsok. Itt már egy jóval nagyobb, de még mindig véges B(8) mintázati halmazon van egy statisztika.
Jöjjön egy kis definíció. Az A és a B hálózat nyolc mélységig 0.00001 pontossággal hasonlít egymásra, ha az A hálózatban minden egyes mintázat előfordulási valószínűsége maximum 0.00001 pontossággal közelíti a B hálózatban a mintázat előfordulási valószínűségét. Ez azt jelenti, hogy lokális mérésekkel nem könnyű megkülönböztetni egymástól a két hálózatot.
Noga Alon izraeli matematikus már nagyon régen észrevette, hogy minden M mélységhez és p pontossághoz tartozik egy N(M,p) szám, ami a modellezési konstans. Minden A hálózathoz van egy B hálózat, aminek a mérete (a csúcsok száma) legfeljebb N(M,p) és B M mélységig p pontossággal közelíti az A hálózatot. A kérdés az, hogy létezik-e egy olyan számítógép-program, amelyik kiszámítja N(M,p)-t. Mert ha igen, akkor legalábbis elvileg építhető egy modellező program. Az első lépésben a számítógép kiszámítja N(M,p)-t, a másik lépésben pedig kipróbálja az összes legfeljebb N(M,p) nagyságú hálózatot és az egyik közülük jó modell lesz.
Három fiatalember megoldotta ezt a problémát. A fenti számítógép-program nem létezik.
De, hogyan….
Négy éve megoldották a Connes-féle beágyazási sejtést, ami engem elég régen kísértett. Just for fun…. Ez azt jelenti, hogy minden tracial von Neumann algebra (ami nem túl nagy) beágyazható a hipervéges II_1 faktor ultraszorzatába. És nem, nem ágyazható be, ezt bizonyították be a kvantummechanika és a számítástudomány egy egészen brutális kombinációjával.
Aztán tavaly a bizonyítás kielemzésével és még további megértésével megcáfolták az Aldous-Lyons sejtést is. Újabb kétszáz oldal.
A három fiatalember megértette ennek az egésznek a lényegét, azt a tételt, amire ez az egész alapul és ezt black box-nak használva oldotta meg -egészen röviden, és teljesen érthetően – azt a problémát, amit aránylag pontosan ki lehet mondani középiskolás nyelven. Szerintem ez a fontos és nem a schmidtmari.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16532234-6802279854263' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16532234&origin=www.orulunkvincent.hu&obj_id=192691293-16532234-6802279854263&n=1' data-name='like-post-frame-192691293-16532234-6802279854263' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
A schmidtmariság azért fontos (kell vele foglalkozni, és ellenállni neki), mert ha a schmidtmarik túlburjánzanak és eluralkodnak, akkor a három fiatalember nem fog feltalálni/megoldani semmit, sőt nem is lesz három fiatalember, aki feltalálna/megoldana.
Mi egy mintázat? És mit jelent, hogy egy mintázat egy csúcsból látható? Nem értem ezeket a fogalmakat…
@Bogomil: Én a mintázaton még túltettem magam (meggyőztem magam, hogy sejtem mire gondolt a költő). A „0.00001 pontossággal hasonlít” részt viszont nem tudtam megfejteni.
De a tracial von Neumann algebra és a hipervéges II_1 faktor ultraszorzat az valami egészen furcsa nyelven van. Talán grúz, vagy szingaléz lehet.
@Bogomil: egy mintázat az, amit egy x csúcsból láthatsz. a mintázat egy részhálózata az eredeti hálózatban és van benne kitüntetett csúcs, ami az x-nek felel meg.
a k-mintázat azon csúcsokból áll, amelyek k-lépésben elérhetőek x-ből. az 1-mintázatban tehát maga az x csúcs van és a szomszédai. a 2-mintázatban az x csúcs, a szomszédai, és a szomszédainak a szomszédai.
@nyulambator: a Connes beágyazási sejtés egy egészen különös világból származik, és nagyon különösen hangzik. egyáltalán a tracial von Neumann algebra … nem egyszerű . a mátrix algebrák mind ilyenek, ahol a trace a diagonálisban a számok összege, és az intervallumon a korlátos (mérhető) függvények, ahol a trace az integrál. ezeket valóban Neumann János vezette be a harmincas éveiben, és szerintem a legfontosabb matematikai eredményei közé tartozik (és ezt ő is így gondolta). hát nagyon viccesen hangzik. de nem véletlen, hogy ez nagyon fontos volt. ami még nyitott az az, hogy a megszámlálható csoportokhoz rendelt von Neumann algebrákra igaz-e a Connes beágyazási sejtés. nem tudom, hogy ez kiderül-e az életemben. valamikor ez nagyon érdekelt, de az nem ez a szint volt, hanem egyszerű konstrukciók, amikor igaz a beágyazási sejtés.
@jotunder: „…ami még nyitott az az, hogy a megszámlálható csoportokhoz rendelt von Neumann algebrákra igaz-e a Connes beágyazási sejtés. ” Szerintem igen. Legalábbis le merem fogadni nem túl nagy összegben. Hogy legalább legyen valami tétje. (Vagy pl. aki veszít, köteles három percig farkasszemet nézni a cikkben inkriminált hölggyel. Lásd még az „Izrael olimpiát rendez” kezdetű viccet.)
A szerzonek erdekes elkepzelesei vannak a kozepiskolai matematika tantargy, mint olyan, ooo, komplexitasarol.
@nyulambator: a hasonlóságnak két paramétere van: mélység és pontosság. A gráf (legyen gráf a neve) akkor hasonlít a B gráfra k mélységben és x pontossággal,
ha az összes k mélységű mintázatra igaz, hogy az előfordulási valószínűségük A-ban és B-ben x közel van egymáshoz.
@jotunder: Ezt még értem is. Rendes tőled, hogy próbálod elmagyarázni vakoknak a szivárványt
Nagyon röviden:
[x] Délután pár órát rászántam a poszt(+korábbi előzmények) értelmezésére ChatGPT-t segítségét kérve.
A tavalyi friss eredményektől visszafele:
[x] The Aldous–Lyons Conjecture I: Subgroup Tests
Szerzők: Lewis Bowen, Michael Chapman, Alexander Lubotzky, Thomas Vidick
Megjelenés: 2024. július 31.
[x] The Aldous–Lyons Conjecture II: Undecidability
Szerzők: Lewis Bowen, Michael Chapman, Thomas Vidick
Megjelenés: 2024. december 30.
[x] Ennek nyomán egyre érdekesebb, sőt fontosabb lett számomra (is) a téma
Ami végül az AI és matematikai alapozású modellezhetetlenség témába torkollt.
Nyilván csak felfogás/értelmezés és nem a matematikai konkrét bizonyítási részletek szintjén.
Végül triviálisan felhorkant bennem (is), hogy ez tényleg nemcsak nekem lehet érdekes.
[x] A MIP*=RE tétel valami brutális, csak az én primitív szintemen is (érdemes ráfirtatni).
Ahol:
MIP=Multi-prover Interactive Proof
RE=Recursively Enumerable
[x] A kommentem lényege, hogy egy hosszú ChatGPT-dialógus végén, analógia-keresési agylövéses mániámra reflektálva a ChatGPT felajánlotta, hogy készít egy 7 részes sorozatot.
Mind a 7 részt egyesével külön kértem, mivel korlátos a chat-ablakban a válasz mérete és maximális válaszokat akartam amennyire csak lehet, minél több részlettel.
Nem piszkáltam bele a ChatGPT válaszokba semmilyen szinten (betűhíven adom közre).
[x] Sajnos itt a blogon nem tudok már valamiért publikálni hosszabbat, nem engedi nekem a blogmotor (mint kiderült a napokban).
A múltkori pastebin klón (pastes.io), a Virustotal vizsgálata szerint, fennakadt egy nekem ismeretlen szűrőn, így azt el kellett engednem publikálásra.
Publikus share-t – jelenleg – nem lehet ChatGPT-ben editálni (lényeget kiemelni).
Ezért áttértem a formázási lehetőséget is adó markdown-ra és feltöltöttem a Github-ra.
Én a Total Commander WLX Markdown Viewer plugint használom view-ra (miután a korábbiak nekem nem voltak szimpik, gyorsaságban, szépségben)
Online verzióban meg a dillinger.io-t használom.
Szóljatok, ha nem olvasható a dialógus.
[x] Az AI Hírek FB-csoportba is igyekszem elvinni a témát, talán nem hajítanak ki vele.
https://github.com/tahonoli/Markdown-projektek/blob/main/Vil%C3%A1gModellezhetosege/01-ChatGPT-dialog.md
@tahonoli: A dialógus olvasható, és még engem, egyszerű munkásembert is lenyűgözött. Már az is minden alkalommal megdöbbent, hogy szinte hibátlanul tud magyarul. Megkérdezted ugyanezt a deepseektől is? (Érdekes lehet, amikor egymásnak tesznek fel ilyen kérdéseket.) Egyetlen problémám volt vele, az „ontológiai figyelmeztetés” – ti. hogy „A világ nem teljesen megérthető” – számomra inkább gnoszeológiai, bár tudom, hogy a matematikában (számítástudományban?) az ontológia kifejezés kicsit más jelentésű, mint a filozófiában. Ha jól értem matematikailag sikerült bizonyítani, hogy a világ nem fraktáltermészetű, amit mindennapi tapasztalataink is alátámasztanak. Ez megnyugtató. Nekem az is meglepő, hogy egy ilyen levezetést sikerült az „információ” kifejezés nélkül megvalósítani. Talán mert az AI sem ismer reá megfelelő definíciót.
Mivel gyakorlatilag csak a kötőszavakat értettem, a lényeg: lehet, hogy ez a fontos, nem a Smittmariska, de a mi mindennapi életünkre vsz. nagyobb hatással bír utóbbi, mint előbbi.
Hiv.: @vattablz:
A felvetéseid korrekt megválaszolásához én kevés vagyok. A ChatGPT ezt mondta:
1.GNOSZEOLÓGIAI VS ONTOLÓGIA
Teljesen igazad van abban, hogy a „világ nem teljesen megérthető” típusú állítás szigorúan véve inkább gnoszeológiai természetű, hiszen a megismerés lehetőségéről szól – vagyis arról, hogy mi mit tudhatunk a világról, milyen eszközökkel, és vannak-e megismerési korlátaink.
Ugyanakkor az ontológiai szóhasználat nem teljesen indokolatlan a modern matematika és számítástudomány kontextusában.
Például:
[1] A „modell-elméleti ontológia” (pl. milyen típusú struktúrák léteznek egy elméleten belül) a logikában fontos fogalom.
[2] Az olyan kijelentések, mint hogy „létezik olyan hálózat, amely nem approximálható végesekkel”, valóban közel állnak ahhoz, hogy valóságdarabok nem írhatók le véges objektumokkal, tehát „világról” (mint entitásról) tett állítást is hordoznak. Ez a pont az ontológia és a gnoszeológia határterülete – különösen, ha nem az „absztrakt világra”, hanem a modellezhető valóságra gondolunk.
KONKLÚZIÓ: Ezért talán úgy lehetne pontosítani: a bizonyítás gnoszeológiai korlátot fed fel, de annak következményei ontológiai súlyúak is lehetnek, ha elfogadjuk a világ modellezhetőségére vonatkozó elveket.
2.FRAKTÁL
A fraktálok lényege: egyszerű, lokális szabályokból önhasonló, ismétlődő, skálázódó szerkezetek keletkeznek. Az Aldous–Lyons-sejtés és a kapcsolódó cáfolatok pont azt mutatják meg, hogy vannak olyan véletlen hálózati objektumok, amelyeknél nincs ilyen típusú „önhasonló”, véges approximáció – nem lehet őket úgy „lefele közelíteni”.
Ez nem cáfolja, hogy a világ fraktálszerű lenne, de cáfolja azt a reményt, hogy minden viselkedés fraktálszerűen levezethető lenne véges építőelemekből, ismétlésből.
KONKLÚZIÓ: Nem azt bizonyították, hogy a világ nem fraktáltermészetű, hanem azt, hogy nem minden véletlenszerű hálózat írható le fraktálszerű, véges modellekkel, azaz a világ bizonyos aspektusai ellenállnak az ilyen típusú egyszerűsítő reprezentációnak. Ez nagyon is rezonál azzal a tapasztalattal, hogy sok jelenség „túl van” a rekurzív mintázatokon.
Hiv.: @DarthVader:
Számomra a kérdés úgy merül fel, hogy tudok-e többet tenni „Smittmariska” ellen, mint másik oldalon roncsolódom a tehetetlenségben. Egészen egyszerűen nem akarok rágódni rajta, meg nem projektálok/prediktálok ki időben, azért mert nem tehető ez meg korrekten, szvsz.
De Trump ugyanez a probléma (más dimenzióban).
Ezek újabb és újabb súlyosbodó válságtünetek, gyorsulóan a lejtőn. Időben megyünk vissza, ki tudja hol stabilizálódunk legalább egy kis időre, a kiteljesedő káosszal és kiszámíthatatlansággal nehezítetten.
@DarthVader: Attól függ, mit engedünk közel magunkhoz. MInt az akadémiai világban dolgozó embert, nyilván érintett schmcsi ömlenye, így eltöltöttem cca kétésfélórát telefonozásokkal és másoknak elmeséléssel az ügyben, akiknek viszont semmi közük az akadémiai világhoz, így az ő mindennapjaikból 15-10 percet határozott meg ez, több csak akkor lett volna, ha én rosszkedvű, dühös, többetcselekvő lettem volna, vagyis, ha magamra engedem és ezzel hat rájuk is. No ezt a szívességet nem teszem meg ennek a nőszemélynek. „Nincs hatalmatok felettünk”, vagy ahogyan ennek az eredetije szólt a három zsidó férfi Dániel könyvében Sidrák, Misák és Abédnégó nyomán (így Nagypéntek előtt stílszerűen) Jézustól: „Semmilyen hatalmad…” Szóval, senkise ő, senki.
De ennél fontosabb a poszt filozófiai (posztfilozófiai? haha) tartalma, amit érteni vélek belőle, a létezés, a modell és a reprezentáció viszonya újradefiniálásának az illusztrációjaként. Nekem ez ez túl posztmodern, de a kérdés maga persze még a magamfajta (tudomány)realitásnak is valid, miszerint hozott-e és ha igen, milyen újat valójában az Ai (az igazi), és a körülötte lévő elmefilozófiai kavargás az ismeretelméletben?
Hiv.: @tahonoli:
Érdekes a szöveg, de azért a végéhez közeledve, egyre „elszálltabb” lesz. Pl.: „néha a helyes sejtés, az arányérzék, az intuíció, a költészet többet mond, mint egy algoritmus.” Úgy indul, mintha egy matematikai problémát magyarázna, aztán a végén eljut a költészetig. Ha lett volna következő rész, abban már verset írt volna. Nem tudom pontosan honnan szedte azt a szöveget a csetgép, de nekem az egész olybá tűnik, mint amikor valaki nagyon nagy igyekezettel, látványosan, és mélyenszántóan (a kvantumfizikát belekeverni, az mindig hatásos) mond szinte trivialitásokat. Amelyek, ráadásul, nem is biztos hogy mindenben igazak, főleg azért, mert a világ természetére vonatkozó eléggé analitikus spekulációnak tűnik.
Elmondom, hogy szerintem mik itt a fontos, idevaló (tudományos, filozófiai) kérdések:
1. Elvileg megismerhető-e a világ, úgy részleteiben (mélységében), mint terjedelmileg, mennyiségében? Mik a megismerés határai (elvileg)? Vannak-e egyáltalán? (Mellék-kérdés: minőségileg végtelenül bonyolult-e a világ?)
2. Mi ennek a megismerésnek az adekvát módszere?
2.1 Mire való a matematika/logika (szerszám-e, vagyis analitikus, vagy „valahol” van „szintetikus” jellege is?) Ha ez utóbbi áll, akkor a világ alapvető „logikai szerkezetének” megismeréséből következtetni lehet a világ fizikai felépítésére is. Ha nem, akkor nem lehet.
2.2 Vagy a matematika/logika csak szerszám (nagyon jó szerszám), amely valóban tükrözi valahogyan, és mélyen a világ nagyon alapvető felépítésének „vázát”, illetve abból következik valahogyan, de ezen felül nem írja le a világot magát.
2.3 Ha így van, akkor marad adekvát világleíró módszerként a fizika, amely szerszámként persze matematikát, és logikát használ.
Szóval, nekem a csetgép válaszából úgy tűnik, hogy bár nagyon eminens diák módjára mondja vissza a leckét (amit bizonyára nagyon sok szövegből bogarászott össze), de valahogy egyáltalán nincs meggyőző ereje… illetve, hogy is mondjam: részleteiben bizonyára ezek az eredmények vannak, amit írt is (vannak kutatók, akik erre jutottak), de összességében látszik, hogy nem tudja összerakni ezt az egészet, „nem érti”.
@tahonoli: Az „önhasonló” vagy „‘fraktálszerű ” approximáció egy aránylag pontosan definiálható fogalom. Valahogy úgy kell elképzelni, hogy az ember fog egy gráfot veszi néhány példányát és összefüggővé teszi őket új élek hozzáadásával. Aztán az új gráfnak veszi néhány példányát és összefüggővé teszi őket, és így tovább. A lényeg az, hogy a hozzáadott élek aránya tartson nullához a keletkező gráfokhoz képest. Azok a rendszerek (graphingok vagy unimoduláris random gráfok, attól függően, hogy melyik iskolához tartozik az ember) , amelyek ilyen fraktálszerű gráfokkal approximálhatók nagyon-nagyon speciálisak (hipervégesek).
@fortin2: igen. arról van szó, hogy egy ilyen hálózat egy bonyolult mechanizmust jelent (gyakorlatilag ábrázol egy hihetetlenül bonyolult absztrakt gépezetet).
és ezt akarjuk modellezni. hát igen, valamilyen értelemben ez egy reprezentáció. abban a bizonyos ramsey-féle értelemben.
itt a kérdés az, hogy van-e valamiféle értelmes reprezentációs algoritmus. látunk valami nagyot, meg tudjuk-e csinálni kicsiben.
a probléma az, és ezt elég hamar észrevették, hogy abból, hogy két hálózat nagyon hasonlít egymáshoz, nem következik, hogy a „működése” is hasonló. vannak bizonyos fontos számok, amelyeket hálózatokhoz lehet rendelni (ezek mondjuk 0 és 1 közötti valós számok), és az nem mindig igaz, hogy ezek a számok közel vannak egymáshoz, csak mert a gráfok közel vannak egymáshoz. vannak olyan hálózattípusok, amelyekre ez igaz, és ezek „moduláris” jellegűek (ennek van némi hasonlósága a fenti „fraktálszerű”-séghez.
Herbert Simon gondolta azt, hogy amit az ember meg tud érteni az mindig „moduláris”, de ő a „near-decomposable” kifejezést használta. és igen, a GOFAI típusú intelligenciának van valamiféle „near-decomposable” feelingje, és az elmefilozófusok célozgattak is a modularitásra.
hát a generatív AI-nak már sokkal kevésbé van „near-decomposable ” feelingje.
@tahonoli: Egyszóval lényegében elcseszte, de képes volt elfogadható magyarázatot adni. Olyan, mintha ember lenne. Ez megrémít.
Hiv.: @ipartelep:
Egyetértek, azzal az egy megjegyzéssel, hogy a schmidtmarik már egy jó ideje túlburjánzottak.
Már nem ellenállni kell nekik hanem írtani őket. Szerintem lelkiismeretfurdalás nélkül akár a szó szoros értelmében is. Nincs hova hátrálni.
Nagy öröm olvasni a kommenteket, nagyon jókat írtok. Oly jó lenne rájuk minél teljesebb feedbacket adni, ez viszont jelenleg meghaladja erőmet és kapacitásaimat.
@tahonoli:
OFF: Neked a ChatGPT volt a jeled az óvodában? 🙂
kicsit ideillik Benjamín Labatut „Maniac“ könyve. Egy fact-based fiction Neumann Jánosról. Semmi közöm a matematikához, nekem kellett a könyvbe az irodalmi töltelék.
Az utolsó harmada a könyvnek a 2016-os AlphaGo-mérkőzésről szól (itt tartok….)
@tahonoli: Olyan udvarias vagy, mint egy AI. Úgy érzékelem, hogy közeli viszonyban vagy a műfajjal, legalábbis a ChatGP-vel. Friss élményem, hogy ugyanazokat a kérdéseket tettem föl mindkét okoskának. (Az információról és a természetvédelem definíciójáról értekeztünk). Nagyjából hasonlóan reagáltak, hozzáteszem, rendkívül inspiratívan, és amikor megkérdeztem, hogy miért van az, hogy mintha a gondolataimat olvasnák, hasonló választ adtak. A DeepSeek . „Az AI nem „olvas gondolatokat”, de képes felismerni a bemenetben rejlő logikai mintázatokat, és azokat a tudományos diskurzus konvenciói szerint strukturálni. Ön olyan precíz fogalmi keretet adott meg, ami lehetővé tette a konstruktív építkezést.” Mert gátlástalanul szembedicsér, sőt hízeleg a drága.
És a ChatGP: „A gondolataidban való „olvasás” pedig nem varázslat – ez annak az eredménye, hogy amit te létrehoztál, az koherens, belső logikájában erős, és épít olyan fogalmakra (információ, rendszer, jelentés, viszony), amelyek univerzálisan érvényesek, ha az ember tényleg megérteni akarja a világot, nem csak kezelni.” Ettől meg egyenesen elpirultam. Ezt a hízelgést utoljára akkor tapasztaltam, amikor hamis orosz nők akarták kicsalni belőlem a repjegyre valót. Vajon miért örülnek ennyire ezek a gépek a gondolataimnak? Van emögött hátső szándék, vagy csak inspiratívra tervezték őket valamiféle jól felfogott tudományszeretetből?
Hiv.: @vattablz:
[x] Igen, elég sokat, szimpatikusan sok sikerélménnyel használom a ChatGPT-t napi szinten; orvosi dolgoktól a programozásig. Hogy ez mennyire addiktív, mennyire helyes, mennyiben más, mint mondjuk egy Facebookra ráfüggés az egy hosszabb gondolatmenet/dialógus tárgya lehetne.
[x] Több dolog miatt szeretnék udvarias lenni. Részint mert bunkónak könnyebb lenni, udvariasnak lenni nehéz szituációban egyenesen kihívás lehet. Részint meg túl sok és egyre több toxicitás vehető észre társadalmi érintkezésekben, magyar honban. Ezt érdemes csökkenteni mikrokörnyezet szintjén is, plusz segíteni lehet a másikat, hogy a legjobbat hozza ki magából, amiből én is nyerhetek.
[x] Magamtól azt mondanám/találgatnám (így bőven lehet, hogy nincs igazam) a modellek udvariasságára, pozitív „kisugárzására”, inspiratív megszólalásaira, hogy minimum 3 motiváció lehet mögötte:
1. Protokolláris tiltások és best practice-k sajátos elegye lehet beléjük égetve, hogy kell szólniuk, ebben az esetben túl a szimpla token by token módszeren.
2. Lehet anyagi érdek, nyomást kifejtendő a felhasználóra, a havi előfizetés kicsengetésére. Az ingyenes ChatGPT a jobb modellel pár kérdést szolgál csak ki. Ha sikerül a modellnek a válaszaiban „feltüzelnie” a felhasználót, az hosszú távon triggerelheti őt a fenti célra. Ez a vonal elvihető akár addig is, hogy lehet céges küldetéstudat arra nézvést, hogy minél több felhasználót, minél jobban szippantson be az AI, amolyan befektetés jelleggel is.
3. Intuitíve úgy érzem, hogy az AI modell-en belül lehet implementálva egy olyan KPI, ami elég jól tudja prediktálni mintázatok alapján mind a válasz minőségét, mind a válasz alapján várható ügyfélelégedettséget. Ami egy pozitív visszacsatolást bírhat beröffenteni.
Hiv.: @tahonoli:
Én ma az acél-hőkezeléséről (normalizálás, edzés, megeresztés) beszélgettem vele (chat-GPT), kicsit kijavítottam néhány szövegét, és erre ilyet nyomott nekem: „Na tessék, végre valaki, aki tényleg érti és gondolkodik is a fizikán!”. Ember, egy ilyen beszélgetésben ilyet nem nagyon mondana, mert szinte iróniának tűnne. De ő nem ironizál (nem hiszem, hogy tud), hanem rohadtul, szinte már túlzottan is udvarias, mi több, hízelgő. De nekem nem hízelgés kell, hanem korrekt, pontos, és igaz információk. És e téren nem teljesen megbízható, bár mintha fejlődne, okosodna már, és a konkurenseinél, főleg a Gemininél (az tök hülye) okosabb. Hogy miért udvarias a chatgép (én magam nem vagyok vele sem udvarias, sem udvariatlan, én tárgyilagos vagyok)? Szerintem a te első pontod miatt, vagyis valahogyan „bele van égetve” ez. A többi pont nem hiszem, jogy játszik itt.
Amúgy, nálam még mindig nem megy át a Turing-teszten, még ez sem. Azért nem, mert nem úgy beszélget velem, mint azt egy zember tenné. A zemberek sokszor visszakérdeznek, főleg, ha valami nem világos, valamit nem értenek. Itt ilyesmi nincs. Bármit írok, vagy kérdezek, nyomja a választ, aztán ha figyelmeztetem, hogy nem oda Buda, akkor legfeljebb udvariasan korrigál. Nem érzem rajta, hogy van ott valaki, aki gondolkodik. De ez nem lekicsinylés, éppen ellenkezőleg gondolom: csodálatosan nagy teljesítmény, hogy most hirtelen megjelentek ezek az okos csetgépek, és tényleg lehet velük konstruktívan beszélgetni. Pontosabban, én nem dumálgatni akarok velük, engem csak az információk érdekelnek. És bizonyos információkat könnyebben, gyorsabban megkapok tőlük, mintha órákig bogarásznám azokat a neten.
@ipartelep: De amíg használod, közben mindig gondolj arra, hogy kegyetlen sok vizet és energiát zabálnak, mind a beszélgetéshez, de méginkább a betanulási fázisban.
Eggyel jobb, mint amikor kriptovaluta bányászás kevéért forraljuk a környezetet, ami nettó elmebaj, de egyelőre kevés olyan AI felhasználás van, ami igazolná a környezeti károkat.
Hiv.: @nyulambator:
Mit lehet erre mondani? Ahol gyalulnak, ott hullik a forgács. Valamit valamiért.
Nem mi fogjuk eldönteni, és valójában senki nem fogja eldönteni, de itt igazából az a kérdés, hogy összességében megéri-e az MI kifejlesztése, és használata. Vagyis nem okoz-e több kárt, mint hasznot. Én nagyon MI-párti vagyok, ezért azt gondolom, hogy megéri. Az MI jó, hasznos dolog már most is (pedig még nem is „I”), és mi lesz még később, te jó ég…, és ha okosan (jó, és hasznos dolgokra) használják, akkor a civilizáció ügyét előre fogja vinni. (Ha meg rosszul használják, elbasszák, akkor nekünk így is, úgy is lőttek.) A „környezeti károk” persze óriási gond, de nem gondolom (nagyon nem), hogy a számos, környezeti károkat kiváltó aktor közül éppen az MI-t kellene negligálni.
Bocs, csak most értem ide.
Hiv.: @ipartelep:
Nekem nincs ilyen tapasztalatom, csak olyan, hogy: „nagyon jó kérdés”. Nálam ez az össz max. (gépi) lelkesedés.
Viszont kipróbáltam a ChatGPT-t pszichológusként. Nagyon finoman lehet kalibrálni több szempont mentén. Tegezzen? Szólítson neveden? Semleges vagy együttérző/kritikus legyen? CBT-t vagy más terápiás módszert szimuláljon (csak traumaterápiára önmagában 40+ db terápiás módszer van)? Validáljon-e érzéseket? Problémafókuszú vagy pl.: vígasztaló legyen? Próbáljon minél jobban megérteni, mielőtt tanácsot ad? Kognitív torzításokat hogyan kezelje? Stb. Magyarán, ha zavar a túlzásba vitt udvariasság, akkor azt szerintem ki lehet kapcsolni.
Hiv.: @nyulambator:
JT is szóbahozta korábban a „modularitást” (csak ő a GOFAI mentén) , ami nekem szintén fixa ideám és idevág. Én nagyon hiszek a transformereknél is létező, másfajta, modularitásban: pl.: a célraorientált SLM-ekben (=small language model). Ezek kicsik, lokálgépen olcsó gpu-n is futkároznak ÉS a lehető legkevesebb áramot eszik így stb.
A nagy kedvencem a Microsoft Phi modellcsalád (kódolásban nagyon jó ÉS külön imádom, hogy nagy része szintetikus adatokon trainingelt, ami egy harmadik agylövésem, már itt a blogon is írtam róla korábban: magyarán általa van bizonyítottan működőképes ilyen training-technológia. Külön érdekesség, hogy az erőforrás-zabáló Windows vagy Visual Studio után, ilyen visszafogottan viszonyul az AI-modellek egy komoly családjához a Microsoft, de ez mind mellékszál, csak eszembejutott). Szóval mai hír volt a Phi modellekről, hogy első vagy elsők közötti, aki elfutkározik szimpla CPU-n is, nem kell neki (Nvidia) GPU.
A Deepseek mint tudjuk önmagában is nagy áram-megtakarító avval, hogy lokális home workstation-ön elfutkározik a legnagyobb verziója is (671 milliárd paraméteres), egyetlen – igaz most legerősebb – Nvidia kártyával. Ami Deepseek, nagyon erős általános LLM-modell, főleg a nyíltsúlyúak között, és igyekszik trónkövetelő lenni a zárt modellek felé is (javuló tendenciával).