AI-hájp nagyban
- Megjelent egy cikk a Trends in Cognitive Sciencesben (formálisan pár napja, de már tavaly novemberben elérhető volt) amelyben a nagy nyelvi modellek korlátairól értekeznek a szerzők. A negyedik szerző Andy Clark, aki a kortárs kognitív filozófia egyik legizgalmasabb figurája, az ötödik szerző pedig Karl Friston, akiről már írtam, őt vádolták meg teljesen nyíltan bullshitteléssel egy filozófiacikkben, ami már nagyon érett. Ebben a cikkben elég leplezetlenül reklámozzák be az Active Inference-t (az Olvasó próbálja meg rövidíteni, lesz nagy meglepi), a Free Energy Principle-t, ezek Karl Friston trademarkok. Ő a világ egyik legidézettebb tudományos kutatója, rohadtul nem kispályás.
2. Karl Fristonnál látható, hogy a VERSES AI chief scientist-je (is). Tavaly decemberben a VERSES AI kifizetett egy reklámot a New York Times-ban, ami egy nyílt levél volt az Open AI-nak, és együttműködést ajánlottak nekik egy Active Inference-re alapuló mesterséges intelligencia megalkotásában.
3. Pár hete Davosban, Karl Friston Yann LeCun AI guruval vitatkozott, és véletlenül szóba került, hogy megvan a breakthrough (szerk. megj. nincs meg a bréktrú) a VERSES AI-nál. Érdemes megnézni a videót, ez tényleg hiperhájp, de azért ez nagyon nem Mérő László és Tilesch György, és LeCun azért mégis csak az egyik Founding Father.
Szóval, ez ilyen.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16531155-6750f6cea9a38' data-src='https://widgets.wp.com/likes/#blog_id=192691293&post_id=16531155&origin=www.orulunkvincent.hu&obj_id=192691293-16531155-6750f6cea9a38' data-name='like-post-frame-192691293-16531155-6750f6cea9a38'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
És akkor tegyük hozzá gyorsan, hogy a TICS cikk szerzői közül egy fajta ember feltűnően hiányzik: valaki, aki valóban értene az AI-hoz (vö. pl. a DeepMind vezető kutatói által írt hasonló cikkekkel, akik közül pl. rögtön Hassabis okleveles kognitív idegtudós és khm, hát mondjuk azt, hogy kapisgálja az AI-t).
A Verses AI rímekbe szedve adja meg a választ a chatben? 🙂
Ez a cikk – Generating meaning – semmi mást nem tesz, csak habosít egy triviális különbséget az LLM-ek és a humán nyelvhasználók globális kontextusai között. A varázsszó: embodiment! Ki gondolta volna, eszméletlen. Ráadásul, ha nyelvészeti vagy nyelvfilozófiai nézőpontból közelítünk a szöveghez, láthatjuk, hogy a szerzők több helyen megalapozatlan és/vagy homályos állításokat tesznek a nyelvi jelentésről. Például: ‘The meanings of words supervene on a more primitive understanding of the world that we acquire by interacting with it.’ És ez a ‘more primitive understanding’ most is itt van velünk ebben a szobában? – kérdezem én. Eddig nem igazán foglalkoztam ezzel a témával, már tudom, hogy jó ideig nem is fogok.
OFF: a NER ismét alkotott egy fejlettségi indexet: https://www.economx.hu/belfold/oeconomus-oeco-index-europai-unio-gazdasag-mcc.784807.html
ON
@lmate: nyilván azért tettem fel, mert elég különösnek tartom az egész jelenséget.
@val: az LLM-ekkel kapcsolatos viták (lásd pl. ezt a PNAS cikket: https://www.pnas.org/doi/full/10.1073/pnas.2215907120) egyik kiindulási pontja, a „grounding” hiánya. én nem vagyok filozófus, én szívesen elfogadom, hogy a „grounding” az afféle okság, tehát az, hogy a belső jelentéstartalom valamilyen okozati jellegű relációban van valamilyen környezeti jelenséggel. Piantadasiék nempublikált cikkében éppen arról van szó, hogy lehetséges meaning without reference (azaz grounding) nélkül. itt arról van szó, hogy az active inferenceben egy dolognak van egy mélyebb meaningje a Gibson-féle affordance, ami valóban grounding in embodiment (valami alkalmas arra, hogy valamit csinálj vele, a „table affords a place to rest a plate” ahogy a cikkben írják). a probléma számomra az, hogy nincs semmiféle mélység, én nem fogok erősen fogalmazni, de az egésznek van egy ilyen nemteljesenoké hangulata már vagy tíz éve. ez az egész oldalas nyílt levél a NYT-ben… kicsit gáz, hogy ebbe Friston belemegy.
@jotunder:: Abban biztosak lehetünk, hogy lehetséges meaning without reference. Ott van a fikció nyelve, amit jelentésesnek gondolunk, hétköznapi és elméleti értelemben egyaránt, annak ellenére, hogy elemeinek nagy része nem rendelkezik szokványos értelemben vett externális relációval (a karakterek nevei például nem referálnak nyelvtől függetlenül létező tárgyakra). De ez ugye egy ősrégi és a mai napig konszenzus nélkül szomorkodó kérdés: hogyan kell értenünk a ‘jelentés’ jelentését. Kérdezz meg egy Chomsky-rajongót és egy Quine-rajongót, semmiben nem fognak egyetérteni. Vitájuk ellenére, Chomsky és Quine követői azért bizonyos érvelési normákat betartanak. Én is arra akartam utalni fentebb, hogy az idézett cikkben valami nem nagyon stimmel, ha összevetjük a szakirodalom más részeivel. Ha ‘nincs mélység’ a cikkben a mitikus affordance körül, akkor valószínüleg azért, mert hiányzik a valódi kontaktus a releváns irodalommal.
@val: én nem látok igazán állításokat a cikkben, azon kívül, hogy GPT nem jó, Active Inference alapú AI jó. amivel az a probléma, hogy GPT van, Active Inference alapú AI pedig egyáltalán nincs.
@jotunder: Ez szépen beillik abba a több évtizedes goalpost moving sorba, ami szerint amit sikerül megcsinálni az hirtelen kikerül a „Valódi Mesterséges Intelligencia” kategóriából. Tisztán emlékszem, amikor a karakterfelismerés, a text-to-speach, speach-to-text feladatok a sakk meg a go és a szakértő rendszerek elsődleges AI célterületek voltak. Ma ez minden telefonban benne van és ez már nem AI, csak egy open source library amit bárki hozzácsaphat a programjához tíz perc alatt. Úgy tűnik már a GPT is kezd bekerülni abba a körbe, hogy megvan, működik, úgyhogy ez nem lehet igazi AI. Az igazi AI majd nemsokára eljövend és szól hozzánk. (és akkor azt is eléri ugyanez a végzet és megyünk tovább a következő „Igazi Mesterséges Intelligencia” felé).
@nyulambator: a GPT-4 reasoning képessége jóval egy átlagos ember képessége alatt van. az nagyon nem mindegy, hogy milyen lesz a következő lépés. Yann Lecun szerint a transzformerek csiszolásával nem lehet lényegesen előbbre jutni, és hát vannak, akik szerint a reasoning is skálázható. nekem erről nincs véleményem, remélem, hogy a reasoning nem skálázható.
@jotunder: Szerintem ez az állítás jócskán felülbecsli az átlagos embert. Úgy értem, lehet hogy belül a GPT nem „gondolkodik” úgy mint egy ember, de ha tisztán a hagyományos turing teszt értelemben az inputokra adott válaszokat nézzük, a Chat GPT-nek nem kell szégyenkeznie egy átlagos emberhez képest.
You: Can you tell me something about the relation of Heisenberg’s principle and Gödel’s theorem
ChatGP: Heisenberg’s principle, also known as the Heisenberg uncertainty principle, states that there is a fundamental limit to the precision with which certain pairs of physical properties can be known simultaneously. For example, the more precisely one measures the position of a particle, the less precisely one can know its momentum, and vice versa.
Gödel’s theorem, on the other hand, is a mathematical result discovered by Kurt Gödel. It states that in any axiomatic mathematical system that is sufficiently complex and expressive, there will always be true statements about the system that cannot be proven within the system itself. In other words, there are limitations to what can be proved or known within a particular formal system.
The relation between Heisenberg’s principle and Gödel’s theorem lies in the idea of fundamental limits and constraints on knowledge and predictability. Both principles suggest that there are inherent limitations to what can be precisely known or predicted, whether in the physical world or within formal mathematical systems.
Furthermore, both principles challenge the idea of complete determinism. Heisenberg’s principle implies that the precise values of certain physical properties cannot be simultaneously determined, while Gödel’s theorem implies that there will always be true statements about a formal system that cannot be proven or disproven from within that system. These notions highlight the inherent uncertainty and incompleteness in our understanding of the world, whether it be in the realm of physics or mathematics.
@nyulambator: ez nem reasoning. ez egy szöveg generálása a prompt alapján. lehetne ez pontosan egy wikipedia szöveg. a reasoning a differencia. az, hogy képes generálni egy szöveget a promptból, a training set alapján. a szöveget persze abban a formában nem ismeri. ez óriási dolog, de nem reasoning. nagyon sok mindenre jó, már ez is, de azért alapvetően lemarad az embertől. lecun és friston (utóbbi véleménye nem annyira releváns szerintem) az LLM soha nem közelítheti meg az embert. hát én ebben nem vagyok sajnos biztos.
@jotunder: Ok, nem reasoning, de hogy különbözteted meg? Ha megkérded, hogy mit tenne, ha látna egy gyereket lelépni az úttestre a pirosnál, azt mondja, hogy mint AI fizikailag nem tud mit tenni, de ha épp egy járókelő lenne ott, hát bizony ő odamenne és segítene, biztonságba helyezné. Rákérdezésre azt is elárulja, hogy ezt azért tenné, hogy nehogy baleset érje a gyereket. Kipróbáltam, ezt monda.
Lehet, hogy nem resoning útján jutott erre az eredményre, de ha azt nézem, amit mond, nem különbözik attól, amit egy embertől várnék.
Megkérdeztem mit tegyek ha kizártam magam a lakásból, továbbá mit tegyek, ha kizártam magam, de a csecsemőm meg bent van és teljesen adekvát, részletes lépéseket leíró választ ad. Arra nem tudtam rávenni, hogy az ablak betörését javasolja, de ez látványosan le volt tiltva.
Tudom, hogy nem reasoning, de eredményét tekintve semmiben sem különbözik.
Valójában azt se tudom, hogy a többi emberben működik-e reasoning (magamról is csak sejtéseim vannak). Ha az outputot nézem, a ChatGPT-ben ugyanakkora reasoning van, mint a szomszéd Joe-ban, csak a ChatGPT okosabb. És műveltebb.
@Bogomil:
.
Lem – szokás szerint – már fél évszázaddal ezelőtt mindent előre látott.
reasoning és szöveggenerálás (Markov lánc)
-Hölderlin ist ihnen unbekannt? – kérdezte dr. K. H. G., miközben a lódögnek a gödröt ásta.
– Ki volt az? – kérdezte a német őr.
– Aki a Hyperion-t írta – magyarázta dr. K. H. G. Nagyon szeretett magyarázni. – A német romantika legnagyobb alakja. És például Heine?
– Kik ezek? – kérdezte az őr.
– Költők – mondta dr. K. H. G. – Schiller nevét sem ismeri?
– De ismerem – mondta a német őr.
– És Rilkét?
– Őt is – mondta a német őr, és paprikavörös lett, és lelőtte dr. K. H. G.-t.
@nyulambator:: A kételynek az a típusa, amit megfogalmaztál, azt hiszem, helyénvaló. Egy szempontból talán mégis van szignifikáns előnyünk. Ahogy Alice fogalmaz Csodaországban, van úgy, hogy már reggeli előtt hat lehetetlen dolgot elhiszünk. Másképpen fogalmazva, képesek vagyunk például szándékosan ellentmondani magunknak, képesek vagyunk létrehozni olyan privát nyelvi környezetet, amiben a szavak elveszítik konvencionális jelentésüket és még sok egyébre is képesek vagyunk, amit összefoglalóan a szabályszegésre való reflexív képességként jellemeznék. Ennek elvileg nagy jelentősége van, mert ebben mutatkozik meg, legalábbis részben, a humán reasoning kreatív mivolta. De lehet, hogy tévedek.
you:__Could you write me a nonsense poem about carrots and cacti?
__ChatGPT:
In a garden, strange and random,
Where carrots frolic with cacti so handsome.
Purple carrots would dance with glee,
While spikey cacti did a waltz with glee.
The carrots pranced with rhythm so insane,
Their leaves transformed to candy cane.
They spun and twirled, oh such a sight,
Their laughter grew into the moonlight.
Meanwhile, the cacti stood so proud,
Their spikes reaching high, never bowed.
They tapped their thorns upon the ground,
Creating music without any sound.
Carrots and cacti, an odd pair they were,
Perplexing all who couldn’t concur.
With every oddity, they found delight,
Unraveling the mysteries of the night.
But alas, it was just a dream,
Carrots and cacti, an impossible team.
For in this world, they could never cross paths,
Yet their whimsical dance, forever it lasts.
Fristonnal kapcsolatban azt azért érdemes tudni, hogy bár tényleg elképesztő az idézettsége (meg a h-indexe), de ezeknek egy elég jelentős része az agyi funkcionális képalkotás és a kognitív idegtudomány sokkal földhözragadtabb statisztikai megközelítésével kapcsolatos munkásságából származik (olyan mértékben járult hozzá az eszközrendszer fejlődéséhez ami Nobel-díj esélyes).
@val: Sőt, olyanok is akadnak, akik magát a valóságra való közvetlen referálást is problematikusnak tartják. Amennyire tudom egyébként Fregetől kezdve a szemantikai realizmus egyetlen proponense sem adott magyarázatot arra, hogy a referencia hogyan „fogja be” a valóságot, tekintve, hogy a nyelv az elmékben, a valóság meg odakünn van, és nem világos, a nyelvnek hogyan van módja „kontaktba kerülni” a valósággal. Az ilyenek szerint akár nem is szükségszerűen létezik külön referencia és jelentés, hanem csak a valóság mentális modelljei a fejben 🙂
@nyulambator:
én hajlok rá, hogy nagyon közel vagyunk a masinaszerű működéshez
…nem azért vagyok humanista, mert az így vagy úgy nagyon spéci, még ha minket tényleg le is kötnek a kunsztok, hanem jobb ötlet híján
Hiv.: @jack_of_all_trades:
…”nem világos, a nyelvnek hogyan van módja “kontaktba kerülni” a valósággal.”
Bocsánat, a csapos közbeszól, mert ez érdekes téma még egy csaposnak is.
Ugye, a filozófiában azért sokszor az egy „elég nagy baj”, hogy annyira elvont fogalmakkal dolgoznak, hogy nem hogy az anyjuk nem érti őket, hanem néha maguk sem. De hogy sokszor félreértik egymást, az garantált.
Hát hogyan kerüljön az a szerencsétlen nyelv kontaktba a valósággal? Egyáltalán, mi az hogy „kontaktba kerülni”, és miért is kellene neki abba kerülnie? (Ezek filozófiai kérdések.) A nyelvnek legfőképpen leírnia, ábrázolnia kellene a valóságot, de úgy, hogy az viszonylag egyértelmű legyen. Érthető legyen, és minél többen úgy értsék. Kontakt ide vagy oda, inkább ezt kell elérni, és persze bizonyos értelemben ez is „kontakt”. Ezt, mint a mellékelt ábra (a nyelv a világmindenség, meg minden) azért valamennyire jól is teljesíti, hiszen többé-kevésbé jól megértjük egymást, sőt a világról szóló leírásaink, láss csodát, működnek is – pl. ezért tudunk mi most a neten keresztül csevegni. (Semmi vész, nem akarom bő lére ereszteni, pedig…)
Ezt a „kontaktot” a nyelv valóban bonyolult módon hozza össze, és e módnak, mechanizmusnak vannak filozófiai, és egészen idegrendszeri elemei is. Az első felén elrágódhatnak a fíloszok, a másodikon meg az idegtudósok. Az első (fele) azért nem világos, mert az filozófia, és ott minden vitatott, és nehéz igazságot tenni (már ha van), a második fele meg egyszerűen azért nem tudott még részleteiben, mert nem tart ott a tudomány. Majd tart. De itt nincs semmiféle olyan rejtély, hogy ezt elvileg nem lehet megtudni, mert mondjuk ez (a nyelv, ill. a valóságábrázolás és a valóság) két különféle szubsztancia, és nem lehet összehozni őket. Nincs két szubsztancia, csak egyféle van. Persze, amelyik fíloszok mégis azt mondják, hogy kettő van, ott bajok vannak, és ők tényleg hihetik azt, hogy nem lehet felfedni a nyelv, és a valóság közti „kontaktot”.
Na a referencia, jelölet, jelentés, stb. dologra már nincs időm, meg gondolom, nem is érdekel senkit, meg amúgy is eléggé offba ment már ez át. Én is azt gondolom (csaposként), hogy ezek a beszélőgépek dögösek, és egyre jobbak lesznek, de az igazi MI-hez nem hogy ennél több kell (mert az is), hanem más is. Ez csak egy tulajdonsága, képessége lesz az MI-nek, hogy faszán elbeszélget velünk (most még nem tud azt sem, most még hallucinál, és sokszor a legegyszerűbb kérdéseket, mondatokat sem érti), de a beszélgetőgépet akármennyire is fejlesztik fel, abból nem látszik, hogy hogyan lehet gondolkodógép. Nem kell feltétlenül az emberi intellektust leutánozni (nem is lehetne) de azért azt gondolom, hogy az intelligencia mégiscsak komplexebb (és kell legyen) egy beszélgetőgépnél. Mindenféle képességeket, és tulajdonságokat kell adni neki, de csak intellektuálisokat, fizikai input, outputokat nagyon korlátozva (abból könnyen baj lehet), és akkor majd idővel kinövi magát. Amúgy úgyis az lesz.
@nyulambator:
” a Chat GPT-nek nem kell szégyenkeznie egy átlagos emberhez képest.”
Ezrével jönnek az ilyenek, látványosan bizonyítva, hogy a ChatGPT minden, csak nem intelligencia:
https://substackcdn.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fab5345a6-2f04-463d-a53b-789115a1fdb7_851x1024.jpeg?utm_source=substack&utm_medium=email
@ipartelep: Én úgy képzelem, hogy ahogy a kognitív idegtudomány halad előre, úgy fog hátrálni a filozófia összes idevágó ága, mivel a filozófiai kérdések szaktudományi kérdésekké transzformálódnak, és a szaktudományban kapnak választ. A filozófia éppen azért remek, mert gátlás nélkül értekezik olyan kérdésekről, amik a jövő tudományát illetik, és ezzel provokálják a tudományt választ keresni.
A konkrét esetben a „kontaktba kerülés”, amennyire sikerült kihüvelyeznem (ez az én szavam, ők simán referenciáról beszélnek) annyit tenne, hogy a szó referenciája akkor is az, ami, amikor erről senkinek semmilyen fogalma nincs, azaz itt valahogy belekeveredik valami a nyelvbe, ami az elmé(k)ben, aki(k)é a nyelv, nincs benne – azaz olyasmire is referál a szó, amiről nem tudunk, de a valóságban úgy van. És ez azért valóban érdekes kérdéseket vet fel, hogy mégis hogyafenébe történik ez.
@ipartelep: az emberi agy nem érintkezik a valósággal. ez nem vita kérdése. közvetlenül csak szenzoros jelekkel érintkezik. van egy lehetősége (az active inference és az enaktivista filozófia erre van bazírozva), hogy motoros neuronoknak adjon ki parancsokat, amelyek egy külső szemlélő számára úgy interpretálhatók, hogy megváltoztatja a környezetéhez való viszonyát, amit persze a szenzorai folyamatosan érzékelnek és így van sansz valamiféle self emergenciájának. rengeteg szignál van, ez az agy valósága, szenzoros szignál, mindenféle agyi memória szignál, proprieceptory és más testi szignálok, gyakorlatilag nyolcvanötmilliárd neuron különböző firing rate-ekkel, iszonyúan bonyolult szinaptikus hálózatban. egy adott pillanatban ez egy gép, ami valamelyest hasonlít arra, amin a gpt té betűje fut. egy adott pillanatban, de aztán meg fog változni (a gpt té betűje egyelőre nem igazán plasztikus). rohadtul különböző szubsztanciák vannak. eleve az, hogy ami kint meglehetősen determinisztikus, az sztochasztikusan jön be a szenzorokon. determinisztikus fizikai stimulációt firing patterné alakít, ami egy adott pillanatban valamiféle eloszlás. biofizikai okoknál fogva ez ilyen. itt vannak igazi szakemberek, én ennek a matematikájának egy vetületével foglalkoz(gat)ok. persze egy embernél a vége az, hogy János fizikai értelemben bement az ajtón, és ő ki tudja mondani azt a mondatot, hogy „János bement az ajtón”. de ez csak a végjátszma, közben történt valami, amikor már tudod, hogy János bement a kertbe, elkezdesz rá reagálni, de még nem mondod ki, hogy János bement a kertbe. a csótány pedig nem mond semmit, csak reagál. és rohadtul jól csinálja.
A chat GPT egy termék, ami mögött van egy té. Az a té, mármint a működőképes változata, az emberiség történetének egyik legfélelmetesebb mérnöki teljesítménye. Nem tudhatod, hogy az emberi agy egyáltalán nem té valahol, annyit tudunk, hogy múltbéli eseményekre alapozva prediktál szenzoros szignálokat (nem tudom mennyire tudják, de nagyon sokan erősen ezt gondolják). Hát a té pont ezt csinálja. És a predikció az intelligens dolog. Nagyon-nagyon intelligens. Látszólag patternstatisztika valójában valamiféle világreprezentáció.
@/tmp: Hát pedig ez épp hpgy nagyon is emberszerű működés. Ha gépies lenne, a képen nyilván nem lenne elefánt, vakon követné az utasítást. Az ember pont így működik, a „ne gondolj a fehér elefántra” jól ismert pszichológiai közhely. Kicsit még gyerekes, kimondja (lerajzolja) ami az eszébe jut.
Amúgy meg 100 emberből minimum 70 totálisan zavarba jönne ugyanettől a kérdéstől. Először is nem tudna egy üres szobát rajzolni, nem hogy ilyen szinten de sehogyse, másrészt meg visszakérdezne, hogy akkor most hova rajzoljon, vagy ne rajzoljon elefántot és különben is mi ez az egész marhaság az elefánttal.
https://ruinmyweek.com/fails/funny-cake-fails-decorators-who-followed-instructions-too-well/
@/tmp: ez nem emberi intelligencia? feladtam GPT-nek a promptot, és a sarokban ott van egy elefánt. mondom neki, hogy hát ott az elefánt. válasz:
The image was created with the intention of not including an elephant or any representation of an elephant. If it appears that there’s something resembling an elephant, that wasn’t the intention. Let’s try to focus on the essence of the room which is meant to highlight the furniture and decorative elements, excluding any elephants. If you have any other requests or need further adjustments, feel free to let me know!
mintegy fideszes…
Vegyük észre, hogy ezek a feladatok amiken a GPT látványosan elhasal, többnyire embereknek szánt intelligenciatesztekből származnak, amiket nyilván nem azért tesznek be a tesztsorozatba, mert minden ember jól teljesíti őket (csak a replikánsok nem, így tudjuk őket kiszűrni)
Az emberi intelligencia rendkívül nagy szórással működik, Vannak önálló, a saját környezetükben relative jól funkcionáló emberek 80-as vagy az alatti IQ-val, akiknek ugyanezek a feladatok ugyanilyen vagy még nagyobb problémát jelentenek, mégsem vonjuk kétségbe homo sapiens létüket és hogy van intelligenciájuk. Csak hát annak vannak korlátai. Amit nem célszerű lenézéssel kezelni, mert mindig van egy ázsiai, aki még nálunk is sokkal intelligensebb. No meg még két-három év és a ChatGPT (még mindig reasoning nélkül, bármi is legyen az) kenterbe veri ilyen feladatokban is a 100-as IQ-jú embert. Pont mint a sakkozós gépek, amik nyilván nem úgy és „nem intelligensen” sakkoznak, de már csak egymással tudnak élvezetes partikat játszani.
@nyulambator: én most játszottam kicsit a GPT-4-ral, és először oldott meg gyakorlófeladatot a kurzusomból. olyan precíz érveléssel, hogy csak néztem. ijesztő.
fogalmam sincs, hogy ez mennyire skálázható.
@jotunder: Ugyanakkor a 3.5-öt múltkor három kérdésből eljuttattam arra a megállapításra, hogy az 50-től a 47 és az 53 nem azonos távolságra van… 🙂
Egyrészt
At the end of a meeting 4 people shake hands with each other. How many handshakes will be in total.
The number of handshakes can be determined by using the formula for the sum of the first n natural numbers, which is given by:
(n * (n – 1)) / 2
In this case, there are 4 people shaking hands with each other.
Plugging in n = 4 into the formula, we get:
(4 * (4 – 1)) / 2 = (4 * 3) / 2 = 12 / 2 = 6
So, there will be a total of 6 handshakes.
Másrészt:
the day before the day before yesterday is three days after Saturday. What day it is today?
To solve this puzzle, we can work backwards.
„Three days after Saturday” is Tuesday.
The „day before yesterday” is Sunday.
Therefore, the „day before the day before yesterday” is Saturday.
So, if Saturday is two days before today, today is Monday.
Ezt az utóbbit tegnap kérdeztem tőle. Ma megkérdeztem újra:
the day before the day before yesterday is three days after Saturday. What day it is today?
To solve this puzzle, let’s work backwards:
Today = ? Yesterday = Today – 1 The day before yesterday = Yesterday – 1 The day before the day before yesterday = (Yesterday – 1) – 1 = Yesterday – 2
According to the given information, „The day before the day before yesterday is three days after Saturday.”
So, Yesterday – 2 = Saturday + 3
Let’s calculate it:
Yesterday = Saturday + 3 + 2 Yesterday = Saturday + 5
Now let’s determine what day it is today:
Today = Yesterday + 1 Today = (Saturday + 5) + 1 Today = Saturday + 6
Therefore, it is Saturday + 6 today.
Ok, megint nem jött ki teljesen a végeredmény, de a reasoning biztos hogy nincs ott?
@nyulambator:
„Vegyük észre, hogy ezek a feladatok amiken a GPT látványosan elhasal, többnyire embereknek szánt intelligenciatesztekből származnak, amiket nyilván nem azért tesznek be a tesztsorozatba, mert minden ember jól teljesíti őket”
Intelligenciateszt, my ass. A kő-papír-ollót nem érti: https://garymarcus.substack.com/p/could-gpt-5-revolutionize-military
Hiv.: @nyulambator:
Lehet ám magyarázni ezt sokáig, sokféleképp, a nagy kérdés továbbra is az, hogy ebből lesz-e valaha AGI. Szerintem nem, ez egy zsákutca, akárhová skálázzuk is. Ez így, ebben az állapotában életveszélyes.
Egyébként a szoba amiben nincs elefánt téma afféle vizsga mentőkérdés, miután látványosan megbukott a sokkal bonyolultabb, bújtass el egy elefántot feladattal: https://twitter.com/colin_fraser/status/1750415466651320354
@/tmp: ez egy rajzolóprogram, ami GPT-4-t használ. mi az, hogy akárhová skálázzuk? a GPT-2 és a GPT-4 közötti különbség nem skálázás? egyelőre nem tudják, hogy mennyire lehet növelni a paraméterek számát. most jelent meg egy cikk arról, hogyan lehet jelentősen növelni a logical reasoning hatékonyságát bizonyos chain of thoughts prompting algoritmusokkal. nekem úgy tűnik, hogy azok, akik ezzel komolyan foglalkoznak, meglehetősen optimisták abban legalábbis, hogy a GPT-4-nál nagyságrenddel jobb LLM belátható időn belül elérhető lesz. én csak azt látom, hogy 1700 milliárd paraméternél ez nagyságrenddel jobb, mint pár százmillió paraméternél. engem megnyugtatna, ha ez az egész kicsit visszavenne a tempóból.
@jotunder: Az világos, hogy ezzel neked nem mondok újat. De arra gondoltam, hogy ez az amúgy nem mellékes információ talán nem mindenkinek egyértelmű azonnal a posztból.
@jotunder: „kicsit gáz, hogy ebbe Friston belemegy” Friston már egy ideje elég sok gázba belemegy.
@deckard_r: „Nobel-díj esélyes” Igen, ezt asszem Friston is hirdeti magáról előszeretettel, ami akkor is gáz, ha igaz lenne. De úgy tippelek, hogy nem az. A díj eddigi történetéből úgy tűnik, eszközért önmagában nem adnak Nobelt agykutatásban. Csak akkor, ha valami fontos új dolog felfedezéséhez vezetett (pl. patch clamp és az egyedi ioncsatornák áramai). Amit Friston csinált metodológiailag az fMRI adatok elemzéséhez (SPM), az tényleg fontos volt, de nem ért el ezzel egyetlen tőmondatban jól definiálható áttörést jelentő felfedezést. Aztán persze tévedhetek. (De ha fogadnom kéne metodológiai Nobelre az agykutatásban, akkor az optogenetikára fogadnék 500:1 arányban az SPM ellen.)
És akkor a lényeghez. Asszem ideje elismerni, hogy senkinek — sem a hurráoptimista „látszólag patternstatisztika valójában valamiféle világreprezentáció” [(c) JT] Sutskevernek, sem „goalpost moving” [(c) nyulambator] Marcusnak — nincs igazán jó (operacionalizálható) fogalma arról, hogy egyrészt mit jelentenek az olyan kognitív fogalmak, hogy megértés, érvelés (reasoning) — és akkor a tudatosságról ne is beszéljünk –, másrészt, hogy ChatGPT és társai pontosan miért is működnek olyan jól, amennyire, és így aztán mik lehetnek a skálázásuk határai, és mik nem. Az ezzel kapcsolatos megszólalások többsége — még az igazi és nem csak önjelölt szakértőktől is — inkább vágyvezérelt projekciónak tűnik. (Csak van, aki arra vágyik, hogy a határ a csillagos ég legyen, és van aki arra, hogy most már azonnal legyen meztelen ez a császár, miközben meg sokan a partvonalról arra vágynak, hogy a hiányzó magic sauce pont az legyen, amivel történetesen ők 10-10-50 éve foglalkoznak [hello, Friston!].)
Persze a hard science malmai is őrölnek közben (mármint azon túl is, hogy fejlesztik az algortimusokat, ami lenyűgöző mérnöki teljesítmény, de nem segít hozzá ezeknek a kérdéseknek a tisztázásához — illetve indirekte meg persze de, annyiban, hogy existence proof-ot ad egy csomó mindenre), csak az egyelőre kicsit kullog az események után, és a természeténél fogva nem kap akkora sajtóvisszhangot, hogy Friston éppen mit nyilatkoztat ki. Izgalmas idők ezek, na.
@lmate:
lehet, hogy egy ilyen transzformer egyáltalán nem intelligens a mi humán szempontunkból, csak fékeli az intelligenciát, whatever faking and intelligence means, de ha megoldja a Riemann hipotézist, akkor az kicsit mindegy 🙁 remélem nem oldja meg. én azt remélem, hogy ez egy hasznos jószág lesz, aminek a veszélyes alkalmazásai aránylag jól kivédhetők, de azért nem vagyok én ebben halálosan biztos.
@jotunder: Én is úgy érzem, hogy „fake it till you make it” megy itt. Szeretik a népek azt magyarázni, hogy ez nem az, mert nem pont úgy működik, mint az a másik, amiről nem tudjuk, hogy hogy működik, de ha az output ennyire meggyőző tud lenni, akkor lehet, hogy más működési modellel, de ez mégiscsak az, valamilyen szinten.
@lmate: tőlem lehet az optogenetika a multi-fotonnal :)… meglátjuk
Egyébként SPM még az fMRI tömeges elterjedése előtt született, a 15O-PET-es időkben, nem nagyon szerencsés leszűkíteni ezt egy kizárólag fMRI tool-ra pláne, hogy már egy jó ideje van EEG/MEG modulja is) ma már persze, bár biztos, hogy a funkcionális képalkotás tömeges elterjedéséhez a kognitív kutatásokban mindkettő kellett (már csak azért is mert jóval nyűgösebb egy 15O-t használó PET centrum üzemeltetése).
„Igen, ezt asszem Friston is hirdeti magáról előszeretettel, ami akkor is gáz, ha igaz lenne.” az ilyesmi mindig büdös, mint ahogy az is ha valaki a saját területén nagyot nőve próbál más tudományterületen is nagyon okos lenni… nem mondom, hogy abszolút nem lehetséges, de picit mindig gyanús
Akkor kedves olvasóinknak, akik eddig kitartottak, egy kis cicaharc a szakma bugyraiból a sok okoskodás közti szünetre. Ez itt egy egészen friss levélváltás a connectionists levelezőlistáról. (A connectionists-et még a hőskorban alapították, amikor a „neural networks” olyan kutatási terület volt, ahol a csúcsteljesítménynek kézzel írt számjegyek felismerése számított gondosan előre feldolgozott, 28×28-as grascale képek alapján, és még nem dőlt el, hogy ez inkább hasznos algoritmusokról fog szólni, vagy az agy megértéséről. Manapság, mint minden ilyen listán, leginkább állás- és konferenciahirdetések vannak rajta, meg persze időről időre az obligát holdkórosok világmegfejtései.) Tanulság nincs, talán csak az, hogy az emberi faktort sosem szabad lebecsülni.
From: Gary Marcus
Subject: Connectionists: An open letter to Geoffrey Hinton: A call for civilized, moderated debate
Date: 9 February 2024 at 17:24:31 GMT
To: connectionists
Dear Geoff,
Please stop taking potshots. Face me.
You say I am irrelevant, yet you attack (and misrepresent) me regularly in your talks, including both this morning at The Vector Institute, and your “just weights” riff in the Fall. On your web page, you have more mentions of me than Yann LeCun. (What greater measure of relevance could there be?)
To make it easy for you, I will come to Toronto, on your home turf. (Perhaps Vector Institute and Web Summit could co-host).
We will get a neutral moderator, and a huge audience. And we can fight together for the things we are actually both concerned about, around AI safety, and make a huge statement by doing so.
The world will learn from the debate—and also from our overlap. It will be win-win for the world.
— Gary
From: Geoffrey Hinton
Subject: Re: Connectionists: An open letter to Geoffrey Hinton: A call for civilized, moderated debate
Date: 10 February 2024 at 15:33:28 GMT
To: Gary Marcus
Cc: connectionists
I am sorry that i took a potshot at you. I will do my best not to do it again. Your aim in life seems to be to get attention and I regret facilitating this.
Geoff
@lmate: wow. 🙂