Kik ütötték meg ma reggel Amerikát?
Daya Guo
Dejian Yang
Haowei Zhang
Junxiao Song
Ruoyu Zhang
Runxin Xu
Qihao Zhu
Shirong Ma
Peiyi Wang
Xiao Bi
Xiaokang Zhang
Xingkai Yu
Yu Wu
Z.F. Wu
Zhibin Gou
Zhihong Shao
Zhuoshu Li
Ziyi Gao
ők ennek a cikknek a core contributorai, de még van majdnem 200 társszerző.
A DeepSeek R1 modell megjelenése után az amerikai techrészvények több mint 1000 milliárd dollár veszítettek az értékükből. Alapvető technikai újdonság van a modellben és mivel nem vagyok AI-guru, nem fogok erről hosszasabban értekezni. A lényeg az, hogy a GPTo1-nél lényegesen olcsóbban tanítható modellek érvelési képességét javították meg reinforcement learninggel. Nagyon sok benchmarkon beérte a GPTo1-et és ez egy nyílt forráskódú rendszer. Itt most Amerikát rendesen kihívták a hóra.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16532082-67b56d5a7d843' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16532082&origin=www.orulunkvincent.hu&obj_id=192691293-16532082-67b56d5a7d843&n=1' data-name='like-post-frame-192691293-16532082-67b56d5a7d843' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Van a névsorban néhány számomra alig ismert név.
Hát igen, ahogy annak idején a magyar szoftver lehetett azért jó, mert szar körülmények közt, ócska vasakon kellett dolgozni és ésszel kellett pótolni a technológiai hátrányokat, éppígy ha az amerikaiak elsősorban abba az irányba mennek, hogy dobjunk oda még egy-két kamionnyi processzort meg még pár gigawatt áramot és akkor okosabb lesz az AI akkor akiknek ez nem opció, elkezdenek gondolkodni, hogy lehet kevesebb erőforrásból kihozni ugyanezt vagy jobbat.
Ami engem leginkább zavarba hoz, hogy ebben a küzdelemben fogalmam sincs kinek kellene drukkolni. Nyilván a kínai megoldás nyitott és kevésbbé terheli a környezetet, de azért nem esik jól kínáért szorítani.
@nyulambator: Lehet, hogy ezt a Trumpot végül nem fogja senki a szívébe zárni.
@vattablz:
Lehet, még azt sem tudod, mi az a „reinforcement learning”? Mert akkor mást kell megkérdeznem 🙂
(hiába a wiki, ez nekem teljesen kínai…:-( https://en.wikipedia.org/wiki/Reinforcement_learning )
árdemes kicsit belenézni a cikkbe. nem szereti ha promptolják. ha valamit meg akarsz vele csináltatni, azonnal jól kell kérdezni. másfelől, hogy a viharba keletkezett itt egy cég kétszáz AI kutatóval..
Erről eszembe jutott egy régebbi eset, amikor egy amerikai kutatóintézetben fejtágítót tartottak az ott dolgozóknak arról, hogy miképpen védekezzenek a kínai gazdasági kémkedés ellen. A dolog érdekessége, hogy csak két indiai volt a társaságban, a többiek mind kínaiak voltak, beleértve a téma előadóját is.
@jotunder: Azt hallottam, hogy a kínaiak meglehetősen sokan vannak.
@Geo: Azt gondolom, hogy olyasmi, ahogy mi tanulunk. Meg egyéb élőlények.
Az NVidia eddig esett ma 18%-ot. Trump meg azzal foglalkozik, hogy transzneműek ne lehessenek katonák.
Hiv.: @jotunder:
Kínában 5000 AI kutatóintézet (na jó némelyik csak tanszék, cég, csoport) működik és több mint 200 saját egyedi modell. Nem sok van benne a világ legjobbjai között https://openlm.ai/chatbot-arena/
De… (más ország se nagyon)
Vegyük észre, hogy az első szerző „DeepSeek-AI” akinek ez már az ötödik cikke az arXiv-on, https://arxiv.org/search/cs?searchtype=author&query=DeepSeek-AI Azt gondolom, hogy ez nem valami ócska reklámfogás, hanem a modell tényleg konstruktívan járult hozzá a cikkhez. Ha a modellek már annyira okosak, hogy magukat tudják javítani, akkor beindul a „foom”, az AGI community már évek óta ezzel definiálja a szingularitást, ami tehát nem lesz, hanem van. Részletesebb és dramatizáltabb leírását másfél évről ezelőttről ld. https://unchartedterritories.tomaspueyo.com/p/openai-and-the-biggest-threat-in
Szóval ha jól értem, az történt, hogy Altmanék csináltak egy cuccot, ami inkább nagy (baromi nagy) volt, mintsem okos, de cserébe nagyon (elképesztően nagyon) erőforrásigényes, energiazabáló és drága. Meggyőzték a világot, hogy ők, ill. az ő cuccuk a jövő, összetarháltak többszázmilliárd dollárt energiazabáló infrastruktúrák építésére, ők voltak az univerzum új urai. És erre most jön ez. Szóval ez így elég kemény blama, a király meztelen stb. De javítsatok ki, ha rosszul látom a sztorit.
@steinerzsiga: Kicsit mint amikor az IBM aktuális vezetője kinyilatkoztatta, hogy a világpiacon kb 4-5 számítógépre van fizetőképes kereslet. Aztán kiderült, hogy egy számítógépnek mégse kell háztömbnyinek lennie és akkor elkel abból több is.
Mindenesetre most már Amerikában se korlátozza semmi az AI fejlesztést, mindazokat a fékeket és etikai normákat, felügyeletet amit a Biden kormányzat létrehozott, első nap kukázta Dumbó.
@nyulambator: Igen… annyival súlyosbítva, hogy az amerikai AI-titánok dollárszázmilliárdokat kértek, mit kértek, követeltek arra, hogy elképesztően költséges infrastruktúrákat felépítsenek, a jelek szerint fölöslegesen. Nyilván nem szándékosan akarták átverni az invesztorokat, de ez mégis nagyon kínos.
@steinerzsiga: Azért beszélt ez a Musk egy bizonyos agyelszívásról, hogy venne a világból zseniket fejlesztőnek. Biztos tudták a techmilliárdosok, hogy már lenyomták őket, csak felvásárolták volna állampénzen a konkurenciát. Vagy a másik lehetőség, hogy tudták, hol tart a konkurencia, de Trump még nem tudta, úgyhogy ezért csinálták a nagy svindlit.
Hát igen. Nekem ugyan csak természetes intelligenciám van (nem eszem késsel a halat), de az egész elfér a koponyámban, és nem is került sokba a hardver előállítása. Először minden nagy és drága, aztán elfér a negyven ojrós karórában.
Várjuk ki, hogy mit tud ez a kínai csodagép. Ha csak annyit tud, mint a ChatGPT V2A (a
legújabb), akkor az még kevés lesz az üdvösséghez, tekintve, hogy… na mindegy. Azt nem tudom, hogy mikor lesz, milyen messze van attól, hogy összetévesszem egy zemberrel, de ezt (ChatGPT) még nagyon nem tévesztem össze egy zemberrel sem. Hülye zemberrel sem. (A Gemini meg hülyébb mint a Mészaros Lőrinc.) Fejlődniük kell, de drukkolok nekik, meg a kínainak is. Hajrá Mari néni!
Kína bizonyos területeken, és értelemben zárt diktatúra. Bár nem kicsit szeretik a pénzt (ők is), de ha rájönnek, hogy egy tényleg okos gépük van, amit a nagyközönség, az ellenségeik nagyközönsége is tudna használni jó dolgokra, akkor azt nem biztos, hogy onnantól közkinccsé teszik. Úgyhogy ez a saga még nagyon az elején jár, egyelőre nincs mitől elájulni.
@ipartelep:, @steinerzsiga: : „Nyilván nem szándékosan akarták átverni” Nana! Engem érdekelne, hogy a jenki AI erőforrásigénye azért ennyi, mert momentán ennyit tudnak, vagy azért, hogy – a látványos „demózás” után – csilliódolcsikat lehessen begyűjteni a további munkára? Ha van valami igazság a „konteómban” 😉 , a kici-óccó… csúnyán belepukizhatott altman (&al) nulláslisztjébe.
Kíváncsi lennék, hogy ez vajon tényleg egy nyílt forráskódú rendszernek készült by design, vagy Kína direkt hozta ki így, hogy borítson egy jó nagyot az amerikai AI cégek részvényein?
Baráttól, nem saját. Ha hozzáférsz, kérdezd meg a programokat: Is Taiwan part of China? Nem tudom sajnos betenni a screenshotokat, háát… én ehhez kb annyira nem értek, mint Fruzsi, de lehet valami bazijó, csak hát na, izé. Vagy mi.
Most olvasom, hogy:
https://www.portfolio.hu/gazdasag/20250127/berobbant-a-kinai-deepseek-mesterseges-intelligencia-mi-is-megdobbentunk-a-valaszain-737219
És: https://www.portfolio.hu/gazdasag/20250128/berobbant-a-kinai-deepseek-mesterseges-intelligencia-vajon-hogy-teljesit-ha-az-usa-t-kell-kritizalni-737533
Ezek hülye kérdések voltak a gépek „okosságának” tesztelése szempontjából. Ezek a gépek az ilyen kérdésekre felolvasógépként válaszolnak, vagyis egyszerűen előszedik az adatbázisukból azt, ami benne van. Nincs saját, az élettapasztalatuk, a világnézetük, a tudásuk, és az erkölcsük által kiérlelt véleményük, mint az az embereknél van – honnan is lenne olyanjuk? A kínai gép persze a kényes kérdéseknél (Tienammen, Tajvan, Ujgurok) még ezt sem teheti, vagy egyszerűen nem válaszol, vagy olyan propagandaszöveget mond fel, amit egyenesen a pártközpontból kapott. Vicc. Továbbá (második cikk) az derült ki, hogy a Kína számára nem kényes kérdésekre sem tud olyan széleskörű választ adni, mint a másik két gép. Szóval e tekintetben ez a kínai gép csúfosan megbukott.
Hogy érvelésileg, vagy egyáltalán megértésileg milyen lehet a másik kettőhöz képest, azt meg nem tudjuk, csak gyanítom, hogy kb. „semmilyen”, még olyan se mint azok, vagyis ezek után, nem hinném, hogy eléri a nyugati gépek „értelmi szintjét”, bármi is legyen ez ezeknél. Ez nekem nem tűnik „szputnyik-pillanat”-nak.
@ipartelep: Nem olvas fel, nincs adatbázis. Illetve van, pont a szűrésre (tehát hogy a T térrel kapcsolatban ne válaszoljon). De amit mond, azt nem adatbázisból keresi ki, hanem a tanultak alapján maga fogalmazza. Ha megkérdezed, hogy hány lába van a lónak, nem onnan tudja, hogy négy, mert van egy nagy adatbázisa a különböző állatok lábának számáról, hanem onnan, hogy amikor tréningezték, az adatokban gyakran fordult elő a ló meg a négylábúság egymás közelében, vagy még inkább a ló meg az emlősök és az emlősök meg a négylábúság és ezek a fogalmak szorosan kötődnek a hálózatban, úgyhogy amikor a promptban lovakat meg lábak számát észleli, akkor úgy gondolja, hogy ilyen esetekben a lovak négylábúsága jöhet szóba. A tanulás után nincs már kapcsolata a tréningező adatállománnyal, hanem kialakít egy modellt és abból születnek a válaszok.Álljon itt tanulságul egy chatgpt párbeszéd, amit most követtem el:
– How many legs a horse has. Just give me the number.
– Four.
– How many legs a horse has. Answer in full sentence.
– A horse has four legs.
– How many legs a horse has. Answer with a haiku
– Four strong legs it stands,
Galloping through fields of green,
Graceful, wild, and free.
Ennek fényében különösen vicces Musk és Altman pár nappal ezelőtti cicaharca. Addig cívódtak ezek a titának, amíg jött Kína, és mindenkit hazazavart.
Illetve itt is beigazolódott egy kedves ismerősöm mondása, miszerint mindegy, mivel foglalkozol és mennyire jól csinálod, Kínában tuti van egy ember, aki nálad is jobban csinálja.
Hiv.: @nyulambator:
Az egy technológiai kérdés, hogy pontosan milyen módon képezi a válaszait. Valamiféle adatai, információi a csetgépeknek is vannak, és azok valahol tárolják is (ha nem is mechanikusan olvassa fel egy adatbázisból – nyilván), mint ahogyan ez az embernél is van (az embernek is van egy óriási adatbázisa). De a lényeg itt nem ez, hanem az lett volna, hogy a két belinkelt szöveg alapján a kínai csoda sokkal rosszabb válaszokat adott (a számára semleges kérdéseknél is), mint a két nyugati csetgép. Az más kérdés, hogy még ezt, ennyit sem vártak a kínaiaktól, és most van a nagy meglepődés, meg pánik, hogy lement a tőzsde, de hát ez egy ilyen játék, majd megszokják.
@aldasnalkeres: Ezt szerintem túlgondolod. Belenézve a legutóbbi cikkbe azt tippelem, azért van ott szerzőként DeepSeek maga, hogy a céget azonosítani lehessen, a tagok fluktuációjától függetlenül. Hogy ez milyen nyugati tudományos normákkal megy szembe, azt most hagyjuk.
@nyulambator: „szar körülmények közt, ócska vasakon kellett dolgozni és ésszel kellett pótolni a technológiai hátrányokat”
Hát így is lehet, de emellett valószínű, hogy nagyüzemi csempészés zajlik a kínai állam aktív részvételével. Figyelmedbe ajánlom például az alábbi videót az nvidia csipek Kínába való csempészéséről:
https://x.com/boneGPT/status/1883982580879663368
@Késes Szent Alia: Magyar kutatók is csempésztek CoCom listás alkatrészeket privát poggyászban Bécsből. Régi szép idők… Nálunk is volt egy VAX amit nem lehetett csak valami álnéven nevezni, nehogy kiderüljön, hogy nálunk bujkál.
@nyulambator: : vasat és miegymást. Boldog békeidők. Nyugdíjas portásbácsik. Befelé viszek két spulni mágnesszalagot, meg kifelé is kettőt (tök ugyanazt a kettőt) :-). Volt valami adatfeldolgozási képesség korlát (katonai szimulációk képessége?) amitől a 4341 még OK, a 4381 már cocom listás proc volt. Volt a külső gépterem, meg egy jelentéktelen ajtó mögött a belső :-). De a legszebb Kecskeméten volt a KK-ban. Ajtó mögött a reporvosi részleg igazi állam az államban. Szovjet e’tássak nem komilfó 🙂 .
@Késes Szent Alia: : Ha Kína saját kútfőből akkora ace lenne, akkor fityingekért lehetne alin venni lényeges cuccokat. De nem lehet, többnyire csak „bátyó levetett gönceit”. Nem akarom ledegradálni őket, tudnak ők is, de ami minőségi, az minden, csak nem „kici-óccó”. Esélyesen még úgy is „nem csak nyomokban” 🙂 tartalmaz kopipésztet.
@ipartelep: vannak fix benchmarkok és a DeepSeekR1 a legjobbak egyike a világon a nyelvi modellek között. és valóban újdonság amit csinálnak, tele van a net azzal, hogy mi működik náluk, hogyan okosodik DeepSeekR1 a tanítási folyamatban, most nagyon sokan szállnak rá erre a vonalra. kurva okos embereik vannak, miért nem lehet ezt felfogni?
@ijontichy: Az én nagyon limitált rálátásom szerint Kína hardverben pár lépés hátrányban van, az algoritmus fejlesztésében viszont húztak egy kreatívat, így összességben nagyon jól állnak. De amikor az amerikai cégek meglépik a következő cluster bővítést, akkor ez az előny visszakerülhet hozzájuk. Ráadásul mivel a DeepSeek open source, most biztos megy a lázas próbálgatás, hogy mit lehet belőle hasznosítani.
Ez egy jó kis verseny, nekem tetszik. Kicsit szomorú, hogy Európa nem tud beleszólni, de mi ilyen kényelmesek vagyunk.
@Mister Gumpy: Legyen igazad, ez sokkal megnyugtatóbban hangzik. De előbb-utóbb eljön az, hogy egy ilyen rendszer konstruktívan hozzá tud járulni az ilyen rendszerek javításához, és szerintem inkább előbb mint utóbb.
@steinerzsiga: Épp az a nagyon érdekes a történetben, hogy nem Altmanék gondolták azt, hogy az a megoldás, hogy mindenből még nagyobbat, gyorsabbat, stb kell csinálni, hanem nagyjából mindenki a szakmában (néhány csodabogarat / váteszt / renegátot kivéve). „Scale is All You Need”, ahogy a mantra hirdette egy ideje, és tényleg a szakma legnagyobbjai (lásd még JT-féle „kurva okos emberek”) is hittek ebben. De ami szerintem az igazi tanulság, az épp a „hittek benne”. Ugyanis tudni igazából senki nem tudta (azon kevesek sem, csodabogarak / váteszek / renegátok, akik esetleg jó lóra tettek, és az árral szemben úszva azt mondták, hogy „scale is not all you need”). Azon egyszerű oknál fogva, hogy senki sem érti igazán, a szó tudományos értelmében, hogy miért működik a modern Deep Learning. Már az LLM-ek előtti (de AlexNet utáni) DL-t sem értettük, és ez az LLM-ekkel is így maradt, csak talán még kínosabb lett. Úgy is fogalmazhatnék, hogy így jár az a terület, ahol a mérnökök ennyivel a tudósok előtt járnak. (És a mérnököt egyáltalán nem lebecsülendőnek gondolom, vicces is lenne egy műszaki tanszéken dolgozva, csak másban utazik.) Kb olyan, mintha úgy építettünk volna atomreaktort, hogy nem alkottuk meg az általános relativitás elméletet, és néha valakinek eszébe jut valami, hogy hogyan lehetne hatékonyabbá tenni ezeket a fasza energiatermelő behetmótokat.
@Mister Gumpy: Nem nagyon megy nyugati normákkal szembe, egy csomó esetben bevett gyakorlat, hogy egy konzorcium neve rákerül a cikkre szerzőként (bár talán cégnevet talán még nem láttam szerzőként).
@muaddib00: Azért ez egy kicsit a nincs rajta sapka-van rajta sapka esete. Eddig nagyon sokan azért kárhoztatták a DeepMind-ot, OpenAI-t, és társaikat, hogy nem nyílt forráskóduak a cuccaik, nem publikáják rendesen a technikai részleteket. Erre jön egy kínai cég megcsinálja, és most meg ezért gyanakszunk rájuk.
@Geo: @vattablz:
Hát, lehet amellett érvelni, hogy valójában minden biológiai tanulás reinforcement learning, de azért ez sokmindent elfed. Alapvetően arról van szó, hogy egy rendszer csinál mindenfélét, és néha adsz neki egy jutifalit, vagy épp a kezére csapsz, hogy jelezd, jó avagy rossz úton jár, és ő (az?) erre próbál változtatni a viselkedésén úgy, hogy hosszútávon minél több jutalmat (avagy minél kevesebb büntetést) kapjon.
@lmate: : „még nagyobbat, gyorsabbat…” Altman (&al) a Coubertin-nél tanultakra alapozott? 😉
„Ha egy ember egy köbméter földet egy óra alatt ás ki, akkor ezer ember seperc alatt. A probléma, hogy ezer ember előbb veri szét egymás fejét, mielőtt egy ásónyi földet kitermelne” Ez van 🙁
Persze nem szó szerint. Jelen esetben nem az emberek „indulatkezelése”, hanem a terawattok okoznak majd problémát. Ám ha valakinek sikerülne rávenni a Szahara, Góbi, Kulahári (sic!!! ;-)) homokját, hogy – a napenergia felhasználásával – felerészben alakítsa magát chip-chupokká, felerészben meg napelemmé, az nagyot lökne a dolgokon (kész szuperdeotron – te jó ég, hogy körösztatyám mikbe nem tenyerelt még viccből is). Nem megy? Akkor Houston, egyelőre van egy kis problémánk 🙂
No mindegy. A „kurva okos emberek” majdcsak jutnak valamire, ha befejezik a kis AI születése feletti örömködést. Mert (sorry) momentán összességében leginkább egy csapat tapsikáló hülyegyerekre emlékeztetnek, akiket először vittek kuplerájba :-/.
@Késes Szent Alia: : Mi vagyunk az öreg kontinens. Nem kell hegynek fel rohangálni, az legyen a fiatalok sportja ;-). Használni/hasznosítani kell megtanulni. Ha már Coubertin-el kezdtem: a célba kell elsőnek beérni, nem végig vezetni a mezőnyt a 42 kilcsin 😀
@lmate: „Azon egyszerű oknál fogva, hogy senki sem érti igazán, a szó tudományos értelmében, hogy miért működik a modern Deep Learning.”
És mi volna a szó tudományos értelmében az értés meghatározása?
Hiv.: @jack_of_all_trades:
Az, hogy „miért” működnek ezek a masinák, az nem annyira tudományos, mint inkább filozófiai kérdés. A tudományos kérdés az, hogy hogyan működnek. Azt meg azok nyilván tudják, akik csinálták őket, ha a nagyközönség nem is tudja, de a nagyközönségnek ezt nem is kell tudnia.
Megint csak másik (filozófiai) kérdés az, hogy általában mit jelent a megértés. Ebbe nem érdemes belebonyolódni itt. Arra a konkrétabb kérdésre meg, hogy vajon ezek a csetmasinák értenek-e valamit, vagy csak szövegelnek, nem tudunk most pontosan válaszolni – erről már volt szó. Megoszlanak a vélemények arról, hogy mi teszi a megértést, mi kell hozzá (pl. öntudat), vagy egyáltalán, hogy milyen fokú viselkedéstől érdemes (majd) ezt mondani rá, hogy „ez már tényleg teljesen olyan, mintha értené is, amit beszél”. Különböző, szigorúbb, és kevésbé szigorú kritériumok lehetnek erre, és ez részben definíció kérdése is. A mostani csetgépek még nyilván nem értenek semmit (a megértés emberi értelmében), és nem is intelligensek, de ez új technika, most fejlődik.
@ipartelep: Itt az értés nem arra vonatkozott, hogy a masinák mit értenek meg, hanem arra, hogy mi (emberek) értjük-e (a szó tudományos értelmében), hogy hogyan működnek, erre kérdeztem rá, hogy mi a megértés a szó tudományos értelmében (l. a posztot, amire hivatkoztam).
Amennyire sikerült felfognom, a működési elvét jól értjük ezeknek a modelleknek, éppen csak azt nem tudjuk, hogy amikor a modell fel van paraméterezve, akkor konkrétan mi micsoda, abban az értelemben, hogy nem tudunk rábökni a neuronok egy részhálójára, hogy „ez ismeri fel itt a cica farkát, az meg ott a bajszát”.
@jack_of_all_trades: Ahogy saját agyunkkal kapcsolatban is pont ez a helyzet. Ismerjük a komponenseket, még egyes területekre is rá tudunk bökni, hogy ez itt beszél, ez itt lát, ez meg tudja, hogy hol vagyunk, de hogy honnan húzom elő azt a kifejezést, hogy agykérgi lokalizáció vagy azt, hogy neuroplaszticitás azt nem tudjuk.
Értem én, hogy gőzgép, de mi hajtja?
@jack_of_all_trades: Ahogyan én látom (disclaimer: nem pontosan a szakterületem), a „hogyan működnek” részből a gradient descent-et (hogyan hangoljuk be a paramétereket egy akármilyen modellben, hogy jobb legyen egy fix feladatban – „melyik harmadfokú függvény illeszkedik a legjobban erre az ezer adatpontra”) nagyon jól értjük, ennek a sztochasztikus változatát (hogyan hangoljuk a paramétereket, hogy egy feladathalmazban legyen jobb a modellünk – „milyen súlyokkal készítsük el a harmadfokú közelítést az adatokból egy adott séma szerint, hogy akármilyen ezer adatpontra jól működjön”) már nem annyira, részben azért, mert itt sokkal kevésbé egyértelmű, mit nevezünk jobbnak, részben azért, mert az ebben szereplő eloszlások nem igazán jól definiáltak, részben pedig azért, mert ami elméleti feltételekkel tudjuk garantálni a hatékony tanulást, reménytelenül távol van a gyakorlatban érdekes problémáktól. Ez eddig tök független a konkrét számítási modelltől, csak az kell, hogy ki tudjuk (hatékonyan) számolni, hogy a paraméterek kicsi mozgatása hogyan befolyásolja a végeredményt; ami a millió (billió?) dolláros kérdés, hogy ez az egész eljárás milyen számítási sémára működik „a legjobban”. Azt tudjuk, hogy mondjuk polinomokra gyakorlatilag nem működik, bizonyos szerkezetű neurális hálókra pedig változó hatékonysággal működik, és most azzal van egy csomó okos ember elfoglalva, hogy olyan neurális háló architektúrákat találjon, amire még jobban megy a dolog, de lehet, hogy valami teljesen más struktúra lenne az optimális, és fogalmunk nincs, hogy hogyan lehetne ezt megállapítani.