Újabb fantasztikus AI-szakembert talált Magyarország
Omar Hatamleh, a NASA mesterségesintelligencia-igazgatója a Tourism Summit 2025 konferencián arról beszélt, hogy a mesterséges intelligencia és az orvostudomány fejlődése nemcsak a munkánkat, hanem az egész társadalmi berendezkedésünket is felforgatja. (index.hu)
Omar Hatamleh a NASA Goddard Space Flight Center Chief AI-officere. Itt lehet őt kibérelni turizmus konferenciákra. Azzal hirdeti magát, hogy ő a Betweenbrains nevű fontos AI-munka szerzője. A scholar.google szerint ezt a könyvet már hússzor idézték megjelenése óta, ezek közül tizenhárom cikknek van magyar szerzője. A társszerző Tilesch György, világhírű AI-szakember, aki azért is világhíres, mert írt egy közös könyvet a világhírű Omar Hatamleh-hel.
Hatamleh összes cikke hegesztésről szól. Leginkább alumínium ötvözetek illesztéseinek hegesztéséről.
Ezt az AI területén kiugrásra készülő országot, ami Önök előtt terül el, Magyarországnak hívják, egyetemei „szárnyalnak”, ahol a függetlenségéről és szakértelméről híres Magyar Nemzet cikke írja.
Én ezt itt be is fejezném, balról tej, jobbról méz, erről már többet nem is kell írni.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16532564-6933ff7ca9cb2' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16532564&origin=www.orulunkvincent.hu&obj_id=192691293-16532564-6933ff7ca9cb2&n=1' data-name='like-post-frame-192691293-16532564-6933ff7ca9cb2' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Csak annyi történt, hogy a „luftballonyon” keletkezett egy kicsi lyuk. Amit gyorsan betapasztanak, és fújják tovább.
Hiv.: [@nyulambator:](#comment-349401
Ja-ja. Abszolút. De mintha egyre erősebben láthatóan szétválna a szakmai AI és a Big Tech-re koncentrált, roppant sérülékeny pénzügyi AI. Ha neadjisten egy OpenAI kiszállna a spirális pályából, az űrbe, akkor is velünk marad a szakmai AI, új szereplőkkel, új pénzzel. Ahogy a dotcom bukta után is velünk maradt egy erősödő internet.
A Big Tech pénzügyi roncsolások mellett itt az újabb vadiúj szűz tér roncsolásra (a sztori első felét ma reggel szállította Vakmajom). De nem ám pitiáner kőbányával Gánton, aztán szimpa tömeges maffia-tempóval, hanem nagyban, state capture-rel, hónapokon belül (2.Trump-elnökség).
.
* Donald Trump Jr. (+család) a kriptózás után szemet vetett a fogadási piacokra (Polymarket, Kalish a két legnagyobb: $12+, $10+ billionra értékeltek, az egész OpenAI tokkal-vonóval $150 billion cég).
Milyen kellemes gondolat!
Amerikai ügyfelek elől elzártak, tök jogos szabályozási rigolyák miatt.
Mekkora biznisz lehetősége?!
Trumpék szállítják a deregulációt, kapják a friss és folyamatos lóvét.
Nyilván a sztorit fel kell építeni.
Donald Trump Jr. először tanácsadó a két nagynál.
Elkezdődnek a deregulációs intézkedések (nyilván nem simán, mert lesznek jogi ellenállások)
Trumpék megalapítják a Truth Predictet, hogy ne csak az ügyfelek tejeljenek nekik, hanem saját jogon is folyjon be lóvé, hiszen az az igazi manna.
.
* Mi az igazi probléma az egész pusztító gondolattal? Szerencsejáték függőség és társai? Come on! Trumpék ennél sokkal erkölcstelenebbek a nagyobb jövedelem-potenciál kiaknázásához.
Insider trading.
Amit a tőzsde esetében a szabályozás/jog tilt és szankcionál, miközben az egész rendszer úgy van felépítve (diverzifikáltan), hogy tényleg nehezített legyen.
A Polymarket típusú fogadási piacoknál ez se tiltva nincs, se a kontroll-mechnizmus kiépítve nincs. Jól mondja Vakmajom, hogy a részvénypiacra szükség van ezért kiépült, míg párhuzamosan a zéróösszegű fogadási piacra nincs szükség a másodlagos értékteremtés hiányának okán: eddig tökéletesen elégségesen a gyökérzetnél leszabályozni, lecsavarni az egészet. Na ebbe a szituba figyel be most frissíben a Trump-család. És a hosszabb távon vesztésre ítélt lúzer fogadójátékosok küzdhetnek nemcsak a piaccal, a konkurrens játékosokkal, hanem a szabályozatlan, korlátok közé nem szorított játékszervezőkkel.
Ezt oldd meg AI, b+ !
.
* Itthon Magyarországon ilyen finomságokra korábban sem szükség nem volt (állam teljes lerablása ment enélkül is), Gánt meg a maffia-eszköztár okán.
És persze képesség sem (hiszen a folyamatosan devalválódó mára már harmadtudású(?) magyar értelmiségnek ilyesmihez fel kellene nőni, horribile dictu jóra, erkölcsileg védhetőre alkalmazni).
Nyilván Donald Trump Jr sem magától zseniálisna okos, de a környezetből van honnan, mit meríteni, munkamegosztással.
.
Linkek:
Vakmajom reggeli posztja
https://www.facebook.com/avakmajom/posts/pfbid02wg9ZQnFRQTC3oet1bUDCDzShmWeSBm5NFS5Ac3s4FxKL7yLbgHUXvzNUNQNoNugNl
Bloomberg két fontos cikke az érthetőséghez
https://www.bloomberg.com/news/articles/2025-11-20/kalshi-and-polymarket-battle-gambling-companies-in-prediction-market-frenzy
https://www.bloomberg.com/news/articles/2025-10-28/trump-media-plans-to-enter-booming-prediction-markets-business
A mai napra is jutott számomra egy „kis” berosálnivaló: találtam egy újabb érdekes utat; megérteni, hogy mi a pék f*sza az a LLM.
Hogyan is állnak össze a mozaikok?
A recept: be kell ágyazni az egész sztorit a históriába.
.
1.
Mindenki úgy tudja, hogy az alábbi 2017-es cikkel kezdődött az újkori AI/LLM-forradalom.
Hát, csak bizonyos szemszögből, a konkrétumok valósága szintjén. Értem, hogy ez elég erős faktor, de a sztori így nagyon nem teljes.
CIKK: Attention Is All You Need
https://arxiv.org/abs/1706.03762
.
2.
A NN (=neural network)-os lineáris algebrás matek alapot egy német figura – Jürgen Schmidhuber – rakta le tök egyedül, 1991.márciusban(!) publikált cikkében. Ebben az a nagyon-nagyon forradalmi, hogy a mára már beégett FWP-cucc (=Fast-Weight Programmer) nemcsak NN-aktivációt számolt, hanem az NN súlyait is újraszámolta menetközben, amolyan rövidtávú belső munkamemóriaként; legelső írható asszociatív memóriaként.
Közel és távol senki nem gondolta, hogy egy NN saját súlyokat tud írni, hogy a gondolkodás („intelligencia”) tulajdonképpen súlyállapot frissítése legyen.
CIKK: Learning to Control Fast-Weight Memories: An Alternative to Dynamic Recurrent Networks
https://people.idsia.ch/~juergen/FKI-147-91ocr.pdf
.
3.
Annyival előrébb volt a koránál a cikkíró és ezen cikke, hogy kétszer lépett át rajta az élet.
(A) A hatalmas publikálási zajban, kritikus tömegben, releváns kutatókhoz nem jutott el a cikke, hagyományos interneten keresztül és/vagy nem értették meg kellőképpen.
.
Amit észre kellett volna venni, hogy korábban legyen az FWP AI-forradalom:
.
(a) Csak nevet kellett volna adni a fenti FWP gyereknek: „írható asszociatív memória, kulcs alapú hozzárendeléssel”. Ennek lett aztán a keresztségben a neve a 2017-es cikkben az „Attention”. Tehát, hogy mindenki értse: az FWP=Attention. A világ személete nem állt még készen ennek a lépésnek a megtételéhez. Ott volt a (gimnáziumban is tanulható linalgebra) matek teljesen készen (egy korábbi NN technológiai problémát megoldandó), „csak” a tartalommal megtöltés hiányzott.
.
(b) A korabeli NLP (=Natural Language Processing)-nek teljesen más kutatási fókuszai voltak, így nem volt igény nyelvi-modellre (pedig nagy szöveg-korpuszok már voltak, webkaparással együtt). És ugye ma már mennyire triviális, hogy a FWP-Attention képes szekvenciális reprezentációkat is tárolni, amiből már lehet is nyelvi modellt építeni.
.
(c) FWP szintén tudja a input → rejtett reprezentáció → output (sequence-to-sequence) sémát, csak szintén nem gondolt rá senki évtizedeken át. Ez a híres-neves „encoder-decoder” séma.
FWP (írható asszociatív memória) + Seq2Seq = általános transzformációs háló azonnal kiesik.
.
(d) Sajnos önmagában az FWP, főleg mai brutális méretek mellett gradiens-robbanást okoz. Ezt optimalizálással csillapítani kell.
De ha a fenti (a)-(b)-(c) három pont nem támaszt igényt, akkor senki nem fog optimalizálni, ugye.
De 1-2 milla paraméteres nyelvi modell kieshetett volna végül a rendszerből így is, és ehhez GPU sem kellett volna feltétlenül, elég a CPU(-s párhuzamosítás) a mátrix-szorzásokhoz.
.
(B) 2017-ben ugye ellopta a show-t a híres Attention-cikk, teljesen más pályán mozogva, mint az FWP (de a központi lényegét tekintve „ugyanazt” publikálva). Majd jött egy 30(!!) évvel későbbi 2021-es cikk, ami tisztázta az FWP=Attention-t. Ekkor viszont az OpenAI lopta el a show-t a „buta” scaling law-val, magasról tojva az asszociatív memóriában lévő potenciálra. De oly annyira időben kitolódottan, hogy az 1991-es cikk fontos személete csak a GPT o1-es modellnél kerül elő (2024.december), az érvelés kapcsán.
CIKK: Linear Transformers Are Secretly Fast Weight Programmers
https://arxiv.org/abs/2102.11174
.
4.
De a sztori nem áll meg itt 2025 végefele.
A Google szép csendben hivatalosan LLM-paradigmát vált november 7-én, senki által nem észrevetten (én is csak egy 1300 like-os LinkedIn cikkből értesültem róla).
Nested Learning lett a keresztségben a neve, feladva a leckét az OpenAI-nak (2017-es cikk is Google-től indult), aki ugye mindig egyedi saját utat akar kulturális és adománygyűjtési aspektusok okán.
Miután órákat tettem bele, hogy megértsem, kontextussal, aspektusokkal együtt, így erről már nem tudok részleteket írni, hiszen már így is nagyon sok vagyok.
Ha egy mondatot akarnék írni ontopik, akkor: az FWP szépen elnyeri a méltó helyét egy frissen konstruált metakeretben, amibe a LeJEPA-tól a Mambán át a FoB HMC típusú diffgeometriai modulok is „abszorbeálódni” tudnak; erős, ugyanakkor hihetően implementálható AGI-potenciállal.
CIKK: Introducing Nested Learning: A new ML paradigm for continual learning (cikkben van a paper)
https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
Úgy tűnik, most ez a legaktuálisabb mesterséges intelligencia (nahiszen) tocsik, akkor ebbe írom.
Kérdezem a vicces beszélgetőgépet, hogy az önindítót hogyan kell tesztelni ahhoz, hogy kiderüljön, hogy a szolenoid, vagy maga az önindító-motor a hibás. A kis hamis ezzel kezdi: „Tedd kézre a szerszámot, viselj kesztyűt, és a kocsit rögzítsd kézifékkel, sebességben legyen.”
Tetszik figyelni ugye? Ilyenkor a történet arról szól, hogy ha a motor sebességben van, és az önindító elindul, akkor az autó megugrik – a kézifék meg vagy fog, vagy nem. Persze aközben, hogy a gyanútlan „élő hús a csont-vázon” éppen tökig belehajol a motorházba.
Szerintem elkezdődött. Ez annak a jele, hogy a mesterséges intelligencia elérkezettnek látja az időt az emberiség ritkítására. Azért adta ezt az életveszélyes tanácsot.
Hiv.: @ipartelep:
Az alábbi lépéssor biztonságos, logikus diagnosztikai sorrend, amellyel eldönthető, hogy a szolenoid (behúzó relé) hibás-e, vagy maga az önindító-motor.
0. ALAPSZABÁLYOK
Akkumulátor teljesen feltöltött legyen
Saruk tiszták, szorosak
Autó üres / P állásban
Ha bármikor bizonytalan vagy: állj meg → önindító kör nagy áramot kezel
1) HANG ALAPÚ GYORS DIAGNOSZTIKA (nem 100%, de jó jelzés)
A) Kattan egyet → de nem forgat
→ Szolenoid kap jelet, de nem húz be teljesen
→ Gyanú: szolenoid kontakt hiba, vagy motor belső hibája / beragadt kommutátor
B) Semmi kattanás → teljes csend
→ Szolenoid nem kap jelet, vagy maga a szolenoid tekercse szakadt
→ Gyanú: szolenoid vezérlési hiba (gyújtáskapcsoló, kábel, relé), vagy szolenoid tekercs-hiba
C) Gyors, kattogó hang
→ Elég jellegzetes: gyenge akku / nagy feszültségesés
→ Nem tipikus szolenoid- vagy motorhiba.
2) FESZÜLTSÉGMÉRÉS (MULTIMÉTERREL)
Ez adja a legtisztább képet.
A) Vezérlő jel a szolenoid „S” csatlakozóján
Vedd le a vékony vezetéket a szolenoidról.
Rátegyed a multiméter pozitív mérőcsúcsát.
Másik csúcs a motorházra (testre).
Fordítókulcs → START.
Ha 12 V megjelenik:
→ A szolenoid kap jelet = vezérlési oldal OK.
→ Ha mégsem működik: szolenoid hiba vagy motor hiba.
Ha nincs 12 V:
→ Gyújtáskapcsoló / indítórelé / biztosíték / vezetékezés hiba → nem a szolenoid vagy motor a hibás.
3) SZOLENOID „ÁTKAPCSOLÁSI TESZT” (FŐÁG MÉRÉSE)
A szolenoid feladata: összekapcsolni az akkumulátort az önindító-motorral.
Multiméter + indítás:
Mérd a vastag kábel feszültségét a motor felőli oldalon.
Fordítsd kulccsal indító állásba.
Ha indításkor 12 V MEGJELENIK a motor oldalon:
→ A szolenoid rendesen átkapcsol
→ Ha a motor mégsem pörög:
⮕ Önindító-motor hibás (kefék, kommutátor, tekercs, beragadás).
Ha 12 V NEM jelenik meg:
→ A szolenoid nem kapcsol át
→ Hiba:
Szolenoid tekercs (gyenge/égés)
Szolenoid belső érintkezők megégve
⮕ Szolenoid hibás.
4) KÜLSŐ ÁTHIDALÁS (CSILLAGKULCSOS TESZT)
Vigyázat: szikrázik, csak gyakorlottan!
Ez 100%-os diagnózis.
A lényeg: átugrod a szolenoidot.
Egy csavarhúzóval / kábel darabbal rövidre zárod a két vastag sarut:
akku + → motor bemenet
Ezzel közvetlenül adsz áramot a motornak.
Eredmény:
4/A) A motor azonnal forog → szolenoid hibás
Ez azt jelenti, hogy a motor működik, csak a szolenoid nem kapcsolta rá a tápot.
4/B) A motor NEM forog → motor hibás
Beragadt kommutátor
Szénkefék elkoptak
Tekercs zárlat / szakadás
Bendix beragadt
5) LEVETT ÖNINDÍTÓ PADTESZTJE (ha teljes bizonyosság kell)
Padon külön tudod tesztelni:
Csak 12 V + test a motorra → motor pörög-e
12 V az S lábra → szolenoid behúz-e
Szolenoid összezárja-e a főáramot (mérhető)
Ez teljesen tiszta képet ad.
.
Nekem a fentebbit adta válasznak, úgy, hogy elhiheted előzetesen nem fine-tuningoltam RLHF-fel a témára. Nem a TEMU-ról rendelted az LLM-edet? 😀
Hiv.: @tahonoli:
Engem az én beszélgetőgépem akart megölni, nem a tiéd.
Gary Marcus írt egy friss hosszabb posztot pár órája; a brutálisra sikeredett, kétnapos, 550.000+ videó-megtekintéses, Ilya Sutskever-interjú nyomán (majd 100 perc, Gary-nél van link a precíz videó-leiratra).
.
Emlékeztetőül Ilya Sutskever OpenAI társalapítója, ő volt annak a csapatnak az élén, aki el akarta mozdítani Sam Altman-t (és volt az az 1-2 napos interregnum az OpenAI-ban).
.
Nem kérdés, hogy fontos a neuroszimbolikus ai, abszolút igaza van ebben Gary Marcusnak és legalább, most kaphat nagyobb fókuszt is szerencsére. Mondjuk én továbbra is igazat adok Andrej Karpathy-nak, hogy nem írnám le az LLM-eket, van azokban még kiaknázatlan kraft-potenciál, továbbra is.
.
Ilya Sutskever – We’re moving from the age of scaling to the age of research
https://garymarcus.substack.com/p/a-trillion-dollars-is-a-terrible
@tahonoli: elkezdték költeni ezt az iszonyú pénzt, innen nincs visszaút. van scaling law vagy nem annyira, a trillion dollar datacenter projekt elindult.
Hiv.: @jotunder:
* Ha már elköltöttek trillion-dollart eddig összességében, akkor, ja, a trillion-dollar cluster is most már inkább valószínűsíthető, mint nem, már csak a tehetetlenségi erő nyomán is, ahogy mondod. Hogy az áramszükségletet hogy fogják kielégíteni, arra nekem egyelőre semmi rálátásom nincs, a mindenféle publikus bemondásokon felül.
* Tény, hogy nagyon sok pénzes ember messiásként tekint Sam Altman-re, hogy majd varázsol a cilinderéből, ahogy az elmúlt 3 évben is folyamatosan túlélt. Abban biztos vagyok, hogy nagyon sokat lehet javítani az LLM-eken többféle módon is, de AGI-kaliberű gurítást én már ősz eleje óta nem tudok elképzelni (elméletileg se): pontosabban az alternatívákat esélyesebbnek gondolom. Ettől még sama meglephet a titkos boszorkánykonyhájával. Az OpenAI esetében a legkritikusabb, hogy kvázi minden LLM-kéréssel gyakorlatilag veszít pénzt az OpenAI azaz nagyon drága a napi üzemeltetés is, nemcsak a fejlesztői training.
* Már nincs egyedül az nVidia, mert befigyelt a Google TPU v5 (=Tensor Processing Unit). Ugyan a chip gyengébb a H100-nál (és nem lehet venni, csak Google Cloud-ban bérelni, lásd vendor lock-in), viszont a chipek közötti kommunikáció jóval olcsóbb és hatékonyabb, mint nVidiás párjánál, már 10.000 darabnál is. A jónak érzékelt Gemini3 is tisztán TPU platformon lett training-elve. És jön a TPU v6 is.
Google kereső: SemiAnalysis: Google TPU v5p vs Nvidia H100 analysis
* Én azonosulni tudok Yann LeCun-nal, hogy nem kell gyökerestől kigyomlálni az LLM-eket (kommunikációs GenAI-nak megteszi továbbra is). Plusz azért releváns értéket termelnek (igaz nagyon drágán, plusz rengeteg problémával).
* Sokféle diverzifikációs irány van LLM AI-től távolodva. Disztributív AI, Meta AI, Holonomic AI, Grounded World Model, etc. Jó sokat vállalnak, ígérnek, cserébe nagyon nem látszik triviálisnak az implementálásuk, a berobbanásuk, a tömeges elterjedésük. Az így-úgy hegesztett, kényszerpályás LLM-ek szerintem velünk lesznek még jó darabig. Ez is erősíti a mondásodat.
Sabine
(Bocs, csak angol verzió van.)
Hiv.: @labrys:
Okos nő, de hát egy elméleti fizikustól ez elvárható. Valóban az van, hogy ez a néhány szóban forgó tudományos és technikai találmány potenciálisan nagyon meg tudná dobni az emberiség életminőségét. Hiszen végül is ez az „értelmük”, céljuk, erre valók. Bár a fúziós erőmű szerintem is mindig csak 50 év múlva lesz készen, és az emberi szintű általános MI is egy kicsit még odébb látszik lenni. De egyszer azok is meglesznek. A gond ott van, hogy a társadalmi folyamatok, a társadalom állapota nem kedvez ezen találmányok optimális, ésszerű, és igazságos felhesználásának. Egyszerűen szólva: a társadalmak/országok nagyon eltérő civilizációs szinten állnak (egyesek az űrkorszakban, mások még mindig szó szerint a kőkorszakban: szentinelézek), és ami még nagyobb baj, hogy még a fejlett társadalmakban is nagyon szétnyílik a gazdasági, egzisztenciális, szociális olló. Ebből következően, a „találmányok” hasznát egy szűk réteg, a gazdagok fölözik le, és a többiek, a szegények meg csak néznek, mint Jocó a moziban. Vagyis a társadalom problémáit a technikai, tudományos fejlődés (ami önmagában nagyon jó dolog) nem hogy megoldaná, hanem méginkább fokozza. Ez természetesen azt jelenti, hogy nagyon fontos lenne ezeket a társadalmi/politikai problémákat megoldani. Ezt fel kellene ismerni, tudatosítani és dolgozni a megoldáson. Ennek pedig nem sok nyoma van, sőt mostanában éppen a rossz irányba lendül ki az inga.
Hiv.: @labrys:
„Én ezért úgy készülök az AI-forradalomra, hogy nem számítok arra, hogy a jelenlegi demokratikus rendszereink fennmaradnak. Nagyon gyorsan ki fognak hullani, és valami mással lesznek helyettesítve. Különösen azt nem gondolom, hogy az európai jóléti rendszer sokáig fennmarad.”
Perspektíva.
Hiv.: @labrys:
Kösz a linket, tanulságos.
Az én konklúzióm nagyon egyszerű:
„Jó” kis firma Jensen Huang nVidia-vezér: féligazságokat kever vágyálmokkal („minden szentnek maga felé hajlik a keze”), hogy hajtsa a GPU-bizniszt miután egyre-másra derül ki, hogy p*cse van a menyasszonynak.
(1) nVidia eufóriából mínuszos mélység, Q3 jelentés után, 18 óra alatt,
(2) Oracle 300 milliárdos „körkörös” tranzakció után (ami ideig-óráig Larry Ellisont élre repítette a leggazdagabbak listáján) 75 milliárdos mínusz jelenleg (hetek alatt)
(3) Nulla felé tart a kínai nVidia GPU-értékesítés, kínai állami stop miatt. Stb.
Én azt látom, hogy a GPU AI-s mátrix-szorzások („matmul=matrix-multiplication”) miatt megy nagyon nagyot (és fordította meg a CPU-GPU irányt), de
- egyrészt a CPU-kat is skálázzák még és tudnak mást is, mint a GPU-k (mint matmul-t),
- másrészt az ipar próbál lejönni a GPU-drogról, rengeteg alternatív ötlettel (Mamba, RWKV, Hyena, StateSpace Models (SSM), Google NL-HOPE, stb.)
Pofám leszakad….. hja, igy könnyű!
Kérdem a Chatgpt-t, fordítsa le angolra a „vizeslóca” szót. A lócáról a lóra asszociál. Mondom, nem, ez egy olyan pad, amin a parasztok a vizesvödröt tartották az ajtó mellett. Megköszöni a pontosítást, és levág egy olyan angol fordítást, amit szerintem valamelyik néprajzi múzeumból lopott. Majd megkérdezi: Ha szeretnéd, tudok írni egy még rövidebb, múzeumi vagy kiállítási címkére illő változatot. Lássuk. Pöpecül leírja. Majd: Ha szeretnéd, készíthetek egy még kicsit hangulatosabb, múzeumi stílusú változatot,. Jöhet. Feladat teljesítve, majd. (!!!): Ha szeretnéd, tudok még egy még „beszédesebb”, egy mondatnál kicsit hosszabb változatot.
Na nézd már, ez direkt arra megy, hogy elfogyjon az ingyenes kérdezés keret, és rá akar venni a fizetős változatra!!!! Ez nem gép, ez egészen biztosan ember! :)))))
@DarthVader:
Szerintem még jól jártál:)
https://img.index.hu/imgfrm/2/6/2/0/MED_0018422620.jpg
Franciák a Mistral után a kvantumszámítástechnikában is nyomulnak, adnak életjelet az EU felől, miközben németek „alszanak”? Káncz csaba mai híre az alábbi.
* €140 million finanszírozást gyűjtött be eddig a Pasqual (impozáns alapítókkal). Ez a mostani szaudi projekt €20-40 million (hw+szolgáltatás), azaz az egész megalapozottnak tűnik, nemúgy mint az amcsi körkörös finanszírozású, buborékfújó „LLM-légvárak”. Érdemes észrevenni, hogy a szaudiak eléggé akár még értelmesnek is látszó külpolitikát folytatnak egy nagyon forró helyzetben, több vasat is tartva a tűzben. De lehet, hogy csak szimplán hallucinálok (mert nem értek a geopolitikához /sem/).
* Akik követik a kvantumos híreket azoknak feltűnhet, hogy tengerentúlról 40-128 qubitekről szólnak a hírek „csak”. Tisztán kell látni, hogy ezek az „igazi” és nagyon drága qubitek (szupervezetők).
A franciák qubitjei „csak” neutral-atom qubitek. Azokból viszont a legmodernebb, mert rácsbarendezhetők, geometriailag programozhatók. Viszont ez a 2D/3D-s elrendezés a legígéretesebb, legforróbb kutatási-implementálási téma jelenleg, kvantumhardver oldalon, az olcsóbb és gyorsabb felskálázás okán. Hűtés nélkül, optikailag kontrollálhatók.
Amire NEM jó:
- nem képes hibatűrő univerzális kvantumszámításra (korábbi zajos technológia)
- RSA-1024 feltörése irreális (Shor-féle polinomidejű algoritmussal)
- nincs kvatumelőny (ami bízonyított lenne).
- nem váltja ki a GPU-kat, így esélytelen a hibrid LLM is (neurális számolások).
- Stb.
Amire jó:
- anyagtudomány
- energiaoptimalizálás
- ipari folyadék- és gázmodellezés
- optimalizáció
- hálózatok és logisztikai problémák
- Stb.
.
https://www.pasqal.com/newsroom/aramco-and-pasqal-make-history-with-saudi-arabia-first-quantum-computer/
Hiv.: @tahonoli:
„Egy szingapúri startup beüzemelte a világ első kereskedelmi célú kvantum-számítógépét.” – olvasható friss tegnapi hírként ma reggel Káncz Csabánál.
Vannak érdekességek, furcsaságok a sztoriban, ha már a minap a fenti szaudi-projekt is előkerült:
* Egyetlen konkrét paraméter (pl.: qubit-szám) sincs a hírben
* Fentiek ellenére gyártó cégek tudhatók (Rigetti, Maybell, Quantum Machines)
* Horizont Quantum cég pénzügyi paraméterei is nyilvánosak
* Így aztán lehet tudni, hogy kb. 40-80 qubites a hírben foglalt kvantumszámítógép.
* Rigetti miatt a jó hír, hogy ez a szupervezetős qubit (nem a szaudi neural atom-os). Ám az egésznek az architektúrája eggyel korábbi, így a létező legdrágábban, legkevésbé felskálázhatóan, a legkevesebbet adja (kevesebbet, mint a szaudi-projekté, pedig annak költségvetése nagyságrendben is eggyel kisebb meg töredéke ennek a szingapurinak)
* Két dologra így is jó lesz a szingapuri beruházás: (1) elsők, és a gyilkos versenyben ez sok pénzt megérhet (2) szoftveresen, optimalizálásilag bedolgozzák magukat a piacra és elsőként az üzleteken keresni is jobban tudhatnak.
* Ha már két kvantumos projektről is van hír itt a blogon, érdemes lehet megnézni a magyar szálat is.
- Egy szaudi kaliberű egyetemi projekttel megcélozhatnánk (felskálázhatóan), a középkategória tetejét hardverben, miközben a tudományos (pl.: anyagkémia) kutatásban vagy szoftveresen a tetőt lehetne megcélozni (most nem nézve a magyar tudós-kutatók tehetségét, képzettségét, kapacitását, amihez legalsóbb hangon 15 ember, /inkább csak pilotra elég/, 30 emberrel már pénzt is lehetne termelni)
- Ennek költsége legalsóbb hangon 5 millió euró (ugye a francia szál miatt, EU-támogatású tudna lenni nagy mértékben, ráadásul az infók hozzáférhetősége miatt könnyen tanulható is lenne ilyetén módon). De 15 millió euró már sok mindenre elég lehetne. 400-zal felszorozva 2 milliárd forint. Potenciálisan (a) kutatás, (b) okosodás, (c) önfenntartás anyagilag, (d) geopolitikailag legkedvezőbben a (post-)Trump-érában. Csak stadionokra 1200 milliárdot költöttünk (csak jelzem).
.
Singapore Launches First Commercial Quantum Computer
https://forklog.com/en/singapore-launches-first-commercial-quantum-computer/