Újabb fantasztikus AI-szakembert talált Magyarország
Omar Hatamleh, a NASA mesterségesintelligencia-igazgatója a Tourism Summit 2025 konferencián arról beszélt, hogy a mesterséges intelligencia és az orvostudomány fejlődése nemcsak a munkánkat, hanem az egész társadalmi berendezkedésünket is felforgatja. (index.hu)
Omar Hatamleh a NASA Goddard Space Flight Center Chief AI-officere. Itt lehet őt kibérelni turizmus konferenciákra. Azzal hirdeti magát, hogy ő a Betweenbrains nevű fontos AI-munka szerzője. A scholar.google szerint ezt a könyvet már hússzor idézték megjelenése óta, ezek közül tizenhárom cikknek van magyar szerzője. A társszerző Tilesch György, világhírű AI-szakember, aki azért is világhíres, mert írt egy közös könyvet a világhírű Omar Hatamleh-hel.
Hatamleh összes cikke hegesztésről szól. Leginkább alumínium ötvözetek illesztéseinek hegesztéséről.
Ezt az AI területén kiugrásra készülő országot, ami Önök előtt terül el, Magyarországnak hívják, egyetemei „szárnyalnak”, ahol a függetlenségéről és szakértelméről híres Magyar Nemzet cikke írja.
Én ezt itt be is fejezném, balról tej, jobbról méz, erről már többet nem is kell írni.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16532564-6933fbafd7efa' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16532564&origin=www.orulunkvincent.hu&obj_id=192691293-16532564-6933fbafd7efa&n=1' data-name='like-post-frame-192691293-16532564-6933fbafd7efa' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Valaki egyszer azt mondta, hogy ezek nem tudnak hibázni. Mellesleg én is készülök egy AI tanulmányt írni, ebben nagy segítségemre lesz a Chatgpt nevű úr.
Csoda dolgokat találtam Omar Hatamleh-ről:
% A BetweenBrains(ami könyvet Tilesch-sel írt közösen), 2020-ban adták ki. Van saját honlapja a könyvnek, minta-bekezdésekkel (ChatGPT fejezetenként szépen kiadja a könyv lényegét). Az Amazonon 35 db ratingig jutott el, 5-6 év alatt.
% A 2024-es AI and Innovation szintén szerzőtársas 272 oldalas könyve, 12 darab ratingből jutott el 3,9-es Amazon értékelésig.
% Ezt a 2024-es könyvet a jónevű Wiley adta ki. Ez van a belső borítóján: „Omar Hatamleh: Recognized as a top 100 thought leader on AI”. Ha berakod a Google keresőbe, egyetlen találat lesz. Igen, a Wiley-könyv. Ha másképp teszed fel a kérdést, akkor már el lehet jutni a NASA honlapján lévő (ön)életrajzához is, ugyanevvel az infóval. A ChatGPT viszont felhívja a figyelmet, hogy Omar Hatamleh ilyetén említése leginkább marketing és promociós oldalakon fordul elő.
% Letöltöttem a 2024-es könyvet 50MB, de ha a képeket kitörlöm, marad 270.000 karakternél is jóval kevesebb. Ez a LinkedIn-en 200+ db (max. terjedelmű) komment nagyságrendje.
% Thinking Heads-en is árulja speaker-i szolgáltatását.
% 2024-es könyvben ilyen nagyívü gondolatok vannak, például:
1.AI-stratégia és értéklánc. Bevezet egy AI Strategy Framework-et, amely lefedi: → értékteremtés, → AI capabilities fejlesztése, → etika és szabályozás, → monetizáció. A „AI Value Chain” koncepció segít megérteni, hogyan épül fel az AI-megoldás infrastruktúrától a döntéshozatalig.
2.Generatív AI mint új kategória. A könyv szerint a generatív AI „új osztály”, amely egyszerre tud szöveget, képet, hangot, videót és adatot kezelni. Példaként tárgyalja a ChatGPT-t, Midjourney-t, DALL-E-t, illetve a transformer-architektúrát.
3.Készségek és szervezeti kultúra. Az AI-korszakban a vezetői és munkavállalói kompetenciák négy rétege: kognitív, interperszonális, önvezetési és digitális műveltség. Csak az agilis, kísérletező és tanuló kultúrájú szervezetek tudnak lépést tartani.
% Van mit tanulni a faszitól, a vak is láthassa.
Szárnyalnak a magyar egyetemek.
.
12 holland egyetem található a THE aktuális listáján.
.
Ebből a 12-ből 11 jobb helyen áll, mint a legjobb helyen álló magyar egyetem.
.
A szárnyalás voltaképpen szarnyalás, de erről a szavazópolgároknak semmit nem kel tudniuk.
@val:
Azért tegyük hozzá, hogy ha az említett listán a környékbeli kelet európai országokat nézi az ember, kb. pont ott vagyunk mint a ők, néhányaknál előrébb, leszámítva a cseheket akik kicsit talán felfelé kilógnak a sorból.l (de nem sokkal).
AI vagy Al, (alumínium)- Bocs, ez idétlen, de nem tudtam kihagyni
„balról tej, jobbról méz,”
Ja. Aogy a viccben is. (” Balról sabbesz, jobbról sabbesz, csak ahol a rabbi áll, ott van péntek.”). Csak itt, középen, ahol állunk, itt bugyog a szar.
@poszt: „Itt lehet őt kibérelni turizmus konferenciákra” Mindig elkedvetlenít, amikor ilyet olvasok 🙁
Orbán egyelőre a faxgépet tanulta meg kezelni és már nem kihajthatós nokiája van, szóval ők még itt tartanak technológia terén. Addig marad a látszat, hogy a harcosok klubjának digitális polgárai úgy érezzék, hogy mi vagyunk a K-európai szilíciumvölgy.
Azok, akik utána is néznek amúgy is gyanús lipsik, nem nekik szól ez.
@Virág et.: Megtanulta már kezelni az AI-t is. Már csináltak beszélő profilokat és AI kampányvideót is. És nekem ez a Gulyás is mindig gyanús volt, hogy csak egy hologram.
@Virág et.: : Ez igaz, de azért vigyázzunk! A pénzt és a hatalmat annál jobban megtanulta kezelni, így kaphat szakértőt, amihez nagyon muszáj. Legfeljebb a mogyoró alattvalóknak sokba fáj.
Itt a szenzáció:
Kijött Kárpáthy-ék – no nem a lánya -, hanem a nanochat.
Andrej Karpathy szétszedte majd összerakta, a legminimálisabban, legátláthatóbban, legmodulárisabban a legolcsóbb, leghatékonyabb (pl.:Rustban írva egyes elemeket), „hello world” mintájú ChatGPT alternatívát, demisztifikálva az LLM-eket.
$100-ből már tréningelhető a cucc.
Párezer dollárból Mistral képességekig lehet eljutni.
Gondolom trillion-dollar clusteren még tovább lehet jutni 😉
A Szkíta LLM, amiről volt már szó; a(z egyik) legjobb technológiai alapját találhatná meg benne.
A nanochat épít a korábbi Karpathy-stack-re: nanoGPT, micrograd, minbpe, dll.(pl.:makemore, llm.c, tinygrad és társai)
https://github.com/karpathy/nanochat
Eskü erről a manuszról volt már itt szó, ha máshol nem hát kommentekben.
@nori74: Ez pedig lehet, hogy döntő apróság. Írt a faszi pár komoly cikkel az alumíniumról, és valami titkár tévedésből meghívta az AI konferenciára. Csak elolvasás, de szöget üthetett a fejében, hogy az AI témában mennyivel több a pénz, mint az alumíniumhegesztésben, és azóta ebben ad elő, mint meghívott szakértő. Végülis ki ne tudna róla beszélni egy félórát ?
Hiv.: @seniowa:
Ja-Ja. Jól emlékszel. JT szedte elő Omar Hatemleh nevét a hegesztéssel együtt.
https://www.orulunkvincent.hu/orban-viktor-esete-a-mesterseges-intelligenciaval-es-a-tehetseggel/comment-page-1/
@annokkk: Lehet, hogy a fickó még mindig az alaménium (nálunk Püspökladányban ezt így mondják) hegesztéséről beszél, csak eddig senkinek nem tűnt fel.
@vattablz: Gondolod, hogy mindenki csak a maga mondókáját hallgatja ?
Nem AI kutató, hanem egy nagyon nagy szervezeten belül az AI alkalmazának stratégiai koordinációjáért felelős, ha jól értem. Abban a kérdésben, hogy egy ország mire figyeljen egy AI-stratégia elkészítése során, lehet teljesen kompetens.
@annokkk: Gondoltam, poénnak éppen megfelel.
Hiv.: @Grrr:
„Abban a kérdésben, hogy egy ország mire figyeljen egy AI-stratégia elkészítése során, lehet teljesen kompetens.”
Szerintem ennél jóval komplexebb és nehezebb a téma.
% Ahogy nekem eddig lejött (és most egy kicsit túlozni is fogok), a bloggazda azt preferálná, hogy ország-stratégia csináló olyan kaliberű szakember legyen, mint mondjuk Lovász László. Nem árt, ha volt már MTA-elnök és/vagy kapott Nobel-díjat. Szakmájának (jelen esetben AI) konszenzussal elismert szakembere legyen, sok minőségi publikációval, kellő érettséggel (azaz gondolom, minimum 40+).
% Azt vélelmezem AI-ban ilyet Magyarország nem tud felmutatni. Az én értelmezésemben legközelebb hozzá Szegedy Balázs matematikus áll, komolyan vehető mennyiségi és minőségi publikációval. Ő tudja talán leginkább Magyarországon, hogy mitől döglik a légy az AI-ban. (Nyilván nem kell velem egyetérteni)
% Omar Hatelem finoman szólva sem teljesít egy követelményt se a fentiekből. Külföldiként meg eleve nehezebb a megítélése (a nagyobb és relevánsabb konkurenciája okán). Az, hogy jóban van a jogi dr.Tilesch-sel, értjük, kérdés mire elég a komolyan vehetőség ügyében.
* Én névtelenül és érdektelenül, meg azt sejteném a magam számára:
%- (Magyar)ország AI-stratégia nemcsak szakma, hanem politika is. Kb., mint tüzijátékot rendezni vagy nem rendezni, időjárás-előrejelzés függvényében. Ha én gondolkoznék magamban stratégia-alkotás témájában, engem például a politikai rész teljesen hidegen hagyna.
%- Abban igaza volt Palkovicsnak, hogy fel kell mérni mi történt eddig itthon az AI-ban. És ez nem rövid, triviális munka. Hogy ennek mi lett a vége, azt most hagyjuk. Azt viszont gondolom a politikának kéne drive-olnia ezt a felmérést, szakértők bevonásával nyilván.
%- Az én nagyon buta óvodás szintű gondolatmenetem szerint elsősorban tömeges ötletbörzével kéne startolnia (még Szegedy Balázs kaliber esetén is). Keresve azt, ami hosszabb távon fenntartható, magyar-specifikus, pártokon átívelő, stb. Nincs egyetlen ember, aki kellő szélességben és mélységben átlátná az egész témát (az én fogalmaim szerint).
És ez még csak a startvonal előtti két felvetés. Hol van még az, hogy bármilyen AI-stratégia előtt a Fideszt/NERt el kell zavarni, ha bármilyen stratégia vindikálni akarna magának akár csak fikarcnyi hitelességet is.
@vattablz: Én meg csak hazabeszélek. Az AI-ról mondottak annyira nem kötnek le, hogy az már siralmas. Tőlem tényleg hegeszthetett is, mert egyik fülemen be, a másikon ki.
Még hogy magyarországon nincs AI kultura!
Van nekünk MI kutató központunk a miniszterelnökség és a Bethlen Gábor alapkezelő támogatásából. Van ott három munkatárs, akik közül kettő pszichológus, a harmadik pedig AI-val van generálva. Nem viccelek, Pintér Attila arcmása 100% AI generált. Linkedine és egyáltalán a neten nyoma nincs.
Namost ez a kutató központ(sic) kimutatta, hogy a Tisza naggyűlés fotója AI manipulált. Hát ők csak tudják.
Amúgy a domaint október 27-én regisztrálták, hogy ma megjelenhessen rajta a kutatás eredménye
@nyulambator: Zsenialis basszus, meg a szoveget is AI-val irattak hozza.
Ha mégis létezik Pintér Attila, akkor a publikációk szekció szerint ő lenne a harmadik társszerzője ennek a cikknek: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=11105402
Akkor viszont ez itt a linkedin oldala
Külön szépsége dolognak, hogy szöveg alján hivatkozott program simán azt mondja a képre, hogy nem manipulált. 🙂
Oké, oké ezt nem fogjátok elhinni. A képet csomó asztali böngésző a redditből webp formátumban menti le. Ha ezt átkonvertálod jpg formátumra akkor már azt mondja (a konvertálás miatt) a photoshop detector, hogy AI generált vagy módosított kép. De ha az eredetit töltöd le (pl. mobil böngészőből) jpg formátumban rögtön, akkor máris kiderül, hogy valószínűleg nem manipulált. Neeeem, ennyire hülye emberek nincsenek. Szakértő az apja retkes fasza, az.
@nyulambator: Én már eleve meg sem tudom nyitni az új intézet oldalát a munkhelyi számítógéppel … 🙂
„You have attempted to access a web page that violated ……….’s Internet Security Policy and has been restricted because it may pose a security risk or has been identified as malicious.”
@muaddib00: Jó ez így nekünk, magyaroknak. 😀
@Grrr: : Óccsó, nomeg sietős CA-nak híg a leve.
Hiv.: @nyulambator:
„https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=11105402”
.
Intenzíven eldobtam az agyamat a cikktől. Nem akartam hinni a szememnek, hogy ezt így 9-en, Magyarországról, 2025.júniusában???? Mondjuk, ha „az egyik alma a kosárban”, „mikutato”-ra adja fejét a mai politikai életben ott érheti meglepetés az embert.
.
Kérdeztem a ChatGPT-t a cikkről, és „mindösszesen” ennyi problémát detektált. Nehezen leszünk így AI nagyhatalom, mondjon bármit professzor, doktor Palkovics AI-biztos.
.
1. Elméleti újdonság hiánya
A cikk nem vezet be új tanulási paradigmát (sem új loss-függvényt, sem új architektúrát). Az LMLAD is lényegében egy LLaMA-miniatűr domain-adaptáció, nem új Transformer-elv.
.
2. Hiányzó metrikák / mély összehasonlítás
Az F1-score közlése korrekt, de nincs ROC-AUC, PR-AUC vagy stabilitásvizsgálat különböző zajszinteken. A tesztelés négy datasetre korlátozódik, amelyek jórészt homogén IT-ügynökségi környezetből származnak.
.
3. Benchmark-bias kimondva, de nem kezelt
A szerzők helyesen állítják, hogy a benchmarkadatok és a valós adatok különböznek, de nem adnak meg benchmark-normalizált metrikát. → A „relatív rangsor stabil” állítás igaz, de statisztikailag nem alátámasztott.
.
4. LLM-trendhez való viszony
A cikk említi az LLM-eket (LogRobust, MAIA), de nem kapcsolódik mélyen a jelenlegi LLM–Ops trendekhez (pl. prompt-engineering a logokra, agent-based feedback loops).→ LMLAD valójában nem „generative”, hanem „masked predictive”.
.
5.Legnagyobb hiány: az imbalanced unsupervised problémakör teljes kikerülése
A log-adatok 99,9%-a „normális”, és az anomáliák tipikusan <0.1%-os arányban fordulnak elő. Ez extrém osztály-egyensúlytalanság, ami torzítja az unsupervised modellek távolság-/sűrűség-becslését, elmosódott klaszterhatárokat okoz, és fals pozitív áradatot hoz létre, ha a küszöbök statikusan vannak beállítva.
A cikkben a szerzők nem foglalkoznak sem:
density-based sampling-gel (pl. DBSCAN, LOF),
sem adaptive thresholding-gal (pl. Isolation Forest quantile-cutoff),
sem cost-sensitive weighting-gel,
sem semi-supervised contamination rate becsléssel.
Az általuk használt k-means + cosine + BLEU score kombináció feltételezi, hogy a „normál” minta sűrűsége homogén — ez viszont a valós rendszerekben hamis.
Konklúzió: nincs imbalance-aware learning pipeline sem az unsupervised, sem az autoencoder-módszereknél. Jó átlagos F1, de a recall-precision trade-off valós üzemi környezetben nem lenne stabil.
.
6.A küszöbérték-kezelés (threshold calibration) primitív
A BLEU-score-on alapuló küszöbérték (LMLAD-nál) vagy a fix cosine-threshold (LCCLAD-nál) statisztikailag naiv:
nincs Bayesian vagy probabilisztikus interpretáció,
nincs uncertainty quantification,
nincs drift-kompenzáció (időbeli adaptáció).
Konklúzió: 2025-ben ez a probléma már széles körben ismert: a korszerű rendszerek (pl. EvidentlyAI, Deepchecks, vagy AWS Lookout for Metrics) dinamikus konfidenciasávokkal és adaptive thresholding-gal dolgoznak. Itt viszont minden küszöb „fix”.
.
7.Nincs concept drift detection vagy időbeli modell-monitoring
A cikk log-adatokról beszél, amelyeknél időben változó szezonális és release-függő mintázatok jelentkeznek (deploymentek, patch-napok, karbantartási hullámok).
Ennek ellenére:
nincs sliding window evaluation,
nincs time-series aware embedding,
nincs continual learning megközelítés (pedig Kubernetes-környezetben ez alap).
Konklúzió: 2025-ös elvárás szerint legalább egy egyszerű drift detection (Kolmogorov–Smirnov, Jensen–Shannon, EMD) be kellett volna építeni.
.
8.Hiányzik a meta-tanulási vagy autoML komponens
Az algoritmusválasztás teljesen kézi (fix architektúra, fix hiperparaméterek).
2025-ben egy korszerű alkalmazott cikk már tartalmazná:
hyperparameter search (Optuna, Ray Tune),
meta-model selection (F1 vs latency trade-off automatikus döntéssel),
vagy legalább model confidence estimator modult.
Konklúzió: Itt a „decision flowchart” vizuálisan jó, de mesterségesen statikus. Egy modern AIOps rendszer ezt valós időben optimalizálja, pl. MLOps pipeline-ban.
.
9.A modellek közti fúzió (ensemble / hybridization) csak jövőbeli célként szerepel
Pedig a CAELAD + LCCLAD + SCLAD kombináció adná magát:
egy „multi-stage” pipeline, ahol
olcsó statisztikai pre-filter,
mély autoencoder validálás,
LLM-alapú szemantikus megerősítés.
Konklúzió: A cikk ezt csak „future work”-ként említi — nincs implementálva. Pedig ez lenne a valódi 2025-ös AIOps-irány: multi-layered anomaly attribution, nem csupán detection.
.
10. Hiányzik a konfidencia-/bizonytalansági modellezés
A valós üzemeltetési környezetben az anomáliák 20–30%-a „fél-anomália” (nem hiba, csak ritka).
Modern data science (2024-25) már használ:
probabilistic autoencoder (VAE),
Bayesian deep learning (Monte Carlo Dropout, variational layers),
uncertainty-based ranking.
Konklúzió: Itt viszont minden döntés bináris: anomália / nem anomália,
ami 2025-ben már nem best practice.
.
11. A kiértékelés nem felel meg a mai ML-validációs sztenderdnek
A cikk csak egyetlen random splitet használ (train/test),
nincs:
cross-validation,
bootstrapped confidence intervals,
sem calibration curve.
Konklúzió: Így az F1-score-ok nem megbízhatók konfidenciaszinten. Ez 2025-ben már súlyos metodológiai hiányosság egy ML-alkalmazott kutatásban.
.
12. Metrika-szintű modernizáció hiánya
Hiányoznak a korszerű „deployment-aware” metrikák, mint például:
time-to-detect (TTD),
false alarm rate per hour (FAR),
mean time between false alarms (MTBFA),
cost-weighted F1.
Konklúzió: Ezek nélkül nem látszik, mennyire működne az algoritmus valós DevOps SLA-k mellett.
Palkovics nyomatja rendesen: „…jön a hazai mesterségesintelligencia-csúcsszervezet, az MI Tanács. A tervek szerint még idén megtörténik majd az alakuló ülés.” – Ha jól értem ő lesz az élén. Többféle neve lehet: Magyar MI Hivatal, stb. Infók még nyilván nem nagyon vannak. Vélhetőleg az emlegetett botrányos MI Kutatótól függetlenül.
* Viszont máris megy a purparlé az FB-AI Hírek csoportban, meg a FB-ChatGPT magyarul csoportban (utóbbi törölte, az előbbi átengedte az alap posztot). Jah kérem a politikát ilyenkor nehéz leválasztani a szakmáról.
* A poszt szerzője Sípos Zoltán marketinges, megítélésem szerint nagyon gázosat posztolt, majd kommentelt sorozatban (szakma mögé bújva). Nem lesz így béke az Olajfák hegyénél (vélelmezem). Mindezt úgy, hogy 6616 követője van a LinkedIn-en, ami azért nem kevés magyar nyelvterületen.
https://www.facebook.com/groups/730310438659106/posts/1379940937029383
A Magyar MI Tanács tagjai:
* a Nemzeti Média- és Hírközlési Hatóság,
* a Magyar Nemzeti Bank,
* a Gazdasági Versenyhivatal,
* a Nemzeti Adatvédelmi és Információszabadság Hatóság,
* a Szabályozott Tevékenységek Felügyeleti Hatósága,
* a Szellemi Tulajdon Nemzeti Hivatala,
* a Nemzeti Adó- és Vámhivatal,
* a Nemzeti Akkreditáló Hatóság,
* a Nemzetgazdasági Minisztérium (mint piacfelügyeleti hatóság),
* a vállalkozásokért felelős miniszter,
* a Magyar Tudományos Akadémia,
* a Magyar Művészeti Akadémia,
* a HUN-REN Magyar Kutatási Hálózat és
* a Magyar Rektori Konferencia.
🤣 És ha még nem röhögtétek halálra magatokat, jön a slusszpoén:
A Magyar MI Tanács elnöke Palkovics László professzor, a mesterséges intelligenciáért felelős kormánybiztos.
PS: FB-AI Hírek csoport egyik kommentje volt ez itt fentebb.
Brutális a flame, 40 kommentnél járnak a srácok,. Nagyon tanulságos látlelet, csak abból a szempontból is, hol tartunk.
Végre JT is elégedett lehet. Repülőrajtot vesz az AI magyaroszágon:
AI-biztosokat telepít a kormány a minisztériumokba, a főispánok mellé, és az egyetemekre is
Hiv.: @nyulambator:
Végre. Egy önálló, kreatív magyar kezdeményezés, ami még egy OpenAI-nak sem jutott eszébe és ráadásul másolhatatlan innovációnak számít a nyugati világban. A kínaiak is még csak tanulmányozzák egyelőre az ötletet, széleskörű adaptálásra.
😉
@nyulambator: : „AI-biztos”? Hmmm… miért van olyan érzésem, hogy ennek (is) a leánykori neve „párttitkár-politikai tiszt/megbízott” (vagy III/3)? Nincs új a nap alatt (komcsyéknál végképp ritka, mint a fehér holló) 😀 .
(Emlékszem, első melóhelyemen a „III/3 megbízott” egy régi öreg pártharcos volt, persze kamu pozícióban, de – ahogy mondani szokták – mindenki tudta. Szerencsénkre a normális fazonok közé tartozott, a nyugdíját várta. Gondolom, régi elvtársi kapcsolatai segítségével kapta azt a töknyugis helyet 🙂 . vityaelvtárs alatt nyilván magasabbak lesznek az elvárások 😀 ).
@tahonoli: Lehet hogy őt is megkeresték, csak nem értették, amit mond:
https://terrytao.wordpress.com/2025/11/05/mathematical-exploration-and-discovery-at-scale/
és
https://scholar.google.com/citations?user=JtR3vTMAAAAJ&hl=en
@ijontichy:: ez azért jórészt fóbia most: legalábbis az egyetemeken arról van szó, hogy legyen olyan kolléga, aki az AI alkalamzással kapcsolatban tud támogatást adni oktatóknak, hallgatóknak. Nálunk egy olyan fiataal oktató kapott ilyen megbízást (már hetekkel ezelőtt amúgy), aki meglehetősen ismeri a témát és a gyakorlatot, figyeli a nemzetközi fejlesztési és szabályozási fejleményeket, kifejezetten hasznosan segít mindenkinek ebben tájékoztatókkal, egyedi esetekben konzultációkkal stb.
Hiv.: @K Zoltan:
Nagyon hálás vagyok a kommentedért, köszönöm.
Az AlphaEvolve-ról bőven tudtam (+DeepThink+AlphaProof): centrális jelentőségük van a Google IMO-eredményekben. Én nagyon szeretem a matek-megközelítési szemléletüket, mégha díjazom az OpenAI eltérő (részleteiben alig-alig tudható) szemléletét is.
Viszont Terence Tao általad linkelt blogjáról nem tudtam, eddig mindig esetleges volt, hogy beléje tudtam botlani. Megdöbbentem, hogy friss cikke mennyire jó és hasznos. Ráadásul érthető is, még a magamfajta outsidernek is.
https://arxiv.org/abs/2511.02864
Ezt a szakembert szerződtetni sem kellett, ő az innovációs miniszter.
Ha valakinek van mazochista hajlama, érdemes olvasgatni.
Ízelítő:
„Ha angolszász nagy nyelvi modelleket használunk, akkor abban feloldódunk, akkor abban elveszünk – világított rá Hankó Balázs kultúráért és innovációért felelős miniszter az Oeconomus konferenciáján. Elmondta, hogy a mesterséges intelligencia vonatkozásában a szuverenitást és az identitást biztosítani kell, ehhez szükség lesz egy magyar nagy nyelvi modellre. Annál is nagyobb a tét, mivel a legfrissebb kutatások szerint az MI térnyerése hozzávetőleg egymillió magyar munkavállalót érint.”
Link: https://index.hu/gazdasag/2025/11/12/hanko-balazs-oeconomus-torcsi-peter-whc-goltl-viktor/
Bocs: tudom, index
Yann LeCun ledobta az AI-atombombát:
1.November elején bejelentette a távozását a Metától. Vélhetőleg kevés potenciált látott mindebben, pl.:
(a) $14,3 milliárd Scale AI akvizíció, majd
(b) Alexandr Wang (Scale AI főnök) Meta Chief AI Officer kinevezés a Meta Superintelligence Labs (=MSL) élére,
(c) LLM-paszírozást extrapolálva (LLM helyett lehet szókimondóbb szinonímát is találni)
2.Majd az alábbi elképesztő gyöngyszemet publikálta záródokumentumként, még Metás-színekben, eddigi eredményt egy 50 oldalas cikkbe sűrítve.
3.Bejelentve, hogy saját startup-ot alapít, befektetőket keres a cikkre alapozva.
https://arxiv.org/html/2511.08544
-
2. Beszéljünk a fent linkelt cikkről. Legminimálisabban négy mondatban így foglalnám össze a lényeget:
A JEPA-k reprezentációs rétegének izotróp Gauss-embeddinget kell adnia, mert ez minimalizálja a downstream predikciós kockázatot (LeCun-ék bizonyítják: az anizotrópia bias-t és variancianövekedést okoz). Ezt a LeJEPA a SIGReg („Sketched Isotropic Gaussian Regularization”) révén éri el: lineáris idő- és memóriaigénnyel, heurisztikák nélkül, összeomlás- és degenerációmentesen, hiperparaméter-érzékenység nélkül (egyetlen kompromisszumos paraméterrel). Empirikusan a LeJEPA In-Domain Self‑Supervised Learning-gel gyakran felülmúlja az LLM-es Transfer Learninget, így a geometriailag stabil, SLM-logikájú, speciálisan tervezett önfelügyelt reprezentációk újra versenyképes alternatívái lesznek az óriási általános modelleknek. A betanítás architektúra- és domainstabil, a github-on publikált kód mindössze ~50 sor, és a LeJEPA nem trükkhalmaz (stop-grad, EMA-teacher, negatív példák, BN-hackek, fagyasztások stb. nélkül), hanem matematikailag optimális, összeomlásmentes, architektúrafüggetlen SSL-alap, amelyből könnyen lehet SOTA modellt építeni.
.
3. És mitől lesz több vaj a kenyéren ettől?
* Kevesebb adatra lesz szükség ugyanahhoz a hatékonysághoz. Mindezt 1%-nyi GPU-erőforrással: kb. ~50.000 GPU helyett elég 500, de még ez is csökkenthető 100-ig.
* Kevesebb mérnöki munka, kevesebb tuning, kevesebb „varázslat”. Minimalizálható, kiszámíthatóbb tuning, elit-csapatok nélkül is.
* A modell teljesítménye előre látható a tréning közben. Nincs olyan, mint manapság, hogy „jó a loss, de szar a valós teljesítmény”. LeJEPA-nál a loss 99%-ban korrelál a későbbi valós teljesítménnyel.
* „Mindössze” idő, pénz, kockázat csökken durva léptékben.
És akkor az igazi, messzibbre tekintő lényegről még nem is volt szó. A tét ugyanis a grounded world modell a teljes implicit világra, ezáltal komolyabb fejlődési potenciált rárakva robotikától a fizikáig (annak ugyan csak egy komolyabb szeletére, nem az egészére nyilván). Yann LeCun-i modularitással becélozva a teljes egyesített grounded world-modell-t, mint AGI-alapot.
.
És még nincs vége:
Yann LeCun egy kis pici startuppal száll szembe
- a hatalmas Google-lel, aki a témában eddig a legtöbbet tette le az asztalra és legtovább jutott, vagy
- Sam Altman (zárt forrású, vezetője által túldominált OpenAI) személyével szemben. Aki a napokban 1.400 milliárd dollár közeljövőbeli elköltését vízionálta (pár milliárdos jelenlegi bevételekkel szemben), majd amikor egy befektetője rákérdezett a konkrétumokra, akkor azzal hárította el a kérdést, hogy „el lehet adni a részvényeket”. Mindezt körkörös finanszírozású (nyugodtan mondhatjuk, hogy tőkeáttételes) pukkanás-közeli állapotig fújt AI-lufi világában.
@tahonoli:: szerinted valószínűleg milyen (közvetlen szakági, illetve távolabb lépve, világgazdasági) következményei lennének/lesznek egy AI-buborék-kipukkanásnak?
Hiv.: @labrys:
* Gita Gopinath a Harvard Egyetem amúgy bombázó közgáz.prof-ja, IMF vezető közgazdász, első vezérigazgató-helyettes minapi Economist cikke szerint $20 trillion USÁ-ban, $15 trillion másutt a világon, azaz 35 billió dollár fog elégni (ma reggel szemlézte Káncz Csaba is FB-oldalán). Hogy lehessen viszonyítani a dotcom lufi során mai értéken $9,5-10 trillion égett el, 2008-as gazdasági válságnál legeslegalsóbb hangon $30+$40=$70 trillion.
* Ami cikkeket én láttam a kettő közé lövik be a lufi-puki pénzégetését, jóval közelebb a dotcom-válság nagyságrendjéhez. Én egy kicsit a $10 trilliont is sokallom, maradnék egy konzervatív $2-$4 trillionnál, ugyanis szerintem nincs hálózatos eszkaláció a sztoriban, mint volt 2008 környékén.
* Én azt sejtem, ha egy OpenAI kidől a sorból kvázi semmi forradalminak nem kell feltétlenül történnie, símán lapozhat a világ (nyilván fognak szívni cégek akik az OpenAI-ba kötötték be magukat, de talán annyira azért nem tragikusan, merthogy AI-ra átállni tragikusabban fájdalmasabb élmény, mint AI-backendet cserélni). Egyrészt, amit az OpenAI csinált símán reprodukálható ma már Nyugatnak, Kínának is. Másrészt nézetem szerint egy LLM lehet kvázi akár milyen f*s, az agent-architektúra körülötte a perdöntő minőséget adó faktor (nyilván csak a transzformer világon belül mozogva).
Értem, hogy a IMO-aranyérem (de a Google validáltan csinálta meg ugyanezt), értem, hogy SORA2, de a VEO3 vagy a kínai modellek is nagyon jók, értem, hogy Codex, de a Claude Code + ~Skills semmivel nem alávalóbb, sőt.
-
* A másik, amit sejtek, hogy lényegében senki nem érti (csak találgat), hogy non-technology oldalról mégis mi a lóf@sz történik az OpenAI körül. Sam Altman és a tőzsde együtt közösen fújja a lufit, a világ meg néz, mint Rozi a moziban, hogy ezt mégis hogyan, miért. Szerintem nincs épelméjű szcenárió, ami magyarázhatná az egészet, csak valami irracionálisat tudok elképzelni (meglehet az én hibám).
Azonban az ész megáll komolyan ilyen további történésekre:
– Michael Burry jól megshortolta az nVidiát, Palantirt egyenesen $1 billion-ra (1 milliárd dollár), majd napokon belül de-regisztrálta hedge fund cégét (Scion Asset Management), magyarán bezárta a boltot. WTF?
– Softbank eladta a $5,8 trillion nVidia-részesedését, csak azért, hogy az egészet betegye az OpenAI-ba. WTF?
– Az már említésre sem méltól kvázi, hogy az Oracle $300 billion OpenAI-s cloud-üzlet nyomán leminősítést kapott az adósságára, a tőkeáttétel-rizikók miatt.
Na de akkor minderre az lenne az értelem reakciója, hogy toljunk még többet az OpenAI-ba?
.
* A harmadik, amit sejtek (és ez nagyon véleményes lesz, senki ne fogadja el tőlem, első felindulásból).
Az egész OpenAI-sztori Sam Altman önzőségéről, profi-hajszájáról szól. Ennek első vakító jele volt a Microsoft bevonása a non-profit OpenAI-ba. Sam Altmannek kezdettől fogva az volt az alapkoncepciója, hogy elsőnek kell lenni a piacon, mert az visz mindent. Míg a Google-nél optimalizálással meg hangolással múlatták az időt, konzervatív fejlesztési mederben haladva, addig Sam Altman nyomta be a GPU-kat a GPT-je alá, mint süket a csengőt. Ezt hívják ész nélküli brute force felskálázásnak. És ennek nyilván lett pozitív hozadéka (első lett az OpenAI, tarolta is a piacot). Ámde aztán ez a GPU-duplázás elérkezett a határhaszonhoz: jóval drágább, mint eredményesebb. GPT-5 javult, ha 20%-ot a GPT-4-hez képest, $100 billion kaliberű pénzégetéssel WTF? Magyarán én a bukiknál ara fogadnék, hogy Sam Altman közelében nincs az akármilyen AGI-nak, még világmodellt is mostanság kezdett el építgetni fékezett habzással, visszafogott lelkesedéssel. Egy személyben teljesen ledominálja az OpenAI-t, kiskakas a zártforrású szemétdombon. Ha hibázik, rántja magával a cégét: elképesztő sérülékenység. Deepseek-nek,meg a többi kínai gyártónak ilyen gondja egy percig sincs.
PS: Én egyébként azt várom, hogy az OpenAI-t egy kínai modell lefogja teszítani a trónról 2026-ban, és ez ad absurdum földrengést is beindíthat akár az AI-világban.
-
https://www.economist.com/by-invitation/2025/10/15/gita-gopinath-on-the-crash-that-could-torch-35trn-of-wealth
@tahonoli:: kösz a megvilágítást! – Tényleg megdöbbentő újra és újra szembesülni azzal, hogy sokszor még a legbrutálisabb társadalmi-gazdasági-technológiai folyamatok aktorai sem képesek értelmes lények módjára viselkedni.
Tegnap óta jönnek velem szembe kiakadások a LinkedIn-en, annak kapcsán, hogy Sundar Pichai – Google CEO – félórás interjút adott a BBC-nek. Ráadásul egy olyan mondat kapcsán akad ki a LinkedIn-közösség, amit a BBC-transcript nem is említ. Na, mostanra lett elegem és utánamentem a cuccnak.
5:17-től hangzik el a mondat a Google-főnök szájából: „So I think it’s both rational and there are elements of irrationality through a moment like this.”
Magyar fordításban: „Úgy gondolom, hogy ez egyszerre racionális, ugyanakkor vannak az ilyen időszakokban irracionalitást hordozó elemek is.” (Azaz: az AI-beruházási láz egyszerre indokolt és egyszerre tartalmaz túlkapásokat, túlzásokat, buborékszerű dinamikát.)
Pár napja pont erről az irracionalitásól beszéltem fentebb, OpenAI kontextusában.
A közösségi kiakadás meg annak szól, hogy 1 billió dollár AI-infrastruktúra építésnek mekkora része irraconális és mekkora résznek kellene elegendőnek lennie.
.
Érdekes további mondások is vannak az interjúban:
* A túlzott befektetés és túlkapások természetesek, ahogy az internet esetében is volt.
* Google 4 éve ~30 milliárd dollárt költött infrastruktúrára, ma ez 90 milliárd dollár/év felett van.
* Az iparág összes szereplője együtt több mint 1 billió dollárnyi AI-infrastruktúrát épít. (Lásd még ugye, itt a blogon is sokat emlegetett trillion-dollar clustert)
* A következő 2 évben annyit építenek ki, mint az előző 10–20 évben összesen.
* A Google képtelen kiszolgálni a keresletet, akkora a túlterheltség.
* Hosszabb távon akár CEO-feladatok is AI-vel elvégezhetők.
* A Google kvantumprogramja állítása szerint világszínvonalú, és most olyan állapotban van, ahol 5 éve az AI volt. 5 év múlva hasonló áttörések várhatók.
.
Big Boss Interview – Business Matters
#11 Google CEO, Sundar Pichai: AI Will Cause Societal Disruptions
https://www.bbc.com/audio/play/p0mh56kj
Hiv.: @tahonoli:
Elképesztő mibe szaladtam bele, és sajnálatos, hogy csak ilyen sokára. Ha meg kéne neveznem az „Attention Is All You Need” [1706.03762] cikk után a második legfontosabbat (AI-ban), akkor mára és számomra kétség nem fér hozzá az alábbi 160 oldalas cikk lenne az.
Michael M. Bronstein: Geometric Deep Learning Grids, Groups, Graphs, Geodesics, and Gauges [2104.13478v2]
.
Ebből nőtt ki a LeJEPA (úgy, hogy Yann LeCun a Deep Learningnél is ott volt már korábban), részben a blogon korábban már többször tárgyalt Karl Friston (+Verses)-féle FEP-AI, a Calm&Hufd, FoB HMC, elképesztő differenciálgeometriai őrületekkel, manifoldokkal, curvature-ökkel, invarianciákkal, szimmetriával, csoportelmélettel, Erlangen-programmal, Monte Carlo Hamiltoniádákkal, autonóm intelligenciákkal stb.
.
Elképesztő figura a cikkszerző M.M.Bronstein:
- Oroszországban született (Tula),
- van egy szintén sikeres tesója (Alexander),
- h-indexe: 102, nem sokban marad el Lovász Lászlóétól (mondjuk Karl Fristoné 276)
- oxfordi professzor,
- per a mai napig folyamatosan publikál (lassan 350 cikknél jár).
- Izraeli startup-os vállalkozó is a két tesó.
Muszájnak éreztem személyét hangsúlyosan említeni név szerint is, mert Google keresésben nem láttam, hogy lett volna szó róla itt a blogon, pedig hatása Yann LeCunét közelíti, haladja meg.
.
Csendben jegyzem meg van Magyarországon is olyan tudósunk, aki a Deep Learninggel és a gráfokkal világszinvonú mélységgel foglalkozik: Szegedy Balázs (akiről volt szó korábban itt a blogon is).
.
Ha egy linket kéne megadnom Michael M. Bronstein-től, akkor egy 252 oldalas prezi linkjét adnám meg,ahol Ádámtól és Évától felfejti a teljes sztorit, nagyon tömören, de izgalmasan-érdekesen.
https://www.sci.unich.it/geodeep2022/slides/Pescara%202022%20-%20Intro.pdf
@tahonoli: a probléma az, hogy az AI és a szép, mély matematika még nem közelítették meg egymást. az, hogy egy cikkben leírják a basic postgraduate differential geometry-t nem jelenti azt, hogy ez az egész érdekes lesz egy differenciálgeométer számára. ezek a dolgok rendkívül fontosak technológiailag, de matematikai szempontból még nem érdekesek. egyelőre itt tartunk.
Hiv.: @jotunder:
Ez számomra ugyanaz a vita/meccs, amit már lejátszottunk a spanyol félunikornis Multiverse-s tenzor-algebrás AI-modell tömörítéssel, ami aztán része lett az AWS platformnak vagy a Rubik Kockával. Ezt a vonalat én elengedném tehát, pontosabban a narratívából menjünk a mélyebb részletek felé:
.
* A matematikai mélység ≠ technológiai jelentőség. Egy Fourier-analízis 200 éven át „nem volt mély” matematikailag, azt nézzük meg hol tart ma. Ugyanígy a konvolúció matek háttere sem mély és nézzük meg hol tartanak a mai LLM-ek.
.
* A mély matematika a kezdeti fázisban mindig triviálisnak tűnik:
1950: „Neurális hálók? „Csak” boolean algebra, lineáris egyenletek.
1980: „Backpropagation? „Csak” triviális kalkulus
2000: „SVM? „Csak” convex optimalizálás
2013: „Deep learning? „Csak” mátrixszorzások
2020: „Transformers? „Csak” lineáris algebra
2023: „Graph DL? „Csak” a permutáció-invariancia alkalmazása
2025: „Gauge theory in ML? „Csak” differenciálgeometriai alapfogalmak
- Aztán elkezd mélyülni a dolog:
- Differential topology-ból manifold learning
- Group theory-ból equivariant networks
- Representation theory-ból transformers formalization
- Gauge theory-ból symmetry-preserving graph neural networks
Magyarán a Geometric Deep Learning (=GDL) jelenleg nyilván nem tiszta matematika, de pont az a lényeg, hogy például be kéne vinni az invariancia elvet a gép tanulásba, aminek felfoghatatlanul nagy jelentősége van. A matematikus lehet, hogy csak ásít, de a mérnököt kiveri erre a víz izgatottságában.
.
* A GDL még definíciós, struktúrális, nem-tételes fázisban van, amire ásíthat a matematikus, de b@szki a mérnök azt látja, hogy
- Gauge-equivariant networks
- Non-abelian message passing
- Homotopy-based architectures
- Neural ordinary differential equation-ből geometry flows.
- Latent geometry-ból Ricci flow, curvature constraints lesz
.
* Bronstejn úgy matematikus, hogy sztár az AI-ban. GDL-ről így fogalmaz:
„This is not yet deep mathematics but the structure is deep.”
.
* A matematikában ugyan nincs még új tétel de az AI-ban máris kategóriát váltott a gondolkodás. A GDL – Gauge – Holonomy – Non-Abelian Geometry vonal pár éven belül új matematikát termel. Így érdemes ezt nézni, szerintem.
.
Konklúzióként, lehet, hogy csak azt érzékeljük, hogy a matematika mindig késik, azaz sosem a mérnöki szakaszban születik meg. Egy másik tanulság lehetne az, hogy magyar (mérnök)matematikusok is tömegével be tudnának kapcsolódni, ami arisztokratikus felülnézetből nehezebb lesz.
Baromi fontos (nagyon hosszú, de könnyen értelmezhető) cikk jelent meg 3 nappal ezelőtt, az NVidia Q3 gyorsértékelés nyomán. Nem is tudom hol kezdjem.
* NVidia Q3 gyorsjelentés nyomán eufória, 5% részvényár-emelkedés, majd 18 óra múlva minden nyereség eltűnik, esik a Nasdaq, Bitcoin.
* Rengeteg külső humán jelzés (Michael Burry shortolás, Peter Thiel majd Softbank ~$6 billion NVidia-kiszállás UTÁN az AI saját maga is kimutatta, hogy ő maga milyen instabil pénzügyi alapokon áll, mekkora ordító csalást mutatnak a számok a körkörös finanszírozásokat is beleértve (~$610 billion), mennyi logikus elvárt megtérülés beérkezte kétséges ($3,1 trillion).
* A hasonló – például 2001-es Enron (ha még emlékszik valaki) – sztorihoz sok hónap, évek kellettek. Most tokkal-vonóval 18 óra alatt estek meg a történések, de a Bloomberg 45 perc után megkapta az AI-jától a jelzéseket és a piaci eufóriát letörve beröffentette a shortolásokat.
* Aki kicsit is foglalkozott már gépi tanulással, az azonnal leveszi, hogy mennyire egyszerű eszközökkel dolgozott a Bloomberg.
Kronológiában, hogy a gépi pipeline logikájával hogyan állt össze a riasztás (rengeteg valós, releváns historikus adat + szakma, hogy milyen faktorokat kell nézni – alapokon):
- Nyers NVidia 10-Q PDF nyersszöveg beolvasása → strukturált adattá konvertálás (Bloomberg NLP).
- Automatikus DSO-számítás → outlier → flag.
- Inventory trend + margin trend összevetése → ellentmondás → flag.
- Cash conversion rate számítás → extrém érték → flag.
- Cashflow és Balance Sheet keresztellenőrzése → working capital explosív → flag.
- Iparági benchmark-analízis (AMD, Intel, TSMC, Micron) → Nvidia kilóg → súlyos flag.
- Machine-generated forensic risk score → riasztás Bloomberg-hálózatnak.
- Hedge fund algoritmusok automatikusan shortolták.
* Minden egy irányba mutat (cikkben részletesen kifejtve):
- Elsődleges anomáliák az NVidia-nál (Követelések, Készlet, Cash flow)
- Marginromlási jelek
- A körkörös (circular) finanszírozási mechanizmus
- Nyílt beismerések: „vibe revenue”
- Történelmi precedensek (Lucent → vendor financing → felduzzadt követelések → összeomlás. Enron → SPE-k → saját maga finanszírozta saját bevételeit. NVidia–xAI SPV ugyanilyen szerkezet.)
- Insider jelek („smart money exit”)
- Fertőzési mechanizmus (Bitcoin kötődés)
- Decentralizált compute alternatívák (szívemnek oly kedves Big Tech-hel szembeni téma: erről már többször beszéltem itt a blogon is, az AI Hírek FB-csoportban is. Régóta minden adott technikailag hozzá, de a világ nagyon nehezen akar felnőni a dolog komolyságához.).
- Regulációs jelzések (SEC)
.
The Algorithm That Detected a $610 Billion Fraud: How Machine Intelligence Exposed the AI Industry’s Circular Financing Scheme
https://substack.com/home/post/p-179453867
@tahonoli: Az benne a szép, hogy mindezek után/mellett sem biztos hogy nem emeli tovább az árfolyamokat a hype. A Bloomberg is AI-t használt, nem élőerőt. Egyszerűen akkora lendületben van az AI hogy még mindig tudja tovább fújni a buborékot.
A Gartner hype cycle szerint a generativ AI túl van a hype csúcson és robog lefele, hogy aztán majd megtalálja a rendes helyét, értéke szerint, de a felmenő ágon ott sorakozik a composite AI, a neurosymbolic AI, a world models meg a többi mind.