Lentner rezsimszolga háborúja a Magyar Tudományos Akadémiával (UPDATE !!!!!)
A Magyar Tudományos Akadémia közleményt adott ki Az akadémikusok tudományos teljesítménye kiemelkedő a kutatók között címmel. A közleménnyel együtt egy hosszabb elemzést is publikáltak. Bár ez nem derül ki világosan a szövegből, Lentner rezsimszolga legújabb ámokfutására adtak választ. Lentner őrjöngését „Oláh Zsanett” aláírással méltatta a NER.hu.
Jogi képviselőnk ugyan felmondott, amikor meglátta, mire készülök, de nem eszik olyan forrón a kását – főleg, ha le tetszik jönni az ablakpárkányról.
Lentner dolgozatának egyik fejezete a következő címet viseli:
„A IX. osztály jogász–közgazdász akadémikusainak és Lentner Csaba professzor tudományos teljesítményadatainak összehasonlító elemzése.”
Ebben Lentner elmagyarázza, mennyivel több cikke és idézete van, mint az akadémikusoknak. Ezeknek az idézeteknek az óriási többsége az elmúlt öt évben keletkezett – véletlenül éppen akkor, amikor a világban megjelentek a citation cartel-ek és a paper mill-ek, vagyis azok az intézmények, amelyek „meghekkelték” a nemzetközi rangsorokat. Ezekről főként iráni, nigériai és maláj egyetemek kapcsán esett szó, és a jelenségnek mára meglehetősen nagy irodalma van.
Az külön figyelemre méltó, hogy Lentner maga is rámutat: mennyivel több cikket írnak mostanában Iránban, Nigériában és Malajziában, miközben a magyar kutatók lemaradnak…
A cikk elején Lentner meglepően bátran magyarázza el, hogy Magyarország mennyire leszakadt versenyképességben és innovációban, aztán meg is nevezi a felelőst: a Magyar Tudományos Akadémiát. A kedves Olvasó most bizonyára azt mondja. hogy ez egy… Ejnye kedves Olvasó. Mondjuk tényleg az – de gondoljunk csak jogi képviselőnkre.
A magyar idézethekkerek és cikkgyártók (évi húsz cikk random témákban, random lapokban, harmadik világbeli társszerzőkkel) még nem olyan erősek, mint iráni, nigériai vagy maláj kollégáik, de egyre látványosabbak.
Nem a Vincent fogja borítani a bilit – de valakinek, és itt a Magyar Tudományos Akadémiára nézek az én lassan védjegyemmé váló szelíd őzike pillantásommal- kellene, mert kicsit nagy lett az arcocskájuk. Tessék megnézni bizonyos cikkeket hol jelentek meg, kikkel írták őket, kik és hol idézték őket.. Nyilván sok munka, de azt hiszem rá kellene állítani pár embert, mert ebből baj lesz. Baj van.
UPDATE: Ezt érdemes elolvasni.
<div class='sharedaddy sd-block sd-like jetpack-likes-widget-wrapper jetpack-likes-widget-unloaded' id='like-post-wrapper-192691293-16532566-6933fe57284f7' data-src='https://widgets.wp.com/likes/?ver=14.1#blog_id=192691293&post_id=16532566&origin=www.orulunkvincent.hu&obj_id=192691293-16532566-6933fe57284f7&n=1' data-name='like-post-frame-192691293-16532566-6933fe57284f7' data-title='Like or Reblog'><h3 class="sd-title">Like this:</h3><div class='likes-widget-placeholder post-likes-widget-placeholder' style='height: 55px;'><span class='button'><span>Like</span></span> <span class="loading">Loading...</span></div><span class='sd-text-color'></span><a class='sd-link-color'></a></div>
Hm. Az valahogy nem illik, hogy egy tudós a saját maga által szerkesztett lapban publikáljon.
Azért ezzel már foglalkoznak Mon is, pl: https://telex.hu/komplex/2024/10/08/plagium-tudomanyos-cikk-visszavonas-tanulmanygyar-obudai-egyetem
@fortin2: aztán valamiért már nem foglalkoztak annyit… a cikkben említett garai-fodor mónikának és lentnernek van egy közös társszerzője, aki aztán tényleg félelmetesen érdekes publikációs mintázatokkal rendelkezik. mégis mennyi ennek az esélye? az a bizonyos figura orbán balázsék intézetének vezető kutatója lett. és valahogy az óbudai egyetem megelőzi az eltet a THE listán, és nem szakad le az ég….
@jotunder:: Az igazat megvallva a THEt nem értem, kb nárom éve egyszer már észbe kaptak és hozzányúltak a publikációs indikátorokhoz, éppen az ilyen anomáliák miatt, de aztán megint visszacsúsztak a meghekkelt állapotba. Ameddig nem választják le a ranking providerekről a tanácsadói szolgáltatásukat, amivel súlyos eurotízezrekért árulják magukat, addig egyre csak hiteltelenebbek lesznek.
És én meg megint hogy meg vagyok lepve!
Hofinak volt az aranybecsű mondása: „az a korrupció amiből kihagynak”
Elég csak a Fideszre nézni: bármiről szövegelnek, akkor nagyon nem mindegy, hogy kint vannak, vagy bent vannak a buliban.
Viszont a sztorinak ránk nézve is van következmény:
– Az AI egyre jobb lesz a plagizálásos, turpisságos felderítésben (ez más és könnyebb probléma, mint AI-eredetiség bizonyítása, hiszen szövegkorpusz és egy közepes algoritmus elég hozzá)
– Olimpiára is doppingolnak, függetlenül attól, hogy pár év múlva elveszik az érmet. Kínában is van korrupció, dacára a halálos ítélet pressziójának. Carpe diem, ugye.
– Át kell értékelni az impact faktorokat. Nem vakon hinni külső számokban, meg prekoncepcióval ítélkezni. Névtelenül is lehet valakinek jó gondolata, míg másik oldalról nagy hírneve meg prof.doktor Palkovicsnak is van MTA tagsággal és annyit is ér az egész kamu figura tudományos értelemben (a politikait meg hagyjuk is).
@tahonoli: „Át kell értékelni az impact faktorokat. Nem vakon hinni külső számokban,” Ezzel részben nyitott kapukat döngetsz. Jobb helyeken, pl. ERC, nem használnak impaktfaktort, sőt semmilyen tudománymetria mérőszámot. De sajnos pl. az NKKP (az új OTKA) döntéshozatalába a hivatalos kiírás szerint be van építve valamilyen tudománymetriai mérőszám. Hogy ez most konkrétan a rettenetes Győrffy-szám (tudomanymetria.com) vagy valami más, az nem világos.
@steinerzsiga:: az igazán magyaros megoldás valójában a farokhossz lenne, mint döntő
szcientológiaiszcientometriai paraméter. (Persze szigorúan központilag megadott tartományon belül vizsgálva.) Az arra érdemes nőneműekhez – noha megmondtuk, hogy általában nem foglalkozunk velük, de azért valahol ők isembereklakóság – pedig nominális/fikcionális farokhosszt lehetne rendelni az ojjektív megmérettetés céljából.@steinerzsiga: updateltem a cikket. https://mta.hu/mta_hirei/mennyisegtol-a-minoseg-fele-konferencia-az-akademian-a-kutatasertekeles-uj-iranyairol-114784
itt pont azt írják, hogy ezt az impaktfaktorozást abba kell hagyni
Hiv.: @jotunder:
Számomra ijesztően, sírnivalóan elszomorító, hogy 2025-ben peer review-ban képesek gondolkodni tudós emberek. Eleve hatalmas meló és így költség, ráadásul tele szubjektívitással, hibázással, manipulálási potenciállal.
Tudománymetriára én HITL AI-workflow-t fejlesztenék, á lá kvázi regressziós data science pipeline köré. Amit csak lehet automatikusan csinálnék, kívülről emberek csak paraméterezhetnék, illetve elveket (pl.: etika) érvényesíthetnének az időbeni változásokra tekintettel. A két legfontosabb modul benne a Bayes / Ensemble Inference és Anomaly Detection.
Azt hackeljék meg predatoros szakik.
@jotunder: Köszi! Az MTA teljesen jó álláspontot képvisel ebben a történetben. Állítólag az NKKP egyes zsűrijei is figyelmen kívül hagyják az impaktfaktorokat. Viszont ugye Hankó nagy rangsor-fetisiszta, és a HUN-REN-re is ezt a szemléletet kényszeríti rá.
@tahonoli:](#comment-348729) én is peer review-ban „gondolkodom”. szeretem, ha elfogadják egy cikkem és megjelenik.
@tahonoli: vannak területek, ahol nem is teheted ki a preprinted, mert double blind review van. matematikában szerencsére nem, de filozófiában pl. igen.
A matematika pont egzakt tudomány. Ha hibásat nyújtasz be véletlenül, akkor te magad is örülsz, ha a peer review (ad absurdum több peer reviewerrel) folyamat fel hívja erre a figyelemedet (lásd Andrew Wiles, Fermat Last Theorem).
Másik oldalról ott van Alan Sokal fizikus (1996): „Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity” tanulmánya.
Vagy harmadik oldalról valaki bevisz örökmozgó időgépet, ami nyilván nem működik, de lehet a cuccban érték, ami sosem derül ki, mivel azonnal kukázzák.(Nyilván hülye a példa, de talán érthető).
Ami a másik topikot illeti
Az én képzetem szerint a regressziós data science pipeline (AI HITL Workflow-ban) kellően transzparensen működne (tehát a filozófia preprintet is fel lehet tolni neki megbízhatóan, lopásgátoltabban ráadásul). Egy előzetes (korrekt) plagizálás-teszt önmagában már hatalmas érték lenne, bármilyen review előtt.
Én nem teljesen látom át, hogy van-e indokolt eset a manuális peer review-ra (érzésre inkább nincs, mint van), de az én koncepciómban kezelhető ez az ág is. Az viszont, hogy a predatorokat szűrjék, arra manuális peer review-t tervezni, az szerintem Palkovics/Tilesch/Schmidt/Lánczi-szintű szakértelmet feltételez.
@tahonoli: a Sokal-tréfa esetében a szerkesztők azt állították, hogy tudták, hogy ez a cikk nem felel meg a lapnak, de valahogy illusztratívnak tartották és bár el kellett volna utasítaniuk (hiszen Sokal nem volt hajlandó semmiféle kérdésre válaszolni) besuszterolták egy Special Issue-ba eleve különálló cikként.
@tahonoli: Ez jól hangzik, csak éppen az alapkérdét nem oldja meg: mi legyen az indikátor? Mert ha továbbra is a publikációk száma, (látszólagos) minősége marad az elsődleges, akkor legfeljebb kifinomultabb hekkelések kellenek, a valódi értékmérés nem jön e. Amit amúgy kifejezetten a peer review biztsíthat, a maga eredeti formájában, vagyis személyes felelősésgvállalással mondják ki nagy tekintélyű tudósok, forráselosztási döntéshozók stb. , hogy kikre lehet bízni pénzt, intézményt, labort stb. És feleljenek érte, ha nem jött be. A számokkal való felelősségáthárító álobjektivitás sehova sem vezet, illetve ide, ahol tartunk: a valódi újdonségot, gondolatot, mondandód dsizpreferáló szöveggyártáshoz. Az amerikai mingára megcsinált ERC nem véletlenül válik be jobban bérmi másnál, ami a minőséget illeti. És perszehogy ott is elhete mellényúlás, de a sikerre sokkal nagyobb az esély.
@tahonoli: Szerintem te picit félreérted, miről szól a peer review. (Vagy az van, hogy tudományonként nagyon eltér, miről szól.) Szerintem (ill. tapasztalatom szeirnt) a peer review-nak egyáltalán nem az esetleges csalások (mondjuk adatmanipuláció) vagy az esetleges plagizálás felderítése a feladata. Hanem hogy a cikk gondolatmenete logikus-e, a kísérletek, amelyekről beszámol, jól voltak-e megtervezve, azt mutatják-e ki, amit a szerző gondol, hogy kimutatnak, jól interpretálja-e az eredményeket a szerző, reflektál-e megfelelően a szakirodalmi előzményekre. Ill. egy jó peer review gyakran ötleteket, tanácsokat is ad. Én rettenetesen szenvedek a peer reviewtól, mert nárcisztikus vagyok, és nehezen viselem, ha valaki fikázza a kézirataimat, de racionálisan nézve az esetek többségében sokkal jobbak lettek a cikkeim a peer review folyamat végére. (És persze van az is, bár ezt talán inkább a szerkesztők döntik el, hogy a cikk elég izgalmas, ground-breaking stb.-e: de ezt meg, pont mivel inherensen szubjektív, nem hiszem, hogy az AI jobban tudná csinálni, csak másként szubjektívan.)
Nyíri Kristóf is reagált a Népszavában tegnap egy Élt 200 évet? című cikkel (szokásos módon a fórummotor megeszi a linkes kommentjeimet).
Hiv.: @steinerzsiga:
„Szerintem te picit félreérted, miről szól a peer review.”
% Attól hogy nem beszélek róla részletesen, meg többet beszélek a plagizálás teszteléséről (mint könnyebb feladatról), attól még tudhatom, hogy mi a peer review, nem? 🙂
Utaltam korábbi kommentben a hibás cikk lehetőségére, meg konkréten a „Andrew Wiles, Fermat Last Theorem”-re Utóbbi ugye azért nevezetes, mert az egyik legnagyobb izgalom övezte, nagy pénzdíjakkal. És kiderült, hogy a nagy csinnadrattával bejelentett bizonyítás komoly hibát tartalmazott (a „gluing lemma” a moduláris formák deformáció-elméletében). Szerencsére kb.1 év alatt ki lehetett javítani korrektre. Az említett hiba peer review alapján derült ki, pont úgy, amit te is írsz. Viszont a talán legfontosabb és legnehezebb szempontot nem írtad: tudományos érték/ujdonság megítélése.
% Ha viszont már szóbakerült, akkor (a data science-t teljesen mellőzve) foglaljuk össze mi a peer review feladata és akkor már tegyük hozzá a ChatGPT hány százalékosra becsüli az AI-val megbízható automatikus elvégezhetőséget, jelen aktuális tudás szerint. Nyilván az AI fel fogja sorolni milyen pl.: logikai koherencia hibákat vélt találni adott cikkben, amiről aztán lehet tudományos diskurzus tudós emberek között, szükség esetén.
01.Logikai koherencia 70–85 %
02.Módszertani helyesség 60–75 %
03.Eredmények interpretálása 70–80 %
04.Kapcsolódás a szakirodalomhoz 85–95 %
05.Tudományos érték / újdonság 40-60%
% Azt gondolom érthető, hogy a tudományos újdonság értéke, vagy paradigmaváltás, ezek szemantika nélkül nem igazán eshetnek ki megbízhatóan sehogy se a „buta” LLM-ekből. Ehhez már minimum ontológia és tudásgráf kell, ami ugye gyerekcipőben jár még.
% Nyilván véleményes, hogy mennyire fogadjuk el a ChatGPT százalékait, de azt azért figyelembe lehet venni, hogy ez NEM prediktálás (pl.: hogy mikorra lesz a meg a Riemann-Hipotézis rendbetétele), hanem kőkeményen a jelenlegi technológiai tudások, adottságok alapján becsült százalékok. Amik azért konszenzusosabban jobbak a predikcióknál.
% A szóbekerült Nyíri Kristóf szerint is, meg mindenki szerint is nagyon el van keffentve a tudománymetria. Csodálkozunk? Irgalmatlan sok pénz, presztízs, hatalom múlik rajta. Csak úgy vonzza a csalókat. Főleg, hogy nagyon gyenge önvédelemmel rendelkezik. Analógiában a GDP is nagyon rossz mutató, de azt legalább nem hamisítják nagyüzemben. Szóval értjük, hogy az impaktfaktort, a h-indexet látványosan könnyű számolni, de a sok év alatt (stabil összevethetőség elvének tartása miatt), a valóságtól való diszkrepancia rendesen nőtt. Mást ne mondjak befigyelt 2022 késő őszén a ChatGPT v3.5.
Hiv.: @fortin2:
Kiváló felvetés, és teljesen igazad van: ha az indikátor csak új formában viszi tovább a régi logikát (hány cikk, hány pont), akkor az valóban csak kozmetika.
Van azonban tér konszenzusra: a cél nem az, hogy az AI döntsön, hanem hogy kontextust biztosítson a döntéshozóknak – hogy a peer review felelőssége ne csökkenjen, hanem támogatva legyen objektív adatokkal.
Más szóval: nem a döntést kell automatizálni, hanem az adatrengeteget kell megszelídíteni, hogy az ember felelősen dönthessen.
Hiv.: @fortin2:
* Überdurva LinkedIn poszt publikálódott pár órája (Harari-ra hivatkozva, ezért osztom meg). Eddigi termés: 636 db like, 263 komment, 95 újraposztolás, ami mutatja, hogy eléggé virális.
Aki nem akar linkre kattintani, erről a témáról van szó, ami kapcsolódik a tudománymetriás eszmecserénkhez is:
* „Az AI nem csupán munkahelyeket vált ki, hanem az emberi ítélkezést és felelősséget helyettesíti algoritmusokkal – így a valódi kérdés már nem az, melyik munkát veszi át a gép, hanem az, ki (vagy mi) irányítja a valóságunkat és dönt helyettünk.”
https://www.linkedin.com/posts/alexissakova_yuval-noah-harari-said-were-missing-the-activity-7381288112871723008-ZTPp/
Ez a téma is nagyon idevág a tudománymetria nagy topikjába, a (1) „gépek döntenek vagy emberek (pláne, ha Orbán-fazonok kiváltása kerülne szóba)” mellé másodiknak. Nem feltétlen érdemes a LinkedIn posztra kattintani. Az elv, a felvetés maga az érdekes: vagyis (2) a mérés maga célt és embert torzíthat.
* „Amikor mérni kezdünk, nemcsak láthatóvá tesszük a valóságot – át is formáljuk: a figyelem, az idő és az értékek a számokra torzulnak. A poszt arról szól, hogyan válik a mérés eszközből börtönné, és hogyan őrizhetjük meg az emberi ítélet és a nem mérhető értékek szerepét a döntésekben.”
https://www.linkedin.com/posts/wernicke_the-purpose-of-a-metric-is-to-focus-attention-activity-7387756202815905792-A1Sp/
PS: Nem fogok rendszert csinálni LinkedIn-posztok belinkeléséből, csak ez most megint tényleg nagyon idevágónak érződött bennem.
Hiv.: @tahonoli:: De hát ezt elég alaposan kimutatta már a szakirodalom, csak egy a kiváló összefoglalók közül: Trust in Numbers: The Pursuit of Objectivity in Science and Public Life is a book by Theodore Porter, published in 1995 by Princeton University Press.
Hiv.: @fortin2:
Köszönöm az ajánlást
ChatGPT-t segítsül hívva (könyv hiányában)
1.Porter szerint:
- A kvantifikáció (mérés, pontszám, statisztika, költség–haszon) nem a torzítás kiküszöbölése, hanem a bizalom pótléka. Ha a döntéshozó, szakértő, kormányzó és polgár között nincs közvetlen bizalom, akkor jön a szám, mint „semleges” legitimációs eszköz.
- A „mechanikai objektivitás” nem az igazság garanciája, hanem védelem a felelősség és gyanú ellen. A mérés tehát nem a valóság feltárása, hanem a döntés mentális és politikai kockázatának kezelése.
- Innen következik, hogy a szám maga válik hatalommá, és elkezdi meghatározni, mit tartunk „valóságnak” vagy „eredménynek”.
.
2.Az AI-korszak nem megoldotta, hanem automatizálta és elmélyítette ezt a folyamatot. Három lényeges különbség Porterhez képest:
- A kvantifikáció „önjáróvá” vált. 1995-ben a döntés–mérés–elemzés még emberi folyamat volt (bürokraták, mérnökök, könyvvizsgálók). Ma az AI generálja a mérési dimenziókat: mi a releváns változó, mi a célfüggvény, mi a torzítás. Azaz: a mérés nem csak a valóság reprezentációja, hanem valóságteremtő mechanizmus (pl. recommendation algoritmusok, LLM-evaluációk).
- Az „objektivitás” most kódba van fagyasztva. Porter korában a mechanikai objektivitás a szabályzatban és űrlapban élt. Ma az algoritmusban, paramétertérben és loss-függvényben. Ezzel a döntési logika átláthatatlanná vált: nem tudjuk, hol keletkezik a torzítás, mert a „mérő” és a „mért” ugyanazon modellben oldódik fel.
- A bizalom új formája: „trust in models”. A „trust in numbers” helyébe a „trust in models” lépett: már nem a mérőszámoknak hiszünk, hanem az AI-nak, ami azokat előállítja. Ez a meta-Porter-i szint: az objektivitás illúziója most egy szimulációba költözött. A bizalom hiánya tehát nem tűnt el — csak „mélyebbre” került, és technikailag újra csomagolódott.
Jaj
https://mandiner.hu/belfold/2025/10/a-magyar-tudomanyos-akademia-serto-megjelolessel-utalt-kariko-katalinra-belulrol-mar-nem-lehet-megreformalni-az-mta-t
Hiv.: @gq8vtm:
Beküldtem a ChatGPT-be a 6 db érintett dokumentumot (Lentner I-II, Freund Tamás, Nyíri Kristóf, Akadémikusok publikációs teljesítménye 10 oldalas MTA-tanulmányt, Lentner-Mandineres betűhányást). Tételesen felrajzolja és véleményezi a frontvonalakat egy táblázatban. Végül az alábbi konklúziót vonja le:
Összegzés:
* Lentner Csaba jogosan hívja fel a figyelmet az elszámoltathatóság, mérhetőség és teljesítmény-kultúra hiányára, de tudománypolitikai javaslatai politizáltak és leegyszerűsítettek.
* Az MTA válasza rendszertanilag, jogilag és nemzetközi normák szerint megalapozottabb,
bár kommunikációja túl defenzív, és kevéssé képes a közbizalom visszaszerzésére.
* A legnagyobb hiány továbbra is: a közös reformnyelv – teljesítmény vs autonómia között nincs konszenzus.
.
PS: Professzor, doktor Lentner sértődés-generálta célraorientált manipulatív hülyeségeinek vesézésére nem elég a kommentbox keretei (ha jól sejtem), ezt a magam részéről elengedném.
Magyarország tudományos élete számomra két rettenetes arcát mutatta meg az elmúlt percekben. Mindkét téma szívemnek nagyon kedves, ezért is fájdalmas a dolog.
Alpha Arena benchmark (FB-AI Hírek csopiból)
Az AI modellek 10 ezer dolláros kezdőtőkével kereskednek kriptovalutákkal
2025-10-17-től 11-04-ig, Live.
.
A jelenlegi pillanatnyi hozamtermelési állás csökkenő sorrendben
* a DeepSeek Chat V3.1: 81%
* a Qwen 3 Max: 37%
* Claude Sonnet 4.5: -0,5%
* Grok 4: -15%
* GPT-5: -69%
* Gemini 2.5 Pro: -70%
Leaderboard: https://nof1.ai/
.
Látható, hogy a két kínai LLM bucira veri a nyugati LLM-eket.
Kérdés: Kína megnyerte a geopolitikai motívációjú AI-versenyt, vagy elég „csak” pánikolnia az OpenAI-nak? 😉
Gary Marcus – 560 db like-ot termelő – vicce:
Two AI investors are walking in a forest when they come across a pile of shit.
The first AI investor says to the other „I’ll pay you $100 to eat that pile of shit.”
The second AI investor takes the $100 and eats the pile of shit.
They continue walking until they come across a second pile of shit.
The second AI investor turns to the first and says „I’ll pay you $100 to eat that pile of shit.”
The first AI investor takes the $100 and eats the pile of shit.
Walking a little more, the first AI investor looks at the second and says, „You know, I gave you $100 to eat shit, then you gave me back the same $100 to eat shit, I can’t help but feel like we both just ate shit for nothing.”
„That’s not true” responded the second Ai investor. „We increased our stock price’s value by $20 billion.”
https://www.linkedin.com/posts/gary-marcus-b6384b4_overheard-two-ai-investors-are-walking-activity-7389368091346059264-kpQD/
Robog az AI-expressz.
Egy 42 éve nyitott matek problémát oldott meg két Amerikás kínai matematikus a ChatGPT segítségével.
Az ugye megvan, hogy ez már szimplán nem IMO-feladat szintje? Nem egész 1 éve, még szkeptikusok voltak a matematikusok, hogy az LLM-ek komoly matekos munkára foghatók-e, ami túl van az egyetemi diákok „szimpla” izzasztásán.
Az persze kérdés, hogy mennyire nehéz a most megoldott probléma. Az viszont érdekes, hogy a cikk 25-35%-ra teszi a ChatGPT érdemeinek arányát a HITL-bizonyításban.
.
Point Convergence of Nesterov’s Accelerated Gradient Method: An AI-Assisted Proof
https://arxiv.org/html/2510.23513v1
Nem emlékszem, hogy lesokkolt arxiv-cikk valaha is. Egészen máig.
A lenti cikkben matematikailag bizonyítják, hogy a decoder-only Transformer architektúrák (mint a GPT, Claude, Mistral, Llama, stb; szemben pl.: a BERT-tel) szinte biztosan injektívek, azaz két különböző bemenet gyakorlatilag soha nem ad ugyanazt a belső reprezentációt. Ez a tulajdonság fennmarad tréning közben is. Basky, nagyon súlyos, felfoghatatlan, felülbecsülhetetlen impact.
Empirikusan 5 milliárd páros összehasonlítást végeztek több modellen, és nem találtak ütközést. Ebből a cikk szerzői levonják azt az ultrabrutál nagyon durva konklúziót, hogy az LLM-ek strukturálisan veszteségmentesek, és minden belső állapot egyedi az adott inputra nézve. Lehet végiggondolni, hogy mit jelent mindez pl.:
1.Szerzői jog
2.Enterprise grade RAG ügyféladatok privacy (+hackelés és társai)
3.LLM-ek még messzebb kerültek a megértéstől, a groundingot is újrakeretezve (csak információ-megőrzésről van szó csupán).
4. De van jó hír is: visszafele is lehet majd kontextust értelmezni hosszú távon.
.
Language Models are Injective and Hence Invertible
https://www.arxiv.org/abs/2510.15511
@tahonoli:: ezt (a következményeket) kifejtenéd kicsit részletesebben? – Csak mintha egy ötéveshez beszélnél, mert az AI-témát illetően (sajnos) ténylegesen elmondható, hogy egy ötéves ismeretszintjén mozgok.
Hiv.: @labrys:
Sokkal autentikusabb személy lenne a bloggazda, a kérdés rendes megválaszolásához, de azt el tudom mondani, hogy nekem hogy jön le (jól-rosszul).
.
* Amikor van egy matematikai probléma/feladat, akkor annak minimum két része van:
(1) van a matematikai gondolat, az ötlet része és
(2) van a meló része.
Kezdjük az utóbbival.
.
* Egy átlagos arxiv cikk 10-nél több, 30 oldalnál kevesebb szokott lenni, ahogy én tapasztaltam. Túl kevés nem lehet, mert el sem lehet mondani a sztorit, túl sok meg azért nem lehet, mert az impactfactoroknak sokszor jobbat tesz több kicsi cikk. Na most Andrew Wiles, amikor bizonyította Fermat Last Theorem-ját, azt 129 oldalban tette meg, ahol minden leírt betű mögött iszonyat meló volt, nem volt tér offtopik témákról lazázni. És ez csak az AI előtti kézi verzió.
* A legutóbbi Gauss Agentes string Number Theory 25.000 Lean kódsoros formalizálás 1.100 definició+tételt tartalmazott, mégha kézzel, tömörebben megvolt a bizonyítás kevesebb oldalon, ~100 évvel korábbról.
* Érdekességek, amit érdemes szem előtt tartani, hogy
1. HOTL volt a Lean-formalizálás, azaz emberi kéz érintése nélkül, a gép csinálta, egyébként pár hét alatt.
2. 100% LLM-alapon (igen, ostoba, buta hallucináló LLM-eken). Ami valamennyire Gary Marcust is mellbeverhette, főleg a gyorsasága meg kevesebb, mint 3 éven belül a ChatGPT v3.5 release-hez képest.
3. Közel 0-ról épített fel Gauss Agent egy szükséges analízis könyvtárat, amit Terence Tao egyedül nem akart bevállalni. A 25.000 vadiúj Lean kódsor szépen hízlalta a már meglévő közel 2 millió kódsoros Lean Mathlib-et.
Kb. ennyit mondanék elsősorban a modern matek melórészéről, első körben.
.
* Na most, amikor Nemzetközi Matematikai Diákolimpia van, akkor az ottani feladatoknak két fontos jellemzője van a témában:
(1) Konstruált+zárt megoldású feladatok vannak. A feladatgyártók teljesen pontoan, precízen, előre tudják a megoldást. Korrekt verseny érdekében nem is lehet másképpen.
(2) De az előzőn túl ráadásul arra fókuszálnak, hogy az ötlet, az idea legyen nehéz csak, az szórja a versenyzőket, ne pedig a melórész aprómunkája. Hogy a megoldás nagyon kevés betűvel is leírható legyen. Inkább legyen több és nehezedő feladat, mint 1 nagy feladat.
.
A mostani hír, amiről beszélünk nem HOTL, hanem HITL (vagyis ember és AI együtt dolgozik rajta). A szerző matematikusok becslése alapján a ChatGPT hozzájárulása volt 25-35%. Egyébként ez a HITL lenne a logikusabb irány matekban, ezért volt nagyon meglepő a Gauss Agent HOTL-ja.
Konkréten az alap matematikai tételnél, amennyire nekem lejött a nehézsége, az nagyságrendileg a legnehezebb IMO feladatok epszilon környezetében van, azaz én azt valószínűsítem, hogy nem nagyon izgatott senkit a bizonyítás kényszere 42 éven át, out of scope volt a matematikusoknak. Most is inkább avval durrantottak nagyot, hogy lehetett demózni a ChatGPT erejét.
Hiv.: @labrys:
„Kövekezmények?”
.
„Jósolni nagyon nehéz, különösen, a jövő-t” (Niels Bohr) Főleg hogy kevés vagyok a matekhoz, mint hóemberben a vérkeringés.
.
Én arra számítok, hogy
* gyorsulóan bepörög a Lean-es Mathlib kézi és/vagy gépi fejlesztése. A 2 milliós kódsornál nem fog megállni a sztori.
* Lesz egy nagyon jelentős divergálás/diverzitás-generálás, aminek jeleit Terence Tao-nál már látjuk. Tömeges tétel-generálás (milliószámra), amik egyesével nem fognak címlapra kerülni a médiában, mint mondjuk a Riemann-hipotézis és rendbetétele.
* Arra számítok, hogy ez a fenti a matematikus-fókuszt rendesen át fogja keretezni. Hiszen a matematikusok az AI-vel együtt már jóval nagyobb problématereket fognak átlátni, átfogni tudni, mint kézzel. Ez egyébként hatással lehet az RH rendbetételének valamilyen mértékű halasztására is.
* A neuszimbolikus AI (LLM utáni következő logikus fejlesztési irány, amit Gary Marcus proponál nagyon és régóta) megvalósíthatóságát én nagyon nehéznek érzem perpillanat, dacára annak, hogy tudható a roadmap. Én a fele és duplája közé sem tudom belőni, hogy mikorra mi lesz meg belőle, ebben az iszonyat pörgésben.
* Abban viszont eléggé biztos vagyok, hogy, amint meglesz legalább a matek world modell, akkor az nagyon durván bepörgeti a matematikusokat.
Már feltéve, hogy a vén g*cik a politikában nem vágják haza a világunkat.
@tahonoli:: köszi a magyarázatot!
…Akkor, ha jól értem, hamarosan valami olyasmi várható, hogy exponenciális ütemben kezdenek növekedni (például) a matematikában olyan területek, amelyek emberileg követhetetlenek? (Vö. több millió tétel + bizonyítás etc.)
Kétlek, hogy ennek (például) a matematikusok fenemód örülnének…
Hiv.: @labrys:
Többféle reakció lehetséges erre:
1.Terence Tao – nagy és AI-val pregnánsan együttműködő matematikus – ugye lát benne fantáziát (50 társszerzővel esett neki egy ekkora kaliberű témának).
2.Informatikusoknak nem új a top-down és bottom-up iterációja.
* Egy Riemann hipotézist rendbetenni, Taonak, AI HITL-lel, top-down rész-feladatokra lebontva is nehéz pálya lehet ma még (ha érdekelné őt egyáltalán).
* Így aztán triviálisan merül fel, hogy lehetne próbálkozni alulról felfele építkezni.
* Andrew Wiles se nulláról bizonyította Fermat’s Last Theorem-jét. Kellett hozzá: Taniyama–Shimura–Weil sejtés (ma: Modularitási Tétel): „Minden félstabil elliptikus görbe felett ℚ modularis”. Ami tétel egyébként algebrai geometriát, számelméletet és topológiát (+komplex analízist, +Galois reprezentációk deformációs elméletet) kapcsol össze.
Magyarán és nagy vonalakban n-1 szintig eljutva a bizonyítás rögös útján, már ‘csak egy ugrás a Sugár’.
* Zárójelben: mondjuk Wiles 7 évet dolgozott titokban, magányban az aprócska utolsó lépésen, miután 1986-ban Ken Ribet bizonyította, hogy ha a Taniyama–Shimura sejtés minden félstabil elliptikus görbére igaz, akkor a Fermat-sejtés is igaz.
* De a lényeg az, hogy ilyan alapozás után egy ember már meg tudta ugorni az utolsó akadályt (pontosabban kettő, mert Richard Taylor segített javítani Wiles bizonyítási hibáját további 1 éven át).
* Ha egyszerűbb analógiával akarnék élni olyan lehet, mint a szintetikus adatok az LLM-traininghez. Könnyű előállítani mindkettőt, a kihívás a csak jó minőségű, perspektívát adó szintetikus adatokat és tételeket megtartani, továbbvinni.
* Szerintem azt érdemes elvinni a sztoriból, hogy egy matematikus az AI-val együtt nagyságrendileg nagyobb és/vagy nehezebb és/vagy összetettebb problémát lehet képes kezelni, még csupán LLM-ek szintjén is, mint szimplán csak kézzel, kő-papír-ollóval.
Létezik matematikai ezotéria is, minden ellenkező híreszteléssel szemben. Az alábbi 267 oldalas könyv Andrew Wilestől tök független „egyszerű” bizonyítást ad a nagy Fermat-sejtésre. Az a baj, hogy csak adna, ha nem lenne hibás. Mindenesetre érdekes kitörési kísérlet a magyar ugaron.
Szijjártó Sándor: Diophantikus egyenletek megoldhatóság-vizsgálatának analitikus módszere és a nagy Fermat-sejtés klasszikus bizonyítása
https://mek.oszk.hu/04900/04960/
2511.16072v1: mai nap 2., szintén 11/20-i, brutális erejű, – ez most arxiv – cikke, 89 oldalban.
* Ugyan az első szerző OpenAI-os, de a 14 szerző ilyen helyekről jön, mint Oxford, Cambridge, Columbia, Harvard, Berkeley stb., minimalizálandó a marketing hype potenciálját.
* Sajnos nincs tér kommentben számbavenni a HITL-eredményeket (új felfedezéseket), AI-kapacitásokat, -korlátokat, aktuálisan érvényes up-to-date-re hozott (matek) metodológiai eszköztárat.
* A konklúzió egyre inkább egyre egyértelműbb: LLM és AlphaEvolve kereső+optimalizáló típusú egyűttműködés egyre erősebb, módszertanilag megalapozottabb. Egyre nagyobb perspektívákat ad még egy „buta” LLM is, addig is míg a neuroszimbolikus ai, vagy szemantika/ontológia/tudásgráf/geometriai mezők/world model stb. fejlődése nem robbant a következő szintre, ad absurdum úgymond AGI „előtt”.
@tahonoli: a negyedik szerzőnek van egy Fields-medálja….
Hiv.: @jotunder:
Köszi az infót.
+1 Milyen kicsi a világ:
Timothy Gowers: Academic advisor: Béla Bollobás
.
PS: a nagy izgalomban lemaradt a cikk címe, ezt most pótlom.
Early science acceleration experiments with GPT-5
https://arxiv.org/html/2511.16072v1