Az Apple a hétvégén közzétett tanulmányában azt állítja, hogy a nagyméretű érvelő modelleket (LRM) a “teljes összeomlás” fenyegeti – már, ami a pontosságot illeti. A szakértők szerint ennek lehetősége akkor lehet fenyegető az MI-modelleknél, amikor nagyon összetett problémákat kell megoldaniuk – számolt be az új megállapításokról a The Guardian.
Beletörhet a bicskájuk
A kutatásban megállapították, hogy a hagyományos MI-modellek felülmúlták az LRM-eket az alacsony komplexitású feladatokban. Azonban a magas komplexitású feladatoknál mindkét modelltípus teljesen összeomlott.
A nagyméretű érvelő modellek úgy próbálják megoldani az összetett lekérdezéseket, hogy részletes gondolkodási folyamatokat generálnak. Ezek a problémát kisebb lépésekre bontják.
Az Apple kutatói a modellek rejtvénymegoldó képességét vizsgálva megállapították: ahogy az LRM-ek közeledtek a teljesítmény-összeomláshoz, elkezdték csökkenteni érvelési erőfeszítéseiket.
Versenyfutás AGI-ért
Gary Marcus amerikai akadémikus, az MI-modellek képességeivel kapcsolatos óvatosság egyik prominens hangadója szerint a tanulmány meglehetősen lehangoló.
Substack-hírlevelében Marcus hozzátette, hogy az eredmények kérdéseket vetnek fel a mesterséges általános intelligencia (AGI) felé tartó versenyfutással kapcsolatban. Ez a mesterséges intelligencia azon elméleti fázisa, amelyben a rendszer képes felvenni a versenyt az emberrel bármilyen szellemi feladat elvégzésében.
A nagy nyelvi modellekről [LLM] szólva Marcus azt írta: “Ha bárki azt hiszi, hogy az LLM-ek közvetlen utat jelentenek az AGI-hez, amely alapjaiban a jó irányba tereli a társadalmat, csak áltatja magát.”
Az Apple tanulmánya szerint az érvelő modellek számítási teljesítményt pazaroltak azzal, hogy egyszerűbb problémákra már a “gondolkodás” korai szakaszában megtalálták a megfelelő megoldást.
Ahogy azonban a problémák kissé összetettebbé váltak, a modellek először a helytelen megoldásokat kutatták, és csak később jutottak el a helyes megoldásokhoz.
A kritikus küszöbérték az MI-modelleknél
Nagyobb komplexitású problémák esetén azonban a modellek „összeomlottak”, és nem tudtak helyes megoldásokat generálni. Egy esetben a modellek még akkor is kudarcot vallottak, amikor olyan algoritmust kaptak, amely megoldotta volna a problémát.
A tanulmány szerint egy kritikus küszöbértékhez közeledve, amely megfelel a pontosságuk összeomlási pontjának, a modellek a probléma növekvő nehézsége ellenére ellentmondásos módon csökkenteni kezdik érvelési erőfeszítéseiket.
Az Apple szakértői szerint ez alapvető skálázási korlátot jelez a jelenlegi következtetési modellek gondolkodási képességeiben.
A kutatók arra a következtetésre jutottak, hogy az MI jelenlegi megközelítése elérhette korlátait. A szakértők olyan modelleket teszteltek, mint az OpenAI o3, a Google Gemini Thinking, az Anthropic Claude 3.7 Sonnet-Thinking és a DeepSeek-R1.
Andrew Rogoyski, a Surrey Egyetem emberközpontú MI-vel foglalkozó munkatársa szerint az iparág “még mindig csak tapogatózik” az AGI-vel kapcsolatban. Erre mutatott rá az Apple tanulmánya is. Az iparág jelenlegi megközelítésével “zsákutcába” juthatott.