Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Alapvető problémát találtak az MI-modelleknél az Apple kutatói

Az Apple kutatói "alapvető korlátokat" azonosítottak a legmodernebb mesterséges intelligencia-modellekben. A szakértők tanulmányukban kétségeket fogalmaznak meg az tegyre erősebb rendszerek kifejlesztéséért folytatott versenyről.

Az Apple a hétvégén közzétett tanulmányában azt állítja, hogy a nagyméretű érvelő modelleket (LRM)  a “teljes összeomlás” fenyegeti – már, ami a pontosságot illeti. A szakértők szerint ennek lehetősége akkor lehet fenyegető az MI-modelleknél, amikor nagyon összetett problémákat kell megoldaniuk – számolt be az új megállapításokról a The Guardian.

Beletörhet a bicskájuk

A kutatásban megállapították, hogy a hagyományos MI-modellek felülmúlták az LRM-eket az alacsony komplexitású feladatokban. Azonban a magas komplexitású feladatoknál mindkét modelltípus teljesen összeomlott.

A nagyméretű érvelő modellek úgy próbálják megoldani az összetett lekérdezéseket, hogy részletes gondolkodási folyamatokat generálnak. Ezek a problémát kisebb lépésekre bontják.

Az Apple kutatói a modellek rejtvénymegoldó képességét vizsgálva megállapították: ahogy az LRM-ek közeledtek a teljesítmény-összeomláshoz, elkezdték csökkenteni érvelési erőfeszítéseiket.

Versenyfutás AGI-ért

Gary Marcus amerikai akadémikus, az MI-modellek képességeivel kapcsolatos óvatosság egyik prominens hangadója szerint a tanulmány meglehetősen lehangoló.

Substack-hírlevelében Marcus hozzátette, hogy az eredmények kérdéseket vetnek fel a mesterséges általános intelligencia (AGI) felé tartó versenyfutással kapcsolatban. Ez a mesterséges intelligencia azon elméleti fázisa, amelyben a rendszer képes felvenni a versenyt az emberrel bármilyen szellemi feladat elvégzésében.

A nagy nyelvi modellekről [LLM] szólva Marcus azt írta: “Ha bárki azt hiszi, hogy az LLM-ek közvetlen utat jelentenek az AGI-hez, amely alapjaiban a jó irányba tereli a társadalmat, csak áltatja magát.”

Az Apple tanulmánya szerint az érvelő modellek számítási teljesítményt pazaroltak azzal, hogy egyszerűbb problémákra már a “gondolkodás” korai szakaszában megtalálták a megfelelő megoldást. 

Ahogy azonban a problémák kissé összetettebbé váltak, a modellek először a helytelen megoldásokat kutatták, és csak később jutottak el a helyes megoldásokhoz.

A kritikus küszöbérték az MI-modelleknél

Nagyobb komplexitású problémák esetén azonban a modellek „összeomlottak”, és nem tudtak helyes megoldásokat generálni. Egy esetben a modellek még akkor is kudarcot vallottak, amikor olyan algoritmust kaptak, amely megoldotta volna a problémát.

A tanulmány szerint egy kritikus küszöbértékhez közeledve, amely megfelel a pontosságuk összeomlási pontjának, a modellek a probléma növekvő nehézsége ellenére ellentmondásos módon csökkenteni kezdik érvelési erőfeszítéseiket.

Az Apple szakértői szerint ez alapvető skálázási korlátot jelez a jelenlegi következtetési modellek gondolkodási képességeiben.

A kutatók arra a következtetésre jutottak, hogy az MI jelenlegi megközelítése elérhette korlátait. A szakértők olyan modelleket teszteltek, mint az OpenAI o3, a Google Gemini Thinking, az Anthropic Claude 3.7 Sonnet-Thinking és a DeepSeek-R1.

Andrew Rogoyski, a Surrey Egyetem emberközpontú MI-vel foglalkozó munkatársa szerint az iparág “még mindig csak tapogatózik” az AGI-vel kapcsolatban. Erre mutatott rá az Apple tanulmánya is. Az iparág jelenlegi megközelítésével “zsákutcába” juthatott.

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!