Egy új tanulmány szerint a világ legnagyobb MI-cégei nem teljesítik saját biztonsági vállalásaikat. A Future of Life Institute (FLI) arra figyelmeztet, hogy ezek a hiányosságok “katasztrofális” kockázatokkal járnak.
Életveszélyes tanácsadás
A jelentés kontextusához szervesen hozzátartoznak az elmúlt időszak peres eljárásai, amelyeket MI-fejlesztők ellen indítottak. A tech-cégek komoly vádakkal szembesülnek a chatbotok pszichológiai károkozása miatt.
Többek között azért, mert a modellek “öngyilkossági tanácsadóként” működtek, de azért is, mert az MI által támogatott kibertámadások száma folyamatosan nő.
Az FLI idei MI-biztonsági indexe nyolc nagy MI-cég vizsgálatának eredményeit összegzi. A kutatás során az amerikai Anthropicot, OpenAI-t, Google DeepMindet, xAI-t és Metát, valamint a kínai DeepSeeket, Alibaba Cloudot és Z.ai-t vették górcső alá.
A tanulmány szerint nincs hiteles stratégia arra, hogyan lehetne megelőzni az MI-eszközök katasztrofális visszaélését. Ahogy arra sincsenek életképes tervek, miként vehetnék elejét az irányítás elvesztésének.
Terv sincs a kontrollra
Mindeközben a vállalatok öldöklő versenyben vannak az általános mesterséges intelligencia (AGI) és a szuperintelligencia fejlesztése terén.
Az FLI független elemzői szerint egyetlen cég sem mutatott be olyan, tesztelhető tervet, amely biztosítaná az emberi kontroll fenntartását a nagy képességű MI-rendszerek felett.
Stuart Russell, a Kaliforniai Egyetem (Berkeley) professzora szerint az MI-fejlesztők azt állítják, képesek szuperintelligens MI-t építeni. Azt ugyanakkor egyikük sem mutatta be, hogyan előznék meg az emberi irányítás elvesztését.
“Bizonyítékot keresek arra, hogy képesek csökkenteni a kontroll elvesztésének kockázatát” – írta Russell.
Ehelyett a cégek lényegében elismerik, hogy a kockázat akár egy a tízhez is lehet, de se igazolni, se csökkenteni nem tudják.
A hat kritikus pont
A tanulmány hat kritikus területen mérte a vállalatokat: kockázatértékelés, jelenlegi károkozás, biztonsági keretrendszerek, egzisztenciális biztonság, irányítás és elszámoltathatóság, valamint információ-megosztás.
Noha néhány kategóriában történt előrelépés, a független szakértői panel megállapította, hogy a gyakorlat sok esetben következetlen. Sőt, nem éri el a megjelenő globális szabványok által megkövetelt mélységet.
Az Anthropic, az OpenAI és a Google DeepMind dicséretet kapott a viszonylag erős átláthatóságért. Ugyanakkor az Anthropic számos kritikát kapott amiatt, hogy leállította az “emberi képességek fejlesztésére” irányuló kísérleteit, és alapértelmezetten a felhasználói interakciókra épülő tanításra váltott – ami szakértők szerint gyengíti az adatvédelmet.
“Szigorú és tudományos”
Az OpenAI-t az egyértelmű biztonsági küszöbértékek hiánya, az állami szintű MI-biztonsági szabályozások elleni lobbitevékenység, valamint az elégtelen független felügyelet miatt bírálták.
A Google DeepMind javította a saját biztonsági keretrendszerét – áll a jelentésben. Azonban továbbra is olyan külső értékelőkre támaszkodik, akik a vállalat pénzügyi kompenzációjában részesülnek, ami megkérdőjelezheti függetlenségüket.
A DeepMind szóvivője a Euronews Nextnek azt mondta, a vállalat “szigorú, tudományos alapú megközelítést” alkalmaz az MI-biztonságban.
Mindhárom élen járó vállalatnál történtek “károkozások”. A jelentés szerint pszichológiai károk, öngyilkosságok, hekkertámadások egyaránt történtek.
Egy lépés előre
A fennmaradó öt vállalat egyenetlen, de figyelemre méltó előrelépést mutatott – áll a jelentésben.
Például az xAI először publikált strukturált biztonsági keretrendszert, ám a kutatók szerint ez szűk fókuszú volt, és nem tartalmazott világos kockázatcsökkentési mechanizmusokat.
A Z.ai volt az egyetlen, amely engedélyezte a külső biztonsági értékelések cenzúrázatlan közzétételét.
Azonban javasolták, hogy tegye közzé a teljes biztonsági keretrendszert és irányítási struktúrát, benne világos kockázati területekkel, enyhítő lépésekkel és döntési folyamattal.
Homályos módszertan
A Meta új, eredményalapú küszöbértékeket tartalmazó Frontier Safety Frameworköt vezetett be, de a felülvizsgálók szerint tisztázni kell a módszertant. Emellett meg kell osztani az erősebb belső és külső értékelési eljárásokat.
A DeepSeek elismerést kapott az alkalmazottak belső érdekvédelméért, de még mindig hiányzik az alapvető biztonsági dokumentáció.
Az Alibaba Cloud hozzájárult a kötelező nemzeti vízjelezési szabványok kidolgozásához, de javítania kellene a modellek robusztusságát és megbízhatóságát. Különösen a valósághűség, méltányosság és biztonsági tesztek terén.