A “bomlasztó fenyegetésre” figyelmeztet a szólásszabadságért küzdő, Nobel-békedíjas aktivista Maria Ressa, valamint a Berkeley, a Harvard, az Oxford, a Cambridge és a Yale vezető MI- és társadalomtudományi kutatói.
Rosszindulatú rajok állnak lesben
A konzorcium szerint a rosszindulatú MI-rajok nehezen észlelhetők, és hamarosan ellephetik a közösségi médiát és az üzenetküldő csatornákat.
A szakértők szerint egy leendő autokrata ilyen rajokat használhatna arra, hogy rávegye a lakosságot az elhalasztott választások elfogadására.
Vagy akár éppen az eredmények megkérdőjelezésére, különösen annak fényében, hogy a technológia előreláthatóan már a 2028-as amerikai elnökválasztás idejére tömegesen bevethető lesz.
A kutatók szerint a globálisan összehangolt fellépést sürgetnek a kockázatok kezelésére, többek között „raj-szkennerek” és vízjellel ellátott tartalmak bevezetését az MI által vezérelt dezinformációs kampányok ellensúlyozására.
Nem először alkalmazzák
Az MI-alapú befolyásolási műveletek korai változatait már a 2024-es választások során is alkalmazták Tajvanon, Indiában és Indonéziában.
“Egy új, bomlasztó fenyegetés van kialakulóban: együttműködő, rosszindulatú MI-ügynökök rajai” – idézi a szerzőket a The Guardian.
Ezek a rendszerek képesek autonóm módon koordinálni tevékenységüket, közösségekbe beépülni, és hatékonyan hamis konszenzust létrehozni. Az emberi társas dinamikák alkalmazkodó utánzásával veszélyt jelentenek a demokráciára.
Inga Trauthig, a propagandatechnológiák egyik vezető szakértője szerint az ilyen fejlett technológiák elterjedését lassíthatja, hogy a politikusok vonakodnak átadni a kampányok irányítását az MI-nek.
A szkepticizmus másik oka az a félelem, hogy az illegális módszerek alkalmazása nem éri meg a kockázatot. A választókat továbbra is erősebben befolyásolják az offline csatornák.
A beépült közvélemény
A szerzők szerint a politikai vezetők szinte korlátlanul vethetik be az MI-t, amely embernek álcázva magát hatolna be online közösségekbe. Idővel feltérképezné azok gyenge pontjait, majd egyre meggyőzőbb, célzott hazugságokkal formálná a közvéleményt.
A fenyegetést tovább erősítik az MI-k azon képességeinek fejlődései, amelyek lehetővé teszik a diskurzus hangnemének és tartalmának finom érzékelését.
Egyre jobban képesek utánozni az emberi viselkedést – például megfelelő szleng használatával vagy szabálytalan posztolással, hogy elkerüljék a lebukást.
Az ügynöki MI fejlődése pedig azt is jelenti, hogy ezek a rendszerek autonóm módon képesek tervezni és összehangolni cselekvéseiket.
A közösségi médián túl üzenetküldő alkalmazásokat is használhatnak, sőt blogokat írhatnak vagy e-maileket küldhetnek, attól függően, hogy az MI mely csatornát tartja a cél eléréséhez a leghatékonyabbnak – mondta Daniel Thilo Schroeder, a norvégiai oslói Sintef kutatóintézet tudományos munkatársa, a tanulmány egyik szerzője.
„Egyszerűen félelmetes, milyen könnyű ma már ezekkel a rendszerekkel ’vibe-kódolni’, és kisebb bot-hadseregeket létrehozni, amelyek ténylegesen képesek eligazodni az online közösségi platformokon, az e-mailben és más eszközökön” – mondta Schroeder, aki laboratóriumi körülmények között szimulálja az MI-rajokat.
Rengeteg ellenőrizhetetlen információ
Jonas Kunst, a BI Norwegian Business School kommunikáció-professzora szerint ha ezek a botok kollektívává kezdenek fejlődni, és információt cserélnek egy probléma megoldása érdekében – jelen esetben egy rosszindulatú cél, vagyis egy közösség elemzése és gyenge pontjainak feltárása –, akkor az együttműködés jelentősen növeli a pontosságukat és hatékonyságukat.
Ez egy rendkívül komoly fenyegetés, amelyről úgy gondoljuk, hogy meg fog valósulni.
Politikai témájú beszélgetések során az MI-k hajlamosak rengeteg, ellenőrizhetetlen információt közölni, ami információs túlterhelést okoz.
Miközben egyre több jel utal arra, hogy az MI-technológia fejlődése nem olyan gyors, mint ahogyan azt a Szilícium-völgyi cégek – például az OpenAI vagy az Anthropic – állítják, a Guardian független MI-szakértőket kért fel a „rajfenyegetés” értékelésére.
(Kép: freekpik)