A mesterséges intelligencia-modellek nemcsak túl erőssé válnak, hanem veszélyesen könnyen feltörhetők is – jelentette ki a Google egykori vezérigazgatója. Eric Schmidt egy, a közelmúltban rendezett konferencián a kockázatokat az atombombákhoz hasonlította.
Új jailbreak manipulálja a nagy nyelvi modelleket
Megjelent egy új jailbreak, amely aláássa több fejlett nagy nyelvi modell (LLM) biztonsági mechanizmusait. Az Echo Chamber Attack technikát a Neural Trust biztonsági platform kutatója fedezett fel.
Érdemes lesz vigyázni az MI-jailbreakkel
Kutatók szerint a feltört MI-chatbotok veszélyes tudást tehetnek könnyen hozzáférhetővé. Ennek oka, hogy a programok a képzés során elsajátított, de egyébként tiltott információkat adnak ki. Egy izraeli tanulmány a sötét LLM-ek veszélyeire hívja fel a figyelmet.