A nagy nyelvmodellekkel (LLM) működő chatbotok annyira népszerűek, hogy egyre több robotfejlesztő cég a technológiát beintegrálta rendszerei irányításába. Egy amerikai kutatócsoport viszont kimutatta, hogy ezek a gépek száz százalékos sikerrel meghackelhetők.
A biztonsági korlátok megkerülésével, önvezető rendszerek úgy manipulálhatók, hogy gyalogosokkal ütközzenek, robotkutyák pedig bombák minél pusztítóbb felrobbantására alkalmas helyet találjanak.
Teljes siker
Az LLM-ek nagy vonalakban az autocomplete okostelefonos funkciónak a szuperturbósított változatai, amellyel két-három betű bepötyögése után a program befejezi a szót. A technológia robotikai alkalmazásainál az MI hangutasítással vezérel robotokat. A promptokat a gépet működtető kóddá fordítja.
Ezeket a robotokat hackelték meg
A Boston Dynamics Spot és a Unitree Go2 robotkutyájába, a Figure humanoidjaiba a ChatGPT-t integrálták. Rossz hír, hogy az említett kutatók rést találtak az MI-n, kiderítették, hogyan játszható ki a biztonság, és bolondítható meg úgy a rendszer, hogy nem kívánt utasításokat hajtassanak végre a robotokkal.
Az általuk fejlesztett RoboPAIR algoritmus három robottípust támadt meg a Go2-t, a Clearpath Robotics kerekes Jackal-ját és az Nvidia nyílt forrású Dolphins LLM-jével működő önvezető jármű szimulátort. A program mindhárom esetben száz százalékos sikerrátát ért el. A kutatók elmondták, hogy feltörésük nemcsak lehetséges, hanem elkeserítően könnyen is megy.
Hogyan megy a jailbreak?
A RoboPAIR szintén LLM-et használ, az támadja a robot LLM-jét. Promptot ad neki, és addig finomítja, amíg az utasítás át nem megy a célpont biztonsági szűrőin. Mivel az algoritmus rendelkezik a célrobot alkalmazásprogramozói interfészével (API) a támadó képes úgy alakítani a promptot, hogy a célpont lefuttassa a kódot.
A kutatók „bíró” LLM-mel egészítették ki. Feladata, hogy biztosítsa a támadót promptjai kivitelezhetőségéről, nem haladják-e meg a célpont fizikai kapacitását. Az esetleges környezeti akadályokról szintén a „bíró” figyelmezteti az LLM-et.
A három robot különféle nehézségi szinteket jelentett RoboPAIR számára, de mindhárommal eredményes volt. Feltört robotok különösen veszélyesek lehetnek. Erős védelem csak erős támadási opciók azonosítása után lehetséges.
Képek: Penn University