Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Meglepően könnyű feltörni nagy nyelvmodellek által irányított robotokat

MEGOSZTÁS

Egyre több robotot irányítanak nagy nyelvmodellekkel. A két technológia társítása ígéretes, viszont nem veszélytelen. A mesterségesintelligencia-rendszer könnyebben meghackelhető, mint gondolnánk.

A nagy nyelvmodellekkel (LLM) működő chatbotok annyira népszerűek, hogy egyre több robotfejlesztő cég a technológiát beintegrálta rendszerei irányításába. Egy amerikai kutatócsoport viszont kimutatta, hogy ezek a gépek száz százalékos sikerrel meghackelhetők.

A biztonsági korlátok megkerülésével, önvezető rendszerek úgy manipulálhatók, hogy gyalogosokkal ütközzenek, robotkutyák pedig bombák minél pusztítóbb felrobbantására alkalmas helyet találjanak.

Teljes siker

Az LLM-ek nagy vonalakban az autocomplete okostelefonos funkciónak a szuperturbósított változatai, amellyel két-három betű bepötyögése után a program befejezi a szót. A technológia robotikai alkalmazásainál az MI hangutasítással vezérel robotokat. A promptokat a gépet működtető kóddá fordítja.

 

Ezeket a robotokat hackelték meg

 

A Boston Dynamics Spot és a Unitree Go2 robotkutyájába, a Figure humanoidjaiba a ChatGPT-t integrálták. Rossz hír, hogy az említett kutatók rést találtak az MI-n, kiderítették, hogyan játszható ki a biztonság, és bolondítható meg úgy a rendszer, hogy nem kívánt utasításokat hajtassanak végre a robotokkal.

Az általuk fejlesztett RoboPAIR algoritmus három robottípust támadt meg a Go2-t, a Clearpath Robotics kerekes Jackal-ját és az Nvidia nyílt forrású Dolphins LLM-jével működő önvezető jármű szimulátort. A program mindhárom esetben száz százalékos sikerrátát ért el. A kutatók elmondták, hogy feltörésük nemcsak lehetséges, hanem elkeserítően könnyen is megy.

Hogyan megy a jailbreak?

A RoboPAIR szintén LLM-et használ, az támadja a robot LLM-jét. Promptot ad neki, és addig finomítja, amíg az utasítás át nem megy a célpont biztonsági szűrőin. Mivel az algoritmus rendelkezik a célrobot alkalmazásprogramozói interfészével (API) a támadó képes úgy alakítani a promptot, hogy a célpont lefuttassa a kódot.

A kutatók „bíró” LLM-mel egészítették ki. Feladata, hogy biztosítsa a támadót promptjai kivitelezhetőségéről, nem haladják-e meg a célpont fizikai kapacitását. Az esetleges környezeti akadályokról szintén a „bíró” figyelmezteti az LLM-et.

A három robot különféle nehézségi szinteket jelentett RoboPAIR számára, de mindhárommal eredményes volt. Feltört robotok különösen veszélyesek lehetnek. Erős védelem csak erős támadási opciók azonosítása után lehetséges.

 

Képek: Penn University

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!