(Kiemelt kép: Unsplash+)
Ahogy a mesterséges intelligencia rendszerek egyre nagyobb teljesítményűvé és elterjedtebbé válnak, úgy nőttek a velük kapcsolatos biztonsági kérdések is. Vizsgáljuk meg a mesterséges intelligencia biztonságának jelenlegi helyzetét 2024-ben: értékeljük a fenyegetéseket, elemezzük a sebezhetőségeket, tekintsük át az ígéretes védelmi stratégiákat, és találgassuk, mit hozhat a jövő ezen a kritikus területen.
A legfontosabb MI biztonsági fenyegetések
A mesterséges intelligenciát alkalmazó rendszerek és alkalmazások a hagyományos szoftverrendszerekhez hasonló biztonsági fenyegetésekkel szembesülnek, valamint a kifinomult intelligenciájukból adódó új és összetettebb problémákkal. A kockázatok néhány főbb kategóriája a következő:
Adatmérgezéses támadások: A hackerek manipulálhatják a gépi tanulási modellek által használt képzési adatokat, hogy rontsák a teljesítményüket, vagy veszélyes módon viselkedjenek a következtetés idején. Például egy autonóm járművet arra lehet rávenni, hogy tévesen azonosítsa a stoptáblákat, ha a tárgyfelismerő modelljét veszélyeztetik.
Modellkivonási támadások: A támadók megkísérelhetnek saját MI-modelleket ellopni a modell API-kon keresztül vagy a modell viselkedésének szondázásával. Ha a modelleket egyszer már kinyerték, a modelleket visszafejthetik, sebezhetőségek után kutathatnak, vagy közvetlenül felhasználhatják őket törvénytelen célokra.
Modellelkerülő támadások: A rosszindulatú bemenetek, melyeket úgy terveztek, hogy tévesen osztályozzák vagy bizonytalanságot okozzanak a modell kimeneteiben, felhasználhatók a mesterséges intelligencia rendszerek összezavarására és becsapására, hogy azok helytelenül viselkedjenek vagy rosszabbul hajtsák végre a feladatokat.
Hátsó ajtós támadások: A képzési folyamat során elhelyezett hátsó ajtók lehetővé teszik, hogy a modellek a legtöbb feltétel mellett normálisan működjenek, de bizonyos kiváltó feltételek teljesülése esetén rosszindulatú viselkedést vagy hibákat okoznak. Ezek felderítése és elhárítása nagy kihívást jelent.
Modell-inverziós támadások: Azokban az iparágakban, ahol a mesterséges intelligencia rendszerek érzékeny adatokat dolgoznak fel, a támadók a modell viselkedésének vagy kimeneteinek lekérdezésével megpróbálhatják kinyerni ezeket a személyes adatokat. Ez jelentős adatvédelmi fenyegetést jelent.
Adatmérgezés és képzési csővezeték-támadások: A támadók magát a modellképzési csővezetéket vehetik célba, beleértve a felügyelt tanuláshoz használt címkézett adathalmazokat, a szintetikus adatokat generáló rendszereket és az annotációs folyamatokat. A képzés integritásának veszélyeztetése későbbi sebezhetőségekhez vezet.
Mesterséges intelligenciával támogatott social engineering (pszichológiai manipuláció ) tevékenység: Ahogy a mesterséges intelligencia szöveg-, hang- és videógenerálási és -manipulációs képességei javulnak, úgy nő a social engineering támadások előmozdításának lehetősége. A nyelvi modellek által generált mélyhamisítások és automatizált adathalász tartalmak jól mutatják ezt a kockázatot.
A mesterséges intelligenciával működő rendszerek sebezhetőségei
A támadók által jelentett külső fenyegetések mellett az MI-rendszerek számos belső hiba miatt is sebezhetőek lehetnek:
Törékeny gépi tanulási modellek: A magas átlagos teljesítmény ellenére a mesterséges intelligencia modellek gyakran megbízhatatlan előrejelzéseket adnak ki a hatáskörükben nem elérhető adatokra, és törékenyek lehetnek a kisebb bemeneti perturbációkkal szemben. A támadók kihasználják ezt a törékenységet.
Black Box rendszer sebezhetőségek: Sok mesterséges intelligencia rendszer összetettsége miatt átláthatatlan módon viselkedik: a sebezhetőségek észrevétlenül leselkedhetnek rájuk. A modell átláthatóságának és megmagyarázhatóságának hiánya kockázatot jelent.
Váratlan mellékhatások: Az összetett célokat optimalizáló, kifinomult mesterséges intelligencia-ügynökök olyan okos módszereket találhatnak céljaik elérésére, melyeket a tervezők nem terveztek vagy nem láttak előre. Ez veszélyes vagy nem megengedett viselkedéshez vezethet.
Elszabadult visszacsatolási hurkok: Az egyre autonómabbá váló mesterséges intelligencia rendszerekben a kimenetek zárt visszacsatolási rendszerekben visszatáplálódnak a bemenetekbe. Megfelelő biztosítékok nélkül ez kontrollálatlan exponenciális növekedést eredményezhet: az MI előre nem látott, elszabadult viselkedését.
Robusztusságromlás a folyamatosan tanuló rendszerekben: A gépi tanulási modellek egyes típusai folyamatosan frissítik magukat az új adatok alapján. Az idő múlásával felhalmozódó „finom sodródás” vagy nem szándékos torzítások miatt bizonytalanná vagy más módon hiányossá válhatnak.
Függés a hibás emberi felügyelettől: A mesterséges intelligencia gyakorlati alkalmazása gyakran emberi felügyeletre támaszkodik a belső korlátok kezelése érdekében. A túlzott bizalom vagy a nem megfelelően végrehajtott emberi felügyelet sebezhetőséget jelent.
Mivel a támadók számára hatalmas pénzügyi ösztönzőkkel és a védekező oldalon valódi technológiai bizonytalanságokkal kell számolni, a támadási felület várhatóan tovább fog növekedni az MI-képességek fejlődésével párhuzamosan.
Az MI biztonsági védelmének helyzete
Az MI-rendszerek fenyegetések elleni védelmének módszerei aktív kutatási és innovációs területet jelentenek mind az akadémiai, mind a magánszektorban. Néhány figyelemre méltó kategória:
Ellenséges képzés: A gépi tanulási modelleket a képzés során szándékosan valós vagy szimulált támadásoknak teszik ki, hogy beoltják őket a fenyegetésekkel szemben. Ez jelentősen javíthatja a robusztusságot.
A modellek tulajdonságainak ellenőrzése: A formális matematikai és logikai verifikációs módszerek a mesterséges intelligencia rendszerek fontos tulajdonságait bizonyítják, biztosítva, hogy a biztonsági vagy védelmi kritériumok formálisan teljesüljenek a telepítés előtt.
Megmagyarázhatósági módszerek: A modellek viselkedésének és előrejelzéseinek magyarázatára szolgáló technikák átláthatóságot biztosítanak a döntéshozatali folyamatokba. Ez segít a védőknek a sebezhetőségek azonosításában, a gyártóknak pedig biztonságosabb rendszerek építésében.
Adatok eredetének nyomon követése: A képzési adatok származásának szigorú ellenőrzésével és naplózásával, ahogy azok az előfeldolgozási csővezetékeken keresztül haladnak, csökkenthető az adatmérgezési támadások kockázata.
Anomália-érzékelés a modellfigyeléshez: A futásidejű felügyeleti rendszerek olyan rendellenes viselkedést keresnek a modellekben, mely megkísérelt vagy sikeres támadásra utalhat. A védőket figyelmeztetik a további vizsgálatra.
Modell-vízjelek: A saját MI-modell logikába a képzés során beágyazott rejtett vízjelek lehetővé teszik a vállalatok számára, hogy az egyedi vízjelminták felismerésével azonosítsák a lopott modelleket. Ez segíti a szellemi tulajdon védelmét.
Sandbox-tesztelési környezetek: A biztonságos virtuális környezetek elszigetelik a nem tesztelt mesterséges intelligencia rendszereket, korlátozzák a valós érzékelőkhöz és működtetőkhöz való hozzáférésüket, és a valós interakció előtt megfigyelik a nemkívánatos viselkedésüket.
Formális biztonsági programok megvalósítása: Az MI-fejlesztési életciklusokra átültetett, kiforrott szoftverbiztonsági kezdeményezések az egész szervezetre kiterjedő szabványokat, legjobb gyakorlatokat és eljárásokat vezetnek be a fenntartható, hosszú távú kockázatkezelés érdekében.
Bár a védelmi technológiánk gyorsan fejlődik, a fenyegetések középtávon valószínűleg továbbra is meghaladják a védelmet. Az emberi és a technikai rendszerek általi felügyelet kombinálása a legígéretesebb út a kockázatok kezeléséhez ebben a bizonytalan időszakban.
Kormányzati MI biztonsági szabályozások
A technikai fejlődéssel párhuzamosan a mesterséges intelligencia biztonságára vonatkozó kormányzati politika és szabályozás is jelentősen fejlődött:
A mesterséges intelligencia rendszer részleteinek kötelező közzététele: A kormányok egyre inkább arra kényszerítik a vállalatokat, hogy nyíltan osszák meg a közbiztonságot érintő, érzékeny környezetben működő mesterséges intelligencia rendszerek technikai részleteit. A támogatók szerint ez lehetővé teszi az olyan kockázatok azonosítását, melyeket a vállalatok egyébként elrejtenének.
Az autonóm döntéshozatal korlátozása: Az emberi felügyeletre vonatkozó követelményeket vezettek be az olyan mesterséges intelligencia-alkalmazások esetében, melyek közvetlenül és érdemben befolyásolják az emberi életet, és nem igényelnek közbenső emberi felülvizsgálatot. A különösen kockázatos vagy érzékeny felhasználási esetekre a legszigorúbb kötelező felügyeleti szabályok vonatkoznak.
A kiberbiztonsági rendeletek mesterséges intelligenciára vonatkozó kiegészítései: Az olyan ágazatokra, mint a pénzügy és az egészségügy, már meglévő kiberbiztonsági jogszabályokra építve a szabályozók olyan irányelveket vezettek be, melyek tudatosabban összpontosítanak a mesterséges intelligenciában rejlő kockázatokra: mint például a modellkivonás vagy a kijátszási támadások. A jogsértésekért súlyos bírságokat szabnak ki.
Telepítés előtti tesztelési és ellenőrzési kötelezettségek: Mielőtt a mesterséges intelligenciát a termelési rendszerek meghatározott osztályaiban telepítenék, hosszadalmas teszteléseket és külső auditokat kell végezni, melyek (többek között) a biztonsági kockázatokat értékelik. Bár ez költséges, de megakadályozza, hogy a nem biztonságos rendszerek hatással legyenek az ügyfelekre.
Az MI-szolgáltatókra vonatkozó engedélyezési követelmények: A szabványok joghatóságonként eltérőek, de a kereskedelmi MI-szolgáltatások szolgáltatóinak gyakran bizonyítaniuk kell, hogy bizonyos biztonsági gyakorlatok, protokollok és infrastruktúrák működnek, mielőtt engedélyt kapnának. Gyakoriak az éves felülvizsgálatok.
Az eltérő prioritásokkal rendelkező frakciók közötti folyamatos viták ellenére a mesterséges intelligencia biztonságára vonatkozó szabályozási környezet egyre világosabbá és egyre szigorúbbá válik. A felelős mesterséges intelligencia bevezetéséhez a legmegbízhatóbb utat a szakpolitikai ösztönző struktúrák és a technikai megoldások kombinálása kínálja.
Az előttünk álló út
Az előző szakaszokban kiemelt veszélyek gyorsabb érlelést tesznek szükségessé, ha a mesterséges intelligenciával kapcsolatos törekvéseket felelősségteljesen kívánjuk megvalósítani. A kutatás, a bevált gyakorlatok és az irányítás terén ígéretes előrelépések történnek annak érdekében, hogy a mesterséges intelligencia biztonsága a főáramba kerüljön. Hadd vázoljuk fel az előrelépéseket három horizonton, melyek a terület rugalmas pályáját alakítják ki:
Tesztelési eszközök és infrastruktúra
A következő 2 évben drámai javulást várunk a meglévő tesztelési eszközök, a felügyeleti infrastruktúra és az irányítási szabványok terén, mivel a jelenlegi hiányosságokat módszeresen felszámoljuk:
Eszközkészletek, melyek a GuardRails, IBM Adversarial Robustness 360, Azure Defender for Cloud, Azure Defender for Cloud és az IBM Adversarial Robustness 360 segítségével a modell sebezhetőségének értékelésére szolgálnak a valós támadások ellen.
Az Oracle Sourcing and Quality Management, Tascent Traceability, ValueCAD Data DNA által lehetővé tett skálázható adatcsatornák, melyek nyomon követik a származást, minimalizálják a levezetéseket és mérik a minőséget/diverzitást.
Felhőben hosztolt együttműködési környezetek beépített ellenőrzésekkel és megfelelőségkövetéssel a titkosság és az integritás érdekében: AWS Sagemaker Clarify, Model Build SDK, Azure Machine Learning Credits.
Nyílt keretrendszerek, melyek auditálják és tanúsítják az ML megbízhatóságát az olyan szabványok alapján, mint az OMG MARS, Google Model Cards, MITRE Metrics Calculator.
Modellezés és elosztott analitika
Középtávon olyan áttöréseket várhatunk a modellezés és az elosztott analitika terén, melyek eredendően javítják a biztonsági helyzetet:
Kauzalitás alapú ML, mely javítja a modell értelmezhetőségét és kezeli a hamis korrelációkat.
Az adatvédelmet megőrző analitika a biztonságos többszereplős számítás és a hardveres enklávék révén. Kriptográfiai láncolt adatstruktúrával alátámasztott származási nyomon követés a hamisításbiztos modell IP-védelem és kockázatszámítás érdekében.
Valós idejű tanulási algoritmusok az előrejelzési bizonytalanság szigorúbb biztosításával.
Átlátható mesterséges intelligencia
Az átható mesterséges intelligencia olyan fejlesztéseket igényel, melyek a tervezéstől kezdve az anyagoktól az algoritmusokig bizalmat biztosítanak:
Ultra biztonságos felhő- és kvantumhardverek, melyek elszigetelik a hozzáférést és titkosítják az eszközöket.
Folyékony neurális hálózatok a támadások semlegesítésére szolgáló számítások átalakítása.
Formális ellenőrzés, amely bizonyíthatóan garantálja a modell viselkedését.
Önfelügyelt neuroszimbolikus tanulás, mely az emberi megértést utánozza. A decentralizált intelligencia korlátozza az egyetlen hibapontokat
A fenti horizontokon (az eszközautomatizálás, a számítástechnikai alapok és az irányítási keretek) elért fejlődés révén a mesterséges intelligencia biztonsága az „anarchista vadnyugatból” szigorú intézményi minőségbiztosítási diszciplínákká válik. A rendszer megbízhatósági mérőszámok idővel az autonóm járművek és az egészségügyi berendezések szintjén fognak fejlődni. Bár a peremvidékeken továbbra is fennállhatnak kockázatok, a széles körű bevezetés horizontja megfelelő óvintézkedések és felügyelet mellett biztosítottnak tűnik. Az átmeneti időszakban a legfontosabb prioritás a tudatosság növelése és az érdekeltek (technológusok, üzleti vezetők, politikai döntéshozók és felhasználók) közötti koalícióépítés, hogy a megbízható mesterséges intelligencia felé vezető legjobb gyakorlatokat szigorúan kövessék.
Az MI biztonságának jövője
Tekintettel a mesterséges intelligencia terén az utóbbi időben elért lélegzetelállító fejlődési ütemre, arra kell számítanunk, hogy a fenyegetések és a védekezés legalább a következő évtizedben rendkívül dinamikus marad. A jelenlegi tendenciákra reflektálva azonban több valószínű jövőképet is megsejthetünk:
Az átláthatóság és az elszámoltathatóság felé irányuló folyamatos nyomás: A közvélemény bizalmatlansága az átláthatatlan és rosszul értett mesterséges intelligencia rendszerekkel szemben valószínűleg arra készteti a kormányzást és a szabályozást, hogy az embereket érintő mesterséges intelligenciával kapcsolatos döntésekkel kapcsolatban nagyobb átláthatóságot, magyarázatot és elszámoltathatóságot követeljen.
A biztonság integrálása a mesterséges intelligencia fejlesztési életciklusába: A kiberbiztonság elmúlt évtizedekben bekövetkezett fejlődéséhez hasonlóan az MI biztonsága is várhatóan a kutatás, a fejlesztés, a tesztelés, a gyártás és a felügyelet szakaszaiban szisztematikusan kezelt, nem pedig utólagos szempont lesz.
Formális matematikai keretek az ellenőrzött biztonságos mesterséges intelligenciához: A matematikai logika és a formális verifikációs módszerek hatalmas ígéretet mutatnak az intelligens viselkedés bizonyítható korlátozására. Az elegáns elméleti keretek gyakorlati alkalmazásba való átültetése továbbra is kihívást jelentő, de a bizonytalanság csökkentése szempontjából alapvető fontosságú munka.
Teljes rendszerperspektívák az ML-modellek biztonságának kiegészítésére: Miközben a gépi tanulás forradalmasította a mesterséges intelligencia képességeit, a kutatók felismerik a modelleket körülvevő érzékelési, reprezentációs, következtetési és interakciós architektúrák ugyanolyan fontosságát. A holisztikus rendszerperspektívák biztonságosabb és robusztusabb rendszereket tesznek lehetővé.
A mesterséges intelligencia feldolgozására specializált hardver javíthatja a biztonságot: A kifejezetten a gépi tanulás és az MI-munkaterhelések felgyorsítására optimalizált új hardverek nemcsak a hatékonyságot növelhetik, hanem az általános célú hardverekre való támaszkodáshoz képest szigorúbb elszigetelést és biztonságot is lehetővé tesznek.
Miközben a mesterséges intelligencia fejlődésétől soha nem látott képességeket várhatunk, e lazán definiált „intelligens2 technológiák megbízható és biztonságos működésének biztosítása összetett technológiai és társadalmi kihívásokat jelent, amelyeknek nagy a tétje. A legkörültekintőbben a tudományágak (számítástechnika, mérnöki tudományok, formális logika, jog, politika, etika) közötti felelősségteljes innováció kínálja a legkörültekintőbb utat. A biztonság és az elszámoltathatóság előtérbe helyezése eredményes lesz e cél elérésében.
A védelem megerősítése
Az olyan fenyegetésektől kezdve, mint az adatmérgezés és a modellkivonás, a rendszerszintű sebezhetőségekig és a megbízhatatlan emberi felügyelettől való függőségig, a mesterséges intelligencia gyorsan fejlődő biztonsági kockázatok sokféleségével szembesül, ahogy az iparágakban felgyorsul az alkalmazása. A védelem megerősítése olyan technikai stratégiákkal, mint az ellenfélképzés, a megmagyarázhatósági módszerek, az anomália-felismerő rendszerek és a sandbox-tesztelés, a védelem megerősítése érdekében az egyre szigorúbb kormányzati irányítással és szabályozásokkal párosul. A támadó és a védelmi oldalon egyaránt tapasztalható gyors ütemű fejlődés azonban azt jelenti, hogy a bizonytalanság még egy ideig nagy lesz. Csak felelős, interdiszciplináris kutatási, fejlesztési és szakpolitikai erőfeszítésekkel dolgozhatunk azon, hogy az emberi életre jelentős hatást gyakorló területeken olyan mesterséges intelligencia technológiákat hozzunk létre, amelyek méltóak a bizalmunkhoz. Bár a fejlődés sosem egyenes vonalú, de ha ma prioritássá tesszük az MI biztonságát és elszámoltathatóságát, akkor az intelligens gépekkel biztonságosan és szinergikusan együtt élő jövő felé építhetünk.