(Cikkünk 2024.szeptemberében készült!)
A mesterséges intelligencia (MI) szabályozása évek óta „forró téma”. A Szilícium-völgy például utálja, ha szabályozzák, mert szerintük minden szabályozás akadályozza az innovációt. Az Egyesült Államok jelenleg a technológiai szektor jóindulatára hagyatkozik a fogyasztók káros hatásoktól való megvédésében. A nagyvállalatok viszont bármikor megváltoztathatják a politikájukat, aminek nem lesz tényleges következménye. A nem kötelező érvényű kötelezettségvállalásokat könnyű aláírni és ugyanolyan egyszerű megfeledkezni róluk.
Kérdés, hogy Joe Biden utóda milyen MI-politikát folytat majd. Ha Kamala Harris nyer novemberben, valószínűleg a mostanihoz hasonlót. Amennyiben Donald Trump, akkor változásokra számíthatunk: még kevesebb szabályozásra – eddig sincs sok, és az ország ezen a területen is tapasztalható megosztottsága miatt nem is várhatunk átfogó megoldást –, valamint a katonai MI felpörgetésére. Eleve mások a két nagy párt MI-kételyei: az egyik jobban tart az esetleges munkahelymegszűnésektől, a másik az elfogult, diszkrimináló rendszerektől. A problémákra azonban egységes megoldást kellene kitalálniuk.
Milyen elvek mentén szabályozzák világszerte a technológiát?
Ahány kultúra, ahány jogi környezet, annyiféle hozzáállás. Közmegegyezés van a potenciális károk minimalizálásáról, az előnyök maximalizálásáról, és ezeket figyelembe véve hat nagy trend érvényesül.
Alapelv az emberi jogok tiszteletben tartása, a fenntarthatóság, az átláthatóság és a megerősített kockázatkezelés.
A kockázatalapú megközelítésben a szabályozás az esetleges károkból indul ki, azoknak megfelelően dolgozzák ki azt. A rizikókat alapértékekhez viszonyítják: magánélet/személyiségi jogok védelme, megkülönböztetésmentesség, átláthatóság, biztonság és biztonságosság. A törvény „testre szabott”, azaz a megfelelési kötelezettségeknek arányban kell lenniük a kockázat mértékével. Ha nincs, vagy minimális a kockázat, akkor nincs vagy alig van kötelezettség, magas kockázat esetén viszont szigorúak a kötelezettségek.
Létezik szektorfüggetlen (vagy szektoragnosztikus) és szektorspecifikus hozzáállás: a legeredményesebb, ha az MI különféle felhasználási esetei miatt egyes jogi szabályozók szektorspecifikus törvényekkel egészítik ki az egyébként agnosztikus szabályozást.
Irányelvek összehangolása: az MI-vel kapcsolatos szabályalkotást más digitális szabályozási prioritásokkal, például a kiberbiztonsággal, az adatvédelemmel és a szellemi tulajdon védelmével hozzák összhangba. Ezen a területen az Európai Unió megközelítése a legátfogóbb.
A szabályozók magánszektorral való együttműködése szintén fontos, hogy az ipari-üzleti szereplőkkel közösen dolgozzák ki a biztonságos és etikus MI-t előmozdító alapcélokat, illetve szorosabban felügyeljék a mesterséges intelligenciával kapcsolatos nagyobb kockázatú innovációkat.
A nemzetközi együttműködést a nagy teljesítményű új generatív és általános rendeltetésű MI-rendszerekkel kapcsolatban felmerülő alapvető biztonsági és biztonságossági kockázatok, a közös aggodalom teszi indokolttá.
A megnyugtató szabályozás további szempontjai
A sikerhez más tényezőkkel is kell számolni. Működő törvények kidolgozásához biztosítani szükséges, hogy a szabályozó hatóságoknak meglegyen a megfelelő szakértelme az irányelvek sikeres végrehajtásához, nyomon követéséhez és érvényesítéséhez.
Ha a szabályozás szándéka a magából a technológiából (például arcfelismerésből vagy természetesnyelv-feldolgozásból), a technológia használatából vagy a mindkettőből fakadó kockázatok mérséklése, akkor a jogalkotásnak nagyon egyértelműnek kell lennie.
A kidolgozáshoz figyelembe kell venni azt is, hogy a kockázatkezelési stratégiák és eljárások, valamint a megfelelés miatti felelősség mennyire vonatkozik az MI-vel kapcsolatos termékeket és szolgáltatásokat kínáló harmadik felekre.
Mindezeken túl, amennyire csak lehetséges, a döntéshozóknak többoldalú folyamatokban kell részt venniük, hogy a joghatóságok között átjárhatóvá és összehasonlíthatóvá tegyék az MI-re vonatkozó szabályokat. Így csökkenthető a túlszabályozás, nemzetek felett átívelő technológiák esetében pedig az eltérő szabályozás miatti jogi bizonytalanság.
A technológia és az alkalmazás közti különbségtétel szintén fontos szempont. Általában tévedünk, amikor egy technológia veszélyeiről beszélünk: az esetek kilencven százalékában ilyenkor nem a technológiára, hanem valamelyik alkalmazására gondolunk. Az arcfelismerés önmagában nem ártó szándékú, viszont ha mások törvénytelen megfigyelésére használjuk, akkor az. A szabályozni akarók ezekben az esetekben nemegyszer az egész technológiát tiltanák be, holott csak egyes alkalmazásokat kellene tiltólistára tenniük. Ez a megközelítés azért is veszélyes, mert hátráltatja az innovációt, gúzsba köti az alapkutatásokat.
(Kép: pixabay)