Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Hol tart az MI szabályozása és önszabályozása?

MEGOSZTÁS

Érvénybe lépett az Európai Unió mesterségesintelligencia-törvénye. Rögös út vezetett idáig, és egyáltalán nem egyértelmű, miket is kell figyelembe venni, milyen elveket érvényesítve kell kidolgozni a szabályozást, már amennyire szükség van rá. Nyilván van, csak a mértéke nem mindegy.

(Cikkünk 2024.szeptemberében készült!)

A mesterséges intelligencia (MI) szabályozása évek óta „forró téma”. A Szilícium-völgy például utálja, ha szabályozzák, mert szerintük minden szabályozás akadályozza az innovációt. Az Egyesült Államok jelenleg a technológiai szektor jóindulatára hagyatkozik a fogyasztók káros hatásoktól való megvédésében. A nagyvállalatok viszont bármikor megváltoztathatják a politikájukat, aminek nem lesz tényleges következménye. A nem kötelező érvényű kötelezettségvállalásokat könnyű aláírni és ugyanolyan egyszerű megfeledkezni róluk.

Kérdés, hogy Joe Biden utóda milyen MI-politikát folytat majd. Ha Kamala Harris nyer novemberben, valószínűleg a mostanihoz hasonlót. Amennyiben Donald Trump, akkor változásokra számíthatunk: még kevesebb szabályozásra – eddig sincs sok, és az ország ezen a területen is tapasztalható megosztottsága miatt nem is várhatunk átfogó megoldást –, valamint a katonai MI felpörgetésére. Eleve mások a két nagy párt MI-kételyei: az egyik jobban tart az esetleges munkahelymegszűnésektől, a másik az elfogult, diszkrimináló rendszerektől. A problémákra azonban egységes megoldást kellene kitalálniuk.

Milyen elvek mentén szabályozzák világszerte a technológiát?

Ahány kultúra, ahány jogi környezet, annyiféle hozzáállás. Közmegegyezés van a potenciális károk minimalizálásáról, az előnyök maximalizálásáról, és ezeket figyelembe véve hat nagy trend érvényesül.

Alapelv az emberi jogok tiszteletben tartása, a fenntarthatóság, az átláthatóság és a megerősített kockázatkezelés.

A kockázatalapú megközelítésben a szabályozás az esetleges károkból indul ki, azoknak megfelelően dolgozzák ki azt. A rizikókat alapértékekhez viszonyítják: magánélet/személyiségi jogok védelme, megkülönböztetésmentesség, átláthatóság, biztonság és biztonságosság. A törvény „testre szabott”, azaz a megfelelési kötelezettségeknek arányban kell lenniük a kockázat mértékével. Ha nincs, vagy minimális a kockázat, akkor nincs vagy alig van kötelezettség, magas kockázat esetén viszont szigorúak a kötelezettségek.

Létezik szektorfüggetlen (vagy szektoragnosztikus) és szektorspecifikus hozzáállás: a legeredményesebb, ha az MI különféle felhasználási esetei miatt egyes jogi szabályozók szektorspecifikus törvényekkel egészítik ki az egyébként agnosztikus szabályozást.

Irányelvek összehangolása: az MI-vel kapcsolatos szabályalkotást más digitális szabályozási prioritásokkal, például a kiberbiztonsággal, az adatvédelemmel és a szellemi tulajdon védelmével hozzák összhangba. Ezen a területen az Európai Unió megközelítése a legátfogóbb. 

A szabályozók magánszektorral való együttműködése szintén fontos, hogy az ipari-üzleti szereplőkkel közösen dolgozzák ki a biztonságos és etikus MI-t előmozdító alapcélokat, illetve szorosabban felügyeljék a mesterséges intelligenciával kapcsolatos nagyobb kockázatú innovációkat.

A nemzetközi együttműködést a nagy teljesítményű új generatív és általános rendeltetésű MI-rendszerekkel kapcsolatban felmerülő alapvető biztonsági és biztonságossági kockázatok, a közös aggodalom teszi indokolttá.

A megnyugtató szabályozás további szempontjai

A sikerhez más tényezőkkel is kell számolni. Működő törvények kidolgozásához biztosítani szükséges, hogy a szabályozó hatóságoknak meglegyen a megfelelő szakértelme az irányelvek sikeres végrehajtásához, nyomon követéséhez és érvényesítéséhez.

Ha a szabályozás szándéka a magából a technológiából (például arcfelismerésből vagy természetesnyelv-feldolgozásból), a technológia használatából vagy a mindkettőből fakadó kockázatok mérséklése, akkor a jogalkotásnak nagyon egyértelműnek kell lennie.

A kidolgozáshoz figyelembe kell venni azt is, hogy a kockázatkezelési stratégiák és eljárások, valamint a megfelelés miatti felelősség mennyire vonatkozik az MI-vel kapcsolatos termékeket és szolgáltatásokat kínáló harmadik felekre.

Mindezeken túl, amennyire csak lehetséges, a döntéshozóknak többoldalú folyamatokban kell részt venniük, hogy a joghatóságok között átjárhatóvá és összehasonlíthatóvá tegyék az MI-re vonatkozó szabályokat. Így csökkenthető a túlszabályozás, nemzetek felett átívelő technológiák esetében pedig az eltérő szabályozás miatti jogi bizonytalanság.

A technológia és az alkalmazás közti különbségtétel szintén fontos szempont. Általában tévedünk, amikor egy technológia veszélyeiről beszélünk: az esetek kilencven százalékában ilyenkor nem a technológiára, hanem valamelyik alkalmazására gondolunk. Az arcfelismerés önmagában nem ártó szándékú, viszont ha mások törvénytelen megfigyelésére használjuk, akkor az. A szabályozni akarók ezekben az esetekben nemegyszer az egész technológiát tiltanák be, holott csak egyes alkalmazásokat kellene tiltólistára tenniük. Ez a megközelítés azért is veszélyes, mert hátráltatja az innovációt, gúzsba köti az alapkutatásokat. 

 

(Kép: pixabay)

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!