Az Európai Unió hivatalos lapjában 2024.07.12-én megjelent az AI Act, amely az első átfogó szabályozás az EU-ban a mesterséges intelligencia rendszerek területén. Az új rendelet célja, hogy biztonságosabbá és átláthatóbbá tegye az AI rendszerek használatát, és jelentős változásokat hoz mind a fejlesztők, mind a felhasználók számára.
Az AI Act nagy része csak két év múlva, 2026. augusztus 2-án lép hatályba, de néhány kulcsfontosságú rész már jövő év elejétől, 2025. február 2-től alkalmazandó lesz. Ilyen, viszonylag rövid időn belül alkalmazandó rendelkezések a tiltott AI rendszerekre vonatkozó szabályok.
Kire vonatkozik az AI Act?
Az AI Act széleskörű kötelezettségeket ír elő az AI rendszerek fejlesztői, forgalmazói, importőrei és használói számára. Az új szabályozás mindenkit érint az AI területén, legyen szó startupokról, multinacionális cégekről vagy állami intézményekről.
Azonban a kötelezettségek mértéke és az adminisztrációs terhek különböző szintűek attól függően, hogy a szolgáltatási értéklánc mely pontján helyezkedik el az adott szereplő. A legfontosabb és összetettebb előírások az AI rendszert fejlesztő vagy azt piacra dobó AI szolgáltatókat terhelik, de állapít meg az AI Act kötelezettségeket azokra nézve is, akik magas kockázatú AI rendszereket alkalmaznak.
Az AI-t alkalmazók azok a természetes vagy jogi személyek, közigazgatási szervek, ügynökségek vagy más szervezetek, amelyek AI rendszert használnak saját hatáskörükben. Ide tartoznak például a kórházak, amelyek diagnosztikai AI eszközöket használnak, vagy a pénzintézetek, amelyek AI alapú csalásdetektáló rendszereket alkalmaznak.
Az AI Act megjelenésével kapcsolatban megkérdeztük Dr. Kerecsen Évát, a LawIT ügyvédjét, aki kiemelte, hogy az AI Act jelentős mérföldkő az AI technológia szabályozásában.
„Az AI Act alapvető változást hoz a mesterséges intelligencia rendszerek fejlesztésében és alkalmazásában. Az új szabályozás minden AI-al foglalkozó cég részéről jelentős ismereteket és felkészültséget igényel, hogy a sokrétű szabályozásnak megfeleljenek”
Milyen kategóriákat határoz meg az AI Act?
Az AI Act kockázat alapú megközelítést alkalmaz, amely szerint a rendszerek kockázati szintje alapján különböző kategóriákba sorolja őket. Ez határozza meg, hogy egyáltalán lehet-e használni őket, és ha igen, milyen szigorú előírásoknak kell megfelelniük.
A 3 fő kategória a tiltott AI rendszerek, a magas kockázatú, valamint az alacsony kockázatú rendszerek. Ezen kívül az AI Act további szabályokat állapít meg a ChatGPT-hez hasonló általános célú MI modellekre nézve (General Purpose AI modell – GPAI).
Tilos lesz…
Az AI Act szerint már jövő év februárjától tilosak azokat a rendszerek, amelyek manipulatív vagy megtévesztő technikákat alkalmaznak. Például egy virtuális asszisztens, amely titokban befolyásolja a felhasználók döntéseit.
Tilosak lesznek azok az AI rendszerek is, amelyek kihasználják az egyének vagy csoportok életkori, fogyatékossági vagy társadalmi-gazdasági helyzetéből fakadó sebezhetőségeit, annak érdekében hogy torzítsák viselkedésüket. Ide tartozhatnak bizonyos AI alapú marketing eszközök is. Többek között tilosak azok a rendszerek, amik cél nélkül gyűjtenek arcokat az internetről vagy CCTV felvételekről adatbázisok létrehozása vagy bővítése céljából, vagy amelyeket érzelmek felismerésére és elemzésére használnak munkahelyeken és oktatási intézményekben.
Bizonyos AI rendszerek, amelyek nem érik el azt a kockázati szintet, ahol már a tiltás indokolt, azonban jelentős kockázatot jelentenek a személyek jogaira, magas kockázatú AI rendszernek fognak minősülni. Ilyenek többek között a távoli biometrikus azonosítást és az érzelem felismerést megvalósító rendszerek, mint például a repülőterek arcfelismerő technológiái vagy az ügyfélszolgálati robotok, amelyek az ügyfelek hangjának elemzésével azonosítják érzelmeiket. De ide tartoznak például a munkahelyi toborzásra, jelöltértékelésre, munkahelyi teljesítményértékelésre és feladatkiosztásra használható AI rendszerek, mint például személyre szabott álláshirdetésekre és jelentkezés szűrésre fejlesztett AI rendszerek.
A magas kockázatú AI rendszerekre szigorú kockázatkezelési és minőségbiztosítási követelmények vonatkoznak. Például az AI rendszerek tanításához használt adatok minőségének ellenőrzése és az átláthatóság biztosítása kulcsfontosságú. Az alacsony kockázatú AI rendszerekre pedig csupán átláthatósági követelményeket kell alkalmazni, amelyek biztosítják, hogy a felhasználók tisztában legyenek a rendszerek működésével és hatásaival.
Milyen bírságokkal jár az AI Act megsértése?
Az AI Act súlyos bírságokat ír elő a szabályok megsértése esetén. A tiltott AI rendszerek esetében a bírság akár 35 millió euró vagy az előző éves világszintű árbevétel 7%-a is lehet. Hasonlóan a GDPR-hoz itt is a kettő közül a magasabb bírság mérték lesz az irányadó. Dr. Kerecsen Éva szerint ezek a bírságok hangsúlyozzák az etikus AI használat fontosságát.
„Az etikus AI használat és a szabályozásnak való megfelelés kulcsfontosságú. Az AI Act nemcsak a technológiai fejlesztéseket, hanem a társadalmi és etikai normákat is figyelembe veszi. A cégeknek fel kell készülniük a szigorúbb szabályozásra, és biztosítaniuk kell, hogy AI rendszereik biztonságosak és átláthatóak legyenek”
– tette hozzá Dr. Kerecsen.
Az AI Act hasonló jelentőségű, mint a GDPR volt a személyes adatok védelme terén. Az új szabályozás biztosítja, hogy az AI technológiák fejlesztése és használata átlátható, biztonságos és etikailag elfogadható legyen. Ez nemcsak a felhasználók védelmét szolgálja, hanem a fejlesztők és cégek számára is egyértelműbb és kiszámíthatóbb szabályozási környezetet teremt.
Az AI Act megjelenésével az EU egyértelműen jelzi, hogy komolyan veszi a mesterséges intelligencia területét és annak szabályozását. Az új jogszabály nemcsak a technológiai fejlesztéseket, hanem a társadalmi és etikai normákat is figyelembe veszi, ezzel biztosítva, hogy az AI rendszerek valóban az emberek javát szolgálják.
(Kép: flickr/6eo tech, thenewfederalist.eu, Wikimedia)