(Kiemelt kép: Unsplash+)
A javasolt rendeletek az Európai Unión belül használt vagy kimenetet nyújtó mesterséges intelligencia rendszerekre vonatkoznának, ami a világ minden táján működő szervezetekre is hatással lenne. 2020-ban a vállalatoknak csak 48 százaléka számolt be arról, hogy felismerte a szabályozásnak való megfelelés kockázatait, és még kevesebben (38 százalék) számoltak be arról, hogy aktívan dolgoznak is már ezek kezelésén. A megkérdezett vállalatok jóval kisebb hányada ismerte fel az egyéb kirívó kockázatokat, például a hírnévvel, a magánélet védelmével és a méltányossággal kapcsolatosakat. Ezek a statisztikák riasztóak, tekintettel azokra a jól ismert esetekre, melyekben a mesterséges intelligencia félresikerült, és a világ egyes részein már léteznek a mesterséges intelligenciával kapcsolatos szabályozások, például az európai általános adatvédelmi rendelet (GDPR). A mesterséges intelligencia óriási lehetőséget kínál a technológiai és társadalmi fejlődésre, forradalmasítja a szervezetek értékteremtését az egészségügytől a bányászatig és a pénzügyi szolgáltatásokig terjedő iparágakban. Ahhoz, hogy a vállalatok továbbra is olyan ütemben tudjanak innoválni az MI segítségével, ahogyan az a versenyképességük megőrzéséhez és az MI-befektetéseik legnagyobb megtérüléséhez szükséges, foglalkozniuk kell a technológia kockázataival is. Az MI-ból a legnagyobb hozamot elérő vállalatok sokkal nagyobb valószínűséggel számolnak be arról, hogy aktív kockázatcsökkentéssel foglalkoznak, mint azok, melyek eredményei kevésbé lenyűgözőek. Az uniós rendelet világos betekintést nyújt az MI-szabályozás egészének jövőjébe. Itt az ideje, hogy elkezdjük megérteni a következményeit, és lépéseket tegyünk a felkészülésre, valamint a biztosan következő szabályozásokra. Ezek a lépések támogatni fogják a jelenlegi szabályozásoknak való megfelelést, és mérsékelni fogják az egyéb, nem szabályozási jellegű mesterséges intelligenciával kapcsolatos kockázatokat.
A mesterséges intelligenciáról szóló törvény
A mesterséges intelligencia manapság olyan gyorsan fejlődik, hogy egyesek – köztük Yoshua Bengio, Elon Musk, Steve Wozniak és mások – aláírtak egy levelet, hogy megállítsák gyors fejlődését. Úgy tűnik, az MI szabályozásának témája egyre fontosabbá válik. Az Európai Bizottság 2021 áprilisában jelentette be a mesterséges intelligenciáról szóló rendeletjavaslatát. Célja, hogy foglalkozzon az MI egyes felhasználási módjainak kockázataival, 4 különböző szintbe sorolva azokat: elfogadhatatlan kockázat, magas kockázat, korlátozott kockázat és minimális kockázat. Ezzel a kockázatalapú megközelítéssel az MI-rendelet biztosítani kívánja, hogy az európaiak megbízhassanak az általuk használt MI-ban.
Elfogadhatatlan kockázatú mesterséges intelligencia rendszerek
Az MI-rendszerek akkor tartoznak ebbe a kategóriába, ha használatuk elfogadhatatlannak minősül. Például az alapvető jogok megsértése, az emberek manipulálása vagy a kiszolgáltatott csoportok kihasználása révén. Ezen túlmenően kifejezetten tilos a mesterséges intelligencia alapú társadalmi pontozás és a valós idejű távoli biometrikus azonosító rendszerek (pl. arcfelismerés) a nyilvánosan hozzáférhető helyeken a bűnüldözés számára. Az ebbe a kategóriába tartozó összes mesterséges intelligencia rendszert betiltja az AIA.
Magas kockázatú MI rendszerek
Azok az MI-rendszerek tartoznak ebbe a kategóriába, melyek magas kockázatot jelentenek a természetes személyek egészségére és biztonságára vagy alapvető jogaira nézve. Nemcsak az MI-rendszer által ellátott funkció, hanem a tervezett felhasználás is számít. Az AIA két fő kategóriát határoz meg a magas kockázatú mesterséges intelligencia alapú rendszerek tekintetében: a termékek biztonsági összetevőjeként való felhasználásra szánt mesterséges intelligencia rendszerek és az önálló mesterséges intelligencia rendszerek, melyek főként az alapvető jogokkal kapcsolatosak, és amelyek kifejezetten szerepelnek az AIA III. mellékletében. A magas kockázatú mesterséges intelligencia rendszerek akkor kerülhetnek az európai piacra, ha megfelelnek bizonyos kötelező követelményeknek, és megfelelőségértékelésnek vetik alá őket. A capAI megfelelőségértékelési eljárást Luciano Floridi és társai dolgozták ki (Matthias Holweg, Mariarosaria Taddeo, Javier Amaya Silva, Jakob Mökander és Yuni Wen) és tették közzé az AIA szerinti mesterséges intelligencia rendszerek számára. A szabályozási követelmények számos témát érintenek, például az adatokat és az adatkezelést, a dokumentációt és a nyilvántartást, az átláthatóságot és a felhasználók tájékoztatását, az emberi felügyeletet, a robusztusságot, a pontosságot és a biztonságot.
Korlátozott kockázatú mesterséges intelligencia rendszerek
Az ebbe a kategóriába tartozó mesterséges intelligencia rendszereknek az átláthatóság biztosításával kell csökkenteniük a manipuláció konkrét kockázatait. Ez azokra a rendszerekre vonatkozik, melyek emberekkel lépnek kapcsolatba, érzelmek érzékelésére szolgálnak, vagy tartalmat generálnak vagy manipulálnak (mély hamisítványok). Ha egy mesterséges intelligenciával működő rendszert tartalom létrehozására vagy manipulálására használnak, akkor kötelező lesz nyilvánosságra hozni, hogy a tartalmat automatizált eszközökkel hozták létre.
Minimális vagy kockázat nélküli MI-val működő rendszerek
Az EU-ban jelenleg használt mesterséges intelligencia rendszerek többsége ebbe a kategóriába tartozik.
Az AIA alapján az olyan generatív mesterséges intelligenciák, mint a ChatGPT, a Midjourney vagy a DALL-E legalábbis korlátozottan kockázatosnak minősülnének. Ez megkövetelné, hogy ezek a mesterséges intelligencia rendszerek átláthatóbbá tegyék, hogy a tartalom mesterséges intelligencia által generált. Az önvezető autók magas kockázati besorolásúak lennének, ami azt jelentené, hogy „hitelesítési eljáráson” kellene átesniük. Mivel az AIA a mesterséges intelligencia rendszerek tervezett felhasználását vizsgálja, a ChatGPT például elfogadhatatlannak minősülne, ha olyan módon használnák, hogy megpróbálnák manipulálni az embereket.
Az új technológiák és új jogszabályok
A technológiai fejlődés mindig megelőzi a jogszabályi környezet alakulását, vagyis a technológia hatással van a törvényalkotásra is. Báldy Péterrel (az ELTE ÁJK, JOGI TOVÁBBKÉPZŐ INTÉZET igazgatóhelyettesével az ICT Global Podcastban (I. Évad 5. epizód) beszélgettünk a felforgató technológiák integrációjával párhuzamosan érkező jogszabályi kihívásokról.
Szerinte a következő izgalmas pont a mesterséges intelligenciával összefüggő jogszabálytervezet lesz, ami most egy kicsit elakadni látszik az uniós jogalkotás útvesztőjében, de alapvetően fogja meghatározni, hogy a gépi elmével mit is kezdhetünk és hogyan. És ha belegondolunk, hogy egyébként a mesterséges intelligencia alkalmazása olyan szinten itt él már velünk a hétköznapokban, akkor bizonyos, hogy szabályozásért is kiált. Báldy Péternek eleve problémái vannak ezzel a mostani szabályozástervezettel, hiszen a leginkább az derül ki belőle, hogy társadalmilag van egy bizonyos feszültség, egy félelem, ettől az új technológiától. Ez teljesen érthető, de jogilag nem biztos, hogy a jogviszonyok minden esetben megfelelően fognak megváltozni majd az első rendeletektől. A jogászok pont abban tudnának segíteni, akár az adatvédelem területén is, akár pont a mesterséges intelligencia és a modern technológiák világában, hogy mi az, ami akár 10-20-30 évvel ezelőtt is létezett már, mint jogi gondolkodás és hozzáállás a technológiai vívmányokkal kapcsolatban. Most az Európai Unió adatstratégiáját átnézve egy 10 éves időtartamban a GDPR egy színvonalas és működő szabályozássá érett, ami működik is a dolgos hétköznapokban. A címben megfogalmazott kérdés szerinte evidencia, a mesterséges intelligenciát okosan, de szabályozni kell a megfelelő jogi eszközökkel és minél hamarabb, amint lehet.