Brüsszel először 2019-ben tett javaslatot a mesterséges intelligenciára vonatkozó szabályozásra. Az MI-ről szóló törvény, az AI Act várhatóan májusban vagy júniusban lesz hivatalosan is jogszabály. A rendelkezések fokozatosan lépnek hatályba. Az általános célú mesterségesintelligencia-rendszerekre, például a chatbotokra vonatkozó szabályokat a jogszabály hatálybalépése után egy évvel kezdik alkalmazni. 2026 közepére a teljes szabályrendszer hatályba lép – számolt be róla a Nemzeti Kibervédelmi Intézet (NKI).
Ami a jogérvényesítést illeti, minden uniós ország létrehozza majd a saját mesterséges intelligencia felügyeleti szervét, ahol a polgáraik panaszt tehetnek. Eközben Brüsszel létrehoz egy MI-hivatalt, amelynek a feladata az általános célú MI-rendszerekre vonatkozó jogszabályok végrehajtása és felügyelete lesz.
Időszerű lépés, újabb terhek, AI Act
A rendelet célja, hogy megvédje az alapvető jogokat, a demokráciát, a jogállamiságot és a környezeti fenntarthatóságot a magas kockázatú mesterséges intelligenciával szemben, miközben fellendíti az innovációt és vezető szerepet biztosít Európának ezen a területen. Emellett mesterséges intelligenciára vonatkozó kötelezettségeket állapít meg a potenciális kockázatok és a hatás mértéke alapján.
A Gartner áprilisi publikációjában arra hívta fel a figyelmet, hogy sok szervezet azt gondolja, hogy mivel nem fejleszt mesterséges intelligenciával működő eszközöket vagy azt tartalmazó szolgáltatásokat, mentesül a rendelet alól. A gyakorlat azonban mást mutat, hiszen azok a cégek is érintettek lesznek, amelyek „csak” használói a technológiának.
Az NKI arról ír, hogy a rendeletben több különféle kockázatalapú besorolást alkalmaznak, a mesterséges intelligenciát tartalmazó termékekkel és szolgáltatásokkal kapcsolatban, így a technológiát felhasználó cégeknek első lépésként kategorizálniuk kell az általuk használt MI-t.
Alacsony kockázattól a tiltott MI-ig
Minél kockázatosabb egy mesterségesintelligencia-alkalmazás, annál nagyobb ellenőrzésnek kell alávetni. Az MI-rendszerek túlnyomó többsége várhatóan alacsony kockázatú lesz, mint például a tartalomajánló megoldások vagy a spamszűrők.
A magas kockázatú mesterséges intelligencia alkalmazására, az orvosi eszközökben, a kritikus infrastruktúrában, a víz- vagy elektromos hálózatokban, szigorúbb követelmények vonatkoznak.
Az MI által generált, létező emberekről, helyekről vagy eseményekről készült deepfake képeket, videókat vagy hangfelvételeket mesterségesen manipuláltnak kell jelölni. A legnagyobb és legerősebb, „rendszerszintű kockázatot” jelentő mesterségesintelligencia-modelleket, köztük az OpenAI legfejlettebb rendszerét, a GPT4-et és a Google Geminit is fokozottan ellenőrzik.
Az első lépés a felismerés
A Gartner a kockázatok és a felkészülés kapcsán azt javasolja, hogy a vállalatok kezdjék el kategorizálni az általuk használt MI-t. A legjobb, ha szisztematikusan végigmennek mind a négy besoroláson, a Gartner által készített rendszer szerint.
AI In-the-wild, avagy olyan MI- és nyilvános doménen elérhető generatív MI-eszközök, amelyeket a munkavállalók a munkavégzés során használnak – formálisan és informálisan.
Embedded AI, avagy a megoldásokba integrált, illetve a SaaS-ba épített MI-képességeket jelenti. A gyártók már az elmúlt egy évtizedben is előszeretettel használtak különféle mesterségesintelligencia-megoldásokat egy-egy termékük vagy szolgáltatásuk optimalizálása érdekében, ami sokszor teljesen láthatatlan maradt az igénybe vevő szervezet számára. Ilyenek például a spam- vagy malware-felismerő motorokat működtető gépi tanulási modellek.
Érdemes mihamarabb részletes információt kérni a gyártótól a szervezetben használt szoftverekről és szolgáltatásokról, mivel sok esetben nem egyértelmű, hogy azok tartalmaznak-e MI-t vagy sem.
Hibrid AI: olyan rendszerek, szoftverek stb., sorolhatók ide, amelyek harmadik féltől származó „kész” megoldásra épülnek, amihez a vállalat házon belül további MI-megoldásokat integrált.
Az AI-in House kifejezés azokra az MI-eszközökre és -szolgáltatásokra vonatkozik, amelyeket a vállalat fejlesztett és tesztelt, és ahol a szervezetnek teljes rálátása van az adatokra, a technológiákra, valamint a felhasználás céljára, illetve lehetősége van a modellek utólagos finomhangolására.
A NIS2-re való felkészülés végeztével sincs idő hátradőlni. A bírságok és egyéb kellemetlenségek elkerülése érdekében ugyanis a szervezeteknek ideje korán kell kezdeniük felkészülni az AI Actra. Avagy a nemsokára jogszabályi szintre emelkedő új, mesterséges intelligenciáról szóló törvényben foglaltakra.