A mesterségesintelligencia (MI)-rendszerek fejlesztése és szolgáltatása egyre komplexebb jogi és etikai kérdéseket vet fel, amelyek eltérnek a hagyományos szoftverfejlesztési vagy licencszerződések szabályaitól. Az AI Act lépcsőzetes bevezetése kapcsán különösen fontos áttekinteni és átgondolni a szerződéskötési gyakorlatot.
„Ez azért van így, mert az MI-rendszerek nem statikus szoftverek, hanem folyamatosan fejlődő, tanuló szisztémák. Ez a dinamikus jelleg okoz jelentős eltérést a hagyományos szoftvermegoldásokhoz képest, ahol a szerződés tipikusan a termék leszállításáról és esetleges frissítéseiről szól. Az MI-rendszerek esetében azonban a fejlődési potenciál és a tanító adatok minősége központi szerepet játszik, a teljes életciklus alatt biztosítani kell tudni a megbízhatóságát. emellett kibővül a szolgáltató felelősségi köre”
– mondta dr. Kerecsen Éva, a Lawit alapítója, ügyvéd.
Az MI-fejlesztések új kihívásai: adatvédelmi és szerzői jogi megfelelés
Az eddig ismert szoftverfejlesztési szerződéses formákhoz képest az igazán nagy újdonságot és az eltérést az adja, hogy az MI-fejlesztések és szolgáltatások esetén fontos biztosítani, hogy az MI-rendszer tanítása során használt adatok megfeleljenek az adatvédelmi és szerzői jogi előírásoknak.
„A gyakorlatban ez azt jelenti, hogyha megbízunk egy fejlesztőcéget egy magas kockázatúnak minősülő MI-rendszer létrehozásával, amit aztán a saját nevünk vagy védjegyük alatt hozunk forgalomba, vagy helyezünk üzembe – ideértve a cégen belüli üzembe helyezést is –, akkor érdemes már a szerződéskötés nulladik pillanatában figyelembe venni az AI Act vonatkozó előírásait. Ugyanis a már említett kiszélesedett felelősségi kör és kötelezettségek miatt a fejlesztést igénybe vevő szolgáltatónak (legyen szó saját céges használatról vagy továbbértékesítésről) igazolnia kell, hogy az MI-rendszer tanításához, validálásához, teszteléséhez használt adatok tiszták, teljes körűek és jogilag rendezettek. Ezt a kérdést az AI Act alapján magas kockázatúnak nem minősülő MI-szisztéma esetén is rendezni kell annak érdekében, hogy egyértelműek legyenek a felelősségi körök az adatok szerzői jogi és adatvédelmi szempontú megfelelőségét illetően is”
– tette hozzá Kerecsen Éva.
Nagyon fontos a tanító adatbázis sokszínűsége. Ugyanis ha nem reprezentálja megfelelően az érintett csoportokat, az diszkriminatív outputokhoz vezethet. Ez különösen akkor jelent problémát, ha az adatok csak egy szűk társadalmi vagy demográfiai csoporttól származnak.
Ugyanakkor az MI-rendszerek fejlesztésénél nem csupán a műszaki, hanem az etikai szempontokat is figyelembe kell venni. Ez magában foglalja annak meghatározását, hogy a megoldás milyen célokra használható, és milyen alkalmazások nem megengedettek.
Szerződéses szempontok az MI-fejlesztésnél
Az MI-rendszerek fejlesztésére és szolgáltatására vonatkozó szerződések esetében vannak olyan alapvetések, amelyeket érdemes figyelembe venni.

Adatminőség és jogtisztaság. A tanító adatokkal kapcsolatos követelményeket világosan rögzíteni kell a szerződésben. Idetartozik az adatok eredete, jogtisztasága, reprezentativitása és minősége.
Felelősség megosztása. Az MI-rendszer fejlesztője és a szolgáltató közötti felelősségmegosztást egyértelműen szabályozni kell. Ha a szolgáltató a saját neve alatt értékesíti a rendszert, neki kell igazolnia a megfelelőséget és biztosítania az EU-s szabályoknak való megfelelést.
Műszaki dokumentáció és támogatás. A fejlesztőtől elvárt dokumentációs és technikai támogatási kötelezettségeket részletesen szabályozni kell. Ez különösen fontos, ha magas kockázatú MI-rendszer fejlesztéséről van szó, ugyanis az AI Act értelmében a szolgáltatónak széles körű kötelezettségeknek kell megfelelni, ezt pedig a beszállítójával kötött szerződés szintjén is rendezni szükséges.
Használati korlátozások. A szerződésben meg kell határozni, hogy a rendszer milyen célokra használható, és milyen felhasználási módok tiltottak.
Termékfelelősség és megfelelőség. Az új EU-s irányelvek szerint a termékfelelősség már nemcsak a fizikai termékek gyártóira vonatkozik, hanem a szoftver- és MI-fejlesztőkre is. Ezekre a szempontokra érdemes már a felelősségi kérdések szerződéses rendezése során gondolni.
Oktatás és MI-tudatosság. Az AI Act megfogalmazza azt az elvárást is, amely február 2-án hatályba lépett. E szerint szervezeteknek biztosítaniuk kell az MI-rendszerekre vonatkozó megfelelő felhasználási ismereteket, azaz az MI-jártasságot. Ez magában foglalja a munkavállalók oktatását. Ez a szerződésekben is megjelenhet a képzések biztosítására vonatkozó kötelezettségként.
„Az MI-rendszereknél nincs két egyforma fejlesztés. Így az alapvetések mellett a sajátosságokat is figyelembe kell venni a kontraktus elkészítésekor, hogy az esetleges büntetések és szerződésből fakadó jogviták elkerülhetők legyenek. Épp ezért fontos a szakértői segítség bevonása a szerződéstervezet elkészítésekor”
– zárta Kerecsen Éva.
Február 2-án hatályba léptek az AI Act tiltott MI-gyakorlatokra vonatkozó rendelkezései
A rendelet az alábbiakat sorolja a tiltott MI-gyakorlatok közé:
- tudatalatti vagy célzottan manipulatív vagy megtévesztő technikákat alkalmazó MI-rendszerek,
- egy ember vagy egy meghatározott csoport sebezhetőségét kihasználó MI-rendszerek,
- társadalmi pontozási MI-rendszerek,
- bűncselekmények valószínűségével kapcsolatos, kizárólag a természetes személyek személyiségjegyei alapján történő kockázatértékelésre szánt MI-rendszerek,
- általános, nem konkrét célú arcfelismerő adatbázisok internetről vagy CCTV-felvételekből való létrehozatala,
- érzelemfelismerésre alkalmazott MI-rendszerek munkahelyeken és oktatási intézményekben történő használata,
- biometrikus kategorizálási rendszerek,
- „valós idejű” távoli biometrikus azonosító rendszerek alkalmazása bűnüldözési célokra, a nyilvánosság számára hozzáférhető helyeken.
(Kép: pixabay)