Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

A generatív mesterséges intelligencia jogi és etikai szempontjai

MEGOSZTÁS

A 2023-as év a mesterséges intelligencia, különösen a generatív változatának felemelkedésének éve. Maga a technológia nem új; számos technológiai vállalat fejlesztett és indított el alkalmazásokat valamilyen „generált” komponenssel.

(Kiemelt kép: Unsplash)

A GPT-4 2023 márciusában történő elindítása az, ami a technológia iránti felemelkedést és a (nem technológiai) közvélemény érdeklődését kiváltotta. A ChatGPT felhasználói felülete könnyű hozzáférést biztosít a használathoz, és a GPT-4 kiváló minőségű tartalomgeneráló képessége viharszerűen bevette a világot, mivel az emberek elkezdték látni a technológiában rejlő felhasználási lehetőségeket. Ez a generatív mesterséges intelligencia demokratizálódása (a gyors elfogadás és használat a lakosság részéről) bizonyos kockázatokkal és következményekkel jár, többek között jogi és etikai szempontból is. Jogi és szabályozási szempontból ez még mindig feltérképezetlen terület, de azért nem árt tisztában lenni a technológia lehetséges következményeivel. A generatív mesterséges intelligencia, az emberi kreativitás felhasználásával (tudatosan vagy tudtán kívül) jogi fenyegetések forrása lehet. A generatív MI szabályozása jelenleg még viszonylag nyitott és vitatható terület, de a kockázatok ettől függetlenül fenyegetnek.

A generatív mesterséges intelligencia jogi és etikai szempontjai
A generatív mesterséges intelligencia, az emberi kreativitás felhasználásával (tudatosan vagy tudtán kívül) jogi fenyegetések forrása lehet (Fotó: Unsplash)

Szerzői és tulajdonjog

A szerzői jog a szellemi tulajdon egyik fajtája, mely a tulajdonosának kizárólagos jogot biztosít a kreatív alkotás másolására, terjesztésére, adaptálására, megjelenítésére és előadására, általában korlátozott ideig. A generatív mesterséges intelligencia esetében e szerzői jog „tulajdonosi” aspektusa nem egyértelmű, mivel a tartalom létrehozásában több fél is részt vesz, többek között: az a személy, aki a felkérést írta, az a vállalat vagy szervezet, mely az MI-modellt létrehozta. A művészek, akiknek a műveit a modell betanításához felhasználták. A mesterséges intelligencia, mely a művészetet és tartalmat létrehozta. Minden egyes fél jelentős szerepet játszik a tartalom létrehozásában, és az egyes felek részvétele nélkül a tartalom nem jöhetne létre. Konkrétan a felkérést író személyre vonatkozóan az Egyesült Államok Szerzői Jogi Hivatala egyértelművé tette, hogy az MI által generált tartalom (képek, írás, videó stb.) nem védhető szerzői joggal, tekintettel az emberi szerzőség hiányára és az MI által generált eredmény kiszámíthatóságára.

Ez világossá vált Kristina Kashtanova amerikai szerzői jogi kérelmében, aki egy olyan képregény szerzője, melyben a könyvillusztrációkat a Midjourney nevű mesterséges intelligencia-képgeneráló eszközzel hozták létre. A szerzői jogi hivatal érvelése szerint „a promptok közelebb működnek a javaslatokhoz, mint a megrendelésekhez, hasonlóan ahhoz a helyzethez, amikor egy ügyfél megbíz egy művészt, hogy hozzon létre egy képet, melynek tartalmára vonatkozóan általános utasításokat ad”. Egyszerűen fogalmazva, a szerző által létrehozott prompt hasonló a megbízott képzőművésznek adott projektutasításhoz általában, mely esetben a projektutasítás készítője nem lenne a műalkotás tulajdonosa. Ez a jövőben változhat, ahogy a technológia használata megjelenik, és egyre több érv kerül a képbe. Ettől függetlenül mindig jó ötlet a generatív mesterséges intelligencia létrehozásának folyamatába némi dokumentációt illeszteni, bemutatva az „emberi szerzőség” komponensét minden szerzői jogi kérdésben.

A generatív mesterséges intelligencia jogi és etikai szempontjai
Az Egyesült Államok Szerzői Jogi Hivatala egyértelművé tette, hogy az MI által generált tartalom (képek, írás, videó stb.) nem védhető szerzői joggal, tekintettel az emberi szerzőség hiányára és az MI által generált eredmény kiszámíthatóságára (Fotó: Unsplash)

Adatvédelem

Még 2023 áprilisában a ChatGPT-t rövid időre blokkolták Olaszországban az EU általános adatvédelmi rendeletének (GDPR) feltételezett megsértése miatt. Az olasz kormány által kiemelt egyik fő aggály az adatvédelemmel és a magánélet védelmével kapcsolatos kérdésekhez kapcsolódik. A ChatGPT már frissítette adatvédelmi irányelveit és termékeit, hogy foglalkozzon ezekkel az aggályokkal, de ennek ellenére nem minden felhasználó járja végig és értékeli ezt igazán. A generatív mesterséges intelligenciában veszélyeztetett adatvédelmi területek közé tartozik az adatgyűjtéshez való hozzájárulás, az adatmegőrzés és a használhatósági kockázatok is.

Hozzájárulás az adatgyűjtéshez

A kezdeti modellalkotás során különböző forrásokból gyűjtöttek adatokat, melyek személyes adatokat is tartalmazhatnak, és a tulajdonosok nem tudnak arról, hogy azokat a modellképzéshez használják fel. Egyes platformok opt-out lehetőséget biztosítanak a felhasználók számára, hogy tartalmukat kizárják a jövőbeli MI-modellfejlesztésből, de ez alapértelmezésben nincs bekapcsolva, és a felhasználóknak manuálisan kell megadniuk.

Adatmegőrzés

A GDPR-rendelet rendelkezik az „elfeledtetéshez való jog” szakaszról, mely lehetővé teszi a felhasználók számára, hogy kérjék a vállalatoktól személyes adataik helyesbítését vagy teljes eltávolítását. Bár a vállalatok megpróbálhatják ezt megkönnyíteni, vita alakult ki ennek technikai megvalósíthatóságáról, figyelembe véve a nagy nyelvi modellek képzéséhez használt adatok összetettségét.

Használhatósági kockázatok

Alapértelmezés szerint a ChatGPT-hez hasonló LLM-modellekkel rendelkező felhasználók felhasználói bemenetei és beszélgetéstörténetei összegyűjtésre kerülnek, és a vállalat ezeket felhasználja a mesterséges intelligenciamodell újratanításához. Az LLM-modellek különböző felhasználási eseteiben, azaz a robot terapeutaként vagy orvosként való használatakor a felhasználók tudtukon kívül érzékeny információkat adhatnak meg. A generatív MI felhasználójaként meg kell értenünk az eszköz adatvédelmi szabályzatát (az adatok tárolásának és felhasználásának módját), és óvatosnak kell lennünk minden olyan adattal kapcsolatban, melyet a rendszerbe bevittünk, mivel azokat összegyűjtik, és a szolgáltató szervezet manuálisan ellenőrizheti.

A generatív mesterséges intelligencia jogi és etikai szempontjai
Az LLM-modellek különböző felhasználási eseteiben, azaz a robot terapeutaként vagy orvosként való használatakor a felhasználók tudtukon kívül érzékeny információkat adhatnak meg (Fotó: Unsplash)

Téves információk

A generatív MI használatával előfordulhat nem szándékos (vagy akár szándékos) félretájékoztatás. A kiváló minőségű tartalomgenerálási képességek révén ezek a modellek képesek nagyszerű tartalmakat előállítani, hasonlóan a valódi vagy ember által generált tartalmakhoz, ami megnehezíti a tartalom hitelességének és pontosságának azonosítását. Az MI modellek hajlamosak a „hallucinációra”, mely kifejezés az MI modell által generált, tényszerűen helytelen vagy összefüggéstelen kimenetek leírására szolgál. Ez a képzési adatok hiánya, a sorrendiség és érthetőség korlátozása és a képzésből adódó eredendő torzítás miatt fordulhat elő. Gyakori, hogy egy mesterséges intelligenciamodell által generált tartalomban hihetőnek tűnő, véletlenszerű tévedéseket találunk. Rajtunk, az eszköz tényleges felhasználóján múlik, hogy a modell által szolgáltatott információkat kritikusan elemezzük és ellenőrizzük a további felhasználás vagy terjesztés előtt.

A generatív mesterséges intelligencia másik „ördögi felhasználása” a félretájékoztatásra a mély hamisítványok létrehozása. A mélyhamisítványok olyan szintetikus médiumok, melyeket digitálisan manipuláltak, hogy egy személy képmását meggyőzően helyettesítsék egy másik személy képmásával, főként a mélytanulási technológia felhasználásával. A nagy teljesítményű generatív mesterséges intelligenciával egyre könnyebb ilyen megtévesztő médiát létrehozni. Lehetőség van arra, hogy a felek sérelmet szenvedjenek a pontatlanul generált tartalom miatt, és ez erős jogi eset lehet a rágalmazás kapcsán. Egy ausztrál polgármester azzal fenyegetőzött, hogy beperli az OpenAI-t rágalmazásért, miután a ChatGPT tévesen azt állította, hogy vesztegetés miatt börtönben ült.

A generatív mesterséges intelligencia jogi és etikai szempontjai
A mélyhamisítványok olyan szintetikus médiumok, melyeket digitálisan manipuláltak, hogy egy személy képmását meggyőzően helyettesítsék egy másik személy képmásával, főként a mélytanulási technológia felhasználásával (Fotó: Unsplash)

Etikai következmények

A generatív MI-modellek rendkívüli képessége a technológia új felhasználási eseteit nyitja meg a különböző iparágak számos folyamatában. Ugyanakkor etikai következmények merülhetnek fel, mivel a modelleket az iparági döntéshozatali folyamatokban használják. Tegyük fel például, hogy egy olyan LLM-modellt, mint a ChatGPT, egy jelölt önéletrajzának vagy ajánlólevelének elemzésére használnak egy toborzási vagy egyetemi jelentkezési folyamat során. A modell képzésében rejlő elfogultságok miatt a modell akaratlanul is kiemelhet egy bizonyos háttérrel rendelkező jelöltet, szembeszegülve az esélyegyenlőséggel, melyet minden jelöltnek meg kellene adni.

Egy másik példa a képgenerálásra, hogy a képzési adatok korlátai miatt a generált képek személye egy bizonyos kultúrát vagy demográfiát preferálhat. Egy modell csak az alapján tud kimenetet generálni, amire betanították, és ha csak egy adott demográfiai adatokon van betanítva, akkor csak az adott demográfiából fog kimenetet generálni (végül nem biztos, hogy reprezentatív képet ad a felhasználók számára). Ennek egyik kezelési módja a generatív mesterséges intelligencia emberi moderálással történő alkalmazása. Az emberi értékelés az MI-használati életciklus részeként fontos a kimenetek megmagyarázhatóságának biztosítása és az elfogultság elkerülése érdekében a döntéshozatali folyamatban, amelynek az MI is része.

A generatív mesterséges intelligencia jogi és etikai szempontjai
A modell képzésében rejlő elfogultságok miatt a modell akaratlanul is kiemelhet egy bizonyos háttérrel rendelkező jelöltet, szembeszegülve az esélyegyenlőséggel, melyet minden jelöltnek meg kellene adni (Fotó: Unsplash)

Kulcsfontosságú megfontolások az autonóm tartalmak korában

A generatív mesterséges intelligencia körüli nagy felhajtás mellett egyre több megválaszolatlan kérdés merül fel azzal kapcsolatban, hogyan lehet ezt a diszruptív technológiát felelősségteljesen alkalmazni. Érdemes áttekinti az Európai Unió (EU) mesterséges intelligenciára vonatkozó etikai irányelveit, és megvitatni a nagy méretű nyelvi modellek (LLM) használatakor az MI etikai keretrendszerének megvalósításához szükséges legfontosabb megfontolásokat.

Az Európai Unió 2019. április 8-án a gyakorlatba ültette a mesterséges intelligencia etikus és felelős felhasználásának keretrendszerét. A jelentés három vezérelvet határoz meg a megbízható mesterséges intelligencia kialakításához:

Törvényes: A mesterséges intelligenciának be kell tartania a jogállamiságot és a helyzeti szabályokat.

Etikus: A mesterséges intelligencia rendszernek etikusnak kell lennie, és be kell tartania az etikai elveket és értékeket.

Robusztus: Mivel a mesterséges intelligencia rövid időn belül jelentős károkat okozhat nagy populációkban, technikailag és társadalmilag robusztusnak kell lennie.

A multinacionális vállalatok számára ez érdekes kérdést vet fel, hogy hogyan kell alkalmazniuk ezt a keretrendszert a geopolitikai határok között, mivel ami a világ egyik régiójában törvényesnek és etikusnak számít, az egy másikban nem biztos, hogy az. Sok vállalat a legszigorúbb szabályozást veszi alapul, és azt egyoldalúan alkalmazza minden földrajzi területen. Az „egy méret a legtöbbre” megközelítés azonban nem biztos, hogy megfelelő vagy elfogadható.

A három alapelv alapján négy etikai alapelv és hét kulcsfontosságú követelmény következik.

Az etikai elvek a következők:

Az emberi autonómia tiszteletben tartása

Ez az elv azt hangsúlyozza, hogy az embereknek meg kell tartaniuk az ellenőrzést és a szabadságot a mesterséges intelligenciával való interakcióik során. „A mesterséges intelligencia rendszerek nem rendelhetik alá, nem kényszeríthetik, nem csaphatják be, nem manipulálhatják, nem kondicionálhatják és nem terelgethetik az embereket indokolatlanul.” Alapvetően a mesterséges intelligenciának támogatnia kell az emberek részvételét a demokratikus folyamatokban. Láttuk, hogy egyes országok „szociális pontozást” alkalmaznak polgáraikon, ami aggodalomra ad okot.

Az ártalom megelőzése

A mesterséges intelligencia rendszerek nem okozhatnak fizikai, mentális vagy érzelmi ártalmakat. Tekintettel az MI elterjedtségére és gyors hatására, fontos, hogy a mesterséges intelligencia kimeneteit szigorúan ellenőrizzék, hogy megakadályozzák a polgárok, alkalmazottak, vállalkozások, fogyasztók és kormányok véletlen manipulálását „a hatalom vagy az információ aszimmetriája miatt.” Láttuk, hogy az autonóm járművek gyártói ezzel az elvvel küzdenek az úgynevezett AI Trolley Problem (mesterséges intelligencia kocsi probléma) kapcsán. Természetesen ez nem korlátozódik a robotrendszerekre; az emberek orvosi tanácsadásban is a ChatGPT-re támaszkodnak, és mivel az hajlamos kitalálni dolgokat, óvatosnak kell lennünk.

Méltányosság

A mesterséges intelligencia rendszereknek elfogulatlannak és diszkriminációmentesnek kell lenniük, törekedve „az előnyök és a költségek egyenlő elosztására.” A méltányosság azt jelenti, hogy az emberi döntéseket nem szabad aláásni, és hogy „a mesterséges intelligencia gyakorlóinak egyensúlyt kell teremteniük az egymással versengő érdekek és célok között, tiszteletben tartva az eszközök és célok közötti arányosság elvét.” A felszínen ez egyszerűnek tűnik, de tudta, hogy a méltányosságnak több mint húsz matematikai meghatározása létezik?.

A generatív mesterséges intelligencia jogi és etikai szempontjai
A méltányosság azt jelenti, hogy az emberi döntéseket nem szabad aláásni, és hogy „a mesterséges intelligencia gyakorlóinak egyensúlyt kell teremteniük az egymással versengő érdekek és célok között, tiszteletben tartva az eszközök és célok közötti arányosság elvét. (Fotó: Unsplash)

Megmagyarázhatóság

A mesterséges intelligencia rendszereknek átláthatónak, ellenőrizhetőnek, reprodukálhatónak és értelmezhetőnek kell lenniük. Ha a mesterséges intelligenciát olyan döntés meghozatalára használják, mely hatással van Önre, joga van magyarázatot kérni arra, hogy az algoritmus hogyan hozta meg ezt a döntést. Ha például elutasítják a hitelfelvételt, a mesterséges intelligencia rendszer üzemeltetőjének képesnek kell lennie arra, hogy tájékoztassa Önt a döntéshez hozzájáruló összes tényezőről. Ez problémás lehet, ha „fekete dobozos” modelleket használnak – mint például a neurális hálózatok és az általános adverzális hálózatok (GAN), melyek számos LLM alapját képezik.

Ez elvezet minket a hét követelményhez:

Emberi ügynökség és felügyelet

Ez a követelmény lényegében azt mondja ki, hogy az MI-rendszereknek tiszteletben kell tartaniuk az emberi jogokat, és nem működhetnek teljesen önállóan. A mesterséges intelligenciának ki kell egészítenie, nem pedig helyettesítenie az emberi döntéseket. A mesterséges intelligencia döntéseit meg kell támadni, és az embernek képesnek kell lennie arra, hogy szükség esetén felülbírálja a mesterséges intelligencia döntéseit. Ez jól hangzik, de amikor több száz és ezer döntés születik automatikusan, hogyan lehet mindegyiket hatékonyan nyomon követni, hogy a dolgok ne menjenek félre?

Műszaki robusztusság és biztonság

Az MI-rendszereknek biztonságosnak, robusztusnak és ellenállónak kell lenniük a rossz szereplőkkel és a kibertámadásokkal szemben. Pontos előrejelzéseket kell adniuk, melyek megbízhatóak és reprodukálhatók. A szervezeteknek prioritásként kell kezelniük a kiberbiztonságot, és rendelkezniük kell vészhelyzeti tervekkel a támadásokra és arra vonatkozóan, hogyan kell működni, ha a rendszer leáll. Különös figyelmet kell fordítaniuk az ellenséges adatmérgezésre, amikor a rosszindulatú szereplők megváltoztatják a képzési adatokat, hogy hibás előrejelzéseket okozzanak.

Adatvédelem és irányítás

Az MI-rendszerek fejlesztőinek biztosítania kell a magánélet és az adatok védelmét a rendszer teljes életciklusa során. Az MI-rendszerek fejlesztőinek biztosítékokat kell bevezetniük annak megakadályozására, hogy rosszindulatú adatok vagy kódok kerüljenek a rendszerbe. Az iránymutatások azt is hangsúlyozzák, hogy csak az arra felhatalmazott felhasználók férhetnek hozzá az egyén adataihoz, amelyeknek tisztességesnek és elfogulatlannak kell lenniük, és az egész életciklusuk során be kell tartaniuk az összes adatvédelmi előírást. Az egyik terület, amelyen a szervezeteknek el kell gondolkodniuk, hogy mi számít »felhatalmazott felhasználónak«? Láttuk azt az esetet, amikor a Roomba fényképeket készített egy nőről a komódon, amelyek a Facebookon kötöttek ki?

A generatív mesterséges intelligencia jogi és etikai szempontjai
Az MI-rendszerek fejlesztőinek biztosítékokat kell bevezetniük annak megakadályozására, hogy rosszindulatú adatok vagy kódok kerüljenek a rendszerbe (Fotó: Unsplash)

Átláthatóság

A szervezeteknek képesnek kell lenniük arra, hogy nyomon kövessék az adatok eredetét, megértsék a forrását, az adatgyűjtés, átalakítás és felhasználás módját. Ennek a folyamatnak ellenőrizhetőnek kell lennie, és a mesterséges intelligencia kimeneteinek megmagyarázhatónak kell lenniük. Ez kihívást jelent az adattudósok számára, mivel a megmagyarázható modellek gyakran kevésbé pontosak, mint a „fekete dobozos” algoritmusok. Ez a követelmény azt is kimondja, hogy a mesterséges intelligenciával interakcióba lépő embereknek tisztában kell lenniük azzal, hogy ezt teszik. Más szóval, a mesterséges intelligencia nem játszhatja meg magát embernek, és egyértelműnek kell lennie, hogy egy bot-tal interakcióba lépünk.

Sokszínűség, megkülönböztetésmentesség és méltányosság

A mesterséges intelligenciának minden csoportot egyformán kell kezelnie, amit talán könnyebb mondani és megtenni. A követelmény azt sugallja, hogy a tervezőknek különböző kultúrákból, tapasztalatokkal és háttérrel rendelkező embereket kellene bevonniuk, hogy segítsenek enyhíteni a sok kultúrát átható történelmi előítéleteket. A mesterséges intelligenciának mindenki számára hozzáférhetőnek kell lennie, függetlenül a fogyatékosságtól vagy más tényezőktől. Ez felveti a kérdést, hogy mi határozza meg a „csoport” fogalmát? Vannak a nyilvánvaló védett csoportok (kor, faj, bőrszín, régió és vallás, nemzeti származás, nem, nem, életkor, fizikai vagy szellemi fogyatékosság vagy egyéb státusz). Vannak más tényezők is, melyeket figyelembe kell venni? Ha én egy biztosítótársaság vagyok, felszámíthatok-e kevesebbet az „egészségesebb” szokásokkal rendelkező embereknek, mint azoknak, akiket „egészségtelennek” tartanak?

Társadalmi és környezeti jólét

A mesterséges intelligencia rendszereknek a társadalom javítására, a demokrácia előmozdítására, valamint környezetbarát és fenntartható rendszerek létrehozására kell törekedniük. Csak azért, mert valamit meg tudsz tenni, még nem jelenti azt, hogy meg is kell tenned. Az üzleti vezetőknek kritikusan mérlegelniük kell a mesterséges intelligencia lehetséges társadalmi hatásait. Milyen költségekkel jár a mesterséges intelligenciamodellek képzése? Ellentétben állnak-e a környezetvédelmi, társadalmi és vállalatirányítási (ESG) politikáival? Már láttunk példákat arra, hogy az olyan közösségi médiaplatformok, mint a TikTok, káros tartalmakat tolnak a gyerekeknek.

A generatív mesterséges intelligencia jogi és etikai szempontjai
A mesterséges intelligencia rendszereknek a társadalom javítására, a demokrácia előmozdítására, valamint környezetbarát és fenntartható rendszerek létrehozására kell törekedniük (Fotó: Unsplash)

Elszámoltathatóság

Az MI-rendszerek tervezőinek elszámoltathatónak kell lenniük a rendszereikért, melyeknek auditálhatónak kell lenniük, és lehetőséget kell biztosítaniuk a döntések által érintettek számára, hogy korrigálják és kijavítsák a tisztességtelen döntéseket. A tervezők felelősségre vonhatók az egyéneknek vagy csoportoknak okozott károkért. Ez felvet egy érdekes kérdést: ki a felelős azért, ha a rendszer elromlik? Az alapmodell szolgáltatója vagy a generatív mesterséges intelligenciát alkalmazó vállalat?

Bár ezek az elvek a felszínen intuitívnak tűnnek, „érdemi eltérések vannak azzal kapcsolatban, hogy hogyan értelmezik ezeket az elveket; miért tartják fontosnak őket; milyen kérdésre, területre vagy szereplőkre vonatkoznak; és hogyan kell végrehajtani őket. A generatív mesterséges intelligencia óriási ígéretet hordoz a világ dolgainak forradalmasítására, de gyors fejlődése számtalan etikai dilemmát vet fel. Ahogy a vállalatok a generatív mesterséges intelligencia birodalmába merészkednek, kiemelkedően fontos, hogy a bevezetés során a kialakult etikai irányelvek mély megértésével navigáljanak. Ezáltal a szervezetek kihasználhatják a mesterséges intelligencia átalakító erejét, miközben biztosítják az etikai normák betartását, védekezve a lehetséges buktatók és károk ellen.

A generatív mesterséges intelligencia jogi és etikai szempontjai

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek