Nyitókép: Envato Elements
A mesterségesintelligencia-fejlesztése felgyorsulása világszerte komoly visszhangra talált. A főként a ChatGPT és a szöveges utasításokból (promptokból) képet generáló alkalmazások formájában ismert MI-t egyrészt már a hétköznapokban is használjuk, másrészt a technológia melléfogásai, hamis infói széleskörű aggodalmat váltottak ki.
Március végén több mint ezer ismert személy, főként kutatók, vállaltvezetők, köztük Elon Musk, Stuart Russell vagy a történész Yuval Noah Harari, a GPT-4-nél fejlettebb megoldások ideiglenes – féléves – moratóriumát javasló nyílt levelet tett közzé. Az amerikai MI és Digitális Irányvonal Központ (CAIDP) személyiségjogi aggályok miatt bepanaszolta az ország a téma iránt egyre érzékenyebb Szövetségi Kereskedelmi Bizottságánál a ChatGPT-t fejlesztő OpenAI-t. Konkrét átfogó nemzetközi szabályozás hiányában, Olaszország egészen drasztikusan lépéshez folyamodott: egyszerűen betiltották a ChatGPT használatát (ami persze VPN-ekkel simán kijátszható).
Morális aggályok
Részben a nyílt levélre reagálva, az Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezete, az UNESCO a mesterséges intelligencia etikájára vonatkozó ajánlása teljeskörű alkalmazására hívta fel 193 tagállamának figyelmét. A szervezet szerint az összes szükséges óvintézkedést tartalmazó, globális normatív keretet egyébként az összes tagállam egyöntetűen elfogadta már.
Az ajánlás az első globális léptékű keretrendszer a témakörben, útmutatásként szolgál országoknak, hogy hogyan maximalizálják az MI előnyeit, miközben csökkentik, minimalizálják a technológia használatából adódó kockázatokat – hangsúlyozzák a közleményben. Értékeket és elveket fogalmaztak meg benne, de az érintett területekre vonatkozó részletes szabályozási ajánlásokat is tartalmaz.
Így készül egy deepfake, Stephen Wolframból Isaac Newton lesz (Kép: Den Store Danske)
A szervezetet aggasztják a mesterségesintelligencia-fejlesztések, a szakterületi innováció következményeként felmerülő etikai kérdések. Elsősorban a diszkriminációra, például a nemek egyenlőtlen kezelésére és a sztereotipizálásra gondolnak. Ezeket legplasztikusabban a „rasszista chatbotok”, a rosszul válogatott tanulóadatok miatti elfogult, részrehajló döntések szemléltetik.
A például a mélyhamisítványok (deepfakes), azaz MI által generált kamuképek és -videók, a dezinformáció terjedésére is figyelmeztetnek, és felszólítanak az ellenük folytatott küzdelemre. A magánadatok, a magánszféra védelmére (privacy), az emberi és a környezeti jogok betartására szintén felhívják a figyelmet.
Nem működik az önszabályozás?
Az UNESCO úgy látja, hogy az iparág önszabályozása egyértelműen nem elegendő a morális károk elkerüléséhez, az ajánlás viszont tartalmazza a törvénytisztelő, kárt nem okozó MI-fejlesztésekhez nélkülözhetetlen eszközöket. Ezekkel az eszközökkel, elszámoltathatósággal és jogorvoslati mechanizmusokkal a károk elszenvedői is élhetnek – hívja fel a figyelmet a szervezet.
A készséget, felkészültséget értékelő megoldásokra külön figyelmeztetik a tagállamokat. Az országok így bizonyosodhatnak meg, hogy a munkaerő rendelkezik-e a mesterségesintelligencia-szektor hatékony szabályozását garantáló kompetenciákkal. A szervezet azt is előírja, hogy az országok rendszeresen számoljanak be a területen elért eredményeikről, alkalmazott gyakorlatukról. Négyévente időközi beszámolót kell leadniuk – hangsúlyozzák, bát figyelembe véve a fejlesztések tempóját, rengetegnek tűnik a négy esztendő.
Jelenleg negyven ország dolgozik együtt az UNESCO-val az ajánláson alapuló, nemzeti szintű „félek és ellensúlyok” megfogalmazásában. A többi tagállamot is együttműködésre buzdítják, hogy együtt alakítsák ki az etikus MI-t.
Az elért eredményeket tartalmazó jelentést a szervezet 2023. decemberi, szlovéniai Mesterséges Intelligencia Etikája Globális Fórumán fogják ismertetni.