(Képek: LinkedIn, Persistent System)
Bő egy éve, a ChatGPT formájában megismerhette az egész világ, mire lehetnek majd képesek a mesterségesintelligencia-alapmodellek. És ez csak a kezdet volt, mert ma már életünk minden szegmensében, a gazdaság valamennyi szektorában ugyanúgy jelen vannak, mint előbb a számítógépek, majd az internet, aztán pedig a közösségi hálózatok. Mindhárom infokommunikációs hullám megváltoztatta a társadalmat. Az MI hatása még fontosabb és mélyebb lehet, márpedig, ha így van, akkor nemcsak a technológia lehetőségeivel, hanem a létrehozásával, irányításával, valamint a döntéseivel kapcsolatba hozható személyek kilétével is tisztában kellene lennünk. Már amennyiben vannak ilyen személyek…
Mostani ismereteink alapján egyik kérdésre sem adható egyértelmű válasz. Az MI egyre kevésbé átlátható, hanyatlóban az átláthatóság – írja a Stanfordon dolgozó, alapmodelleket kutató Percy Liang.
Hogyan értékeljünk ki fekete dobozokat?
A 2010-es években a nyitottság volt az alapértelmezés: a kutatók dokumentációkat, leírásokat, kódokat és adatsorokat tettek közzé. Most viszont a nyilvánosság keveset tud a legtöbb fejlett modellről, mint például a GPT-4, az általuk használt gyakorlóadatokról, a bennük kifejezett értékekről, gyakorlati használatukról, létrehozóikról, a szerkesztés során alkalmazott munkamódszerekről.

Átláthatóság nélkül nem lehetséges felelősségre vonás, és ez már a közösségimédia-technológiák kezdetén is problémákat okozott. Az Alapmodellek Kutatóközpontja ezért vezette be az Alapmodell Átláthatósági Indexet – az index pont arról szól amiről az elnevezés: az átláthatóságról, mik jellemzik az alapmodelleket, fejlesztőiket stb. Sok aspektusa, például a világos dokumentáció kivitelezhető, vállalatok kezdeményezéseivel összhangba hozható.
A sötétben tapogatózunk
A döntéshozók az MI kezelhetőségében egyetértenek. Az átláthatósági prioritások közül a kiértékelésnek az elsők között kell lennie, amit a nagyobb szabályozások (USA, EU, Egyesült Királyság) mind fontosnak tartanak, csakhogy a modellek tudományos alapjainak, lehetőségeinek és kockázatainak ismerete nélkül a sötétben tapogatózunk. Az Alapmodell Kutatóközpont kb. egy éve dolgozta ki a Nyelvmodellek Holisztikus Kiértékelését (HELM), hasznos útmutatásokkal, most pedig a biztonság kiértékelésének ipari szabványait igyekeznek megfogalmazni.
Különösen az általános, nyílt rendszerekkel nincs könnyű dolguk, mert a lehetőségek szinte végtelenek. Vagy ha sikerül, az eredményeket hogyan mutassák be törvényes formában a nyilvánosságnak?
Nagyon sok kérdés merül fel.
Könnyen elképzelhető, hogy hamarosan ChatGPT-féle asszisztensek segítenek az információ elérésében és a döntéshozásban. Megnyilvánulásaik alapmodelleken alapulnak, és ha azok például előítéletesek egyes kisebbségekkel szemben, tevékenységük súlyos következményekkel járhat. Kiknek az értékei fejeződnek ki általuk? Ha nem átláthatóak, fogalmunk sincs.