A mesterséges intelligencia által generált képek és videók erős befolyással vannak az emberi döntésre, ami az amerikai politikai választások közeledtével új löketet adott az OpenAI-nak. A ChatGPT-t fejlesztő cég olyan megoldással állt elő, ami a például szintén az általuk fejlesztett DALL-E által létrehozott deepfake tartalmak felismerésére szolgál.
A vállalat kedden osztotta meg a deepfake detektáló megoldását az MI által generált dezinformációk felismerésére szakosodott kutatók egy kis csoportjával, hogy valós helyzetekben tesztelhessék az eszközt, és segítsenek azt továbbfejleszteni. Az OpenAI szerint az ehhez hasonló megoldásokra égető szükség van.
A deepfake felismerőnek is vannak vakfoltjai
A deepfake felismerő egyébként a DALL-E 3 által készített képek 98,8 százalékát helyesen azonosította, azaz felismerte, hogy MI generálta képről van szó. Az OpenAI azonban arra hívta fel a figyelmet, hogy az eszközt nem arra tervezték, hogy más népszerű generátorok, például a Midjourney és a Stability által készített képeket is felismerje.
Az OpenAI arról is beszámolt a New York Timesnak, hogy olyan módszereken is dolgozik, amelyek az MI által generált hangokat „vízjelekkel” látja el, hogy azokat egyetlen másodperc alatt azonosítani lehessen. Természetesen arra is törekednek, hogy ezek a vízjelek nehezen eltávolíthatók legyenek.
Fókuszban a mesterséges intelligencia
A Google-höz és a Metához hasonlóan az OpenAI is csatlakozott a Coalition for Content Provenance and Authenticity-hez(C2PA), amely a digitális tartalmak hitelesítését tűzte a zászlajára. A C2PA szabványa egyfajta „fogyasztási ajánlási címke” a képek, videók, zenék és egyéb fájlok megtekintéséhez, meghallgatásához. Ezutóbbi megmutatja, hogy a tartalmak mikor és hogyan készültek, mikor és hogyan változtatták meg őket – beleértve a mesterséges intelligenciával történt módosításokat.
A mesterséges intelligenciát fejlesztő cégekre amúgy is egyre nagyobb figyelem összpontosul, hogy felhívják a felhasználók figyelmét a mesterséges intelligencia veszélyeire is. Az OpenAi megoldása mindenesetre üdvözítő, főleg egy olyan időszakot követően, ahol a deepfake hang- és képanyagok már befolyással voltak politikai kampányok végkimenetelére, jó példa erre Szlovákia vagy Tajvan.
(Kép: Freepik)