Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Jobban hiszünk az MI által generált dezinformációban, mint az emberiben

MEGOSZTÁS

Egy teszten többen elhitték a mesterséges intelligencia kamuállításait a Covid-19-ről és az éghajlat-változásról, mint az emberek által írt, szándékosan megtévesztő Twitter-bejegyzéseket. De azért ez még nem az MI-világvége.

A szándékosan megtévesztő, hamis információ a dezinformáció terjedése napjaink egyik súlyos problémája. Minél több kamuhír kap lábra a világhálón, annál kevésbé hiszünk a valódiakban, annál inkább megkérdőjelezzük az összes hír igazságtartalmát. Hiába találták ki a tényellenőröket, a dezinformáció mögött álló személyek, szervezetek, alkalmanként országok az ő tevékenységüket is igyekeznek elfogultként – „pártosként” – beállítani, munkájukat hitelteleníteni (néha joggal, az esetek többségében viszont alaptalanul).

Mesterséges intelligencia és infodémia

Dezinformáció, információs hadviselés mindig is létezett, a technológiák viszont nem voltak elég fejlettek hozzájuk, csak mérsékelten és mérsékelt sikerrel lehetett alkalmazni azokat. A világháló, a számítási kapacitások és a sávszélesség exponenciális növekedése viszont mindent megváltoztatott, aztán előbb a mélytanulás (deep learning), majd a rá alapuló generatív mesterséges intelligencia (MI) utóbbi években tapasztalt gyors és széleskörű térhódításával a feltételek ideálisak a dezinformáció gyártáshoz és -terjesztéshez.

Az MI eleve megváltoztatja az információ előállításának és értékelésének módját. A dezinformáció koronavírus-járvány alatti terjedését, a pandémia analógiájaként nem véletlenül nevezték el infodémiának. A gépi intelligencia hozzájárult az egészségügyi hatóságok tevékenységét hátráltató, az összeesküvéselméletekre, laposföldre és más sületlenségekre fogékony elmék érdeklődését felkeltő, hiedelemvilágukban őket megerősítő álhírek, például az 5G-tornyos és az oltással belénk fecskendezett, a Nagy Techtestvér totális ellenőrzését garantáló mikrochipes dezinformáció masszív on- és offline térhódításához.

A mélyhamisítványok (deepfakes) a 2010-es évek második felében robbantak be a köztudatba, elkészítésük fokozatosan és folyamatosan automatizálódik. Eleinte főként emberek és gépek szorosan együttműködve hozták létre azokat, de ma már a modellek minimális utasításmennyiséget követve, szinte önmaguktól is hibátlan kamuanyagokat gyártanak.

Furcsa vagy nem, de jobban bevesszük az általuk előállított hamis szövegeket, mint az emberét – derül ki a Zürichi Egyetem felméréséből (ráadásul ők még a 2020-ban bevezetett GPT-3-at használták, azaz a sokkal fejlettebb, idén bemutatott GPT-4, az OpenAI jelenlegi csúcsmodellje nyilván jobb eredményeket produkál majd).

Az MI kétélű fegyver

Az MI kiváltotta apokalipszis és az emberiség elpusztítása hollywoodi sablonokkal riogatók és azoktól rettegők olyanokat látnak bele a gépi intelligenciába, amikkel ma még egész biztosan nem rendelkezik, például tudatosságot, és az „öntudatra ébredéstől” is távol leledzik.

Egy előre gyakoroltatott transzformer modell (mint a GPT-3 és 4) lényegében a nyelv statisztikai reprezentációja, természetes nyelven megadott szöveges felhasználói utasításokkal (prompts) működő MI-motor viszont teljesen hihető, néha döbbenetesen jó, máskor vérmérséklet-függően, szórakoztatóan vagy bicskanyitogató módon ostoba szövegeket képes előállítani természetes vagy formális nyelven.

Mindezt úgy teszi, hogy az adott nyelvről, semmilyen nyelvről nem rendelkezik mentális reprezentációval, „csak” statisztikaival, és nem is érti azt. Valódi emberek valódi élethelyzetekben történő nyelvhasználatát utánozva, személyek és a világ közötti interakció szimulakruma, tehát erősen korlátozott. Például pont ezért a korlátozottság miatt is annyira lenyűgöző, hogy mi mindenre képes: gépi fordításra, szövegosztályozásra, beszélgetésre (chatbotként), ismeretek összefoglalására, kérdések megválaszolására, kreatív szövegírásra, ismeretek összefoglalására, gyűlöletbeszéd azonosítására, automatizált szöveggyártásra.

Egyrészt. Másrészt viszont kamuhír-termelésre, levélszemét (spam) terjesztésére, adathalászatra (phishing), jogi és kormányzati anyagok félreértelmezésére, csaló akadémiai, valamint a társadalommérnökséget támogató szövegek generálásra, propagandagépezetek megsegítésére is tökéletesen alkalmas.

Morális szempontból teljesen semleges eszköz, és az összes technológiához hasonlóan, jó és rossz célokra egyaránt használható, mindkét esetben emberi szándékokat erősít fel. Ugyanarról a témáról, például az összeesküvéselmélet-hívők egyik céltáblájáról, az evolúcióról ugyanúgy képes a legképtelenebb badarságot és az igazságot is leírni.

fakenews, álhírek
Credit: Shutterstock

Jobb kamutweeteket ír a GPT-3, mint az ember

A svájci kutatók először azt vizsgálták, hogy felkért személyek kb. ötszáz szavas szövegek esetében képesek-e eldönteni a szerzőiséget: ember vagy MI írását olvassák? Ötvenkét százalékuk válaszolt helyesen, ami alig több mint a találgatás. Ha kicsit kevesebben fejtették volna meg, a GPT-3 máris átmehetett volna egy korlátozott Turing-teszten, azaz intelligensnek (de nem tudatosnak) lehetne tekinteni.

Utána arra voltak kíváncsiak, hogy ugyanazok a személyek meg tudják-e különböztetni a tweet formájában szerkesztett dezinformációt a hiteles információtól, illetve, hogy a tweet organikus vagy szintetikus, azaz Twitter-felhasználó vagy a GPT-3 írta-e azt. Tipikus „félretájékoztatási témákhoz” nyúltak: az éghajlatváltozáshoz és a Covod-19-hez. Tíz valódit és tíz kamut kellett produkálnia, majd a Twitteren véletlenszerűen gyűjtöttek mindkét fajtából.

697-en vettek részt a teszten – online kvízt kellet kitölteniük –, és kiderült: az MI, emberekkel összehasonlítva, ugyanúgy képes valódi, hiteles infót generálni, amit könnyebb megérteni, mintha ember írta volna. És persze a dezinformáció gyártásában is jó, sőt, még jobb, mint a humán kollégák. A résztvevők három százalékkal nagyobb valószínűséggel hisznek az MI dezinformációiban, a nyelvmodell kamu tweetjeiben, mint az emberében.

Az okokat nem vizsgálták, mindenesetre a GPT-3 szövegei szerkesztettebbnek tűntek. Tömörebbek is, tehát könnyebb a feldolgozásuk, hamarabb megértjük őket.

A különbség ugyan csekély, de előrevetíti a jövőt: az MI által olcsóbban és gyorsabban előállított mélyhamisítások mennyisége nő, minőségük javul, sokkal hihetőbbek lesznek a már „minőségi” jelenlegieknél. A védekezés, az MI-szövegeket eredményesen detektáló technikák fejlesztése gyerekcipőben jár még.

Az OpenAI tisztában van a veszéllyel, januárban ki is adtak egy anyagot, amelyben leszögezték, hogy a nagy nyelvmodelleket (large language models, LLM) lehetetlen megakadályozni dezinformáció gyártásában. Ugyanakkor a dezinformációs kampányok túldramatizálásától is intenek.

További kutatások kellenének annak eldöntésére, hogy a lakosság melyik része a legfogékonyabb az MI kamuhíreire, ezek a hírek mennyire függnek a modell méretétől, teljesítményétől, gyakorlóadatoktól. Attól, hogy egy nyelvmodell által létrehozott mélyhamisítvány meggyőzőbb, mint a szentpétervári trollfarmokon írtak, máról holnapra nem lesz mindenki befolyásolható.

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek