Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Mit tanult az USA a többi idei választás mesterségesintelligencia-használatából?

Év elejei félelmeink nem igazolódtak be, egyetlen választást sem csalt el az MI. Sőt, a hatása sem annyira aggasztó, mint hittük. A jövőben persze az lehet, és 2024-ben is hátra van még a legfontosabb megmérettetés.

A mesterséges intelligencia a 2010-es évek eleje, de különösen a 2022 végén indult generatív MI-robbanás óta komoly fegyver valótlan tartalmakkal visszaélő személyek kezében. A technológia kétélű fegyver: áldásai mellett ártó szándékkal is használható. Felesleges ítéletnapra, az emberiség kiirtására gondolni, mert ezek fantáziálások, lázálmok. A közélet manipulálhatósága, a dezinformáció gyártása és terjesztése viszont nagyon is valós veszély.

Választásokba lehet beavatkozni, elvileg a végeredmény is megváltoztatható vele – olvassuk egyre gyakrabban. Ezekre a lehetőségekre komolyan oda kell figyelni, idén pedig különösen, hiszen 2024-ben hetven országban többmilliárd szavazópolgár járult az urnákhoz, és még nincs vége, mert a legjobban várt, a világ sorsát leginkább befolyásoló amerikai elnökválasztás hátra van, november első keddjén kerül sor rá.

Egyetlen idei választás végkimenetelét sem befolyásolta MI

Jó hír, hogy kutatások kimutatták, hogy az MI-vel generált hírek (fake news) és a mélyhamisítványok (deepfakes) nem befolyásolták az Egyesült Királyságbeli, a francia és az európai parlamenti választásokat.

 

Ez a mesterséges intelligencia az amerikai elnökválasztásra készül

 

A londoni Alan Turing Intézet május és augusztus közötti három választásra összpontosítva, nyilvános jelentésekből és híroldalak cikkeiből gyűjtötte az adatokat MI-vel történt visszaélésekről. Az Egyesült Királyságban tizenhat MI alkotta hamis hír, illetve mélyhamisítvány terjesztését, tartalmuk virálissá válását állapították meg, míg a francia és az uniós választásokra összesen tizenegy ilyenre figyeltek fel. Az eredményt egyik sem változtatta meg, a tartalmakat belföldi szereplők és nem-baráti országokkal, például Oroszországgal kapcsolatban álló csoportok fabrikálták. Egyes vélemények szerint a Kreml és hackerserege az USA-ra vár, bár túl sok jel egyelőre nem utal rá. Donald Trump viszont mutatott be kamuvideót, amelyben Taylor Swift állt be az exelnök mögé. Az igazi pár nappal később jelentette be, hogy Kamala Harrist támogatja.

A számok alátámasztják azt a véleményt, hogy a mesterséges intelligencia általi befolyásolásra összpontosítva, hajlamosak vagyunk megfeledkezni a demokráciára hosszabb ideje és mélyebben fenyegető más veszélyekről. Az MI, legalábbis Európában, eddig nem volt hatékony választási dezinformációs eszköz. Részben azért nem lehetett, mert a dezinformációnak kitett személyek régóta elhiszik a sugallt üzeneteket, például, hogy az adott országban túl sok a bevándorló, és a technológia mögötti szereplőknek nem maradt mit manipulálni rajtuk.

 

Veszélyesebbek a botok, mint a mélyhamisítványok

Az intézet elemzéséből kiderül, hogy a mélyhamisítványokkal szembesülő aktív „fogyasztókban” meglévő nézetek erősödtek fel, véleményük összhangban volt a tartalommal. Ezért nem is beszélhetünk befolyásolásról, mert az anyagok nem bizonytalan szavazókat győztek meg, hogy erre vagy arra a jelöltre szavazzanak, ne szavazzanak, hanem előzetes álláspontot szilárdítottak meg.

Furcsán hangzik, de úgy tűnik, még mindig jobban működnek, hatékonyabbak a bevált befolyásolási stratégiák. MI nélküli módszerek a legdivatosabbak: kamu online tartalmak készítése, hírek átírása. A mesterséges intelligencia azért nem nyújt nagy előnyt, mert félrevezető és hamis infók egyszerűbb módszerekkel is jól előállíthatók. Sőt, MI-s anyagnál előfordult, hogy például oroszbaráttá átírt kamuszövegben felejtették az utasításokat (promptokat). Váalasztástechnológiai szakértők az USA-ban ugyanezt figyelték meg: a befolyásolók szeretik még a korábbi módszereket.

 

Kamutartalom

 

A mesterségesintelligencia-veszély máshonnan fenyeget: szintén bevett, hogy botok lepik el közösségimédia-posztok kommentszekcióit: tömeges tevékenységükkel megosztják, elbizonytalanítják a szavazókat. Az Egyesült Államok nyilván felkészült rá, de pont az ilyen befolyásolással szemben nehéz védekezni. Sok botnetet számolnak fel, aztán újabbak, még többen jönnek, még agresszívebben nyomulnak helyettük. A valamelyik jelölt ellen ténykedő, választópolgárokat átállító vagy a szavazástól eltántorító kamuprofilokban szintén nincs semmi új, nem kell hozzájuk generatív MI, már a 2016-os elnökválasztáson bevetették őket, a Cambridge Analytica hatékony háttérszelével.

A tényleges hatás felmérését a sok, de nem elegendő mennyiségű adat is nehezíti. Az MI hatása kevésbé nyilvánvaló, bonyolult nyomon követni. De ha ezen a területen még nem is hatékony, politikusok zaklatásában és a zavarkeltésben eredményesebb. Sokkal jobban megy neki, mint a tömeg-befolyásolás (persze ezzel is befolyásolnak, csak másként, mint a botok). Őket hamisítják, az ő szájukba adnak olyan beszédeket, amiket soha nem mondtak el. Ha pedig nő az illető politikus, akkor szexuális tartalommal, hamisított pornóval igyekeznek lejáratni, hogy lehessen becsmérelni, megfélemlíteni. A hatás sokkoló lehet, akár el is gondolkozhatnak azon, hogy induljanak-e a következő választáson.

 

„Ezt a videót ember készítette”

Ha viszont az idei európai megmérettetéseken tapasztaltaknál nagyobb mértékben használják a mélyhamisítványokat, a technológia javulásával hiteles és valótlan határai még jobban összemosódnak, masszív lehet a hatás, de erre ne a Harris kontra Trump meccsen számítsunk. Magyarán, ha például az ismert bevándorlás-ellenes tartalom felerősítése helyett politikusokat járatnak le mélyhamisítványokkal tömegek előtt, és az anyagok hihetők, komoly válságba kerülhet a demokratikus választás intézménye. Hab a tortán, hogy az előírásokat megszegve, nem tüntetik fel, hogy az adott anyagot MI generálta.

 

Valódi tartalom

 

Az USA-ban, például Colorado és Arizona szövetségi államokban választási biztosoknak és bűnüldözőknek tartott workshopokon szimulálnak „legrosszabb eset” forgatókönyveket MI-fenyegetésekkel. A közösségimédia-platformok, online biztonsági csoportok, tényellenőrző szervezetek, dezinformációkutatók és a rendőrség közötti szorosabb együttműködéssel csökkenthető tartalmak virális hatása.

Szomorú, de ellenállóbbá teheti a felhasználót, hogy a dezinformációt megszoktuk, tisztában vagyunk a rengeteg kamuhírrel, és lassan a valóságot is teljesen megkérdőjelezzük. A 2010-es évek második felének egyik legdivatosabb kifejezése volt a post-truth, és gyakran tűnik úgy, mintha tényleg az igazság utáni világban élnénk. Szkeptikussá, bizalmatlanabbá váltunk, annyi a hamis hír, az opportunista politikus, a bot. MI nélkül is, MI-vel meg pláne, viszont minden jel arra utal, hogy a mostani amerikai elnökválasztást még nem mesterséges intelligencia dönti el.

Egyelőre a politikusok MI-használata sincs kőbe vésve, nincs kimondva, hogy meddig mehetnek el a technológiával. Generált hirdetéseken mindenesetre nem tüntetik fel a gépi szerzőt, de ezt már közel egy éve megszokhattuk Argentínában. Ha így folytatódik az MI-hirdetés lesz a norma, a többire pedig azt kell kiírni, hogy „ezt a videót ember készítette.”

 

Képek: Wikimedia Commons, Flickr

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!