A kutatóknak és fejlesztőknek köszönhetően a moderátorok munkája egyre nagyobb technikai támogatást élvez. De még így is, a nemkívánatos, sértő, kirekesztő, gyűlöletkeltő, a fejlődésre káros tartalmak eltávolítása zömmel emberi munkát igényel.
A nagy, közösségimédia-platformokon – mint az Instagramon, a Facebookon, vagy a TikTokon – dolgozó moderátorok többsége egy harmadik fél alkalmazottja – olvasható egy, a BBC-n megjelent cikkben.
Ők a világon bárhol lehetnek, a helyüket illetően pedig csak egy biztos: az internet sötét oldalán dolgoznak. Míg ha valaki felmegy a TikTokra, végtelen sorban ömlenek a vicces jeleneteket, komikus helyzeteket, a vidám emberek szórakozását bemutató felvételek. Csak a tánc és a nevetés, gondolhatja bárki első látásra.
De abba már senki nem gondol bele, hogy a moderátoroknak mindeközben horrofilmekbe illő, vagy még ahhoz is túl durva felvételek garmadáját kellett kiszűrniük.
Az akkor még Facebookként ismert Metának 2020-ban 52 millió dolláros jóvátételt kellett fizetnie moderátorainak azon lelki eredetű problémáik miatt, amelyek egyértelműen munkájuk következménye volt.
A BBC-nek nyilatkozó moderátorok többsége traumatizáltságról számolt be, sokan közülük aludni vagy épp enni sem tudtak. Egyikük például egyszer pánikrohamot kapott már attól, hogy egy gyerek felsírt a közelben. Volt olyan is, akinek házastársi vagy családi élete ment rá mindazokra, amit a “munkahelyén látott”.
Mindazonáltal a moderátorok többsége rendkívül büszke a munkájára. Saját tevékenységüket rendkívül hasznosnak érzik, hiszen ha valaki, ők átlátják, hogy mennyi szörnyűségtől kímélik meg a világot, az internet-használó közönséget.
Az MI sem lesz megoldás mindenre
Miközben a moderátorokat nagy számban foglalkoztató cégek – a lehetőségekhez mérten – igyekeznek mindent megtenni munkavállalóik védelme érdekében, a technika is megállíthatatlanul fejlődik. A ChatGPT-t például már úgy trenírozták, hogy az intelligens chatbot még véletlenül se használjon fel – értsd mutasson meg a felhasználóknak – semmit a gyomorforgató felvételekből.
Az OpenAI-nál fejlesztett – még mindig kezdetlegesnek nevezett – moderációs eszköz 90 százalékos pontossággal tudta kiszűrni a káros tartalmakat.
Sokan kételkednek ugyanakkor abban is, hogy az MI lenne a megoldás a moderátorok lelki problémáira. Dr. Paul Reilly, a Glasgow-i Egyetem média és demokrácia tanszékének vezető előadója szerint például az MI “eléggé tompa, bináris módja” lehet a tartalom moderálásának. A szakértő szerint mindez már a szólásszabadság kérdéskörébe tartozhat, és könnyen túlzott blokkolásához vezethet. Az MI-moderáció nyomán eltűnhetnek az árnyalatok, amelyeket az emberi moderátorok képesek lennének azonosítani. Az emberi moderálás elengedhetetlen a platformok számára – jelentette ki Reilly.
A humán moderátorok alkalmazásának legnagyobb problémája, hogy nincs belőlük elég, és a munka hihetetlenül káros azok számára, akik végzik.
A TikTok szóvivője szerint tudják, hogy a tartalom-moderálás nem könnyű feladat, és igyekeznek gondoskodó munkakörnyezetet biztosítani az alkalmazottak számára. Ez azt is jelenti, hogy klinikai támogatást nyújtanak a dolgozóknak, és olyan programokat alakítanak ki, amelyek támogatják a moderátorok jólétét. Emellett olyan technikai automatizmusokat is csatasorba állítottak, amelyek már a káros tartalmak nagy részét kiszűrik.
Az Instagram és a Facebook mögött álló Meta minden együttműködő cégtől megköveteli, hogy 24 órás szakszerű, helyszíni támogatást biztosítson a moderátoroknak. Emellett a moderátorok testre szabhatnak bizonyos munkafelületeket, így bizonyos grafikus tartalmakat elhomályosíthatnak, kitakarhatnak.
Hogy az emberi moderátorokra milyen nagy szükség van, jól érzékelteti egy, a Texas Egyetem, a St. Mary Egyetem, valamint a Virginia Tech szakembereinek tanulmányában szereplő adat. A Blogger, a Facebook, valamint a Google évente mintegy 160 ezer esetben kénytelenek eltávolítani erőszakos és szélsőséges tartalmakat.
(Kép: Dall-e)