Andrew Kaung közel két évig dolgozott a TikTok felhasználói biztonsággal foglalkozó elemzőjeként, előtt pedig a Metánál töltött be hasonló pozíciót. A TikToknál az algoritmusok többek között a 16 évesek számára adott ajánlásait vizsgálta.
Azt találta, hogy egyes tinédzser fiúk számos esetben kapnak erőszakos, pornográf, illetve nőgyűlölő nézeteket hirdető bejegyzéseket ajánlatként. A TikTok (más közösségimédia-cégekhez hasonlóan) mesterséges intelligencia eszközöket használ a káros tartalom túlnyomó többségének eltávolítására, illetve azok továbbküldésre az emberi moderátoroknak.
Az AI azonban nem tud mindent azonosítani, illetve nem tévedhetetlen. (Hírhedt esetként maradt meg például a Google fiaskója, amikor egy különösen erőszakos auschwitzi jelenetet a mesterséges intelligencia „sportként” aposztrofált.) Minden olyan videó, amit az algoritmus nem távolított el vagy nem jelentettek veszélyes tartalomként, az csak bizonyos limit felett kerül újra manuális ellenőrzésre. Ez a TikToknál 10000 megtekintés. A cég szerint a szabályokat sértő tartalmak 99 százalékát eltávolítják, mielőtt elérnék ezt a számot.
Az algoritmust a felhasználói aktivitás érdekli
További probléma, hogy a közösségi média elsődleges mozgatórugója a felhasználói aktivitás, amelynek egyik formája a videók jelentése az értelemszerű megtekintés után. Már Frances Haugen is jelezte, és Kuang szintén tapasztalta, hogy ennek jelzésér a válasz a struccpolitika, ahol a költségek felülírják a biztonságos felhasználói élményeket. Ez üzleti szempontból rövid távon érthető, mivel az algoritmusok az elköteleződésből élnek – függetlenül attól, hogy az pozitív vagy negatív. A felhasználóknak már a regisztrációkor nyilatkozniuk kell érdeklődési körükről, ám ez a használat, a like-ok, kommentek és megosztások nyomán finomodik.
Előfordult például, hogy egy fiatal felhasználó like-olta egyik barátja kommentjét, ám mikor rájött, az valójában erőszakos üzenetet hordoz, megszüntette a like-ot. Ez azonban az algoritmust nem zavarta, onnan kezdve számos hasonló, destruktív tartalom érkezett a felhasználó idővonalára. Pszichológusok ezt a gyakorlatot kifejezetten veszélyesnek és tinédzserek esetén a személyiségfejlődésre különösen ártalmasnak látják, mert fiatal korban az ember utánzással tanul a leginkább, márpedig, ha sok ilyen tartalmat fogyaszt, akaratlanul is követni kezdheti az erőszakos példát.
A TikTok szerint az algoritmusokat nem a felhasználó neme határozza meg. Azonban a tapasztalat azt mutatja, hogy míg a fiatal lányok főként popsztárokkal, szépséggel, bőrápolással vagy sminkkel kapcsolatos tartalmakat látnak, a tizenéves fiúk elé könnyen kerülhet erőszakos tartalom, mivel a korosztály preferenciái gyakran hajlanak az ilyen videók felé. Ezt érzékeli a mesterséges intelligencia, majd alkalmazza is a legnagyobb elköteleződés érdekében.
Kié a felelősség?
Az Egyesült Királyságban most hatályba lépett törvény arra kényszeríti a közösségi média cégeket, hogy ellenőrizzék a gyermekek életkorát, és ne engedjék megjelenni a káros szexuális vagy erőszakos tartalmakat. Az Ofcom médiaszabályozó hatóság azonban úgy látja, jelenleg a cégek nem tesznek valódi különbséget a felnőtt és a gyerek felhasználók között. (A legtöbb közösségi felületre 13 éves kortól lehet regisztrálni, de a nem megfelelő szülői beállítások és odafigyelés mellett számos esetben előfordult, hogy már 7-8 éves gyerekeknek is volt álnév alatt profiljuk, átlagéletkor megadásával.)
A Meta és a TikTok szakértői úgy vélik, hogy valójában felhasználóik nagyon kis része van csak kitéve veszélyes tartalmaknak, és közleményeik szerint folyamatosan fejlesztik mind a mesterséges intelligencia eszközöket, mind a hús-vér moderátorok számát. A TikTok például több mint 40000 moderátort foglalkoztat, a Meta pedig több mint ötvenféle eszközzel ellenőriz. Szakértők azonban egyetértenek, hogy a teljesen biztonságos használat még messze van.
Pszichológusok elsősorban ezért a szülők felelősségére figyelmeztetnek, hogy már egészen kicsi kortól kezdve el kell kezdeni megtanítani a gyerekeknek a káros tartalmak felismerését, meg kell nekik magyarázni hatásmechanizmusokat.
Ehhez elsősorban megfelelő szülő-gyerek viszonyra van szükség, hogy meg tudják beszélni, ha egy gyerek valamilyen problémás tartalommal találkozik. Sok szakember azonban elismeri, hogy a 21. századi rohanó világban pontosan az a probléma, hogy ez a biztos kapcsolati alap hiányzik, így még nagyobb (lenne) a cégek felelőssége. A brit szabályozás éppen ezért mutathat példát más országok számára is.