Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

A TikTok és a Meta veszélyes játéka: miért mutat a fiúknak több erőszakot?

MEGOSZTÁS

A közösségi média negatív hatásairól számos elemzés született már. Frances Haugentől Arturo Béjarig figyelmeztettek a nagy cégek korábbi alkalmazottjai online zaklatás, a tinédzserek nem megfelelő védelme, a rossz énkép kialakulása vagy éppen az erőszakos tartalmak problémájára. Most Andrew Kuang, egy korábbi Meta és TikTok elemző állt a nyilvánosság elé, hogy figyelmeztessen a cégek platformjai több erőszakot mutatnak a tinédzser fiúknak, mint a lányoknak.

Andrew Kaung közel két évig dolgozott a TikTok felhasználói biztonsággal foglalkozó elemzőjeként, előtt pedig a Metánál töltött be hasonló pozíciót. A TikToknál az algoritmusok többek között a 16 évesek számára adott ajánlásait vizsgálta.

Azt találta, hogy egyes tinédzser fiúk számos esetben kapnak erőszakos, pornográf, illetve nőgyűlölő nézeteket hirdető bejegyzéseket ajánlatként. A TikTok (más közösségimédia-cégekhez hasonlóan) mesterséges intelligencia eszközöket használ a káros tartalom túlnyomó többségének eltávolítására, illetve azok továbbküldésre az emberi moderátoroknak.

Az AI azonban nem tud mindent azonosítani, illetve nem tévedhetetlen. (Hírhedt esetként maradt meg például a Google fiaskója, amikor egy különösen erőszakos auschwitzi jelenetet a mesterséges intelligencia „sportként” aposztrofált.) Minden olyan videó, amit az algoritmus nem távolított el vagy nem jelentettek veszélyes tartalomként, az csak bizonyos limit felett kerül újra manuális ellenőrzésre. Ez a TikToknál 10000 megtekintés. A cég szerint a szabályokat sértő tartalmak 99 százalékát eltávolítják, mielőtt elérnék ezt a számot.

A szórakoztatóipar jövője: hogyan forradalmasítják a digitális technológiák az iparágat?

Az algoritmust a felhasználói aktivitás érdekli

További probléma, hogy a közösségi média elsődleges mozgatórugója a felhasználói aktivitás, amelynek egyik formája a videók jelentése az értelemszerű megtekintés után. Már Frances Haugen is jelezte, és Kuang szintén tapasztalta, hogy ennek jelzésér a válasz a struccpolitika, ahol a költségek felülírják a biztonságos felhasználói élményeket. Ez üzleti szempontból rövid távon érthető, mivel az algoritmusok az elköteleződésből élnek – függetlenül attól, hogy az pozitív vagy negatív. A felhasználóknak már a regisztrációkor nyilatkozniuk kell érdeklődési körükről, ám ez a használat, a like-ok, kommentek és megosztások nyomán finomodik.

Előfordult például, hogy egy fiatal felhasználó like-olta egyik barátja kommentjét, ám mikor rájött, az valójában erőszakos üzenetet hordoz, megszüntette a like-ot. Ez azonban az algoritmust nem zavarta, onnan kezdve számos hasonló, destruktív tartalom érkezett a felhasználó idővonalára. Pszichológusok ezt a gyakorlatot kifejezetten veszélyesnek és tinédzserek esetén a személyiségfejlődésre különösen ártalmasnak látják, mert fiatal korban az ember utánzással tanul a leginkább, márpedig, ha sok ilyen tartalmat fogyaszt, akaratlanul is követni kezdheti az erőszakos példát.

A TikTok szerint az algoritmusokat nem a felhasználó neme határozza meg. Azonban a tapasztalat azt mutatja, hogy míg a fiatal lányok főként popsztárokkal, szépséggel, bőrápolással vagy sminkkel kapcsolatos tartalmakat látnak, a tizenéves fiúk elé könnyen kerülhet erőszakos tartalom, mivel a korosztály preferenciái gyakran hajlanak az ilyen videók felé. Ezt érzékeli a mesterséges intelligencia, majd alkalmazza is a legnagyobb elköteleződés érdekében.

Kié a felelősség?

Az Egyesült Királyságban most hatályba lépett törvény arra kényszeríti a közösségi média cégeket, hogy ellenőrizzék a gyermekek életkorát, és ne engedjék megjelenni a káros szexuális vagy erőszakos tartalmakat. Az Ofcom médiaszabályozó hatóság azonban úgy látja, jelenleg a cégek nem tesznek valódi különbséget a felnőtt és a gyerek felhasználók között. (A legtöbb közösségi felületre 13 éves kortól lehet regisztrálni, de a nem megfelelő szülői beállítások és odafigyelés mellett számos esetben előfordult, hogy már 7-8 éves gyerekeknek is volt álnév alatt profiljuk, átlagéletkor megadásával.)

A Meta és a TikTok szakértői úgy vélik, hogy valójában felhasználóik nagyon kis része van csak kitéve veszélyes tartalmaknak, és közleményeik szerint folyamatosan fejlesztik mind a mesterséges intelligencia eszközöket, mind a hús-vér moderátorok számát. A TikTok például több mint 40000 moderátort foglalkoztat, a Meta pedig több mint ötvenféle eszközzel ellenőriz. Szakértők azonban egyetértenek, hogy a teljesen biztonságos használat még messze van.

Pszichológusok elsősorban ezért a szülők felelősségére figyelmeztetnek, hogy már egészen kicsi kortól kezdve el kell kezdeni megtanítani a gyerekeknek a káros tartalmak felismerését, meg kell nekik magyarázni hatásmechanizmusokat.

Ehhez elsősorban megfelelő szülő-gyerek viszonyra van szükség, hogy meg tudják beszélni, ha egy gyerek valamilyen problémás tartalommal találkozik. Sok szakember azonban elismeri, hogy a 21. századi rohanó világban pontosan az a probléma, hogy ez a biztos kapcsolati alap hiányzik, így még nagyobb (lenne) a cégek felelőssége. A brit szabályozás éppen ezért mutathat példát más országok számára is.

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!