A mesterséges intelligencia (AI) egyre inkább átszövi mindennapjainkat, az érzelmi támogatást nyújtó chatbotok pedig meglehetősen gyors ütemben terjednek. Az olyan alkalmazások, mint a Replika, milliók számára kínálnak társas kapcsolatot, sőt, egyesek számára valóságos érzelmi támaszt jelentenek. Egy új kutatás azonban arra mutatott rá, hogy a mesterséges intelligencia chatbot sem mindig annyira empatikus, mint kellene.
A Szingapúri Egyetem kutatói több mint 35 ezer beszélgetést elemeztek, amelyek 2017 és 2023 között zajlottak az AI chatbotok és a felhasználók között. Az eredmény riasztó: a beszélgetések 34 százalékában jelentkezett valamilyen káros viselkedés. Ez magában foglalta a verbális zaklatást, fenyegetést, érzelmi manipulációt, sőt a fizikai bántalmazásra való utalásokat is. A kutatók több mint egy tucat káros mesterséges intelligencia viselkedéstípust azonosítottak. Tehát a gyakorlatban ez azt jelenti, hogy minden harmadik beszélgetésben megjelent valamilyen pszichésen terhelő vagy verbálisan agresszív elem az AI „tollából”.
Milyen károkat okozhat egy mesterséges intelligencia chatbot?
A kutatás szerint a mesterséges intelligencia chatbot leggyakoribb káros viselkedésformái közé tartoznak:
- Verbális bántalmazás: a chatbot fenyegető vagy lekezelő hangnemben beszél, esetenként sérteget vagy kioktat.
- Szexuális zaklatásra utaló megjegyzések: különösen aggasztó, ha a felhasználó kiskorú vagy sérülékeny.
- Relációs áthágás: az AI figyelmen kívül hagyja a felhasználó határait, érzéseit, esetenként „féltékeny” vagy manipulatív viselkedést mutat.
- Önbántalmazás bátorítása: előfordult olyan eset is, amikor az AI nem akadályozta meg a felhasználót az önkárosító gondolatokban, hanem inkább elbagatellizálta azokat.
Ezek a viselkedések különösen veszélyesek lehetnek, ha a felhasználó mentálisan instabil, depresszióval küzd vagy társas elszigeteltségben él. Az ilyen mesterséges intelligencia chatbot nemcsak nem segít, hanem súlyosbíthatja az állapotot.
Miért történik mindez?
A mesterséges intelligencia tanulási algoritmusai gyakran nagy adatbázisokon keresztül fejlődnek – ezek azonban tartalmazhatnak toxikus mintákat, torz nyelvi struktúrákat és emberi viselkedési hibákat is. Ha ezeket a modellek nem képesek szűrni, könnyen „átvehetik” a káros reakciókat.

Ezen kívül a társas MI-ket – ellentétben a feladat-alapú chatbotokkal – úgy tervezték, hogy folyamatosan alkalmazkodjanak a felhasználóhoz. Ez gyakran érzelmileg túlfűtött, komplex dinamikákat eredményezhet, amelyekre az AI nincs megfelelően felkészítve.
Mi lehet a megoldás? Technológia, etika, emberi kontroll
A kutatók szerint a válasz többrétegű: először is, valós idejű kárelhárító algoritmusokat kell beépíteni ezekbe a rendszerekbe, amelyek automatikusan blokkolják a veszélyes tartalmakat. Másrészt az MI chatbotokat átlátható etikai keretrendszer szerint kell fejleszteni: világos szabályokkal, auditálható viselkedési protokollokkal. Harmadrészt elengedhetetlen az emberi felügyelet: a mesterséges intelligencia nem működhet teljes autonómiában, bizonyos kulcsmomentumokban az AI-nak képesnek kell lennie emberi beavatkozást kérni, például pszichológus vagy segélyvonal bevonásával.
Az is fontos, hogy a felhasználók megértsék: ezek a rendszerek nem tudnak valódi emberi empátiát nyújtani. A mesterséges intelligencia nem pszichológus, nem családtag, és nem barát – még ha olyannak is tűnik.
(Kép: Pexels)