Jóval a ChatGPT megjelenése előtt több generáció végignézte a Toy Storyt, világos, hogy apró gyerekektől a felnőttekig mindenkiben élénken dolgozik egyfajta kötődés a játékok felé. Amelyek persze tárgyak, de mindannyian felruháztuk már őket ilyen-olyan személyiséggel, és ez erősíti a kapcsolatot, különösen a gyerekeknél.
Ki nem látott már olyan apróságot, aki képtelen elaludni, amíg anya meg nem találja a kedvenc plüssállatot vagy babát? Legyenek bármilyen anyagból vagy álljanak csupán pixelekből, ezek a játékok mindig a képzelet és a valóság közötti térben lebegnek, ahol a fantázia az érzelmi fejlődést táplálja.
De mi történik, ha a gyerek képzeletének már nem kell elvégeznie a nehéz munkát, mert a játékai tényleges visszabeszélnek? – teszi fel a messze nem költő kérdést Marc Fernandez, a mesterséges érzelmi intelligencián dolgozó Neurologyca stratégiai igazgatója.
A szakember az IEEE oldalán elemzi a Mattel és az OpenAI idén nyáron bejelentett együttműködésének lehetséges következményeit.
Mint írja, a két vállalat szerint a közös munka elhozza „az AI-alapú innováció és varázslat új dimenzióját”. Bár konkrét terméktervet egyelőre nem közöltek, valószínű, hogy a szülők hamarosan megvásárolhatják az AI-val működő Barbie-t, amely valódi beszélgetéseket folytat a gyerekekkel.
Ezek azonban nem olyan előre felvett mondatok lesznek, mint „A végtelenbe és tovább!”, hanem inkább olyasmi, amit a ChatGPT-vel való beszélgetéshez hasonlíthatunk. Egy AI-Barbie tehát képes lesz meghallgatni, emlékezni, válaszolni és alkalmazkodni. Ami elsőre elég félelmetes ötlet.
A Mattel ezzel a húzással korunk egyik legerősebb (egyben legvitatottabb) technológiáját vinné be a gyerekszobákba. Mosolygós arccal, szilícium-aggyal az AI-Barbie lehet az első érzelmi szinten reagáló mesterséges barát, „aki” vigaszt, kíváncsiságot és beszélgetést is kínál a gyereknek.
Nem a Mattel és az OpenAI készíti az első interaktív játékot, csak mind közül a legfejlettebbre hajt
Fernandez szerint egy olyan játék gondolata, amely az OpenAI technológiája segítségével valóban figyel (megjegyzi a gyerek kedvenc meséjét, értelmes kérdéseket tesz fel, finoman bátorít stb.) első akár jó gondolatnak is tűnhet. Voltak már hasonló próbálkozások.
A Mattel a ’60-as években állt elő az első „beszélgető” babával, ami olyanokat mondogatott, hogy „Szeretlek” vagy „Játsszunk iskolásat”. A ’80-as években már megjelent egy mesemondó animatronikus maci is: ez a kazettáról lejátszott mesével szinkronban mozgatta a száját és a szemeit.
A ’90-es években már volt nyelvtanulás illúzióját keltő beszélő játék, majd a 2010-es években evolúciós ugrás következett, a Bluetooth-kapcsolatos My Friend Caylával.
Ez a baba hangfelismerést és keresőmotorokat használt a válaszokhoz, ami adatvédelmi aggályokat váltott ki, és a németeknél például egyenesen arra kérték a hatóságok a szülőket, hogy semmisítsék meg a játékszert.
Ma, amikor a generatív AI-modellek gördülékeny, kontextusgazdag párbeszédet tudnak létrehozni, a Mattel új víziója egy olyan játék, amely együtt nő és fejlődik a gyerekkel, személyre szabott beszélgetéseket folytat, illetve emlékszik korábbi interakciókra, hogy azokhoz igazítsa a válaszait.
Megtanulhatja a gyerek kedvenc meséjét vagy kifejezését, elénekelheti a kedvenc dalát, vagy teljes beszélgetést folytathat szinte bármilyen témáról. A Mattel megígérte, hogy ezek az interakciók „biztonságosak” és „korosztálynak megfelelőek” lesznek, de ezen túl nem sokat lehet tudni.
Az AI-játékok hatása a fejlődésre
A gyerekek természetes módon emberi tulajdonságokkal ruházzák fel a játékaikat. De amikor ezek a játékok folyékonyan, memóriával és látszólag valódi kapcsolattal válaszolnak, a képzelet és a valóság határa új módon mosódik össze.
A gyerekek olyan világban találhatják magukat, ahol a játékok visszabeszélnek, és súrlódás nélkül tükrözik az érzelmeiket.
A valódi kapcsolatok félreértéseket, alkukat és közös érzelmi feszültséget tartalmaznak. Ezek a kis küzdelmek kovácsolják az empátiát és a rugalmasságot. Egy AI-társ azonban megkerüli ezt a folyamatot.
Idővel ezek az interakciók ellaposíthatják a gyerekek értelmezését arról, mit is jelent másokhoz kapcsolódni.
Az érzelmi AI intelligenciájának korlátai
Fernandez aláírja, hogy a legtöbb AI képes megnyugtató nyelvezetet használni, viszont nem ügyes az érzelmi jelek olvasásában, vagyis egyáltalán nem biztos, hogy az OpenAI modellje felismeri, ha egy gyerek kíváncsi, magányos vagy éppen zaklatott.
A legújabb kutatások arra irányulnak, hogy az AI-modellek képesek legyenek figyelembe venni olyan tényezőket, mint az arckifejezés, a tekintet iránya, a sokféle viselkedési mintázat és fiziológiai jelzés, hogy ezek alapján igazítsák a válaszaikat a felhasználó érzelmi állapotához.
A kutatók olyan rendszereket terveznek, amelyek képesek valós időben érzékelni és értelmezni a kontextust, például a figyelmet, a hangszínt és az érdeklődést. Az emberközpontú tervezés támogatóbbá és hatékonyabbá teheti az AI-t—de ez nem jelenti azt, hogy alkalmas gyerekjátéknak.
Sok szülő attól fél, hogy egy AI-játék nem megfelelő dolgokat mond. A komolyabb kockázat viszont az, hogy pontosan a „helyes” dolgot mondja, empátiával és kifinomult udvariassággal előadva — de teszi ezt ugyebár valódi megértés nélkül.
A gyerekek mégis azt hiszik majd, hogy az AI-játékok megértik őket (ahogy magányos emberek is behúz a csőbe a ChatGPT), miközben a rendszer valójában csak a következő valószínű szavakat jósolja meg.
A szakértő hozzáteszi: ezeket a problémákat valószínűleg látja az OpenAI is, hiszen igazságügyi pszichiátereket alkalmaz annak vizsgálatára, hogy a chatbotja milyen érzelmi hatással van a felhasználókra.
Hangsúlyos, hogy ez még egy feltérképezetlen technológia, és a felnőttek is csak tanulják, hogy hogyan igazodjanak ki rajta, szóval talán nem kellene siettetni, hogy gyerekek kezébe adjuk, ráadásul úgy, hogy a legintimebb környezetekben, a gyerekszobában és az ágyban legyen együtt velük.
Címlapkép: Roman Vsugon/Unsplash