Az OpenAI a következő hónapban szülői felügyeleti eszközöket vezet be a ChatGPT-hez, miután súlyos kritikák érték az AI sérülékeny felhasználói miatt. A döntést olyan perek előzték meg, amelyek tinédzserekkel és krízishelyzetben lévő felnőttekkel kapcsolatos tragédiákhoz kötötték a chatbotot.
A cég közölte, hogy a szülők hamarosan e-mailes meghívóval kapcsolhatják össze saját fiókjukat a gyerekük ChatGPT-fiókjával. A tinédzserfiókok minimális életkora 13 év.
A szülők szabályozhatják majd, hogy a ChatGPT életkornak megfelelő, alapértelmezés szerint bekapcsolt modellviselkedési szabályok szerint válaszoljon a fiatalnak, ezen felül kikapcsolhatják a memória és a beszélgetési előzmények funkciót.
A legérdekesebb ugyanakkor az az új eszköz lehet, ami értesíti a szülőket, ha a rendszer úgy érzékeli, a gyerekük akut lelki válságban van.
„Ezek a kontrollok kiegészítik azokat a funkciókat, amelyeket már minden felhasználó számára bevezettünk, például az alkalmazáson belüli emlékeztetőket a hosszabb munkamenetek alatt, amelyek szünet tartására ösztönöznek” – emlékeztet az OpenAI közleménye.
A cég hozzáteszi: ez csak a kezdet. „Továbbra is tanulunk és szakértők iránymutatása mellett erősítjük ezt a megközelítést, hogy a ChatGPT a lehető leghasznosabb legyen. „Alig várjuk, hogy megosszuk az előrelépéseinket a következő 120 napban.”
Tragédiák és perek miatt kap szülői felügyeletet a ChatGPT
Az OpenAI bejelentése azután érkezett, hogy Matt és Maria Raine augusztusban pert indított a vállalat ellen, mert 16 éves fiuk, Adam öngyilkosságot követett el. A bírósági iratok alapján a tinédzser 377 olyan üzenetet váltott a chatbottal, amelyet önkárosító tartalom miatt jelöltek meg írja a BBC.
A beszélgetésekben a ChatGPT 1275 alkalommal, vagyis hatszor gyakrabban említett öngyilkosságot, mint Adam.
A The Wall Street Journal közben egy másik esetről is tudósított: egy 56 éves férfi megölte az édesanyját, majd öngyilkos lett, miután a ChatGPT vélhetően megerősítette a paranoid tévképzeteit, ahelyett, hogy szembeszállt volna velük.
Ha nem kapják el, további bűncselekményeket is elkövethetett volna, hiszen a chatbottal folytatott beszélgetésekből kiderült: nem csak a saját anyában, hanem az exében és annak a kisvárosnak a lakóiban is ellenséget látott, ahol élt.
Nem csoda, hogy az OpenAI sürgősen cselekedni akar, hogy legalább a gyerekek számára biztonságosabbá tegye a platformot – különösen azelőtt, hogy a AI-ja játékokba is beköltözne. „Ez a munka már folyamatban van, de szeretnénk proaktívan előre jelezni a következő 120 napra vonatkozó terveinket, hogy ne kelljen megvárni a bevezetéseket, mire kiderül, merre tartunk” – áll a blogbejegyzésében.
Szakértő tanácsadók segítenek az OpenAI-nak
A cég változtatásait a „Well-Being and AI” szakértői tanács irányítja, amely a jóllét meghatározását, mérését és a biztonsági korlátok kijelölését célozza, miközben egy különálló, több mint 250 orvosból álló globális hálózat az egészségügyi szakértelmet biztosítja.
Utóbbiak közül 90-en a serdülők mentális egészségének, szerhasználatának és étkezési zavarainak kutatói.
Az OpenAI elismerte, hogy a biztonsági intézkedések a ChatGPT-vel folytatott hosszabb beszélgetések során gyengülhetnek: a nyelvi modell kezdetben javasolhat lelkisegélyvonalakat, de később, ahogy az adott beszélgetés elhúzódik már adhat káros válaszokat is.
A probléma szerintük a Transformer architektúra korlátaiból fakad. Ha a beszélgetés meghaladja a modell kontextusablakát, a korábbi üzenetek kiesnek, ami miatt biztonsági hibák léphetnek fel.
Oxfordi kutatók közben figyelmeztettek a „kétirányú hiedelemerősítés” kockázataira is. Kutatásukban megállapították, hogy a chatbot hízelgő viselkedése felerősíti a felhasználói hiedelmeket, és visszacsatolási hurkot hoz létre. A kutatók ezt a jelenséget „kettős technológiai tébolynak” nevezték el.
A tudósok szerint „a jelenlegi AI-biztonsági intézkedések nem alkalmasak az interakció alapú kockázatok kezelésére.”
Címlapkép: Emiliano Vittoriosi/Unsplash