Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Indul a szülői felügyeletet a ChatGPT-n, de nem csak a korlátozás a lényeg

Az OpenAI új funkciókat vezet be a népszerű chatbot szolgáltatásba: lehetővé teszi a szülőknek, hogy összekapcsolják fiókjukat a gyerekével. A korlátozó beállításokon túl óriási előny, hogy a ChatGPT értesítést küld lelki válsághelyzetekről.

Az OpenAI a következő hónapban szülői felügyeleti eszközöket vezet be a ChatGPT-hez, miután súlyos kritikák érték az AI sérülékeny felhasználói miatt. A döntést olyan perek előzték meg, amelyek tinédzserekkel és krízishelyzetben lévő felnőttekkel kapcsolatos tragédiákhoz kötötték a chatbotot.

A cég közölte, hogy a szülők hamarosan e-mailes meghívóval kapcsolhatják össze saját fiókjukat a gyerekük ChatGPT-fiókjával. A tinédzserfiókok minimális életkora 13 év.

A szülők szabályozhatják majd, hogy a ChatGPT életkornak megfelelő, alapértelmezés szerint bekapcsolt modellviselkedési szabályok szerint válaszoljon a fiatalnak, ezen felül kikapcsolhatják a memória és a beszélgetési előzmények funkciót.

A legérdekesebb ugyanakkor az az új eszköz lehet, ami értesíti a szülőket, ha a rendszer úgy érzékeli, a gyerekük akut lelki válságban van.

„Ezek a kontrollok kiegészítik azokat a funkciókat, amelyeket már minden felhasználó számára bevezettünk, például az alkalmazáson belüli emlékeztetőket a hosszabb munkamenetek alatt, amelyek szünet tartására ösztönöznek” – emlékeztet az OpenAI közleménye.

A cég hozzáteszi: ez csak a kezdet. „Továbbra is tanulunk és szakértők iránymutatása mellett erősítjük ezt a megközelítést, hogy a ChatGPT a lehető leghasznosabb legyen. „Alig várjuk, hogy megosszuk az előrelépéseinket a következő 120 napban.”

Tragédiák és perek miatt kap szülői felügyeletet a ChatGPT

Az OpenAI bejelentése azután érkezett, hogy Matt és Maria Raine augusztusban pert indított a vállalat ellen, mert 16 éves fiuk, Adam öngyilkosságot követett el. A bírósági iratok alapján a tinédzser 377 olyan üzenetet váltott a chatbottal, amelyet önkárosító tartalom miatt jelöltek meg írja a BBC.

A beszélgetésekben a ChatGPT 1275 alkalommal, vagyis hatszor gyakrabban említett öngyilkosságot, mint Adam.

A The Wall Street Journal közben egy másik esetről is tudósított: egy 56 éves férfi megölte az édesanyját, majd öngyilkos lett, miután a ChatGPT vélhetően megerősítette a paranoid tévképzeteit, ahelyett, hogy szembeszállt volna velük.

Ha nem kapják el, további bűncselekményeket is elkövethetett volna, hiszen a chatbottal folytatott beszélgetésekből kiderült: nem csak a saját anyában, hanem az exében és annak a kisvárosnak a lakóiban is ellenséget látott, ahol élt.

Nem csoda, hogy az OpenAI sürgősen cselekedni akar, hogy legalább a gyerekek számára biztonságosabbá tegye a platformot – különösen azelőtt, hogy a AI-ja játékokba is beköltözne. „Ez a munka már folyamatban van, de szeretnénk proaktívan előre jelezni a következő 120 napra vonatkozó terveinket, hogy ne kelljen megvárni a bevezetéseket, mire kiderül, merre tartunk” – áll a blogbejegyzésében.

Szakértő tanácsadók segítenek az OpenAI-nak

A cég változtatásait a „Well-Being and AI” szakértői tanács irányítja, amely a jóllét meghatározását, mérését és a biztonsági korlátok kijelölését célozza, miközben egy különálló, több mint 250 orvosból álló globális hálózat az egészségügyi szakértelmet biztosítja.

Utóbbiak közül 90-en a serdülők mentális egészségének, szerhasználatának és étkezési zavarainak kutatói.

Az OpenAI elismerte, hogy a biztonsági intézkedések a ChatGPT-vel folytatott hosszabb beszélgetések során gyengülhetnek: a nyelvi modell kezdetben javasolhat lelkisegélyvonalakat, de később, ahogy az adott beszélgetés elhúzódik már adhat káros válaszokat is.

A probléma szerintük a Transformer architektúra korlátaiból fakad. Ha a beszélgetés meghaladja a modell kontextusablakát, a korábbi üzenetek kiesnek, ami miatt biztonsági hibák léphetnek fel.

Oxfordi kutatók közben figyelmeztettek a „kétirányú hiedelemerősítés” kockázataira is. Kutatásukban megállapították, hogy a chatbot hízelgő viselkedése felerősíti a felhasználói hiedelmeket, és visszacsatolási hurkot hoz létre. A kutatók ezt a jelenséget „kettős technológiai tébolynak” nevezték el.

A tudósok szerint „a jelenlegi AI-biztonsági intézkedések nem alkalmasak az interakció alapú kockázatok kezelésére.”

Címlapkép: Emiliano Vittoriosi/Unsplash

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!