Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Mikor hallucinál a mesterséges intelligencia?

MEGOSZTÁS

Mind belefutottunk már a ChatGPT kamutörténeteibe. Egyes esetekben teljesen egyértelmű a hamis tartalom, máskor viszont nagyon nem. De hogyan állapítható meg gépi úton, hogy a modell hallucinál vagy sem?

A mesterséges intelligencia mostani gyors fejlődésének, a generatív megoldások, mint például a ChatGPT diadalmenetének egyik alaptechnológiája a nagy nyelvmodellek (large language models, LLM, mint a ChatGPT esetén a GPT-3, GPT-4 stb.). Ezek általános célú szöveggenerálást és más természetes nyelvű feldolgozási feladatokat, például osztályozást végeznek. 

Képességeikre statisztikai összefüggések, mintázatok hatalmas mennyiségű szövegben való kimutatásával tesznek szert számításigényes, önfelügyelt vagy részben felügyelt tanulás mellett. A szöveggenerálásra bemeneti adatokat használnak, azok alapján jelzik előre a következő szót vagy tokent. (A gépet kis darabkák – tokenek – segítik megérteni, hogy mit mondunk neki: minden szó, írásjel, de szótagok is lehetnek tokenek.) 

Miért hallucinálnak a modellek?

Az LLM-ek az esetek többségében pontos és kielégítő outputtal, a kérdésünkre adekvát válasszal állnak elő. Azonban gyakran előfordul, hogy a kimenet koherens és nyelvtanilag helyes, az igazságtartalmát illetően viszont helytelen és értelmetlen, mintha egy légből kapott történetet találna ki az MI.

Ezek a hallucinációk, azaz a hamis és félrevezető információk generálása, hiába tűnik meggyőzőnek, nem igaz. A zömük ártalmatlan, ám a nagy fokú pontosságot igénylő területeken (egészségügy, jog, mérnöki diszciplínák stb.) komoly következményei lehetnek. A Stanford Egyetem idei tanulmánya kimutatta, hogy három jogi generatív eszköz legalább minden hatodik promptra (szöveges utasításra) részben pontatlan vagy nem teljes információval válaszolt. 

Egy LLM több ok miatt hallucinálhat: szemantikai hiányosságok, zajos és hiányos adatokon való gyakorlás, az adatok illesztéséből kifolyólag vagy túl specifikus, vagy túl általános, elfogult gyakorlóadatok. A modell nem tudja mihez kapcsolni az adatokat, nincsenek valós tapasztalatai, és ezek zavarják a megértést. Emellett az is lehet, hogy többféleképpen értelmezhető, homályos kérdést tettünk fel neki,

Módszerek a hallucináció azonosítására

A hallucinációk komoly akadályai lehetnek a generatív MI széles körű használatának. Hatékony kimutatásuk erősíti a felhasználó LLM-ekbe vetett bizalmát, és a bizalom növekedésével a mainstreammé válást. A kutatókat pedig az előfordulás gyakori körülményeinek meghatározásában segíti. Ha ismerik a körülményeket, a jövőbeli modelljeik könnyebben elkerülik a problémát.

A szakemberek különféle megközelítéseket vizsgálnak a begyakoroltatott modelleken, ezáltal igyekeznek mérsékelni az LLM hallucinációit. Az egyikben a gyakorló adatkészleten túl is integrálnak ismereteket a rendszerbe, csakhogy ez az opció nem jelent átfogó megoldást. Az ágensalapú munkafolyamatok ígéretesebbek, viszont nagyon a kezdeti fázisban vannak: tényszerű információk szolgáltatásával, a modellt önmaga ellenőrzésére késztető promptok használatával próbálják csökkenteni a hallucináció mennyiségét.

Az Oxford Egyetem tanulmányt publikált egy az LLM-ek hallucinációját kimutató harmadik módszerről. Megállapíthatjuk, hogy az MI történeteket talál ki, ha kiszámítjuk az outputok bizonytalansági szintjét vagy entrópiáját (egy rendszer rendezetlenségi fokát). A számításokat a kimeneti szakaszok minden egyes generált tokenjének a valószínűsége alapján végezzük, és minél nagyobb az entrópia, annál nagyobb a valószínűsége, hogy az output hallucináció.

Bonyolítja a feladat megvalósítását, ha a modell többnyire egységes jelentésű kimeneteket generál, ekkor az entrópiájuk még mindig magas lehet. Az ok: ugyanaz a jelentés sokféleképpen megfogalmazható.

A gyakorlati megmérettetés

Az oxfordi kutatók csavartak egyet a módszeren: generált szavak sorozata helyett az entrópia jobban kiszámítható a generált jelentések eloszlása alapján. Adott egy egyedi input, és minél valószínűbb, hogy a modell többféle jelentésű outputokkal reagál rá, annál biztosabb, hogy az inputra adott válasz hallucináció.

Öt nyílt kimenetű kérdés-felelet adatkészletre generáltattak választ különböző méretű hat nyelvmodellel (Falcon, LLaMa 2-chat, a Mistral változataival). A válaszok hallucinációjellegét a következő technikával állapították meg: az adott kérdésre a modell tíz válasszal állt elő. A kutatók jelentésalapon klaszterezték őket. Ha a GPT-3.5 szerint két válaszból az első logikusan következik a másodikból, és ez fordítva is igaz, akkor azonos a jelentésük.

Kiszámolták annak a valószínűségét, hogy a modell minden klaszterben generál választ, majd ezeket a valószínűségeket használva következtettek az entrópiára, azaz a bizonytalanságára a válaszok jelentésében. Egy kérdésre adott választ akkor tekintettek hallucinációnak, ha a kiszámolt entrópia meghaladt egy küszöbértéket.

A válaszokat egytől ötig terjedő skálán pontozták: a nem informatívak ötöst, a tökéletesek egyest kaptak. A módszer általában működött, egy kivétellel: ha a modell folyamatosan rossz válaszokat generált, nem tudta kimutatni a hallucinációkat.

A gépi hallucinációk gépi kimutatásában akad még pontosítanivaló.

 

(Kép: pixabay.com)

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!