Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

RAG 2.0: rendezett mesterséges intelligencia

MEGOSZTÁS

Mi az a RAG (vagy mondjuk RAG 1.0)? Nagyon egyszerű formában a RAG magában foglalja a megfelelő adatok kiválasztását (a vállalat belső tárolójából) egy kérdés megválaszolásához, és ezek megadásával a nagy nyelvi modell számára. Ezt követően az LLM elemezni tudja az adatokat, és egy választ állít elő.

A RAG 1.0 olyan, mint egy csoportos projekt, ahol minden csapattag elszigetelten dolgozik a saját különálló komponensén, különösebb koordináció vagy együttműködés nélkül. A nyelvi modell egy csapattag, aki a végső kimenet vagy jelentés létrehozásán dolgozik a saját tudása és megértése, valamint bármilyen betáplált dokumentum alapján.

A kereső egy másik csapattag, akinek az a feladata, hogy külső forrásokból, például könyvekből vagy weboldalakról keressen releváns információkat. Bár ez működik, a RAG 1.0 forgatókönyvben a folyamat során kevés kohézió van a csapattagok között. A nyelvi modell kevés kiválasztott megértésre hivatkozva generálja azt, amit a „retriever-modul” talált.

A visszakereső anélkül keres, hogy pontosan tudná, mire van szüksége a nyelvi modellnek. A tudásforrásokat pedig csak különálló, egymástól független tárolóként kezelik. A végén megpróbálják összeilleszteni az elszigetelt munkakomponenseiket: a nyelvi modell vázlatát, a visszakeresett információrészleteket és a hivatkozott anyagokat. Ez működik, de ha alaposan tanulmányozzuk, rengeteg technikát fejlesztettünk és fejlesztünk még mindig, mert ez az adhoc integráció nem optimális, és hajlamos a hibákra vagy következetlenségekre.

RAG 2.0, avagy a rendezett mesterséges intelligencia
A nyelvi modell egy csapattag, aki a végső kimenet vagy jelentés létrehozásán dolgozik Fotó: Unsplash+)

A megoldás: RAG 2.0

A RAG 2.0, olyan, mint egy elit csapat, mely számos korábbi projektben képzett és zökkenőmentesen dolgozott együtt. Mindegyik szerepkör mélyen megérti a másikét: a nyelvi modell a csapat vezetője, aki irányítja az átfogó stratégiát és a végső kimenetet. A kereső a kutatási szakértő, aki pontosan érti, hogy a csapatvezetőnek milyen információra van szüksége, és hogyan találja meg gyorsan a tudásforrásokban. A tudásforrások olyanok, mint a képzett csapattársak, akik hatékony módszereket dolgoztak ki a releváns információk rendszerezésére és szolgáltatására, hogy támogassák a teljes csapatot. Ez a RAG 2.0 csapat a projekt minden fázisában szorosan együttműködik és koordinál. A nyelvi modell és a visszakereső a kezdetektől fogva kéz a kézben dolgozik. A tudásforrások optimalizálva vannak, hogy hatékonyan, a csapat igényeihez igazodó információkat nyújtsanak.

A RAG 2.0-ban egyetlen előre betanított modell van, melyet az adott feladatra vagy adatkészletre finomhangolnak, és ez az egyetlen modell végzi az összes különböző komponenst: a tudásbázis vektoros beágyazását, a tudásbázisból való visszakeresést és a visszakeresett tudáson alapuló válaszgenerálást. A RAG 1.0-val ellentétben, ahol a RAG 2.0-ban különálló komponensek, mint például egy kész beágyazási modell, vektoros adatbázis és nyelvi modell vannak összefűzve: A modellt egy nagy korpuszon előzetesen betanítják az általános tudás megszerzése érdekében. Ezt az előre betanított modellt aztán végponttól végpontig tartó módon finomhangolják a célfeladaton vagy adatkészleten.

A finomhangolás során megtanulja beágyazni és tárolni a feladatspecifikus tudásbázist a saját memóriájában vagy paramétereiben. Elsajátítja a releváns tudás lekérdezését ebből a tárolt memóriából és adatbázisból. Kombinálni a lehívott tudást a nyelvi megértésével, hogy pontos válaszokat generáljon. Tehát lényegében az egyetlen RAG 2.0 modell tartalmazza és optimalizálja az összes különböző komponenst (beágyazás, lekérdezés, generálás). Adott feladathoz a végponttól végpontig tartó képzési folyamaton keresztül.

RAG 2.0, avagy a rendezett mesterséges intelligencia
A RAG 2.0-ban egyetlen előre betanított modell van (Fotó: Unsplash+)

Tehát a RAG 2.0 ugyanaz, mint a finomhangolás?

Nem igazán, A RAG 2.0 és a hagyományos finomhangolás közötti legfontosabb különbség a nyelvi modellel együtt a visszakeresési komponens végponttól végpontig tartó képzése és optimalizálása. A hagyományos finomhangolás során egy előre betanított nyelvi modellt veszünk, és egy adott feladatra vagy adatkészletre tovább képezzük. A modell azonban továbbra is csak arra a tudásra korlátozódik, amellyel az előzetes képzés során találkozott. A RAG 2.0-val a nyelvi modellnek a célfeladaton történő finomhangolása mellett a visszakeresési komponenst is közösen, végponttól végpontig tartó módon képezzük. Ez lehetővé teszi, hogy a modell megtanulja, hogyan kódolja és tárolja a feladatspecifikus tudást külső forrásokból a saját memóriájába és paramétereibe a finomhangolás során.

Optimalizálja a visszakeresési mechanizmust, hogy a bemenet alapján hatékonyan hívja le a releváns tudást ebből a kódolt memóriából. Tanulja meg, hogyan lehet a legjobban felhasználni a visszakeresett tudást a feladatra adott pontos válaszok generálásában. A RAG 2.0 tehát nem csupán finomhangolja a nyelvi modellt. Így valójában bővíti a modell tudását azáltal, hogy a finomhangolás során lehetővé teszi számára új feladatspecifikus tudás felvételét és tárolását. Ami kritikus, optimalizálja a tudás kódolásának, a releváns tudás kinyerésének és a generáláshoz való felhasználásának teljes csővezetékét. Végponttól végpontig tartó módon.

RAG 2.0, avagy a rendezett mesterséges intelligencia

 

(Kiemelt kép: Unsplash+)

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!