Életünk egyre fontosabb része az adat és az adatokban rejlő információkat kiaknázó tanuló algoritmusok. Az adatok gyűjtéséhez, tárolásához, eléréséhez és a rájuk épülő döntéstámogató rendszerek (a peremhálózatoktól az adatközponton át a többfelhős rendszerekig) működtetéséhez sokféle megoldás közül választhatunk az üzleti igények alapján.
A mesterséges intelligencia segítségével az adatainkban rejlő értékeket, lehetőségeket még gyorsabban kihasználhatjuk. Ehhez ki kell dolgozni és fel kell építeni egy, a generatív mesterséges intelligenciára épülő fejlesztési tervet, amit egy bevált generatív MI platform segítségével meg tudunk valósítani.
De mi is ez a generatív MI?
A generatív MI egy olyan technológia, amely az adatokból új tartalmakat hoz létre, például képeket vagy szövegeket. A generatív MI-alkalmazások többsége a nagy nyelvi modellekre (LLM-ekre) épül. Az LLM-ek azok a mélytanulási modellek, amelyeket nagy adathalmazokon tanítanak be, és amelyek nagy teljesítményt nyújtanak nyelvfeldolgozási feladatokban. Olyan új szövegkombinációkat hoznak például létre, amelyek a betanítási adatok alapján utánozzák a természetes nyelvet.
Emellett vannak olyan gépi tanulásos alapmodellek is (machine learning), amelyeket speciális nyelvi feladatokra tanítanak be olyan tanulóhalmazon, amely az adott feladathoz jobban illeszkedik. Ezek a modellek a bemeneti adatok mintáinak megkülönböztetésére használhatók és a megadott feladatnak megfelelő szövegeket generálnak.
Mind az LLM-modellekre, mind a speciálisabb alapmodellekre jellemző, hogy ha befejezték a tanulási folyamatokat, akkor végeredményét tekintve statisztikailag valószínű kimeneteket generálnak a betanítási állomány alapján,
az abban szereplő szövegekhez hasonló szövegeket hoznak létre, és ebből fakadóan különböző feladatok elvégzésére használhatók.
A nagy nyelvi modelleket (LLM) most már mindenhol, hatalmas mennyiségű adattal lehet kiképezni és finomhangolni. Ugyanakkor nagyon kevés szervezet rendelkezik erőforrásokkal vagy szakértelemmel ahhoz, hogy egy modellt a semmiből tanítson be arra a speciális feladatra, amelyre szeretné használni a generatív mesterséges intelligenciát.
A cégek és szervezetek számára ezért sokkal megvalósíthatóbb lehetőség, hogy a már meglévő, a piacon elérhető előre betanított LLM modelleket finomhangolják, és saját környezetspecifikus adataikkal tanítják tovább.
A hatókör pontosítása és a költségek további csökkentése érdekében az alapmodell lehet egy adott területre, például az egészségügyre, a jogi szolgáltatásokra vagy a pénzügyekre jellemző nyelvi modell.
Az előre betanított modellek finomhangolása vagy bővítése azokra az adatkészletekre korlátozza az adatfelderítés, -feltárás és -bővítés hatókörét, amelyek relevánsak a kiválasztott használati esetekhez. Emellett sokkal kevésbé időigényes, mint egy modell teljes betanítása, viszont relevánsabb és pontosabb modellt eredményez, mint egy előre betanított modell „adott állapotban” való használata.
A modellbővítés népszerű alternatíva
A lekéréses kiterjesztett generáció (retrieval-augmented generation, RAG) egy olyan módszer, amellyel egy meglévő nyelvi modell gyorsan bővíthető vállalati vagy kontextus-specifikus információkkal. A modellbővítés a Dell Technologies tapasztalatai szerint már most is népszerű alternatíva, ebben látja a cég a nyelvi modellek jövőjét.
De mi is ez a RAG? A generatív mesterséges intelligencia legújabb fejlesztésének megértéséhez képzeljünk el egy tárgyalótermet. A bírák az általános jogértelmezésük alapján tárgyalnak és döntenek az ügyekről. Néha egy ügy – például egy műhibaper vagy egy munkaügyi vita – különleges szakértelmet igényel, ezért a bírák bírósági titkárokat küldenek a jogi könyvtárba, ahol precedenseket és konkrét eseteket keresnek, amelyekre majd hivatkozhatnak.
A jó bíróhoz hasonlóan a nagy nyelvi modellek (LLM-ek) is sokféle kérdésre képesek válaszolni, de ahhoz, hogy hiteles, forrásokra hivatkozó válaszokat adjon, a modellnek asszisztensre van szüksége a kutatás elvégzéséhez. A mesterséges intelligencia bírósági titkára a RAG-nak nevezett, modellbővítési folyamat. Arra szolgál, hogy a generatív mesterséges intelligencia modellek pontosságát és megbízhatóságát javítsa. Külső forrásokból származó tényekkel dolgozik, ezért hiánypótló az LLM-ek működésében.
A motorháztető alatt az LLM-ek neurális hálózatok, amelyeket általában a bennük lévő paraméterek számával mérnek. Az LLM paraméterei lényegében azt az általános mintát képviselik, hogy az emberek hogyan használják a szavakat mondatalkotásra.
Ez a mély megértés, amelyet néha paraméterezett tudásnak is neveznek, abban teszi hasznossá a nagy nyelvi modelleket, hogy villámgyorsan válaszoljanak az általános parancsokra. Azonban nem szolgálja ki azokat a felhasználókat, akik mélyebbre szeretnének merülni egy aktuális vagy konkrétabb témában, ehhez van szükség a modellbővítésre (a RAG-ra).
A RAG strukturált és strukturálatlan forrásokból veszi az adatokat, amelyek lehetnek kontextuális vagy naprakész adatok, és amelyekhez a nyelvi modell önmagában nem fér hozzá. A nagymennyiségű adatok kezeléséhez felhasználói oldalon két dologra van szükség. Szakértőkre, akik megfelelő adatokból megfelelő válaszokat tudnak kinyerni, és olyan gépekre, amelyek képesek ezeket a számításokat gyorsan és hatékonyan elvégezni.
(Képek: Dell Technologies)