Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Az MI segít kiaknázni az adatainkban rejlő értéket

MEGOSZTÁS

Az adat hatalmas kincs, a mesterséges intelligencia pedig segíthet a benne rejlő értékeket, lehetőségeket még gyorsabban kihasználni. Ehhez csak ki kell dolgozni és fel kell építeni egy, a generatív mesterséges intelligenciára épülő fejlesztési tervet, de hogyan is néz ez ki és hogyan kezdhetünk hozzá?

Életünk egyre fontosabb része az adat és az adatokban rejlő információkat kiaknázó tanuló algoritmusok. Az adatok gyűjtéséhez, tárolásához, eléréséhez és a rájuk épülő döntéstámogató rendszerek (a peremhálózatoktól az adatközponton át a többfelhős rendszerekig) működtetéséhez sokféle megoldás közül választhatunk az üzleti igények alapján.

A mesterséges intelligencia segítségével az adatainkban rejlő értékeket, lehetőségeket még gyorsabban kihasználhatjuk. Ehhez ki kell dolgozni és fel kell építeni egy, a generatív mesterséges intelligenciára épülő fejlesztési tervet, amit egy bevált generatív MI platform segítségével meg tudunk valósítani.

De mi is ez a generatív MI?

A generatív MI egy olyan technológia, amely az adatokból új tartalmakat hoz létre, például képeket vagy szövegeket. A generatív MI-alkalmazások többsége a nagy nyelvi modellekre (LLM-ekre) épül. Az LLM-ek azok a mélytanulási modellek, amelyeket nagy adathalmazokon tanítanak be, és amelyek nagy teljesítményt nyújtanak nyelvfeldolgozási feladatokban. Olyan új szövegkombinációkat hoznak például létre, amelyek a betanítási adatok alapján utánozzák a természetes nyelvet. 

Emellett vannak olyan gépi tanulásos alapmodellek is (machine learning), amelyeket speciális nyelvi feladatokra tanítanak be olyan tanulóhalmazon, amely az adott feladathoz jobban illeszkedik. Ezek a modellek a bemeneti adatok mintáinak megkülönböztetésére használhatók és a megadott feladatnak megfelelő szövegeket generálnak. 

Mind az LLM-modellekre, mind a speciálisabb alapmodellekre jellemző, hogy ha befejezték a tanulási folyamatokat, akkor végeredményét tekintve statisztikailag valószínű kimeneteket generálnak a betanítási állomány alapján,

az abban szereplő szövegekhez hasonló szövegeket hoznak létre, és ebből fakadóan különböző feladatok elvégzésére használhatók.

A nagy nyelvi modelleket (LLM) most már mindenhol, hatalmas mennyiségű adattal lehet kiképezni és finomhangolni. Ugyanakkor nagyon kevés szervezet rendelkezik erőforrásokkal vagy szakértelemmel ahhoz, hogy egy modellt a semmiből tanítson be arra a speciális feladatra, amelyre szeretné használni a generatív mesterséges intelligenciát.

A cégek és szervezetek számára ezért sokkal megvalósíthatóbb lehetőség, hogy a már meglévő, a piacon elérhető előre betanított LLM modelleket finomhangolják, és saját környezetspecifikus adataikkal tanítják tovább.

A hatókör pontosítása és a költségek további csökkentése érdekében az alapmodell lehet egy adott területre, például az egészségügyre, a jogi szolgáltatásokra vagy a pénzügyekre jellemző nyelvi modell. 

Az előre betanított modellek finomhangolása vagy bővítése azokra az adatkészletekre korlátozza az adatfelderítés, -feltárás és -bővítés hatókörét, amelyek relevánsak a kiválasztott használati esetekhez. Emellett sokkal kevésbé időigényes, mint egy modell teljes betanítása, viszont relevánsabb és pontosabb modellt eredményez, mint egy előre betanított modell „adott állapotban” való használata.

A modellbővítés népszerű alternatíva

A lekéréses kiterjesztett generáció (retrieval-augmented generation, RAG)  egy olyan módszer, amellyel egy meglévő nyelvi modell gyorsan bővíthető vállalati vagy kontextus-specifikus információkkal. A modellbővítés a Dell Technologies tapasztalatai szerint már most is népszerű alternatíva, ebben látja a cég a nyelvi modellek jövőjét.

De mi is ez a RAG? A generatív mesterséges intelligencia legújabb fejlesztésének megértéséhez képzeljünk el egy tárgyalótermet. A bírák az általános jogértelmezésük alapján tárgyalnak és döntenek az ügyekről. Néha egy ügy – például egy műhibaper vagy egy munkaügyi vita – különleges szakértelmet igényel, ezért a bírák bírósági titkárokat küldenek a jogi könyvtárba, ahol precedenseket és konkrét eseteket keresnek, amelyekre majd hivatkozhatnak.

A jó bíróhoz hasonlóan a nagy nyelvi modellek (LLM-ek) is sokféle kérdésre képesek válaszolni, de ahhoz, hogy hiteles, forrásokra hivatkozó válaszokat adjon, a modellnek asszisztensre van szüksége a kutatás elvégzéséhez. A mesterséges intelligencia bírósági titkára a RAG-nak nevezett, modellbővítési folyamat. Arra szolgál, hogy a generatív mesterséges intelligencia modellek pontosságát és megbízhatóságát javítsa. Külső forrásokból származó tényekkel dolgozik, ezért hiánypótló az LLM-ek működésében.

A motorháztető alatt az LLM-ek neurális hálózatok, amelyeket általában a bennük lévő paraméterek számával mérnek. Az LLM paraméterei lényegében azt az általános mintát képviselik, hogy az emberek hogyan használják a szavakat mondatalkotásra.

Ez a mély megértés, amelyet néha paraméterezett tudásnak is neveznek, abban teszi hasznossá a nagy nyelvi modelleket, hogy villámgyorsan válaszoljanak az általános parancsokra. Azonban nem szolgálja ki azokat a felhasználókat, akik mélyebbre szeretnének merülni egy aktuális vagy konkrétabb témában, ehhez van szükség a modellbővítésre (a RAG-ra).

A RAG strukturált és strukturálatlan forrásokból veszi az adatokat, amelyek lehetnek kontextuális vagy naprakész adatok, és amelyekhez a nyelvi modell önmagában nem fér hozzá. A nagymennyiségű adatok kezeléséhez felhasználói oldalon két dologra van szükség. Szakértőkre, akik megfelelő adatokból megfelelő válaszokat tudnak kinyerni, és olyan gépekre, amelyek képesek ezeket a számításokat gyorsan és hatékonyan elvégezni.

(Képek: Dell Technologies)

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek