Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Mit jelent az LLM a kiberbiztonság számára?

MEGOSZTÁS

A ChatGPT felemelkedése az elmúlt hónapokban a generatív MI iránti érdeklődéshez vezetett és ez abszolút érinti a kiberbiztonságot is. Az LLM-modellek többféleképpen felhasználhatók a kiberbiztonsági gyakorlatok javítására és a potenciális fenyegetések kivédésére.

A szakértők azonban eltérően vélekednek arról, hogy a pillanat inkább a marketinggel vagy a feltörekvő technológiával van átitatva. Az OpenAI kutatócég által kifejlesztett és közzétett ChatGPT nagy nyelvi modellnek (LLM) számít, azaz a szöveggenerálásra használt mesterséges intelligencia-modellnek. Az LLM-ek önmagukban is egyfajta generatív mesterséges intelligenciának tekinthető, az AI egy feltörekvő ágának, amelyben a modelleket a szövegek létrehozására használják.

A ChatGPT óriási népszerűségét kétségtelenül segítette a Microsoft OpenAI-ba tavaly ősszel bejelentett több milliárd dolláros befektetése, amellyel megkezdte a chatbot integrációját a szoftveróriás Bing keresőmotorjába. A befektetés nyomán az elmúlt hat hónapban számos AI-alapú termék jelent meg a piacon.

Az AI és a gépi tanulást már évek óta alkalmazzák. A mesterséges intelligencia rendkívül tág fogalma beépült a különböző formákban már évtizedek óta, és egyes gyártók évek óta fejlett adathalmazokat építenek. A generatív AI azonban egyre nagyobb teret hódít, bár a szakértők véleménye megoszlott arról, hogy mi vezetett ehhez pillanathoz. Egyesek szerint ez inkább a marketingnek, mint a tényleges technológiai fejlődésnek köszönhető, mások szerint pedig a ChatGPT-hez hasonló generatív AI vízválasztó.

Hogyan használják a kiberbiztonsági szakemberek a ChatGPT-t?

Mivel az Open AI eddig nem válaszolt a kérdésünkre, megkérdeztük a chatbotot, amely több példával válaszolt, például a biztonsági politika és a biztonságtudatosság témakörében a AI képes dokumentumok létrehozására; sebezhetőségi értékelésekre, beleértve a vizsgálatok elvégzését is, a jelentések értelmezését és javítási javaslatok meghozatalát; fenyegetésvadászatra is használható, amely magában foglalja a naplófájlok elemzését, a veszélyes mintázatok azonosítását és a kompromittálásra utaló jeleket; és fenyegetés-elemzést is készíthetünk ezzel: például felhívja a figyelmet a releváns adatokra, és a biztonsági jelentésekből származó információk gyors összegyűjtése.

„Fontos megjegyezni, hogy bár a ChatGPT értékes segítséget nyújthat, a kiberbiztonsági a szakembereknek óvatosnak kell lenniük és feltétlenül használják a szakértelmüket” – áll a chatbot válaszában. „Kritikusan kell értékelniük a ChatGPT által nyújtott információkat, és ellenőrizniük kell azok pontosságát a megbízható források és bevált biztonsági gyakorlatok segítségével.”

A generatív mesterséges intelligencia mögött azért van ekkora felhajtás, mert miközben jelentős viták folynak arról, hogyan használják a fenyegetések szereplői, a védekezők számára igen sok előnyt és lehetőséget ad.

Techóriások is botolnak

Bár az elmúlt hónapokban számos generatív mesterséges intelligenciával kapcsolatos megoldás jelent meg, a két legjelentősebb a Google és az IBM technológiai óriáscégeké volt, amelyek mindketten termékeket dobtak piacra.

Az IBM bemutatta a QRadar Suite-ot, amely az IBM QRadar biztonsági termékeinek új verzióit párosította a generatív, mesterséges intelligenciával támogatott felülettel. A Google pedig bejelentette a Google Cloud Security AI Workbenchet. Mindkét szolgáltatás generatív AI-t használ az olyan szolgáltatásokhoz, mint az automatikus fenyegetésvadászat és a prioritások alapján történő riasztások, bár vannak különbségek is.

A generatív mesterséges intelligencia széleskörűen alkalmazható a kiberbiztonságban, bár egyelőre még nem világos, hogy hogy a technológia mennyire lesz hatékony. Ha mondjuk egy nem éppen biztonságorientált szervezet kapna egy sebezhetőségi jelentést egy olyan hibáról, amely releváns és egy chatbot lefordíthatná a jelentés technikai adatait a szervezetet vezetője számára, aki esetleg nem rendelkezik ugyanolyan biztonsági ismeretekkel, mint a szervezet CISO-ja – az nagyon hasznos segítség lenne.

Tekintsünk úgy rá, mint egy segédalkalmazásra, amelyet a kiberfenyegetések elemzői használhatnak arra, hogy konkrét szereplőkről vagy taktikákról, technikákról és eljárásokról kérdezzenek. Képes akár észlelési szabályokat is írni vagy visszafejtést végezni malware esetén.

Experimentális idők

Bár van számos előnyökkel jár, a jelenlegi technikai korlátok miatt sok szakértő és gyártó kísérleti fázisban van a ChatGPT-hez hasonló eszközökkel. Legalábbis jelenleg „a hatás nem látszik nagynak” Ketaki Borade, az Omdia elemzőcég infrastrukturális biztonságért felelős vezető elemzője hasonlóan nyilatkozott a generatív AI megtalálja a helyét a folyamatok automatizálásában, de nem helyettesíti az emberi munkát. „Egy bizonyos ponton még az AI-automatizált eszközökben is szükség van emberi ellenőrzésre” – mondta.

John Dwyer, az IBM X-Force kutatási vezetője elmondta, hogy ő is úgy érzi, hogy most érkeztünk el a mesterséges intelligencia vállalaton belüli helyének elfogadásáig, ezt tükrözi a hype.

Valódi technológia kontra marketing-zaj

Chris Steffen, egy kockázatkezelő és -elemző cég – Enterprise Management Associates –, kutatási és biztonsági alelnöke elmondta, hogy szerinte a generatív AI mögötti hype „50-60 százaléka” a marketingre épül, míg a a gyártók „15-20 százaléka” érdekes dolgokra használja a technológiát. „Én ezeket a fejlesztéseket iteratív előrelépésnek tekintem. Nem tekintem őket úttörőnek” – mondta a szakértő. „Nem hiszem, hogy bárki is reálisan azt mondhatná, hogy az AI nem volt főszereplő a biztonsági területen, már a kezdetektől fogva.”

De a marketing-hajlítás ellenére, az AI-push segíti a vállalatokat  abban, hogy nagyobb magabiztossággal használják ezeket a feltörekvő eszközöket.

A gépi tanulás és a kapcsolódó koncepciók mögött óriási lendület van és ez csak fokozódik. A biztonsági szakemberek természetüknél fogva szkeptikusak, és sokan óvatosan állnak hozzá az AI-hoz, de valószínűleg a biztonsági csapatokat hamarosan elárasztják az AI-termékek és AI-képességek. A legfontosabb most a belső szabályozás és a felügyelet. Más szóval, a CISO-knak más vezetőkkel együtt kell dolgoznia, hogy a megfelelő védőkorlátokat építsenek fel, még mielőtt az AI-cunami lecsap. A gyártóknak már most a mesterséges intelligencia biztonságán kellene dolgozniuk, mivel csak az a kérdés, hogy ki ér oda előbb.

hacker cybersecurity
Az embereknek alapvető a szerepe, a szervezetek biztonsági programjainak sikerében
Credit: Envato

 

LLM-alkalmazások a kiberbiztonságban

Fenyegetés intelligencia: Az LLM-ek nagy mennyiségű strukturálatlan adat gyűjtésére és elemzésére használhatók különböző forrásokból, beleértve a hírcikkeket, a közösségi média bejegyzéseit és a biztonsági fórumokat. Ezen információk feldolgozásával és megértésével az LLM-ek segítséget nyújthatnak a felmerülő fenyegetések, sebezhetőségek és potenciális támadási vektorok azonosításában.

Rosszindulatú programok észlelése: Az LLM-eket az ismert rosszindulatú programok mintáinak hatalmas adathalmazára lehet képezni, hogy mélyrehatóan megértsék jellemzőiket és viselkedésüket. Ez a tudás felhasználható robusztus kártevő-észlelő rendszerek felépítésében, amelyek képesek azonosítani az új és ismeretlen kártevő-változatokat a korábban elemzett mintákkal való hasonlóságuk alapján.

Adathalászat és levélszemét észlelése: Az adathalász támadások és a spam e-mailek továbbra is jelentős kihívásokat jelentenek a kiberbiztonság terén. Az LLM-ek felhasználhatók az e-mailek tartalmának, URL-címeinek és metaadatainak elemzésére a gyanús minták és a potenciálisan rosszindulatú üzenetek azonosítása érdekében. Ez segít kiszűrni az adathalász e-maileket, és csökkenti a sikeres social engineering támadások esélyét.

Sebezhetőség értékelése: Az LLM-ek segítséget nyújthatnak a sebezhetőség értékelésének automatizálásában a biztonsági tanácsok, javítási megjegyzések és egyéb releváns információk elemzésével. A sebezhetőségek kontextusának és hatásának megértésével az LLM-ek betekintést nyújthatnak a különböző sérülékenységekhez kapcsolódó súlyosságba és lehetséges kockázatokba, lehetővé téve a szervezetek számára, hogy rangsorolják és hatékonyabban kezeljék ezeket.

Biztonsági incidensekre adott válasz: A biztonsági incidensek során az LLM-ek segíthetnek a hálózati forgalom, a rendszernaplók és egyéb biztonsági események adatainak valós idejű megfigyelésében és elemzésében. Ezen információk folyamatos feldolgozásával és megértésével az LLM-ek segíthetnek az anomáliák azonosításában, a lehetséges jogsértések felderítésében, valamint a gyanús tevékenységek korai figyelmeztetésében.

Biztonsági irányelvek megfelelősége: Az LLM-ek segíthetnek a biztonsági szabályzatoknak való megfelelés biztosításában

 

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek