Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Áll a bál az Európai Unió kiberbiztonsági ügynökség háza táján

MEGOSZTÁS

Két, 2025 őszén kiadott ENISA-jelentés kapcsán nemrég komoly aggályok merültek fel a kiberbiztonsági közösségben. A Westfälische Hochschule kutatói arra lettek figyelmesek, hogy a dokumentumban hivatkozott linkek és tanulmányok valójában nem léteznek. Több ponton pedig LLM-szerű, AI‑generált hibák látszanak.

Az Európai Unió kiberbiztonsági ügynöksége, az ENISA, két, 2025 őszén kiadott jelentésében váratlan hibákkal bukkantak fel. A Westfälische Hochschule kutatói észrevették, hogy a hivatkozások többsége nem létezik, és a hibák mintázata egyértelműen az AI által generált tartalmakra jellemző hallucinációkra utal.

Mi történt pontosan?

A két jelentés, amelyet 2025 októberében és novemberében tettek közzé, összesen több száz lábjegyzettel rendelkezett. Az egyik dokumentumban 492 lábjegyzetből 26 bizonyult hibásnak, ami elsőre talán nem tűnik kritikusnak, de egy hivatalos ügynökségi jelentés esetén súlyos hitelességi kérdéseket vet fel.

A hibás linkek és források vizsgálata során kiderült, hogy az ENISA a jelentések szerkesztési folyamatában mesterséges intelligenciát (AI) használt. A gépi tartalomgyártás előnye, hogy gyorsítja a szerkesztést és az adatelemzést, ugyanakkor ellenőrzés nélkül hibázásra ad lehetőséget és elhitelteleníti a kész anyagot. Így történt ez a jelentéssekkel is. A felbukkanó hibák, például téves hacker-csoport-nevek és működésképtelen linkek az AI asszisztenseknek nem szúrtak szemet. Vélhetően azért mert ezek gyakori LLM-szerű hallucinációk, amelyeket az LLM nem tud kiszűrni a saját munkája során.

ENISA hivatalos álláspontja

Az ügynökség elismerte az AI használatát, ugyanakkor a hibákat emberi tévedésnek minősítette. Bár a szervezet szerint az AI csupán szerkesztési segédeszköz volt, az eset rávilágít arra, hogy még egy európai kiberbiztonsági hatóság szintű szervezet sem mentes a validáció hiányából.

Az ENISA AI-használata azért keltett nagy figyelmet, mert a jelentésekben megjelent hibás vagy kitalált források közvetlenül az AI „hallucinációiból” származhattak, amelyeket senki nem ellenőrzött humán ooldalról. Tehát nem volt végső, emberi validáció.

A gyors és automatizált tartalomgyártás súlyosan befolyásolta a dokumentumok hitelességét, ami különösen kritikus egy hivatalos kiberbiztonsági ügynökség esetében. Hiszen ha ezek a források hibásak vagy nem ellenőrzöttek, az azokra épülő rendszerszintű döntése vagy stratégiák is értelmüket vesztik.

ENISA és az AI-használat: tények egy percben

Mi történt? Két, 2025 őszén kiadott ENISA-jelentés számos hibás vagy kitalált forrást tartalmazott.

AI szerepe: Az ügynökség az AI-t a jelentések szerkesztési folyamatában használta. A hibás lábjegyzetek és linkek egyértelműen LLM-szerű „hallucinációkra” utalnak.

Hivatkozott számok: Egy jelentésben 492 lábjegyzetből 26 volt hibás.

Hivatalos állás: Az ENISA az AI használatát elismerte, de a hibákat emberi tévedésnek minősítette.

 

(Kép: Freepik)

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!