Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Biztonságosak-e a számítási felhőben tárolt MI-szoftverek?

MEGOSZTÁS

Mi történik magánadatainkkal, ha számítási felhőben lévő mesterséges intelligenciát használunk, hogyan védhetőek meg, és milyen adatbiztonsági szinteket kínálnak a szolgáltatók?

A számítási felhőben tárolt mesterségesintelligencia-szoftverek számának gyors növekedésével a magánadatok, a magánszféra védelme az eddigieknél is fontosabbá vált. A fejlesztők viszont nem mindig építik ezeket az MI-kat tökéletes alapokra ahhoz, hogy kiértékeljék, a szolgáltatók hogyan tárolják, használják és osztják meg az adatokat.

Például, ha egy vállalat megígéri: nem használja modellek gyakoroltatására a fogyasztók adatait, ez azt jelenti, hogy megmarad adataink magántermészete? – teszi fel az elgondolkoztató kérdést Andrew Ng, világhírű gépitanulás-szakértő, majd fel is vázol egy keretet a felhőplatformok magánadat-védelmének szintjeiről.

Négy szint

Az első szinten nincs garancia az adatok magánjellegének megőrzéséről, mondjuk, MI-modelleket úgy gyakoroltat rajtuk (is), hogy aztán kiszivárognak. Sok startup kezdi így, és amikor az ügyfelek kérik, inkább előbb, mint utóbb, jönnek a garanciák is.

A második szinten az adatok nincsenek kitéve a külvilág, kívülállók számára. A vállalat nem gyakoroltat modellt rajtuk, nem posztolja azokat online. Sok eredményes startup, köztük nagy nyelvmodellek (large language models, LLM) szolgáltatói működnek ezen a szinten.

Az adatszivárogtatás elleni védekezésként az emberek (a céghez tartozó alkalmazottak, vállalkozók, értékesítők) csak szükséges folyamatok esetében, például idézéshez, bírósági végzéshez stb. fordulhat az adatainkért. Több nagy felhőszolgáltató ezt a privacy-szintet, a harmadik szintet, a korlátozott hozzáférést kínálja még akkor is, ha a felhasználási szerződésben explicit nem mondja ki.

A negyedik szinten, történjen bármi is, a vállalat nem férhet hozzá az adatainkhoz. Például nincs hozzáférése, és ha a saját laptopomon futtatok LLM-et, senki nem látja szöveges utasításaimat (promptjaimat) és az outputot. Ha végponttól végpontig titkosított üzenetküldő alkalmazást (Signal, WhatsApp) használok, vagy az adatokat titkosító SaaS (szoftver, mint szolgáltatás) rendszerrel dolgozom, a szolgáltató szintén nem fér hozzájuk.

Merre tovább?

A szintek egyértelműnek tűnnek, mégis vannak kombinációk, átfedések közöttük. Egyes generatív MI-k, főként képgenerátorok megismételhetik gyakorlóadataikat, és máris kiszivárogtak. A tréning közbeni adathasználat módja egyébként meghatározza, hogy ez előfordulhat-e vagy sem.

Ha korlátozott a hozzáférés, jobb egész pontosan megfogalmazni, mikor férhet adatainkhoz a cég, és az is kérdés, hogy mennyire maradnak azok magánadatok utána.

Ng hangsúlyozza: nem a biztonság kérdésével foglalkozik. Ha egy cégben megbízunk, hogy a privacy bizonyos szintjét garantálja, akkor nyilvánvalóan az IT-infrastruktúráját is elég biztonságosnak gondoljuk. A kutató javaslata: a szektornak részletesebben, mélyebben kellene beszélnie a privacy-ről, hogy a felhasználók tényleg megértsék, milyen garanciákat kínálnak a szolgáltatók, milyeneket nem.

A téma világszerte egyre többeket, szabályozókat is egyre komolyabban foglalkoztat, és maga az MI is segíthet a megoldásban: LLM-ek részt vehetnek privacy-stratégiák szisztematikus kiértékelésében, javításában, a globális szabályozás változásainak nyomon követésében.

(Képek: Bob Mical, Rawpixel, Medium, Wallpaper Flare)

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek