A mesterséges intelligenciát számos területen alkalmazzák, és cseppet sem meglepő, hogy katonai célokra is. Erről a területről törvényszerűen kevés információ szivárog ki, az USA Védelmi Minisztériumának Fejlett Védelmi Kutatási Projektek Ügynöksége, ismertebb nevén a DARPA programjairól tudunk, de például az ilyen jellegű orosz és kínai kutatásfejlesztésekről szinte semmit. A dezinformációban nagyon erős Oroszország az MI-ben futottak még kategória, Kína viszont az USA után a terület második legfontosabb fejlesztője, és ezért is nyugtalanító, hogy semmiféle ezirányú infó nincs róluk.
Mitől félhetünk?
A mesterséges intelligenciával kapcsolatos tényleges, tehát tudományosan és technológiailag megalapozott aggályok, s nem tudományos fantasztikum ihlette világvége, ítéletnap, emberiséget legyilkoló és hasonló alap és bizonyítékok nélküli félelmek három csoportba sorolhatók.
Az első a dezinformáció, amikor mélyhamisítványokkal (deepfakes), robottelefonokkal, botnettel és kamu közösségimédia-profilokon keresztül terjednek a valótlan információk hamis hírek (fake news). A kommentszekcióban sokszor csak botok kommunikálnak egymás között.
Autonóm fegyverrendszer
A második a gépi tanuláshoz kapcsolódik. A modellek rengeteg adaton gyakorolnak, és mivel az adatokat emberek hozzák létre, nem feltétlenül objektívek. Rosszindulatú véleményeken, sztereotípiákon trenírozott MI-k „élesben” is hasznosíthatják, amit megtanultak, például bőrszín és nemi hovatartozás alapján elfogultan, előítéletesen viszonyulhatnak személyekhez. Képzeljük el, ha például egy ilyen MI-nek kell büntetőperben véleményt alkotnia, esetleg döntést hoznia.
Katonai szempontból a harmadik csoport a legfontosabb. Mint mindenhol, a fegyveres erőknél is terjed az automatizáció, és köztudottan fejlesztenek úgynevezett gyilkos robotokat (killer robots), drónokat. Ezek az autonóm rendszerek emberi felügyelet nélkül azonosíthatnak célpontokat, elvileg le is lőhetik őket (ami szintén elvileg tilos). Róluk sem szivárog ki sok adat, ugyanakkor nyilvánvaló, hogy fontos fejlesztések történnek. A 2020-as évek elején használatukat Líbiában, Szomáliában dokumentálták, és Ukrajna orosz inváziója során történt alkalmazásukról szintén reppentek fel hírek.
Az ő szigorú szabályozásuk és a szabályozás betartatása kulcsfontosságú lenne.
Az irányelvek
Szeptemberben közel száz ország, köztük az Egyesült Államok, az Egyesült Királyság, Ausztrália, Kína és Japán részvételével, Szöulban tartották a Felelős Mesterséges Intelligencia a Katonaságban (REAIM) csúcstalálkozót, ahol a jelenlévők többsége nem kötelező irányelveket hagyott jóvá.
A bemutatott dokumentum hangsúlyozta az emberi ellenőrzés, az alapos kockázatbecslés és a mesterséges intelligencia tömegpusztító fegyverek fejlesztésére történő felhasználása elleni biztosítékok jelentőségét. A dokumentumot több mint hatvan ország (USA, Egyesült Királyság, Japán, Ausztrália stb.) írta alá, Kína és további majdnem harminc állam képviselői viszont nem.
A tervben szereplő irányelvek szerint az MI-nek nem szabad veszélyeztetnie a békét és a stabilitást, megszegnie az emberi jogokat, nem bújhat ki a humán kontroll alól, nem akadályozhat katonai technológiákkal kapcsolatos más globális kezdeményezéseket.
A szöuli csúcstalálkozó
A tervezet szilárd irányítást, emberi felügyeletet és az MI-képességekkel rendelkező fegyverekkel való visszaélések, elterjedésük megelőzését írja elő. Erre a területre is ki kell dolgozni az emberi jogokkal harmonizáló nemzeti stratégiákat, nemzetközi szabványokat.
Az anyag előrelátható és előre nem látható kockázatok kezelése érdekében sürgeti az országok közötti információmegosztást és együttműködést.
A műszaki szabványok, végrehajtási mechanizmusok, az autonóm fegyverrendszerek és hasonló technológiák speciális szabályozását az országokra bízza.
A dokumentum kiemeli, hogy az MI növelheti katonai műveletek hatékonyságát, pontosságát és a helyzetfelismerést, csupa olyan jellemzőt, amelyekkel csökkenthetők a járulékos károk, kevesebb a civil halott. Az MI használható nemzetközi emberi jogok támogatására, békefenntartásra, a megfigyelést és a megfelelést javító fegyverzet-ellenőrzésre.
A szöveg hangsúlyozza a hibák lehetőségét: tervezési melléfogásokat, adatok és algoritmusok elfogultságát. rosszindulatú alkalmazást. Ezek is alátámasztják, hogy mindenféleképpen meg kall akadályozni, hogy szerepet játsszon tömegpusztító fegyverek fejlesztésében és terjesztésében, ne járuljon hozzá regionális és globális fegyverversenyekhez, ne segítsen a nukleáris döntéshozásban.
Merre tovább? Lesznek további irányelvek?
A szöuli csúcsa a tavalyi hágai folytatása volt. Ott is hasonlókat fogalmaztak meg. Azért fontos mindkettő, mert a polgári szféra szabályzásáról naponta hallunk, meg is született már pár, a katonai területről viszont nagy a csend.
Katonai robot
Nemzetközi csúcstalálkozók viszont hozzájárulnak az MI etikus használatához, és az irányelvek ugyan nem kötelező érvényűek, az országok közötti együttműködést viszont hatékonyan támogatják. Demokratikus országok által fejlesztett szabványok segítik az emberi jogok érvényesítését.
Katonai alkalmazásoknál persze ne csak rosszindulatú fegyverhasználatra, hanem logisztikára, hírszerzésre, gyógyászatra, segítségnyújtásra is gondoljunk. Kontroll azonban ezeken a területeken is kell.
Képek: DeepLearning.AI, Rawpixel, Flickr