2018-ban botrány tört ki a Google-nál, amikor a nagyvállalat közölte, hogy kidolgozza az amerikai védelmi minisztérium számára a mesterséges intelligenciával támogatott Maven platformot. Még 2017-ben kezdtek el dolgozni rajta, de az alkalmazottak részéről akkora volt a felháborodás, hogy kiszálltak a projektből. Sokan tiltakoztak, mások felmondtak, többen felszólították munkáltatójukat, hogy kerülje el a kifejezetten katonai célú MI-fejlesztéseket.
A Maven Projekt
A projektet az egyébként is védelmi technológiák fejlesztése céljából alapított, nevével a Tolkien-regények látógömbjei előtt tisztelgő, az MI egyik legfontosabb, egyben leginkább rejtőzködő, a nyilvánosságot érthető okokból kerülő fejlesztőcége, a Palantir „örökölte meg.” A Google-botrány következtében több mesterségesintelligencia-nagyvállalat, köztük például a Meta (akkor még leánykori, Facebook nevén) és az Anthropic megtiltotta technológiái katonai célú alkalmazásait.
Maven-elemzők
A Maven végül megépült, a rendszerbe Microsoft- és Amazon-technológiákat is integráltak, a munkában légjármű-ipari cégek (Maxar, Sierra Nevada stb.) is részt vettek. A műholdas és geolokációs adatokat elemző rendszert valós, nem szimulált katonai konfliktusok élő célpontjainak azonosításához használják világszerte, például ellenséges hajókat lokalizáltak vele a Vörös-tengeren, potenciális légicsapás-célpontokat Irakban és Szíriában, rakétakilövő-állomásokat Jemenben. Anonim források alapján, az Egyesült Államok az ukrán fegyveres erőket is segíti a Mavennel: a rendszer orosz felszerelések, csapatok pontos földrajzi koordinátáit deríti ki.
A Maven és hasonló megoldások kétségtelenül hasznosak, bizonyos esetekben embert nem is lehetne alkalmazni, ők viszont bevethetők. Csakhogy teszteredmények alapján a Maven kb. hatvan százalékos pontossággal azonosít objektumokat, míg a seregben dolgozó humán elemzők 84 százalékot értek el ugyanazokkal az objektumokkal. A különbség óriási, és gondoljunk bele, hogy ezek az objektumok célpontok lehetnek. Ebből a megközelítésből teljesen érthető a Google-alkalmazottak hozzáállása.
Llama és Claude
2018 óta azonban változott a közhangulat. Ma már több MI-fejlesztő megengedőbb a hadsereggel, például bizonyos esetek kivételével a Meta is engedélyezi a nyílt forrású Llama nagy nyelvmodell-család amerikai fegyveres és hírszerző erők általi használatát.
Júliusban az Anthropic szintén hozzájárult modelljei hírszerzési alkalmazásához. Mivel a Claude család a világ egyik legismertebb és legelismertebb nyelvmodellje, nem kicsi a tét. Az LLM fegyverfejlesztési használatát változatlanul nem engedélyezik, és cybertámadások Claude közreműködésével történő indítása szintén szerepel a tiltólistájukon.
Llama
Az engedélyek elég általánosak, a két vállalat nagy nyelvmodelljeit az amerikai kormány, védelmi és hírszerző ügynökségei nemzetvédelmi célokra használhatják. Kormányzati vállalkozókkal együttműködve igyekeznek eligazodni a hírszerzési munka biztonsági és beszerzési követelményeinek labirintusában.
A Meta partnerei közé olyan cégek tartoznak, mint az Accenture, az Amazon, az Anduril, a Booz Allen, a Databricks, a Deloitte, az IBM, a Leidos, a Lockheed Martin, a Microsoft, az Oracle, a Palantir, a Scale AI és a Snowflake. Ezek a vállalatok integrálják a Llama modelleket kormányzati alkalmazásokba, például logisztikába, cyberbiztonságba, hírelemzésbe és terroristák pénzügyi tevékenységének nyomon követésébe.
Egyes partnerek speciális Llama-változatokat dolgoztak ki. A Scale AI például három nemzetbiztonsági alkalmazáshoz finomhangolta. A Defense (Védelem) Llama olyan feladatokból veheti ki a részét, mint katonai műveletek tervezése vagy az ellenség sebezhető pontjainak elemzése.
Claude
Az Anthropic a Claude 3 és 3.5 modellcsaládot tette a Palantir által épített és az Amazon Wbszolgáltatásokon hosztolt platformon keresztül elérhetővé az amerikai védelmi erők és hírszerző ügynökségek számára. Kormányzati bigdata-elemzésekhez fogják használni: Claude-dal néznek át dokumentumokat, keresnek mintázatokat az óriási adatmennyiségben és segítenek a döntéshozásban.
Morális meggondolások
A közelmúlt ismeretében mindkét vállalat lépése meglepő, másrészt az MI katonai felhasználásával kapcsolatos politikájuk megváltozása nagyon fontos, a jövőre nézve komoly következményei lehetnek. A mesterséges intelligencia ma már nemcsak tervezésben, felderítésben segédkezik, hanem a csatatéren is, Nem vagyunk messze a joggal rettegett és kárhoztatott gyilkos robotok elterjedésétől, amelyeket Líbiában egész biztosan, de nagy valószínűséggel Ukrajna Oroszország általi inváziójában is alkalmaztak már. (Ezek a rendszerek emberi beavatkozás nélkül, autonóm működnek, humán célpontokat azonosítanak, és akár engedély nélkül is lelőnek.)
Az MI-fejlesztőcégeknek morális meggondolásokat, az emberi jogok betartását alaposan figyelembe kell venniük, mielőtt védelmi minisztériumokkal és vállalatokkal megegyeznek. Az érem másik oldala, hogy a technológia nagyon komoly segítség életmentő keresési és mentési műveletek során is. A logisztika, a hírszerzés és a kommunikáció erősítése szintén a katonai alkalmazás melletti fontos érv. És persze az anyagiak sem mellékesek, mert ezek a szerződések a kutatás-fejlesztéseket is segítő busás haszonnal járnak.
Képek: DeepLearning.ai, Meta, Anthropic