A The Washington Post jelentése szerint a Google módosította mesterséges intelligencia (AI) fejlesztésére vonatkozó irányelveit, eltávolítva azokat a korlátozásokat, amelyek megakadályozták az AI katonai célú felhasználását. A vállalat korábban kijelentette, hogy AI-megoldásait nem fogja olyan technológiákban alkalmazni, amelyek „kárt okoznak vagy valószínűleg kárt okoznak”. Azonban a frissített etikai irányelvek már nem tartalmazzák ezt a kikötést.
A változás hátterében több tényező is állhat. Az elmúlt években az amerikai kormány egyre nagyobb hangsúlyt fektetett az AI katonai és biztonsági célú alkalmazására, miközben Kína és más geopolitikai riválisok is rohamosan fejlesztik saját mesterséges intelligencia rendszereiket. A Google egyik vezetője blogbejegyzésében megjegyezte, hogy „globális verseny zajlik az AI vezető szerepéért egy egyre összetettebb geopolitikai környezetben”. Ez arra utalhat, hogy a vállalat a versenyképesség megőrzése érdekében hajlandó felülvizsgálni korábbi etikai álláspontját.
Az irányelvek változásának különös jelentősége van annak fényében, hogy a Google korábban – alkalmazottainak nyomására – már kilépett egy katonai szerződésből. 2018-ban több ezer Google-dolgozó tiltakozott a „Project Maven” néven ismert katonai AI-program ellen, amely az AI-t drónok célfelismerő rendszeréhez használta volna. A tiltakozások hatására a vállalat bejelentette, hogy nem hosszabbítja meg a szerződést az amerikai védelmi minisztériummal, és bevezetett egy olyan etikai szabályzatot, amely kizárta az AI katonai célú alkalmazását.
Az AI és a katonai-ipari komplexum
A Google döntése egy szélesebb iparági trendbe illeszkedik, amelyben a nagy technológiai vállalatok egyre szorosabb kapcsolatot alakítanak ki a védelmi szektorral. Az OpenAI például nemrégiben partnerségre lépett az amerikai hadsereggel, míg a Microsoft és az Amazon is jelentős szerződéseket kötött a Pentagon számára fejlesztett AI-technológiák terén.
A mesterséges intelligencia hadászati célú alkalmazása rendkívül ellentmondásos terület. Az AI használata a fegyverkezésben és a megfigyelésben számos etikai és emberi jogi kérdést vet fel. Az AI által támogatott fegyverrendszerek esetében felmerül a kérdés, hogy mennyire biztonságos egy olyan rendszer, amely automatizált döntéseket hoz az emberi élet kioltásáról. A megfigyelési technológiák kapcsán pedig az a kérdés, hogy milyen mértékben sérülhetnek az állampolgári jogok egyre fejlettebb AI-alapú megfigyelési rendszerek alkalmazásával.
A Google eddig nem kommentálta a változtatásokat, így nem világos, hogy milyen konkrét okok vezettek az etikai irányelvek módosításához, és hogyan kívánják biztosítani az AI felelős és etikus alkalmazását a jövőben. Az biztos, hogy a vállalat döntése komoly vitákat fog kiváltani mind az AI iparágon belül, mind pedig a politikai és jogi szakértők körében.
(Kép: Unsplash)