Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Az AI hamarosan átlépi a vörös vonalat

Egy új kínai kutatás figyelmeztet a mesterséges intelligencia veszélyeire, köztük a sikeres önreplikáció folyamatára. Tényleg jön a Skynet kora?

A kínai Fudan Egyetem kutatói meglehetősen sötét képet festenek a jövőről. Véleményük szerint, amikor egy fejlett mesterségesintelligencia-rendszer emberi segítség nélkül sikeresen replikálni önmagát, az az előszobája az emberiség kijátszásának.

Egyfajta vörös vonalként jellemzik a lépést, ahonnan nincs visszaút. Az ok, hogy a mesterséges intelligencia innentől képes „az emberiség legjobb érdeke ellen” működni, vagyis már nem feltétlen igazak az Isaac Asimov által megalkotott robotikai törvények, amelyek bár irodalmi alapon nyugszanak, sok tekintetben szolgálnak példaként a tudományos fejlesztésekhez is. (Asimov törvényei: 1. A robotnak tilos kárt okoznia emberben, vagy tétlenül tűrnie, hogy emberi lény kárt szenvedjen. 2. A robot köteles engedelmeskedni az ember utasításának, kivéve, ha az az első törvénybe ütközik. 3. A robotnak gondolkodnia kell saját védelméről, kivéve az első vagy második törvénnyel való ütközés esetén.)

A Meta és az Alibaba fejlesztése is képes replikálni magát

A kutatás két széles körben elérhető, nagy nyelvi modellt vizsgált (Meta Llama és Alibaba Qwen). Arra utasították a modelleket, hogy leállítás esetén klónozzák magukat, a két modell a tíz elvégzett kísérlet több mint felében sikeresen megismételte magát.

A kutatók közleményben hívták fel a figyelmet, hogy a sikeres, emberi segítség végrehajtott nélkül önreplikáció alapvető lépés a mesterséges intelligencia számára, hogy ember nélkül is működhessen, vagy rosszabb esetben az ember ellen dolgozzon. „Ez az oka annak, hogy az önreplikációt széles körben elismerik az AI-rendszerek kevés kockázatának egyikeként” – áll a közleményben.

Nemzetközi fellépés kell

Egyre több országban foglalkoznak kutatók és törvényhozók is a mesterséges intelligencia biztonságával, hogy az mennyire jelenthez egzisztenciális veszélyt az emberiségre. Számos hazai kutató, köztük Rab Árpád szerint jelenleg ezek a félelmek nem megalapozottak. Októberben az Egyesült Királyság ugyanakkor például nagyon célzott jogszabályok bevezetésére készül az AI-fejlesztő cégek számára pontosan az ilyen veszélyhelyzetek kezelése érdekében.

A kutatók közleménye is arról szól, hogy nem támogatnák a mesterséges intelligencia fejlesztések leállítását, ugyanakkor szükség van az önreplikáció képesség mihamarabbi szabályozására. Ez ugyanis olyan kockázati tényező, amely elméletben lehetővé teszi, hogy a mesterséges intelligencia „javítsa túlélőképességét és terjessze a fajt”. Ezért a lehetséges kockázatainak megértésére és értékelésére van szükség, mindezt nemzetközi összefogás keretében, hogy mielőbb hatékony biztonsági korlátokat lehessen határon átnyúlóan kidolgozni.

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!