Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Akár kihalással is fenyegethet a szuperintelligencia

Közéleti szereplők szerint az emberi intelligenciát meghaladó mesterséges intelligencia területén tapasztalható versenyfutás komoly aggodalmakat vet fel. A félelmek között van, hogy az ember gazdaságilag elértéktelenedik, de az is, hogy akár ki is pusztulhat az emberi faj.

Több mint 850 ismert személyiség – köztük az MI szegmens és a technológia vezető alakjai – lassításra szólított fel abban a versenyben, amely a szuperintelligencia létrehozását célozza. Vagyis egy olyan mesterséges intelligenciát, amely az emberi értelem fölé emelkedik.

Woz, Branson és a “keresztapák” is az aláírók között

A “szuperintelligencia” kifejezést általánosan úgy határozzák meg, mint olyan MI-t, amely meghaladja az emberi kognitív képességeket. Számos szakértő attól tart, hogy ez a pont az, ahol az emberek elveszíthetik az ellenőrzést a rendszerek felett. 

Már Alan Turing is azt jósolta az 1950-es években, hogy ha a gépek elérik ezt a szintet, az “emberi irányítás elvesztése” lesz az alapértelmezett kimenetel.

A felhívást neves számítógéptudósok is aláírták. Közöttük van a Nobel-díjas Geoffrey Hinton és Yoshua Bengio – akiket széles körben az AI “keresztapáinak” tartanak –, továbbá Steve Wozniak, az Apple társalapítója, és Richard Branson, a Virgin Group alapítója.

Világvezetők szerint ugyanakkor az AI-fejlesztési verseny nemzetbiztonsági szempontból és a gazdasági, egészségügyi, valamint technológiai fejlődés miatt is létfontosságú.

Akár kihaláshoz is vezethet

Mindeközben a nagy techcégek szinte marketingfogásként használják a “szuperintelligencia” címkét legújabb MI-fejlesztéseik reklámozására – emlékeztet cikkében a Euronews.

A Meta például az óriásnyelvi modelljeivel foglalkozó részlegét Meta Superintelligence Labs névre keresztelte idén.

A levél szerint a szuperintelligenciához vezető MI-verseny mély aggodalmakat vet fel. Az aláírók szerint ugyanúgy fenyegeti az embert a gazdasági elértéktelenedés, mint a kiszolgáltatottság. Hasonlóképpen a szabadságjogok, a méltóság és irányítás elvesztése. 

A dokumentumban ide sorolnak bizonyos nemzetbiztonsági kockázatokat, vagy éppen az emberi faj lehetséges kihalását is.

A felhívás a szuperintelligencia-fejlesztés tilalmát sürgeti. Oly módon, hogy a tilalmat csak akkor oldják fel, ha tudományos konszenzus alakul ki arról, hogy a fejlesztés biztonságos és ellenőrizhető. Sőt, ha mindehhez széles körű társadalmi támogatás is társul.

Komoly szakemberek is egyetértenek

Számos MI-vezető, köztük az OpenAI vezérigazgatója, Sam Altman, korábban már kijelentette, hogy az “emberfeletti gépi intelligencia” létrejötte valószínűleg a legnagyobb fenyegetés az emberiség fennmaradására.

Ezzel egyetértett a Microsoft MI-részlegének vezetője is. Mustafa Suleyman szerint “amíg nem tudjuk kétséget kizáróan bizonyítani, hogy ez biztonságos, addig nem lenne szabad feltalálni”.

Altman és Suleyman ugyanakkor nem szerepelnek a levél aláírói között.

Sam Altman egyébként régóta népszerűsíti az általános mesterséges intelligencia (AGI) koncepcióját. Ezt lazán úgy határozzák meg, mint az emberi intelligenciával egyenrangú vagy azt meghaladó MI-t. Ez pedig a szuperintelligencia előszobája.

Altman szerint azonban az AGI nem a gépek uralmát jelenti, hanem egy hipotetikus mesterséges értelemformát, amely bármilyen emberi feladatot képes megoldani, mégpedig nem csupán a tréningadataira támaszkodva. 

Az OpenAI vezérigazgatója szerint az AGI “felemelheti az emberiséget”, nem pedig leválthatja azt.

A felhívás aláírói között nemcsak technológiai szakemberek, hanem akadémikusok, médiaszereplők, vallási vezetők, valamint volt politikusok is szerepelnek.

 

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!