Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Hol tart a világ a mesterséges intelligencia szabályozásában?

MEGOSZTÁS

Miközben az elmúlt 6 hónapban az MI-vel kapcsolatos hype tombolt a médiában, a kormányok lassan fokozták az alkalmazásának szabályozására irányuló erőfeszítéseiket. Bár még kevés törvényt hoztak, az előrelépés tagadhatatlan.

(Kiemelt kép: Unsplash+)

Az Európai Bizottság 2021 közepén javaslatot tett a mesterséges intelligenciára vonatkozó új uniós szabályozási keretrendszerre az Európai Unió számára. Mint ilyen, ez az első kísérlet a mesterséges intelligencia bizonyos szintű szabályozásának megvalósítására. (A mesterséges intelligenciáról szóló törvényjavaslat teljes hivatalos dokumentumát elolvashatja (24 nyelven). Jelenleg még mindig ez a legfejlettebb és legszélesebb körben elfogadott szabályozási javaslat a témában. A javaslat előzetes állapotában van, de az EU rövid távon intenzív napirendet próbál az elfogadásra sürgetni. A mesterséges intelligencia rendszerre elfogadott definíció jelenleg nagyon tág és felszínes. A kezdeményezést világszerte szoros figyelemmel kísérik, mivel az egyének alapvető jogainak megőrzéséből indul ki, és ezért hatással lehet az egész emberi társadalomra. Ez a jogi keret a mesterséges intelligencia rendszereket használatuk és kockázataik szemszögéből vizsgálja, miközben elfogadja az MI és a mesterséges intelligencia rendszerek fogalmának bármely meghatározásában rejlő korlátokat. Alapvetően az MI-rendszerre elfogadott meghatározás jelenleg nagyon tág és felszínes, mivel megáll azon a szinten, hogy kizárólag szoftveralapú technológiaként határozza meg, mely magában foglalja a gépi tanulást, a logikai és tudásalapú rendszereket, valamint a statisztikai megközelítéseket. A mesterséges intelligenciáról szóló törvény meghatározza az MI-rendszerek kockázati szintje alapján történő besorolását is, és ezek alapján korlátokat és kötelezettségeket határoz meg.

Hol tart a világ a mesterséges intelligencia szabályozásában?
A mesterséges intelligencia rendszerre elfogadott definíció jelenleg nagyon tág és felszínes. A kezdeményezést világszerte szoros figyelemmel kísérik, mivel az egyének alapvető jogainak megőrzéséből indul ki, és ezért hatással lehet az egész emberi társadalomra (Fotó: Unsplash+)

A mesterséges intelligencia kockázatalapú osztályozása

A szabályozási javaslat nem korlátozza a technológiát vagy a módszereket. Ehelyett kockázatalapú megközelítést alkalmaz, és a mesterséges intelligencia rendszerek osztályozását javasolja az általuk jelentett „fenyegetések” alapján, különböző követelményeket, korlátozásokat és kötelezettségeket határozva meg. Konkrétan így az „elfogadhatatlan” kockázatot jelentő mesterséges intelligencia-rendszerek tilosak lesznek. Ezek közé tartoznak a manipulatív „szubliminális technikákat” lefedő, vagy bizonyos sérülékeny csoportokat kihasználó, társadalmi pontozási célokat szolgáló mesterséges intelligencia rendszerek, valamint a valós idejű távoli biometrikus azonosító rendszerek is. A „magas kockázatú” mesterséges intelligencia rendszerek engedélyezve lesznek, de az uniós piacra való bejutásukhoz nagyon szigorú követelmények és kötelezettségek szükségesek. Ezek közé tartoznak a kritikus termékek biztonsági elemeiként, biometrikus azonosításként, kritikus infrastruktúrák működtetéseként, oktatási eszközökként, foglalkoztatás- és munkaerő-gazdálkodásként, alapvető szolgáltatásokhoz való hozzáférés eszközeként, bűnüldözésként, migráció, menekültügy és határellenőrzésként, valamint az igazságszolgáltatás és a demokratikus folyamatok igazgatásaként használt MI-rendszerek. A csak „korlátozott kockázatot” jelentő mesterséges intelligencia rendszerekre csak alapvető átláthatósági kötelezettségek vonatkoznának. Ide tartoznak az emberekkel interakcióba lépő rendszerek (pl. chatbotok), az érzelemfelismerés, a biometrikus kategorizálás, valamint a szöveges, képi, hang- vagy videótartalmak (beleértve a mélyhamisításokat is) generáló vagy manipuláló rendszerek. Vigyázzunk a (hiányzó) „elefánttal” a szobában: a katonai és védelmi alkalmazások nem tartoznak a rendelet hatálya alá. A mesterséges intelligenciáról szóló törvény kifejezetten kimondja, hogy a kizárólag katonai célokra kifejlesztett vagy használt mesterséges intelligencia rendszerek nem tartoznak e rendelet hatálya alá.

Hol tart a világ a mesterséges intelligencia szabályozásában?
A „magas kockázatú” mesterséges intelligencia rendszerek engedélyezve lesznek, de az uniós piacra való bejutásukhoz nagyon szigorú követelmények és kötelezettségek szükségesek. Ezek közé tartoznak a kritikus termékek biztonsági elemeiként, biometrikus azonosításként, kritikus infrastruktúrák működtetéseként, oktatási eszközökként, foglalkoztatás- és munkaerő-gazdálkodásként, alapvető szolgáltatásokhoz való hozzáférés eszközeként, bűnüldözésként, migráció, menekültügy és határellenőrzésként, valamint az igazságszolgáltatás és a demokratikus folyamatok igazgatásaként használt MI-rendszerek (Fotó: Unsplash)

Nem kellene őket is szabályozni?

Bizonyos értelemben ezzel a kockázatalapú vízióval együtt a keretrendszer az irányító és végrehajtó szervek meghatározására is kiterjed: létrehoz egy Európai Mesterséges Intelligencia Testületet (mely áttekintést ad a folyamatról és az államok közötti következetes végrehajtásról) és egy nemzeti felügyeleti hatóságot minden tagállam számára (mely felügyeli a rendelet alkalmazását és végrehajtását), míg a nemzeti piacfelügyeleti hatóságok feladata lesz a szereplők megfelelésének ellenőrzése a széles körű bizalmas hozzáférésnek köszönhetően (beleértve a forráskódot is). A végrehajtó szervek megfelelő intézkedéseket fognak alkalmazni a szabályoknak nem megfelelő mesterséges intelligencia alapú rendszerek korlátozására, betiltására, visszahívására vagy visszavonására. Ez a jogsértés súlyosságától függően akár 30 millió euróig vagy a teljes világméretű éves forgalom 6%-áig terjedő közigazgatási bírságokat is magában foglal. A mesterséges intelligenciáról szóló törvény és a kapcsolódó végrehajtási mechanizmusok termékfelelősségi törvény formájában jelennek meg.

Hol tart a világ a mesterséges intelligencia szabályozásában?
A végrehajtó szervek megfelelő intézkedéseket fognak alkalmazni a szabályoknak nem megfelelő mesterséges intelligencia alapú rendszerek korlátozására, betiltására, visszahívására vagy visszavonására. Ez a jogsértés súlyosságától függően akár 30 millió euróig vagy a teljes világméretű éves forgalom 6%-áig terjedő közigazgatási bírságokat is magában foglal (Fotó: Unsplash)

Pragmatikus szempontból a kockázatalapú megközelítés teljesen ésszerű. A jövőbeli fenntarthatóság és az általánosság tekintetében azonban számos kihívást jelent. Különösen: elég tág és pontos-e a mesterséges intelligencia fogalma? Hogyan lehetünk biztosak abban, hogy az alkalmazásokat a megfelelő kockázati osztályba soroljuk? Mi a helyzet az új megoldásokkal és alkalmazásokkal, melyeket most még nem látunk előre? Vegyük észre továbbá, hogy a mesterséges intelligenciáról szóló törvény és a kapcsolódó végrehajtási mechanizmusok bizonyos értelemben alapvetően a termékfelelősségi törvény formáját öltik. Ez a fajta keretrendszer ugyanis egyértelműen nem egyéni, hanem vállalati és termékszintű szabályokat és jogokat határoz meg. Ez mélyreható következményekkel jár az MI-alapú megoldásokat gyártó és kiszolgáló vállalatokra nézve. A cégeknek nyilatkozniuk és bizonyítaniuk kell a megoldásaik és alkalmazásaik kockázati szintjét. Garantálniuk kell továbbá az adott kockázati szint szabályainak való megfelelést. Tekintettel arra, hogy az egész platform az egyének alapvető jogainak megőrzésének szükségességéből indul ki, a törvény által alkalmazott megközelítés meglehetősen rosszul illeszkedik az alapelvekhez. Ráadásul ez a megközelítés gyakorlati kockázatokkal is jár: pontosan ki lesz a felelős, ha bármilyen probléma merül fel? A fejlesztő cég, a szállító vagy bármely közvetítő, aki a megoldást telepíti, konfigurálja vagy testre szabja?

Hol tart a világ a mesterséges intelligencia szabályozásában?
Pragmatikus szempontból a kockázatalapú megközelítés teljesen ésszerű. A jövőbeli fenntarthatóság és az általánosság tekintetében azonban számos kihívást jelent. Különösen: elég tág és pontos-e a mesterséges intelligencia fogalma? (Fotó: Unsplash)

Szabályozások világszerte

Az Európai Unió az adatvédelemhez hasonlóan az MI-rendszerek jövőbeli globális szabályozásának útját is kikövezheti. Az elmúlt hónapok minden szinten hihetetlenül virágzóan alakultak az MI számára. Emellett, bár a ChatGPT ideiglenes betiltása Olaszországban néhány első lépést tett az EU-ban a mesterséges intelligencia szabályozása felé, még mindig többet kell tennünk. Sőt, ne feledjük, hogy még Sam Altman, az OpenAI vezérigazgatója is az MI szabályozására szólít fel (és szerencsére nincs egyedül). Érdemes megnézni, hogy 2023 nyarán, hogy is áll a gépi elme szabályozásával a helyzet?

Hol tart a világ a mesterséges intelligencia szabályozásában?
Az Európai Unió az adatvédelemhez hasonlóan az MI-rendszerek jövőbeli globális szabályozásának útját is kikövezheti (Fotó: Unsplash)

Európai Unió: megérkezett a DSA

Az Európai Unió már jó ideje dolgozik a mesterséges intelligencia szabályozásán, jóval azelőtt, hogy a jelenlegi hype elérte volna a médiát. Az először 2021-ben tervezetként bemutatott uniós jogszabály most úgy tűnik, hogy közelebb kerül a hatálybalépéshez. Éppen néhány héttel ezelőtt az uniós parlament két érintett bizottsága elsöprő többséggel szavazta meg az egységes szerkezetbe foglalt tervezet jóváhagyását. A következő lépés az Európai Parlamentben történő szavazás lesz, majd (feltételezve, hogy átmegy) átadják az Európai Unió Tanácsának. Ez azt jelentheti, hogy a jogszabály még idén minden szakaszon átmegy, de módosítások és fennakadások mindenképpen lehetségesek. A két bizottság által elfogadott legutóbbi módosítások némelyike, különösen az alapítványi modellek magas kockázatúvá minősítése tekintetében, meglehetősen nagy aggodalmat keltett a nyílt forráskódú fejlesztőkre és a kisvállalkozásokra gyakorolt hatásával kapcsolatban. Minden bizonnyal lesz egy átmeneti időszak, mely akár két évig is eltarthat, hogy az iparág felkészülhessen az uniós mesterséges intelligenciáról szóló törvényre, valamint hogy a tagállamok időt kapjanak a törvény végrehajtását felügyelő ügynökségek felállítására. Az EU digitális szolgáltatási törvénye (DSA) azonban már jóval korábban új követelményeket támaszt a „nagyon nagy platformként” felsorolt vállalatokkal (például a Google, a Meta és a Twitter) szemben, melyek az ajánlási és javaslattevő algoritmusok átláthatósági követelményeit szigorítják.

Egyesült Államok: meghallgatások és nagy szereplők

Az elmúlt hat év során mind a Trump-, mind a Biden-kormányzat végrehajtási rendeleteket adott ki, melyek a mesterséges intelligencia szövetségi kormányzati alkalmazására vonatkoznak. Egy átfogó jogi keret azonban még mindig hiányzik. A 2022-ben bevezetett Algorithmic Accountability Act megpróbál foglalkozni az általuk használt és értékesített automatizált rendszerek hatásaival. Emellett új átláthatóságot teremt azzal kapcsolatban, hogy mikor és hogyan használják az automatizált rendszereket. Ez azonban a bizottsági szakaszban van, és hogy a törvényből valamilyen formában törvény lesz-e, az még nem derült ki. A Biden-kormányzat 2022 októberében közzétett Blueprint for a AI Bill of Rights című tervezete a nagyszabású elnevezése ellenére egyelőre inkább iránymutatás, mint bármi más. A ChatGPT megjelenésétől megijedve az amerikai szenátus május közepén meghallgatást szervezett az MI szabályozásáról, melyen az OpenAI vezérigazgatója, Sam Altman is megjelent. Felmerült az „ML modellfejlesztési engedély” ötlete, és mind az iparág, mind a politikusok részéről érkeztek felhívások a szabályozásra. Eközben a Nemzeti Szabványügyi és Technológiai Intézet (NIST) 2023 januárjában közzétette az MI kockázatkezelési keretrendszerét, márciusban pedig elindította az AI Resource Centerét. A NIST munkája eddig a legrészletesebb ilyen jellegű keretnek tűnik, és minden bizonnyal hatással lesz az MI-fejlesztés átláthatósági követelményeire mind az Egyesült Államokban, mind Európában.

Hol tart a világ a mesterséges intelligencia szabályozásában?
Az elmúlt hat év során mind a Trump-, mind a Biden-kormányzat végrehajtási rendeleteket adott ki, melyek a mesterséges intelligencia szövetségi kormányzati alkalmazására vonatkoznak. Egy átfogó jogi keret azonban még mindig hiányzik (Fotó: Unsplash)

Egyesült Királyság: csak az innováció

Az Egyesült Királyság kormánya (nem meglepő módon, tekintve, hogy az „EU bürokráciájának megsemmisítőjeként” akarja feltüntetni magát) nagyrészt figyelmen kívül hagyta az EU mesterséges intelligenciáról szóló törvénye körüli vitát, amit valószínűleg az elmúlt két év gyors miniszterelnök-váltásai is elősegítettek. A kormány az elmúlt évben több fehér könyvet is közzétett, a legutóbbi 2023 márciusában, és mindegyiknek a címében kiemelt helyen szerepelt az „innováció”. A fehér könyvek hangsúlyozzák az innováció támogatásának fontosságát a mesterséges intelligencia területén, de egyelőre nem térnek ki a lehetséges szabályozási beavatkozásokra. Úgy tűnik azonban, hogy egyre nagyobb nyomás nehezedik Rishi Sunak miniszterelnök kormányára, hogy foglalkozzon a generatív mesterséges intelligenciával, és a G7-csúcstalálkozót megelőzően Sunak odáig ment, hogy azt állította, hogy az Egyesült Királyság vezető szerepet fog betölteni a globális mesterséges intelligencia „irányításában”.

Új-Zéland: iránymutatások

Éppen 2023 májusában tette közzé az adatvédelmi biztos hivatala az „adatvédelmi biztos hivatalának elvárásait a generatív mesterséges intelligencia alkalmazásával kapcsolatban” meghatározó iránymutatásokat.

Kanada: hatásalapú megközelítés

Tavaly nyáron, 2022 júniusában a kanadai kormány a digitális charta végrehajtásáról szóló törvény (Bill C-27) részeként benyújtotta a mesterséges intelligenciáról és adatokról szóló törvényt (Artificial Intelligence and Data Act – AIDA). Az AIDA bizonyos hasonlóságokat mutat az uniós megközelítéssel, bár számos részletet még ki kell majd dolgozni. A C-27-es törvényjavaslat a királyi jóváhagyást követően legalább kétéves végrehajtási időszakot biztosít a hatálybalépés előtt, így a mesterséges intelligenciával kapcsolatos rendelkezések legkorábban 2025-ben léphetnek hatályba.

Hol tart a világ a mesterséges intelligencia szabályozásában?
Az Egyesült Királyság kormánya (nem meglepő módon, tekintve, hogy az „EU bürokráciájának megsemmisítőjeként” akarja feltüntetni magát) nagyrészt figyelmen kívül hagyta az EU mesterséges intelligenciáról szóló törvénye körüli vitát, amit valószínűleg az elmúlt két év gyors miniszterelnök-váltásai is elősegítettek (Fotó: Unsplash)

Japán: a G7 hatása

Kevés előrelépés történt azóta, hogy a japán kormány 2019-ben közzétette a „Social Principles of Human-Centric AI” című dokumentumot, mely a mesterséges intelligencia társadalmi megvalósításának alapelveit tartalmazza. Azonban 2023 május elején először ült össze a japán kormány „Mesterséges Intelligencia Stratégiai Tanácsa”, mely a generatív mesterséges intelligencia fejlesztését irányító keretrendszer létrehozását tervezi, a „következő hónapokban”. Az Egyesült Királyság kormányának közelmúltbeli nyilatkozataihoz hasonlóan ezt a folyamatot felgyorsíthatta a G7-csúcstalálkozó Japánban, ahol a mesterséges intelligencia kiemelt helyen szerepelt a napirendben.

Kína: új és javasolt szabályok

2023 áprilisában Kína vezető technológiai szabályozó hatósága, a Kínai Kibertér Adminisztráció („CAC”) bejelentette, hogy előzetesen szabályozni kívánja a generatív mesterséges intelligencia használatát, és közzétett egy rendelettervezetet, a „Measures for the Administration of Generative Artificial Intelligence Services”. Bár a tervezet terjedelmes, és kiterjed a mesterséges intelligencia fejlesztési folyamatára és felelősségi szempontjaira egyaránt, „homályos és kétértelmű” is, például tartalmaz egy olyan rendelkezést, amely szerint a generált tartalom „nem tartalmazhat hamis információkat”. Hogy ezt a gyakorlatban (a kínai médiakorlátozásokkal összefüggésben általában) hogyan fogják végrehajtani vagy érvényesíteni, azt még nem lehet tudni.

Hol tart a világ a mesterséges intelligencia szabályozásában?
2023 május elején először ült össze a japán kormány „Mesterséges Intelligencia Stratégiai Tanácsa”, mely a generatív mesterséges intelligencia fejlesztését irányító keretrendszer létrehozását tervezi, a „következő hónapokban” (Fotó: Unsplash)

Hol tartunk?

Úgy tűnik, hogy világszerte legalább abban egyetértés van, hogy a mesterséges intelligencia valamilyen formában szabályozást igényel, bár a kormányok céljai és megközelítései nagyon eltérőek. A legtöbb javasolt szabályozás legalább egyfajta többszintű rendszert tartalmaz, mely a mesterséges intelligencia különböző területeire különböző szabályokat alkalmaz. Mindegyik legalább valamilyen formában tartalmaz átláthatósági követelményeket, a felelősségi kérdésekkel azonban eddig csak kevesen foglalkoztak. A G7-csúcstalálkozót követően újabb kormányzati nyilatkozathullám indult a generatív mesterséges intelligencia szabályozásáról. Mint minden ágazati szabályozás esetében, kevés kormány akar elsőként lépni, és esetleg lemondani a versenyelőnyről egy „túlságosan felfújt” növekedési piacon. Legalábbis addig nem, amíg az „aranyláz” tart. Az adatvédelmi szabályozáshoz hasonlóan sokan úgy érzik, hogy megvárják az uniós MI-törvény bevezetését, figyelemmel kísérik az iparág reakcióit, majd valamilyen formában saját végrehajtással követik azt.

Hol tart a világ a mesterséges intelligencia szabályozásában?
Úgy tűnik, hogy világszerte legalább abban egyetértés van, hogy a mesterséges intelligencia valamilyen formában szabályozást igényel, bár a kormányok céljai és megközelítései nagyon eltérőek (Fotó: Unsplash)

Az MI szabályozása közvetlenebb veszélyt jelent, mint maga a mesterséges intelligencia

Az igazi veszélyt az jelenti, hogy ki fogja irányítani ezt az iparágat. Valószínűleg éppen az MI-kartell kialakulásának vagyunk szemtanúi. A mesterséges intelligenciával kapcsolatos téves információk jelenlegi szintje a médiában megdöbbentő. Úgy gondolhatjuk joggal, hogy az egyik legfőbb szabadságjogunk elvesztésének szélén állunk, és még csak észre sem vesszük. Sam Altman, az OpenAI vezérigazgatója, Demis Hassabis, a Google DeepMind vezérigazgatója, Dario Amodei, az Anthropic vezérigazgatója és más vezető mesterséges intelligencia-vezetők nemrégiben aláírtak egy nyilatkozatot az MI kockázatáról. A mesterséges intelligencia okozta kihalás kockázatának mérséklését globális prioritásként kell kezelni, más társadalmi szintű kockázatok, például a világjárványok és az atomháború mellett. Nos, ha ilyen kockázatot jelent, akkor szabályoznunk kell, nem igaz? A jelenlegi MI-vezetők némelyike pontosan ezt szeretné, ha a szabályozók is így gondolnák, mert az ő érdekükben áll, hogy féljünk az MI-től. Érdemes egy kicsit megvizsgálni ennek a szabályozási mozgalomnak a hátterét egy kicsit. Jelenleg az emberek hihetetlen dolgokat művelnek a nyílt forráskódú területen a mesterséges intelligenciával. A StableDiffusion és a StabilityAI csak néhány példa, de a GitHubon felbukkanó elképesztő nyílt forráskódú MI-projektek listája hihetetlen. Sam Altman és néhány más MI-vezető már hónapok óta lobbizik a szabályozásért. Az MI szabályozására szólított fel számos alkalommal 2023 márciusa óta, amikor az MI-t „jelentős kárt okoz a világnak”, „a nukleáris fenyegetéssel azonos szintű” és más félelemkeltő kifejezésekkel együtt emlegette, melyek felállítanák minden nem műszaki szenátor, vagy kormányzati dolgozó szőrét a hátán, akinek feladata egy újabb iparág szabályozása elnne, amit nem ért természetesen, mert nem is az a dolga. És a nem megértés a kulcsszó. A szabályozók feladata a szabályozás, de soha nem volt a megértés a feladatuk. Ezért van az, hogy a SEC teljesen képtelen egy olyan hasznos szabályozási keret létrehozására, mely valóban segíthetne a kriptopénz-iparnak.  Ahelyett, hogy elmagyaráznák, hogyan működnek a jelenlegi LLM-ek (a nagy nyelvi modellek), Sam és az iparág néhány más vezetője, ezt a „kihalási szintű veszélyt” vetíti a szabályozók elé. Olyan szabályozóknak, akik annyit tudnak a mesterséges intelligenciáról, mint a macskák a kvantumfizikáról. Így természetesen, amikor a szabályozók tanácstalanok, és az üzenetet úgy alakítják ki, hogy érzelmi reakciót váltson ki az emberekből, az MI-vezetők lényegében egy olyan „sellődalra” játszanak, melyet a szabályozók egyszerűen nem tudnak letagadni.

Hol tart a világ a mesterséges intelligencia szabályozásában?
Az igazi veszélyt az jelenti, hogy ki fogja irányítani ezt az iparágat. Valószínűleg éppen az MI-kartell kialakulásának vagyunk szemtanúi (Fotó: Unsplash+)

Miért lobbiznának az iparági korifeusok további szabályozásokért?

Az egész végső soron a kapzsiságról szól. A mesterséges intelligencia iparágának olyan módon történő szabályozása, mely olyan vállalatoknak kedvez, mint a Google és a Microsoft, csak egy dolgot jelenthet: ezek a vállalatok egy újabb iparág monopolizálására törekszenek egy olyan bonyolult jogi keretrendszer létrehozásával, melyben csak akkor lehet eligazodni, ha egy nagyvállalat hatalmas erőforrásokkal és egy állandóan rendelkezésre álló ügyvédi csapattal rendelkezik. Az igazi veszély itt nem a mesterséges intelligencia. Az, hogy a mesterséges intelligencia potenciálisan veszélyes lesz a jövőben (ahogy a narratívájuk mondja), közel sem olyan sürgős és meggyőző, mint az, hogy „a globális vállalatok továbbra is monopolizálják a különböző piacokat”. A Google már most is az internetes keresési piac több mint 98,5%-át ellenőrzi. Az Open AI (azaz a Microsoft) pedig már most is vezető szerepet tölt be a mesterséges intelligencia fejlesztésében. Számunkra zavarba ejtő, hogy az emberek és a kormányok is inkább a lehetséges jövőbeli fenyegetések miatt aggódnak ahelyett, hogy a ténylegesen a dolgos hétköznapokban lévő valós veszélyekkel foglalkoznának, melyekkel a társadalmunkban most szembesülünk. A Google, a Microsoft, az Amazon és az Apple hozza létre azt a valóságot, melyben a nagy többségünk él. A Google irányítja az információs narratívát, az Amazon pedig magát az internetet, mivel az összes webszerver több mint 50%-át az Amazon üzemelteti. A Microsoft és az Apple ellenőrzi az internethez való hozzáféréshez használt eszközöket. A magas szabályozási korlát azt jelenti, hogy a nyílt forráskódú mesterséges intelligencia szoftverek végül megszűnnek létezni, mert nem lesz meg a szükséges finanszírozásuk ahhoz, hogy megfeleljenek az elkerülhetetlen belépési korlátoknak, melyeket bármilyen új szabályozási keretrendszer el is fogad majd.

Hol tart a világ a mesterséges intelligencia szabályozásában?
A mesterséges intelligencia iparágának olyan módon történő szabályozása, mely olyan vállalatoknak kedvez, mint a Google és a Microsoft, csak egy dolgot jelenthet: ezek a vállalatok egy újabb iparág monopolizálására törekszenek egy olyan bonyolult jogi keretrendszer létrehozásával, melyben csak akkor lehet eligazodni, ha egy nagyvállalat hatalmas erőforrásokkal és egy állandóan rendelkezésre álló ügyvédi csapattal rendelkezik (Fotó: Unsplash+)

Az igazság odaát van

Egy másik alapvető szabadságjog, melyet ennek következtében elkerülhetetlenül elveszítünk, az a lehetőség, hogy elfogulatlan, nem védett mesterséges intelligenciát használhassunk. Az OpenAI ChatGPT már most is erősen elfogult, olyannyira, hogy aktívan visszatartja azokat az információkat, melyek ellentétesek a saját programozásával kapcsolatban. A nyílt forráskódú mesterséges intelligencia projektekhez való hozzáférés elvesztése azt jelenti, hogy a Microsoft, az OpenAI és a Google képes lesz ellenőrizni, hogy milyen „politikai hovatartozással” rendelkezik majd a mesterséges intelligencia modellje. A politikai elfogultságok egy olyan eszközben, mint a ChatGPT-4, hihetetlenül károsak lehetnek az információszabadságra, egészen addig a pontig, ahol a mesterséges intelligencia veszélyes „agymosó géppé” válik, mert csak egy és csakis egy nézőpontot tud bemutatni. Lényegében a nagy nyelvi modellek közel sem olyan veszélyesek, mint ahogy azt a közelmúltban a világhálón terjedő cikkek sugallják. Jelenleg alig több mint „statisztikai gépek”, melyek csak abban jók, hogy kitalálják, melyik szó következik a másik után. Az „emberiséget fenyegető egzisztenciális fenyegetésként” aposztrofáló mesterséges intelligencia szabályozására vonatkozó felhívás célja, hogy a szabályozókat megijessze, és felgyorsítsa az iparágba való belépés akadályait, ami elkerülhetetlenül a nyílt forráskódú szoftverek halálához, valamint az ideológiai és politikai elfogultság normalizálásához vezet a meglévő eszközökben, például a ChatGPT-4-ben. Az igazi veszélyt az jelenti, hogy a Microsoft és a Google végül egy újabb iparág monopolizálásába fog kerülni. A vállalatok erősebbek, mint a nemzetállamok, és tovább halmozzák a hatalmukat. Ez az igazi közvetlen veszély. Üdvözöljük a mesterséges intelligencia kartellben!

Hol tart a világ a mesterséges intelligencia szabályozásában?

 

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek