Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Az algoritmusok antropomorfizálásának csapdájában

MEGOSZTÁS

Sokan azok közül, akik elkezdték rendszeresen használni az olyan generatív algoritmusokat, mint a ChatGPT, hajlamosak antropomorfizálni a technológiát, és úgy kezelni, mintha egy embertársukkal lenne dolguk. Mivel ez az interakció egy prompton keresztül történik, nagyon gyakori, hogy az emberek rendkívül kétértelmű módon kérnek egy feladatot, a levegőben hagyva számos olyan tényezőt, mely befolyásolhatja a kapott válasz minőségét, vagy akár szívességként kérnek dolgokat, vagy köszönetet is mondanak a gépi elmének.

(Kiemelt kép: Unsplash+)

A mesterséges intelligencia iparág várhatóan 1811,8 milliárd dolláros bevételt ér el idén, és 2030-ra 15,7 milliárd dollárral járul hozzá a világgazdasághoz. Ez a tendencia szorosan összefügg a mesterséges intelligencia széles körű integrációjával számos ágazatban, például az oktatásban, a kiskereskedelemben, a társas kapcsolatokban és a szórakoztatásban, ahol az emberek számos feladatra alkalmazzák a mesterséges intelligenciát, például beszédfelismerésre, személyre szabott ajánlásokra, problémamegoldásra és adatfeldolgozásra. E bővülésen belül fontos jelenség, melyet meg kell jegyezni, e technológia egyre javuló antropomorfizmusa. A mesterséges intelligencia-ügynökök egyre emberibbnek tűnnek, nemcsak fizikai megjelenésük, de az érzelmek és a személyiségjegyek utánzása terén is.

Az algoritmusok antropomorfizálásának csapdájában
A mesterséges intelligencia-ügynökök egyre emberibbnek tűnnek, nemcsak fizikai megjelenésük, de az érzelmek és a személyiségjegyek utánzása terén is (Fotó: Unsplash+)

Annak ellenére, hogy az antropomorf mesterséges intelligencia az emberi tevékenység számos területén gyorsan terjed, keveset tudunk arról, hogy a felhasználók hogyan viszonyulnak az ilyen mesterséges intelligencia-ügynökökhöz saját identitásuk szempontjából. Az antropomorfizmus és a mesterséges intelligencia folyamatban lévő vizsgálatában az emberhez hasonló mesterséges intelligenciával kapcsolatos növekvő kutatások ellenére is kiemelkedő kutatási hiányosság a felhasználók önkoncepciójára gyakorolt hatás figyelmen kívül hagyása. Korábbi munkák például azt vizsgálták, hogy az antropomorf ágensek milyen mértékben váltanak ki empátiát és megbízhatóságot vagy a fogyasztók elfogadását; milyen mértékben kötődnek a felhasználók az ilyen ágensekhez; és hogyan befolyásolja az MI a márkával kapcsolatos válaszokat, például a lojalitást. Emellett fontos előrelépések történtek az antropomorfizált mesterséges intelligencia szolgáltatásminőségben, szolgáltatásélményben és a használati szándékban betöltött szerepével kapcsolatban is. A létező kutatások azonban mindeddig figyelmen kívül hagyták a felhasználók és az antropomorfizált ágensek közötti kapcsolatot a felhasználók identitása – más szóval önkoncepciója – szempontjából, annak ellenére, hogy kifejezetten felszólították őket az ilyen vizsgálatokra.

Az algoritmusok antropomorfizálásának csapdájában
Annak ellenére, hogy az antropomorf mesterséges intelligencia az emberi tevékenység számos területén gyorsan terjed, keveset tudunk arról, hogy a felhasználók hogyan viszonyulnak az ilyen mesterséges intelligencia-ügynökökhöz saját identitásuk szempontjából (Fotó: unsplash+)

A mesterséges intelligencia nem ember

A mesterséges intelligencia egyre inkább elterjedt az életünkben, és mivel egyre többet érintkezünk ezekkel a rendszerekkel, csábító, hogy antropomorfizáljuk őket, vagyis emberhez hasonló tulajdonságokat tulajdonítsunk nekik. Nevezhetjük őket „intelligensnek” vagy „kreatívnak”, vagy akár „ő”-nek vagy „nő”-nek is. Több okból is elkerülhetjük azonban a mesterséges intelligencia rendszerek antropomorfizálását. Az első és legfontosabb, hogy a mesterséges intelligencia nem ember. Az MI-rendszereket úgy tervezték, hogy utánozzák az emberi viselkedést és döntéshozatalt, de nem rendelkeznek ugyanazokkal a tapasztalatokkal, érzelmekkel vagy motivációkkal, mint az emberek. Ezért az emberi tulajdonságok mesterséges intelligenciának való tulajdonítása téves elvárásokhoz és félreértésekhez vezethet. Ha például egy mesterséges intelligenciával rendelkező rendszert ugyanúgy „intelligensnek” tekintünk, mint ahogyan az embert intelligensnek gondoljuk, akkor feltételezhetjük, hogy a mesterséges intelligenciával rendelkező rendszer képes önállóan gondolkodni és erkölcsi vagy etikai megfontolások alapján döntéseket hozni. A valóságban az MI-rendszereket úgy programozzák, hogy adatok és algoritmusok alapján hozzanak döntéseket, és nem rendelkeznek az empátia vagy erkölcsiség képességével.

Az algoritmusok antropomorfizálásának csapdájában
Az emberi tulajdonságok mesterséges intelligenciának való tulajdonítása téves elvárásokhoz és félreértésekhez vezethet (Fotó: Unsplash+)

Az MI-rendszerek antropomorfizálása félrevezető és akár veszélyes is lehet. Ha úgy gondolunk egy mesterséges intelligencia rendszerre, mint mely emberhez hasonló tulajdonságokkal rendelkezik, akkor feltételezhetjük, hogy ugyanazokkal a korlátokkal és elfogultságokkal rendelkezik, mint az emberek. A mesterséges intelligencia rendszerek azonban bizonyos feladatokban sokkal pontosabbak és hatékonyabbak lehetnek, mint az humán „gazdáik”, de hajlamosak lehetnek sajátos elfogultságaikra és hibákra is. Például, ha antropomorfizálunk egy arcfelismerő mesterséges intelligencia rendszert, akkor feltételezhetjük, hogy az minden fajú és nemű embert pontosan felismer, holott a valóságban számos MI-arcfelismerő rendszerről kiderült, hogy kevésbé pontos a színes bőrűek és a nők esetében. A mesterséges intelligencia antropomorfizálása negatív következményekkel járhat a technológiához való viszonyunkra nézve. Azáltal, hogy emberhez hasonló tulajdonságokat tulajdonítunk a mesterséges intelligencia rendszereknek, túlzottan függővé válhatunk tőlük, és jobban megbízhatunk bennük, mint kellene. Ez a cselekvőképesség és a felelősség elvesztéséhez vezethet, mivel feltételezhetjük, hogy a mesterséges intelligencia rendszer a legjobb döntést hozza meg számunkra anélkül, hogy megkérdőjeleznénk a döntéseit. Továbbá, ha azt gondoljuk, hogy a mesterséges intelligencia rendszereknek vannak érzelmeik vagy szándékaik, akkor másképp bánhatunk velük, mint más technológiákkal, ami az erőforrások pazarlását jelentheti, és elterelheti a figyelmet a mesterséges intelligencia fontosabb felhasználási módjairól. Bár újszerű dolog a mesterséges intelligencia rendszereket antropomorfizálni, tisztában kell lennünk ennek lehetséges negatív következményeivel. Ha elismerjük, hogy a mesterséges intelligencia rendszerek nem emberek, és elkerüljük, hogy emberhez hasonló tulajdonságokat tulajdonítsunk nekik, pontosabban megérthetjük képességeiket és korlátaikat, és jobb döntéseket hozhatunk a velük való interakcióról.

Az algoritmusok antropomorfizálásának csapdájában
A mesterséges intelligencia antropomorfizálása negatív következményekkel járhat a technológiához való viszonyunkra nézve (Fotó: Unsplash+)

Az antropomorfizmus buktatói

A robotrendszerek viselkedésének leírásakor hajlamosak vagyunk antropomorfizmusokra támaszkodni. A kamerák „látnak”, a döntési algoritmusok „gondolkodnak”, az osztályozó rendszerek pedig „felismerik” a tárgyakat. Az ilyen kifejezések használata azonban kudarcot okozhat, mivel olyan elvárásokat és feltételezéseket támaszt, amelyek gyakran nem igazak, különösen olyan emberek fejében, akik nem rendelkeznek képzettséggel a mögöttes technológiák terén. Ez azért különösen problematikus, mert a robottechnológiák számára elképzelt feladatok közül sok olyan, melyet jelenleg az emberek végeznek (vagy végezhetnének). A természetes tendencia az, hogy ezeket a feladatokat úgy írjuk le, ahogyan egy ember tenné, az emberi „készségek” felhasználásával – ami nagyon eltérő lehet attól, ahogyan egy robot elvégzi a feladatot. Ha a feladatspecifikáció csak az „emberi” specifikációkra támaszkodik – anélkül, hogy világossá tenné a „robot” és az „emberi” készségek közötti különbségeket -, akkor megnő az esélye annak, hogy a feladat emberi alapú leírása és a robot tényleges tevékenysége között eltérés lesz.

Az algoritmusok antropomorfizálásának csapdájában
A robotrendszerek viselkedésének leírásakor hajlamosak vagyunk antropomorfizmusokra támaszkodni. A kamerák „látnak”, a döntési algoritmusok „gondolkodnak”, az osztályozó rendszerek pedig „felismerik” a tárgyakat (Fotó: Unsplash+)

A biztonságos, hatékony és kiszámítható módon viselkedő mesterséges intelligencia- és robotrendszerek tervezése, beszerzése és értékelése a kortárs mesterséges intelligencia egyik központi kihívása, és az ilyen rendszereket leíró nyelvezet kiválasztásakor alkalmazott szisztematikus megközelítés az első lépés a mesterséges intelligencia- és robotrendszerek képességeire vonatkozó, nem vizsgált feltételezésekből eredő kockázatok csökkentése felé. Konkrétan az általunk egyszerűnek tartott cselekvéseket fel kell bontani, és összetevőiket gondosan le kell rendelni algoritmikus és szenzoros megfelelőikhez, miközben el kell kerülni az antropomorf nyelvezet buktatóit. Ez két célt szolgál. Először is, a funkcionalitás egyértelműbb meghatározásával segít feltárni a mögöttes feltételezéseket és elfogultságokat. Másodszor, segít a nem műszaki szakembereknek jobban megérteni a mögöttes technológia korlátait és képességeit, így jobban meg tudják ítélni, hogy az megfelel-e az alkalmazásuk igényeinek.

Az algoritmusok antropomorfizálásának csapdájában
A biztonságos, hatékony és kiszámítható módon viselkedő mesterséges intelligencia- és robotrendszerek tervezése, beszerzése és értékelése a kortárs mesterséges intelligencia egyik központi kihívása, és az ilyen rendszereket leíró nyelvezet kiválasztásakor alkalmazott szisztematikus megközelítés az első lépés a mesterséges intelligencia- és robotrendszerek képességeire vonatkozó, nem vizsgált feltételezésekből eredő kockázatok csökkentése felé (Fotó: Unsplash+)

A robot és az alma

Gondoljunk például egy olyan szakértőre, akit azzal bíztak meg, hogy találjon robot- vagy mesterséges intelligencia megoldást egy olyan szakterület-specifikus problémára, mint az almák felszedése az asztalról és kosárba helyezése. A szakértő az emberre jellemző feladatkifejezéseket („látni”, „szedni”, „elhelyezni”) használja annak meghatározására, hogy mit kell a robotnak tennie (a beszerzési folyamat). A szakértő tesztelési és értékelési specifikációkat is megadhat – a robotnak az almák legalább 80%-kát fel kell szednie anélkül, hogy összezúzná azokat. A helytelen nyelvhasználat ezen a ponton jelentős eltéréshez vezethet a kívánt specifikációk és a ténylegesen megvalósítottak között, mivel a kifejezések értelmezése eltérhet a megrendelő és a fejlesztő között. A „See an apple” lefordítva „identify red pixels”, a „pick up” és a „don’t bruise” a „don’t drop” (ne zúzza meg) kifejezéssel együtt a szakértő számára azt jelenti, hogy „ne ejtse le”, a fejlesztő számára azonban nem. Ez a félreértés tovább fokozódhat, amikor a rendszert átadják a robotrendszer alacsony szintű részeit megvalósító operátoroknak. Lehet, hogy ők az emberi feladat leírása alapján másképp értelmezik, hogyan kell működnie a robotnak. Mivel a mögöttes megvalósítás nem egyezik a rendszer (emberi szintű) leírásával, az operátorok nem tudják pontosan megjósolni a rendszer viselkedését. Ez katasztrofális hibákhoz vezethet, például ha az operátor azt feltételezi, hogy a rendszer képes olyasmire, amire nem, vagy ha a rendszer valami váratlan dolgot tesz, például ha egy pólón lévő hőlégballon képét almának feltételezi.

Az algoritmusok antropomorfizálásának csapdájában
Mivel a mögöttes megvalósítás nem egyezik a rendszer (emberi szintű) leírásával, az operátorok nem tudják pontosan megjósolni a rendszer viselkedését (Fotó: Unsplash+)

Sajnos ezek az antropomorfizmusok vonzóak, mert közös nyelvet biztosítanak a különböző szakterületeken dolgozó emberek között. Elkerülhetnénk a problémákat, ha a beszerzési specifikáció rögzítené a technikai részleteket: „a pixel értéke (232, 3, 3, 3)”, de ez nem lehetséges anélkül, hogy a megrendelő ne rendelkezne a rendszer részletes műszaki ismereteivel. Egyszerűbb azt mondani, hogy „piros”, hiszen mindenki tudja, hogy ez mit jelent. Egy bizonyos ponton azonban mégiscsak meg kell határozni, hogy végre lehessen hajtani a feladatot megfelelően a gyakorlatban. Ebben a megvalósítási folyamatban az eredményül kapott rendszer végül jelentősen eltávolodhat az antropomorf kifejezés szándékától. Ez annál rosszabb lesz, minél finomabbá válnak a fogalmak. Míg a „piros” egy kritikus fogalom, a „személy észlelése” nagyságrendekkel rosszabb.

Az algoritmusok antropomorfizálásának csapdájában
Sajnos ezek az antropomorfizmusok vonzóak, mert közös nyelvet biztosítanak a különböző szakterületeken dolgozó emberek között (Fotó: Unsplash+)

Ezt a hibát egy egyszerű példával szemléltethetjük. Tegyük fel, hogy a program vezetője egy olyan robotrendszert kér, mely képes meglátni egy almát és felvenni azt. A tényleges megvalósítás egy kamera, mely egy durva kört alkotó piros pixeleket érzékel. A robot két egymást követő kép alapján megbecsüli az alma helyét, végrehajt egy pályát, mely a markolót az almához mozgatja, majd becsukja a markoló ujjait és felemeli. A bevetéskor a robot tévesen egy hőlégballon képét veszi észre egy pólón, és megpróbálja áthajtani a markolót az emberen, hogy megpróbálja felvenni. Ez a kudarc egyáltalán nem meglepő a megvalósítás leírása alapján, de sokként érné azt a személyt, akinek csak annyit mondtak, hogy a robot „látja az almát és fel tudja szedni”. A robotokat és a mesterséges intelligencia-rendszereket sújtó hibák közül sok tökéletesen világos, ha a megvalósítás részleteiben írjuk le őket, de elképzelhetetlenül ostobának tűnnek, ha antropomorf nyelvezettel próbáljuk ezt megtenni.

Az algoritmusok antropomorfizálásának csapdájában
A robotokat és a mesterséges intelligencia-rendszereket sújtó hibák közül sok tökéletesen világos, ha a megvalósítás részleteiben írjuk le őket, de elképzelhetetlenül ostobának tűnnek, ha antropomorf nyelvezettel próbáljuk ezt megtenni (Fotó: Unsplash+)

A fekete doboz titka

Az egyértelmű, a nem antropomorf nyelvezet központi szerepet játszik a mesterséges intelligenciával mint fekete dobozzal kapcsolatos tévhitek lebontásában. Az átlagos mesterséges intelligencia vagy robotrendszer még mindig sokkal kevésbé összetett, mint egy átlagos baktérium, akkor miért okoz nehézséget az átlagembernek, hogy megértse, mit tudnak (és mit nem) ezek a rendszerek? Ez a nehézség elsősorban a nyelv miatt merül fel – konkrétan a nyelvhasználat miatt, mely emberközpontú elvárásokat és feltételezéseket hordoz magában. Azt állíthatnánk, hogy a két kijelentés – „A robot lát egy almát” és „A robot észlel egy almának látszó tárgyat” – nagyjából ugyanaz, de a kognitív képességekre vonatkozó feltételezéseikben nagyon is különböznek egymástól. A „lát” egy sor belső modellt és feltételezést hordoz magában: Az alma piros vagy zöld, elfér a kézben, almaszaga van, ropog, amikor beleharapunk, megtalálható a fákon és a gyümölcstálakon stb. Hozzászoktunk ahhoz, hogy az almát a legkülönbözőbb fényviszonyok és különböző nézőpontok mellett látjuk – és van némi fogalmunk arról, hogy milyen kontextusban jelenik meg valószínűleg.

Az algoritmusok antropomorfizálásának csapdájában
Az átlagos mesterséges intelligencia vagy robotrendszer még mindig sokkal kevésbé összetett, mint egy átlagos baktérium, akkor miért okoz nehézséget az átlagembernek, hogy megértse, mit tudnak (és mit nem) ezek a rendszerek (Fotó: Unsplash+)

El tudjuk különíteni az almákról készült képeket a festményektől vagy karikatúráktól. Felismerünk más tárgyakat egy jelenetben, melyekből megtudjuk, hogy valami valószínűleg alma vagy egy másik piros tárgy. Más szóval, amikor egy képet nézünk, egy teljes belső reprezentációt hozunk létre arról, hogy mi lehet az alma – nem csak a pixeleket látjuk csupán. A „detektálás” viszont kevesebb belső feltételezést sugall, és inkább azt a képet idézi fel, amikor valaki egy érzékelőt egy almára irányít, és az „felismeri”. Ez jobban hasonlít ahhoz, ahogyan egy robot „lát”, és ahogyan belsőleg reprezentálja az almát. Egy érzékelőt (a kamerát) az almára irányítunk, és megvizsgáljuk a pixelértékek numerikus eloszlását. Ha a pixelértékek „megegyeznek” numerikusan az „almának” címkézett képek pixeleloszlásainak korábban megtanult példáival, az algoritmus az „alma” szimbólumot adja vissza. Hogyan jut az algoritmus ehhez a pixeleloszlási példakészlethez? Nem úgy, hogy szaladgál és tárgyakat szedeget, és megnézi, hogy olyan-e az illatuk és az ízük, mint az almáé, hanem címkézett képek millióiból. Ezek a képek nagyrészt jó megvilágításban és szabványos nézőpontból készültek, ami azt jelenti, hogy az algoritmus nehezen ismeri fel az almát rossz megvilágításban és szokatlan szögből, és azt sem tudja, hogyan tegyen különbséget az olyan képek között, melyek megfelelnek az alma kritériumainak, de nem azok. Ezért pontosabb azt mondani, hogy a robot egy olyan tárgyat észlelt, mely almának tűnik.

Az algoritmusok antropomorfizálásának csapdájában
Amikor egy képet nézünk, egy teljes belső reprezentációt hozunk létre arról, hogy mi lehet az alma – nem csak a pixeleket látjuk csupán (Fotó: Unsplash+)

Ha az alma felszedésének problémáját olyan szavakkal fogalmazzuk meg, mint az „észlelés”, „mozgás” és „megragadás”, akkor azonnal feltárulnak a kulcsfontosságú kérdések, melyekre válaszokat kell találnunk: Milyen hardvert használunk az érzékeléshez? Milyen ismert hibái vannak? Milyen algoritmusokat használnak? Ehelyett ezeket a problémákat kétirányú megközelítéssel lehet kezelni: Adjunk részletes specifikációkat, melyek világosan körülírják (laikus nyelven) a mögöttes számítógépes reprezentációkat, valamint az ismert hiba eseteket és feltételezéseket. Válasszunk olyan nyelvi kifejezéseket, melyek „mechanisztikusak”, nem emberközpontúak, és legyen nagyon pedáns a rendszerfunkciók leírásakor. A főnevek, melléknevek és igék explicit meghatározása a digitális reprezentációjuk segítségével nagymértékben csökkentené az operátorok azon tendenciáját, hogy feltételezzék, hogy a szoftver rendelkezik e kifejezések „emberi” belső reprezentációjával. Az ismert meghibásodási esetek adatlapon történő összefoglalása szintén javítaná az üzemeltető azon képességét, hogy következtetni tudjon arra, hogy a rendszer mikor és miért hibázhat a feladatában. A pedáns, „mechanisztikus” nyelvezet használata megerősítheti azt, hogy ezek a rendszerek nem az (implikált) emberi készségeket használják a feladataik elvégzéséhez. A megrendelői oldalon – és a fejlesztőkkel együttműködve a tesztelési és értékelési eljárások megtervezésében – ezek a részletes specifikációk és a pedáns nyelvezet segíthet a rejtett feltételezések feltárásában és annak meghatározásában, hogy hol (és milyen mértékben) van szükség speciális tesztelésre. Ez lehet az adatkészlet és érzékelő szintjén (pl. tesztelték-e a gyenge fényviszonyokat?) vagy magasabb szinten (pl. honnan tudják, hogy a robot sikeresen felvette az almát?).

Az algoritmusok antropomorfizálásának csapdájában
A főnevek, melléknevek és igék explicit meghatározása a digitális reprezentációjuk segítségével nagymértékben csökkentené az operátorok azon tendenciáját, hogy feltételezzék, hogy a szoftver rendelkezik e kifejezések „emberi” belső reprezentációjával (Fotó: Unsplash+)

Az MI kritikusai ezt „egyszerű” példának nevezhetik, és azon tűnődhetnek, hogy hol van akkor ebben a rendszerben a mesterséges intelligencia? A valóságban ez az egyik legnehezebb dolog, amit egy robotrendszer meg tud csinálni (csak nekünk könnyű), és a mesterséges intelligencia mindenhol benne van – a gépi tanulási szoftvertől kezdve, mely felismeri az almát, egészen az útvonaltervezésig, mely a markolót az almához juttatja. Nincs „fekete doboz” mesterséges intelligencia, mely csak úgy „megcsinálja”, amit bárki akar. Inkább minden komplex rendszer kisebb összetevőkből épül fel, melyek mindegyike széles körben jellemezhető, tesztelhető és értékelhető. A mechanisztikus, pedáns nyelv helyes használata hatékony eszköz arra, hogy feltárja ezeket a komponenseket, és helyesen írja le a képességeiket.

Az algoritmusok antropomorfizálásának csapdájában

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek