Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Érthető mesterséges intelligencia dolgozik azon, hogy az emberek megbízzanak bennük

MEGOSZTÁS

A magyarázható mesterséges intelligencia újjászülető területe az innováció és az etika metszéspontjában helyezkedik el, és arra törekszik, hogy demisztifikálja az MI összetett döntéshozatali folyamatait. Az MMI feltárása kiemeli annak központi szerepét a bizalomépítésben és az átláthatóság fokozásában, ezáltal elősegítve az emberek és a gépek közötti szimbiózis kialakulását.

Miért kulcsfontosságú a magyarázható (vagy érthető) mesterséges intelligencia (Explainable AI avagy XAI, magyarul MMI) a mai MI-ökoszisztémában? A magyarázható mesterséges intelligencia lényege, hogy a lehető legátláthatóbbá tegye a mesterséges intelligencia rendszerek működését.

Az MMI ereje abban rejlik, hogy képes betekintést nyújtani az MI döntéshozatali folyamatába, lehetővé téve az emberi felhasználók számára, hogy megértsék az eredményeit és megbízzanak bennük.

Az MMI jelentőségét nem lehet eléggé hangsúlyozni, mivel a felelős MI-fejlesztés sarokköveként szolgál, biztosítva, hogy az MI-irányítás ne utólagos szempont legyen, hanem az MI-rendszerek tervezésének alapvető szempontja. A generatív mesterséges intelligencia és a mélytanulási technológiák fejlődésével az MMI egyre fontosabbá válik, hogy hozzáférhessünk az MI technológia mögöttes döntéshozatali mechanizmusaihoz.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Az MMI ereje abban rejlik, hogy képes betekintést nyújtani az MI döntéshozatali folyamatába, lehetővé téve az emberi felhasználók számára, hogy megértsék az eredményeit és megbízzanak bennük. Az MMI jelentőségét nem lehet eléggé hangsúlyozni, mivel a felelős MI-fejlesztés sarokköveként szolgál, biztosítva, hogy az MI-irányítás ne utólagos szempont legyen, hanem az MI-rendszerek tervezésének alapvető szempontja (Fotó: Unsplash+)

Hogyan növeli az MMI a bizalmat és az átláthatóságot a gépi tanulásban?

Az MMI szerepe a bizalom és az átláthatóság növelésében sokrétű. Azzal, hogy az összetett mesterséges intelligencia-döntéseket érthető összetevőkre bontja, segít áthidalni az MI képességei és az emberi megértés közötti szakadékot. Ez nemcsak az MI-szolgáltatások elfogadottságát segíti elő, hanem a felhasználók tájékozottabb döntéshozatalát is ösztönzi, növelve ezzel az MI-rendszer hitelességét. A mesterséges intelligenciába vetett bizalom kényes egyensúly, és az MMI az egyensúlyt lehetővé tevő támaszpontként működik, mivel biztosítja, hogy a gépi tanulási modellek egyszerre értelmezhetőek és megbízhatóak legyenek. Az MMI által lehetővé tett átláthatóság elősegíti a mesterséges intelligencia rendszerekbe vetett mélyebb bizalmat, ami elengedhetetlen a rendszerek szélesebb körű elfogadásához és használatához.

Az értelmezhetőség szerepe

Az értelmezhetőség a felelős mesterséges intelligencia fejlesztésének központi eleme. Egy értelmezhető gépi tanulási modell világos rálátást nyújt a működésére, lehetővé téve a fejlesztők és a szabályozók számára, hogy ellenőrizzék az MI tevékenységeit, és biztosítva az etikai normák betartását. A megmagyarázható gépi tanulás ezen aspektusa biztosítja, hogy az MI-algoritmusok ne állandósítsák az előítéletességet vagy az igazságtalanságot, és ezáltal megalapozzák a méltányosságot és az elszámoltathatóságot. A Defense Advanced Research Projects Agency (DARPA) hangsúlyozza az MMI szerepét annak biztosításában, hogy az MI az emberi értékeknek és etikai irányelveknek megfelelően viselkedjen, kiemelve az értelmezhetőséget, mint az MI etikájának kulcsfontosságú szempontját.

Hogyan épít bizalmat a magyarázható mesterséges intelligencia?

Az MMI küldetésének lényege, hogy az MI és a gépi tanulással kapcsolatos döntések bonyolultságát „dekonstruálja”, az emberek számára hozzáférhetővé és érthetővé téve azokat. A mesterséges intelligencia érthetővé tételére irányuló erőfeszítés magában foglalja annak megvilágítását, hogy az egyes mesterséges intelligenciamodellek hogyan jutnak el a következtetéseikhez, ezáltal demisztifikálva a mesterséges intelligencia működését. A mesterséges intelligenciával kapcsolatos döntések megmagyarázásának képessége döntő szerepet játszik a bizalomépítésben, mivel az érdekeltek akkor bízhatnak az MI-technológiában, ha megértik annak érvelését. Ez az alapvető bizalom kritikus fontosságú az MI integrálásához az élet és az ipar érzékeny és nagy hatású területein.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Az értelmezhetőség a felelős mesterséges intelligencia fejlesztésének központi eleme. Egy értelmezhető gépi tanulási modell világos rálátást nyújt a működésére, lehetővé téve a fejlesztők és a szabályozók számára, hogy ellenőrizzék az MI tevékenységeit, és biztosítva az etikai normák betartását (Fotó: Unsplash+)

Az MMI hatása a felhasználói bizalom elfogadására

Az MMI-elvek megvalósításával a felhasználók bizalma az MI-rendszerek iránt figyelemre méltóan megnő. A mesterséges intelligenciával kapcsolatos döntések átláthatósága és érthetősége szélesebb körű elfogadottságra ösztönzi a felhasználókat, akik egyébként szkeptikusak lennének az átláthatatlan algoritmusokra való hagyatkozással szemben. A tudat, hogy az MI-rendszerek működése vizsgálható és érthető, enyhíti a félelmeket, és szilárd bizalmi alapot teremt. Az MI-megoldásokat alkalmazó szervezetek ráadásul úgy találják, hogy a megmagyarázható MI-rendszerek elősegítik a zökkenőmentesebb szabályozási megfelelés és a közbizalom kialakulását, ami az MMI-t az MI bevezetésének stratégiai előnyévé teszi.

Mindenki tudja, hogy a mesterséges intelligencia robbanásszerűen terjed a médiában, a kutatásokban és a közvélemény figyelmének középpontjában. A szervezetekben és a vállalkozásokban is hatalmas népszerűségre tesz szert, minden vállalkozás minden szegletében LLM-eket, stabil diffúziót és a következő divatos MI-terméket alkalmaznak. Ezzel párhuzamosan manapság az MMI vagy magyarázható mesterséges intelligencia második fellendülése is tapasztalható. A magyarázható MI arra összpontosít, hogy segítsen nekünk, szegény, számítási szempontból nem hatékony embereknek megérteni, hogyan „gondolkodik” az MI. Az MMI-t ugyanott alkalmazzák, ahol az egyszerű, régi mesterséges intelligenciát is, így kézzelfogható szerepe van a bizalom és az átláthatóság előmozdításában, valamint az adattudomány és a mesterséges intelligencia felhasználói élményének javításában.

A magyarázhatóság jelenlegi helyzete

A magyarázhatósággal kapcsolatos kutatások azt mutatják, hogy kevés konkrét definíció létezik. Ezért először megvizsgálunk néhány más kulcsfontosságú kifejezést, melyeket mások a magyarázhatóság meghatározására használnak, valamint a megmagyarázhatóság két különböző fajtáját. A megmagyarázhatóság mellett a következő fogalmakat szokták használni:

Megérthetőség: Az átláthatóság és az értelmezhetőség kombinációja.

Átláthatóság: Három kulcsfontosságú területre osztható: szimuláció, a felhasználó gondolatban szimulálhatja a modell által végrehajtott feladatot, dekompozíció, a felhasználó képes a modell által végrehajtott lépéseket kifejteni, algoritmikus átláthatóság, a felhasználó képes elmagyarázni, hogy egy bemenet hogyan eredményez egy kimenetet.

Értelmezhetőség: A modell vagy modell döntések jelentésének magyarázata az ember számára.

Végső soron ezek a definíciók szinte körkörösek! Ennek ellenére a kutatók ezeket használják a megmagyarázhatóság leírására, egyesek a megmagyarázható MI-t vagy MMI-t úgy írják le, mint ami magában foglalja ezt a hármat, és ezt az érthetőséggel egészítik ki. Az ilyen típusú megközelítés fő kihívása az, hogy a felhasználóknak meg kell érteniük, a megérthetőséget, majd értelmezni az értelmezhetőséget és így tovább. Ráadásul a „megértem, hogy mit csinál a modellem” kifejezésnek ezek a különböző módjai „elszennyezik” a tényleges „megértés vizét”. Például melyik meghatározás illik egy olyan modellre, mint egy döntési fa, mely a tervezéssel magyarázható, szemben egy neurális hálózattal, mely SHAP-értékeket használ a jóslatok magyarázatára? Az egyik átlátható, de nem érthető, vagy megmagyarázható, de nem értelmezhető?

Itt jönnek a képbe azok az alternatív definíciók, amelyeknek erős hangjuk van az MMI-közösségében. Ez a kutatás ehelyett a fekete doboz (black box) és üvegdoboz (glass box vagy white box) módszerek közötti különbségre összpontosít, és ezeket használja fel az értelmezhetőség és különösen a megmagyarázhatóság pontosabb meghatározására.

Érthető és átlátható MI: a bizalom és átláthatóság útja
magyarázható MI arra összpontosít, hogy segítsen nekünk, szegény, számítási szempontból nem hatékony embereknek megérteni, hogyan „gondolkodik” az MI. Az MMI-t ugyanott alkalmazzák, ahol az egyszerű, régi mesterséges intelligenciát is, így kézzelfogható szerepe van a bizalom és az átláthatóság előmozdításában, valamint az adattudomány és a mesterséges intelligencia felhasználói élményének javításában (Fotó: Unsplash+)

Fekete Dobozos módszerek

A „fekete doboz” módszerek azokat a megközelítéseket jelentik, ahol a modell belső működése rejtett vagy nem közvetlenül érthető az emberek számára. Ezen módszerek esetében a modell működését nem magyarázzák meg részletesen; helyette, a modell kimenetei és azok változásai az adatokon alapuló bemeneti változtatásokra koncentrálnak anélkül, hogy részletes betekintést nyújtanának a döntéshozatali folyamatba. A „black box” módszerekkel kapcsolatos MMI megoldások gyakran a modell általánosíthatóságának, megbízhatóságának és értelmezésének javítására törekednek anélkül, hogy közvetlenül befolyásolnák vagy megértenék a modell belső mechanizmusait.

Üveg Dobozos módszerek

Az üveg doboz („glass box” vagy „white box”) módszerek ellentétben állnak a „black box” megközelítéssel. Ezek a módszerek átlátható, jól megértett algoritmusokat és modelleket használnak, ahol a modell belső működése, beleértve a döntéshozatali folyamatot is, világos és közvetlenül érthető. Ez lehetővé teszi a felhasználók számára, hogy pontosan lássák, hogyan jut el a modell egy adott kimenethez, ezáltal növelve a bizalmat és a modell elfogadását. A „glass box” megközelítések lehetővé teszik az egyes döntések pontos magyarázatát és azoknak az alapjául szolgáló logika megértését.

Megjegyezzük, hogy ezeknél a pontoknál az értelmezhetőség definíciója kissé megváltozik:

Értelmezhetőség: Az a képesség, hogy megértsük, hogyan születik egy döntés.

Megmagyarázhatóság: Az a képesség, hogy megértsük, milyen adatokat használnak fel egy döntés meghozatalához.

Bár ezek nagyon hasonlóan hangzanak, nem azok. Jó példa erre ez a tanulmány, ahol egy kiemelési térkép (salience map) segítségével megmutatható, hogy egy kép melyik része eredményezte azt, hogy egy kép egy bizonyos besorolást (magyarázhatóság) kapott. Egy modell, mely megmutatja, hogy egy kép mely részei hasonlítanak szorosan egy bizonyos osztályba tartozó referenciaképekre, és ezt használja fel arra, hogy ténylegesen meghozza a döntését és megmagyarázza azt (értelmezhetőség). A hivatkozott dolgozatot Cynthia Rudin, az értelmezhetőség egyik vezető korifeusa itt egy közérthető oktatóanyagban magyarázza el. Az ilyen példákban nem túlságosan helytelen úgy gondolni az értelmezhető modellekre, mint melyek az emberhez hasonló döntéshozatali folyamatokat utánozzák. Ez természetüknél fogva könnyebben érthetővé teszi őket!

Ez talán kedvezőbb, mivel két kulcsfontosságú területet hagy számunkra a munkánk magyarázatára, a modellek értelmezhetővé vagy megmagyarázhatóvá tételére:

Értelmezhető, üvegdobozos módszerek: Ezek olyan modellek, amelyeket az értelmezhetőség jegyében építettek. A modellezési folyamat alapja, hogy a döntéseket úgy hozzuk meg, hogy azok az emberek számára értelmezhetőek legyenek.

Megmagyarázható, fekete dobozos módszerek: Ezek a modellek úgy készülnek, hogy a magyarázhatóság szinte utólagosan kerüljön előtérbe, leggyakrabban post-hoc magyarázó módszereket alkalmazva.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Az ilyen példákban nem túlságosan helytelen úgy gondolni az értelmezhető modellekre, mint amelyek az emberhez hasonló döntéshozatali folyamatokat utánozzák. Ez természetüknél fogva könnyebben érthetővé teszi őket! (Fotó: Unsplash+)

Fontos különbségtétel, hogy míg a mély neurális hálózatokat fekete dobozos modelleknek tekintik, a kutatók azt szorgalmazzák, hogy ehelyett értelmezhető modellekként építsék fel őket. Itt jön a különbségtétel az ilyen definíciók használatával az értelmezhető modellek az értelmezhetőséget szem előtt tartva épülnek, a magyarázható modellek olyan modellek, amelyeket a munka elvégzése után magyaráztak meg.

Ez egy fontos kérdést vet fel. Ha az üvegdobozos modellek értelmezhetőségre, a fekete dobozos modellek pedig teljesítményre készülnek, akkor bizonyára a fekete dobozos módszerek jobban teljesítenek? Ez nem szokatlan a témával foglalkozó szakirodalomban sem, az MMI-val kapcsolatos DARPA-kutatás egyik kiemelkedő jellemzője:

Vannak dokumentált problémák ezzel; melyek természetesen a megértést hivatottak segíteni, nem pedig az információ tényleges ábrázolását, de potenciálisan félrevezető is lehet. Azt az elképzelést, hogy a jó magyarázatot feláldozzák a jó pontosságért, aktívan támadja a közösség, mely a modellek építésénél az értelmezhetőséget alapvető szinten támogatja . Az alábbiakban a fekete doboz és az értelmezhető modellek néhány összehasonlítását ismertetjük:

A fogalmi szűk keresztmetszetű (értelmezhető) modellek versenyképes pontosságot érnek el a standard megközelítésekkel a térdízületi artritisz súlyosságának (ordinális) előrejelzésében a röntgenfelvételeken. Megjegyezve, hogy a cél az RMSE minimalizálása volt.

A szétválasztott GNN több fekete dobozos versenytársát is felülmúlja a legmodernebb munkamenet-alapú ajánlórendszerekben.

Az esetalapú érvelő modell (0,84 pontosság) felülmúlja a fekete dobozos módszereket (0,82 pontosság) a madarak osztályozásában a CUB200 adathalmaz segítségével. A cél a pontosság maximalizálása volt itt.

Az értelmezhető modellek előnye, hogy nagyon jól illeszkednek egy adott területhez, és ezt kihasználva valódi másodpilótaként működnek a döntéshozatalban. Vizsgáljunk meg egy példát arra, hogyan lehet az értelmezhető mesterséges intelligencia jó partner az emberi döntéshozatal segítésében.

Érthető és átlátható MI: a bizalom és átláthatóság útja
A kontrafaktuálisok a mesterséges intelligencia által hozott döntéseket próbálják megmagyarázni a „mi lett volna, ha?” stílusú kérdések feltevésével. Ezek bizonyítottan növelik a felhasználók elkötelezettségét az MI iránt, és érdekes kérdésekre adhatnak választ arra vonatkozóan, hogy mit tenne egy modell egy adott forgatókönyv esetén. Ugyanakkor nem magyarázzák meg, hogy a modell miért tenné azt, amit tenné, így talán inkább hibakeresési technikaként hasznosak egyes modellek esetében (Fotó: Unsplash+)

Képzeljük el, hogy egy énekversenyen bírók vagyunk, és van két segédbíró, az egyik egy magyarázható mesterséges intelligencia (MMI), a másik pedig egy értelmezhető mesterséges intelligencia (ÉMI). Mindkettő a teljes előadást veszi figyelembe. Az első előadó feljön a színpadra, és elképesztő színpadi jelenléttel teljesít. Az AI-k így pontozzák őket:

MMI: 6 a tízből, és megjelenít egy hőtérképet arról, hogy az előadók hol mentek a színpadon, és mikor teljesítettek jól.

ÉMI: 5 a tízből, és megmondja, hogy betartották a ritmust, amiért 3 pontot kaptak, és hogy helyesen tartották a hangmagasságot, amiért 2 pontot kaptak.

Most az ÉMI esetében van egy értelmezésünk arról, hogy pontosan hogyan született a döntés. Tudjuk, hogy mit vettek figyelembe. Tehát ha úgy gondoljuk, hogy ez igazságos, akkor elfogadhatjuk, vagy figyelembe vehetjük azokat az információkat, melyekkel mi, mint szakavatott bírók rendelkezünk. Például, hogy a csodálatos színpadi jelenlétet figyelembe kell venni, és több pontot kell adni! Tehát az ÉMI segítségével 7 pontot adhatunk nekik az általa fontosnak tartott dolgokra.

Hasonlítsuk ezt össze az MMI-val. Tudjuk, hogy ők figyelembe vették, hogy az énekes hova ment a színpadon, és a hangzás mely részeit használta a döntés meghozatalakor. Amit nem tudunk, hogy ez figyelembe vette-e a színpadi jelenlétet? Ha igen, hogyan? Ha a szaktudásunkat használjuk arra, hogy itt pontokat adjunk hozzá, akkor az MMI-val duplán számolhatunk! A színpadon lévő feltörekvő énekesnek sem tudnánk jó visszajelzést adni!

A fenti példában nem részleteztük, hogy a modelleket hogyan képeztük ki MMI és ÉMI megközelítésben. Természetesen ezt részletesebben is tárgyalták.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Fontos különbségtétel, hogy míg a mély neurális hálózatokat fekete dobozos modelleknek tekintik, a kutatók azt szorgalmazzák, hogy ehelyett értelmezhető modellekként építsék fel őket. Itt jön a különbségtétel az ilyen definíciók használatával az értelmezhető modellek az értelmezhetőséget szem előtt tartva épülnek, a magyarázható modellek olyan modellek, amelyeket a munka elvégzése után magyaráztak meg (Fotó: Unsplash+)

A megmagyarázhatóságot vagy az értelmezhetőséget kell figyelembe venni?

Ez az a kérdés, amit most talán feltesz bárki magának, és ez egy igazán jó kérdés. Az őszinte válasz az, hogy mindkettőt figyelembe kell vennie. Egy tökéletes világban minden modell értelmezhető és ezáltal megmagyarázható lenne. Az értelmezhető modellek azonban sokkal könnyebben alkalmazhatók bizonyos területeken, mint másokon.

Értelmezhető modellek

Logikai modellek: Az olyan modellek, mint a döntési fák, döntési listák és döntési halmazok, melyek beépített magyarázatokat adnak, és ezeket megosztják a felhasználókkal, nagyon jól szerepelnek e munka 1. kihívásában.

Ritkított pontozási rendszerek: A fentihez hasonló példák olyan modelleket építenek, melyek megtanulják, hogyan lehet hatékonyan pontozni az adatokat, és ezeket szabályokként mutatják be a felhasználónak, valamint ténylegesen elvégzik az osztályozást. Kimutatták, hogy a Random Forests, a Support Vector Machines és más modellekkel versenyképes hibát mutatnak egy sor adathalmazon.

Tartományspecifikus MMI-modellek: Számos különböző megközelítés igyekszik a mesterséges intelligenciát egy-egy tartományban jobban megmagyarázhatóvá tenni. A fogalmi szűk keresztmetszet modell például arra törekszik, hogy megtanítson egy MI-modellt különböző fogalmakra, és ezeket használja fel az osztályozási és regressziós problémák előrejelzéseinek megtalálására. Például először a „Szárnyai vannak”, majd a „Csőre van”, „Bajusza van” és így tovább, hogy aztán ezeket a jóslatokat macskák vagy madarak osztályozására használjuk.

Szétválasztott Neurális Hálózatok: Olyan hálózatok, melyeket úgy terveztek, hogy eredendően magyarázhatóak legyenek, például a DisenGNN, mely gráf neurális hálózati megközelítéseket használ a hálózat csomópontjait összekötő tényezők megtalálására és az osztályozások és ajánlások magyarázatára.

Számos olyan terület van azonban, ahol az értelmezhető mesterséges intelligencia még nem lehetséges. Ez nem jelenti azt, hogy nem lehet megfelelő megközelítést találni a fenti szakterület-specifikus technikák közül néhányat felhasználva. Bizonyos esetekben azonban a magyarázhatóság jobb megoldás lehet, például olyan területeken, mint a megerősített tanulás és az LLM, ahol az MMI-modellek még nem tudták megismételni a fekete dobozos módszerek pontosságát.

Megmagyarázható technikák

SHAP-értékek: A modell által készített helyi előrejelzések magyarázatára implementáltak, minden egyes jellemzőt vesznek, és kiszámítják, hogy egy adott megfigyelés hogyan vezetett egy bizonyos előrejelzéshez.

Globális helyettesítő modell: A megmagyarázhatóság ezen megközelítése egy üvegdoboz-modell kiképzését foglalja magában egy fekete doboz modell által készített előrejelzések alapján. Például egy lineáris regresszió képzése egy neurális hálózat előrejelzéseire megmondhatja, hogy mely jellemzők korrelálnak bizonyos előrejelzésekkel. Ez jól hangzik, de további technikákat kell megvizsgálni, mivel ha a modell nem lineáris, akkor ezek a fontossági értékek/összefüggések nem biztos, hogy helyesek.

Figyelemtérképek: A figyelemtérképek leírják, hogy a modell egy kép vagy megfigyelés mely részeit használja fel a jósláshoz. A figyelemtérképek különösen érdekes alkalmazása a magyarázatok generálásában hasonló képek felhasználásával itt. Ez a cikk szinte áthidalja a magyarázhatóság és az értelmezhetőség közötti szakadékot a hasonló képekkel való összehasonlításban.

Ellenpéldák: A kontrafaktuálisok a mesterséges intelligencia által hozott döntéseket próbálják megmagyarázni a „mi lett volna, ha?” stílusú kérdések feltevésével. Ezek bizonyítottan növelik a felhasználók elkötelezettségét az MI iránt, és érdekes kérdésekre adhatnak választ arra vonatkozóan, hogy mit tenne egy modell egy adott forgatókönyv esetén. Ugyanakkor nem magyarázzák meg, hogy a modell miért tenné azt, amit tenné, így talán inkább hibakeresési technikaként hasznosak egyes modellek esetében.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Számos olyan terület van azonban, ahol az értelmezhető mesterséges intelligencia még nem lehetséges. Ez nem jelenti azt, hogy nem lehet megfelelő megközelítést találni a fenti szakterület-specifikus technikák közül néhányat felhasználva. Bizonyos esetekben azonban a magyarázhatóság jobb megoldás lehet, például olyan területeken, mint a megerősített tanulás és az LLM, ahol az MMI-modellek még nem tudták megismételni a fekete dobozos módszerek pontosságát (Fotó: Unsplash+)

A magyarázhatóság kockázatai

Az értelmezhetőséggel szemben a megmagyarázhatóságot vizsgálva fontos megjegyezni, hogy a legtöbb megmagyarázhatósági technika olyan módszer, mellyel megmagyarázható, hogy szerintünk mit csinál a mesterséges intelligencia. Ez a megkülönböztetés félrevezető eredményekhez vezethet.

Jó példa arra, hogy a megmagyarázható mesterséges intelligencia félrevezető lehet, a visszaesés (a börtönviseltek bűnismétlés valószínűsége) COMPAS modellje. Az ilyen modellekkel számos jól dokumentált probléma van, de különösen a megmagyarázhatósággal kapcsolatos problémákat szakértő módon dokumentálja ez a videokonferencia. Hibás feltételezések születnek arról, hogy egy modell hogyan működik a magyarázók alapján, amikor a kontrollált elemzés azt mutatja, hogy ez valószínűleg nem így van. Ez különösen a COMPAS modellezési folyamatban jelent problémát a probléma érzékenysége és a felhasznált zavaró és proxy változók miatt.

Az MMI további lehetőségei

Most, hogy megértettük, hol tart most az MMI, a továbbiakban javaslatot teszünk az MMI jövőjére. A szakirodalom egy részében tapasztalható zűrzavar és ellentmondások ellenére két fő problémát azonosíthatunk:

  1. Az MI-t világszerte olyan modellekkel alkalmazzák a szervezetekben, amelyeket nem lehet pontosan elmagyarázni vagy megérteni minden felhasználó számára.
  2. Egyes MI modellek és technikák még nem „üvegdobozként” épülnek fel, így magyarázatainkat találgatásokra kell alapoznunk.

Emiatt ésszerű megoldás lehet egy döntési fa az emberek számára! Nézzük meg, hogy mi lehet ez:

Mindenekelőtt meg kell kérdeznünk, hogy a mesterséges intelligencia hype növekedésével ez a probléma igényel-e mesterséges intelligencia megoldást? Alkalmazható-e először hagyományos statisztikai megközelítés, automatizálási megközelítés vagy bármi más? Ezután megkérdezzük magunktól, hogy van-e egyszerűbb vagy eredendően értelmezhető modell, melyet meg lehet építeni? Ha igen, akkor használjuk azt! Ha nem, akkor nézzük meg, hogy előbb ki tudjuk-e fejleszteni a megközelítésünket, hogy értelmezhető legyen. Az értelmezhetőség keresése elindíthat bennünket egy saját, szakterület-specifikus MMI-modell, például a DisenGNN kifejlesztése felé, vagy saját fogalmi szűk keresztmetszet-modell képzésére, ha rendelkezünk az ehhez szükséges adatokkal. Ebben a szakaszban fontos, hogy a teljesítményt is figyelembe vegyük, így összehasonlítjuk a fekete dobozos megközelítésekkel.

Érthető és átlátható MI: a bizalom és átláthatóság útja
Mindenekelőtt meg kell kérdeznünk, hogy a mesterséges intelligencia hype növekedésével ez a probléma igényel-e mesterséges intelligencia megoldást? Alkalmazható-e először hagyományos statisztikai megközelítés, automatizálási megközelítés vagy bármi más? Ezután megkérdezzük magunktól, hogy van-e egyszerűbb vagy eredendően értelmezhető modell, melyet meg lehet építeni (Fotó: Unsplash+)

Végül, ha nem tudunk MMI-t kifejleszteni vagy alkalmazni, akkor vizsgáljuk felül a magyarázhatóságot. A strukturálatlan adatok hőtérképek formájában érkezhetnek. Strukturált adatok esetén SHAP-értékeket használhatunk a helyi és helyettesítő modelleket a globális magyarázatokhoz. Vegyük észre, hogy bárhová is jutunk, a modelljeinkkel még mindig valamilyen felhasználói megértést építünk fel. Ez azért van, mert az MMI-megközelítések tökéletesen alkalmasak arra, hogy a felhasználóknak megbízható és átlátható módon mutassuk be a mesterséges intelligencia megoldásokat.

A megbízhatóságról

A modell magyarázatára vagy a modell értelmezhetővé tételére használt technika végső soron ugyanahhoz a végcélhoz vezető út. Az MMI létrehozásának módszereivel, előnyeivel és kihívásaival fentebb már foglalkoztunk, de mielőtt lezárnánk, fontos megjegyezni a megbízhatóság szerepét. Pontosabban, hogy a felhasználók hogyan bíznak a modellekben.

Ezt Vera Liao előadása szakszerűen tárgyalja, mely az MI felhasználói élményre (UX) összpontosít. A videószeminárium egyik legfontosabb üzenete, hogy a felhasználók hajlamosabbak jobban megbízni a modellekben, ha magyarázatot kapnak. Ezért a rossz és bizonytalan modellek esetében a felhasználók végül is jobban bíznak bennük, ha magyarázatot adnak. Ez még nagyobb felelősséget ró az MMI-modellek készítőire, és megmutatja, hogy még ha a mesterséges intelligencia megmagyarázható is, akkor is tévedhet, és még mindig valós kockázatokkal járhat, ha túlzottan hagyatkozunk a mesterséges intelligencia döntéseire. Nem lehet alábecsülni a mesterséges intelligenciamodellek, pontosabban az MMI-modellek felhasználói tapasztalatait feltáró munkák jelentőségét. Az adattudósoknak, elemzőknek és a modelleket a való világba engedő akadémikusoknak nemcsak az a kötelességük, hogy elmagyarázzák, mit csinál a modelljük, hanem az is, hogy ezt elmagyarázzák azoknak, akiket érint.

Érthető és átlátható MI: a bizalom és átláthatóság útja

(Kiemelt kép: Unsplash+)

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek