(Kiemlet kép: Unsplash+)
Az intelligencia a tanulás, a megértés, az érvelés, a problémamegoldás és a döntéshozatal képességét jelenti. A megértés egy olyan folyamat, amikor az ember képes felfogni vagy megragadni valaminek a jelentését vagy természetét. Az ész az a képesség, hogy új vagy meglévő ismeretek alapján logikát alkalmazzunk vagy logikai kapcsolatot teremtsünk az események között. A tudatosság valaminek a tudatos felismerése. A környezet elemeinek és az adott helyzetre vonatkozó relevanciájuknak a felismeréséről szól. A kapcsolat e fogalmak között: a megértés az intelligencia egyik összetevője. Nem mondhatnánk valakit intelligensnek tényleges megértés nélkül. A megértés támogatja az intelligens viselkedést. A tudatosság olyan állapot, mely lehetővé teszi az érvelést és a megértést. A tudatosság a legösszetettebb és legkevésbé értett téma. Számunkra gyakran a tapasztalatok összességének tekinthető, magában foglalja a tudatosságot, a megértést. és ez teszi lehetővé, hogy az embereknek szubjektív élményeik legyenek.
A mesterséges intelligencia előtt
A mesterséges intelligencia megjelenése előtt egyszerű számítógépekkel rendelkeztünk, melyek hétköznapi feladatai tudományos számítások futtatásából álltak. A számítógép előtt azonban léteztek automaták (olyan gépek, melyek képesek voltak önállóan működni), és amelyeket arra terveztek, hogy előre meghatározott cselekvések sorozatát hajtsák végre. Az egyik legismertebb példa erre Jacques de Vaucanson 1764-ben készült emésztő kacsája. A rézből készült kacsa tudott kvákogni, enni és látszólag megemészteni az ételt. Néhány ilyen automata olyan fejlett és jól megtervezett volt, hogy képes volt egyes emberi viselkedésformákat utánozni. A leghíresebb példa az 1770-ben megépített és bemutatott Mechanikus Török, aki úgy tűnt, hogy képes sakkozni. Ez a gép több mint nyolc évtizeden át járta Európát és az Amerikai Egyesült Államokat. Később azonban kiderült, hogy a Mechanikus Török nem volt autonóm, hanem titokban egy képzett sakkozó irányította a gép belsejéből. Tehát már a modern számítástechnika előtt is lenyűgözött minket a mesterséges intelligencia, és bizonyos értelemben már akkor is gondolkodtunk róla.
Az MI hatása
Úgy tűnik, hogy amikor egy új, mesterséges intelligenciával kapcsolatos technológia válik az új normává, az már nem is mesterséges intelligencia tulajdonképpen. Ez az úgynevezett MI-effektus. Amikor 1996-ban az IBM Deep Blue szuperszámítógépe legyőzte Kaszparovot, az akkori világbajnokot egy sakkjátszmában, azt a mesterséges intelligencia fejlődésének óriási teljesítményének tekintették. Ha egy gép ugyanolyan intelligensen viselkedik, mint egy ember, akkor ugyanolyan intelligens is már, mint egy ember? Valójában nem. Sokan kevésbé voltak lelkesek, köztük John McCarthy, a mesterséges intelligencia egyik „alapító atyja”, aki úgy látta, hogy ez nem más, mint »nyers számítás«, nem pedig valódi intelligencia. Még jóval korábban, 1966-ban az MIT informatikusa, Joseph Weizenbaum által készített egyik első chatbot, az ELIZA képes volt »becsapni« néhány felhasználót, hogy a chatbot valódi megértést és együttérzést mutatott, és »nehéz meggyőzni, hogy ELIZA nem ember«. Ez azonban egy téves értelmezés, melyet Weizenbaum később megpróbált korrigálni. A gép egyszerűen egy előre definiált szkriptet használt a mintaillesztéssel együtt, és a felhasználó válaszának részeit helyettesítette a válaszában. Ha talált egy kulcsszót, akkor egy olyan szabályt alkalmazott, mely átalakítja a felhasználó megjegyzéseit, és az így kapott mondatot adta vissza. A mesterséges intelligencia definíciója »mozgó célpont«, melyet folyamatosan újra kell definiálni. A technológia fejlődésével és az MI-rendszerek egyre jobb képességekkel rendelkeznek, így egyre nagyobbak az elvárások azzal kapcsolatban, hogy mit nevezzünk mesterséges intelligenciának. A korábban mesterséges intelligenciának tekintett feladatok, mint például a számítógépes sakkozás, új normává válnak, amint megvalósulnak, és a mérce magasabbra kerül.
Mikor nevezhető valami valóban mesterséges intelligenciának?
Úgy tűnik, hogy a „mesterséges intelligencia” kifejezésre nem létezik általános érvényű meghatározás. Mindazonáltal sokan egyetértünk abban, hogy az MI egy olyan kutatási terület, mely a gépeket tanulásra és intelligens viselkedésre készteti. A mesterséges intelligencia mint kutatási terület meglehetősen jól körülhatárolt. Andrew Ng például így definiálja, hogy az MI olyan eszközök összessége, melyekkel a számítógépek intelligens viselkedésre késztethetők. A mesterséges intelligencia az a tudomány, mely arra készteti a gépeket, hogy olyan dolgokat tegyenek, melyekhez intelligenciára lenne szükség, ha ember tenné őket és ez a meghatározás hasonló ahhoz, ahogyan a Darmouth javaslatában definiálták: egy gép olyan viselkedésre késztetése, melyet intelligensnek neveznénk, ha egy ember viselkedne így. Ezek a fent említett definíciók azonban nem mondják meg, hogyan hozhatnánk létre egy gépet vagy számítógépet, hogy intelligensen viselkedjen. Sőt, azt sem mondják meg, hogy mit jelent intelligensnek lenni vagy intelligens módon viselkedni.
Az MI mint az intelligencia fogalma
Erős mesterséges intelligencia vs. gyenge MI
A bökkenő itt az „intelligencia” kifejezés. Mert amikor az emberek azt mondják, hogy „Ez nem MI”, akkor általában nem az MI területére, hanem az intelligencia fogalmára utalnak. Az intelligencia fogalma akkor válik trükkössé, ha kevésbé arra koncentrálunk, hogy mit is csinál valójában az adott MI, hanem inkább arra, hogy hogyan csinálja. A mesterséges intelligenciának két iránya van, az „erős” és a „gyenge”. Az erős mesterséges intelligencia a Massachusetts Institute of Technology (MIT) nevéhez fűződik, és egy olyan általános mesterséges intelligencia létrehozására összpontosít, mely képes megérteni, tanulni és intelligenciáját széles körben, különböző kontextusokban alkalmazni, hasonlóan az emberhez. Az erős mesterséges intelligencia öntudattal, megértéssel, gondolkodással és problémamegoldó képességgel, új feladatok megtanulásával és a különböző területek közötti tudásátadással rendelkezne. Ez a fajta mesterséges intelligencia többnyire elméleti jellegű, és még nem létezik. Másrészt a gyenge mesterséges intelligenciát gyakran a Carnegie Mellon Egyetemhez (CMU) kötik. Ezek a rendszerek azért „gyengék, mert intelligenciájuk és megértésük a programozott szakterületükre korlátozódik. Nem rendelkeznek öntudattal vagy valódi megértéssel. A gyenge mesterséges intelligenciára példák a chatbotok, az ajánlórendszerek és a hangalapú asszisztensek. Szűk feladatkörükön belül intelligensnek tűnnek, de azon túl nem képesek működni. A gépi és mélytanulással kapcsolatos összes algoritmus például ebbe a kategóriába tartozik. A GPT család modelljei sem képeznek kivételt. A következő szavak valószínűségeinek előrejelzésére vannak betanítva. A gyenge mesterséges intelligencia hívei a rendszerek sikerét kizárólag a teljesítményük alapján mérik. Szerintük a mesterséges intelligencia kutatása a nehéz problémák megoldására irányul, függetlenül attól, hogy azokat ténylegesen hogyan oldják meg.
Funkcionalizmus kontra instrumentalizmus
A spektrum egyik oldalán a funkcionalizmus és instrumentalizmus nézőpontja áll, mely inkább az eredménnyel törődik, mintsem azzal, hogy egy problémát hogyan oldanak meg. Ez hasonlóságot mutat a „gyenge mesterséges intelligencia” gondolkodásmódjával. A spektrum másik oldala szerint ahhoz, hogy egy rendszert mesterséges intelligenciának nevezhessünk, intelligens módon kell megoldania a problémákat, hasonlóan ahhoz, ahogyan az emberek teszik. Ezt nevezik biológiai plauzibilitásnak, vagyis annak mértékét, hogy egy algoritmus mennyire utánozza a biológiai idegi feldolgozás elveit. Ez azt jelentheti, hogy az agyban megfigyeltekhez hasonló tanulási szabályokat alkalmazunk, például a Hebb-féle tanulást, vagy olyan hálózati architektúrákat tervezünk, melyeket az agykéreg szerveződése ihletett. Gyakori például olyan séma beépítése, melyben egy sakkprogram emlékszik a korábban játszott játszmákra, és az előző, vesztes játszmából kiindulva módosítja stratégiáit. Sokkal nagyobb kihívás azonban olyan sakkozógépet programozni, mely képes megérteni a stratégiai lépéseket, irányítani a játék menetét, és védekezésre kényszeríteni az ellenfelet. Más szóval, egyértelmű különbség van egy olyan gép között, mely intelligensnek tűnik azáltal, hogy intelligens viselkedést utánoz, és egy olyan között, amely valóban intelligens, mert valódi kognitív képességekkel rendelkezik. Éppen ezért nem arról van szó, hogy a szabályok betartása a programozás módja szerint történik, hanem a számítógépes rendszereknek meg kell érteniük, hogy mit jelentenek a szabályok, mert ez hatalmat adna nekik arra, hogy túllépjenek a szabályokon.
A mesterséges intelligencia mint vitatéma
Az olyan informatikusok, mint John McCarthy és Marvin Minsky az erős mesterséges intelligencia irányzat hívei. A dartmouthi műhely után, 1959-ben John McCarthy (a mesterséges intelligencia egyik alapító atyja és legnagyobb hatású személyisége) megírta a „Program with common sense” című cikket, mely az első olyan írás volt, mely a mesterséges intelligencia rendszerek kulcsaként a józan ész érvelési képességét javasolja. Munkájában McCarthy egy sor feltételt vezetett be egy olyan programra vonatkozóan, mely az emberi intelligencia szintjére fejlődik. Az első középpontban az áll, hogy ahhoz, hogy egy rendszer képes legyen megtanulni valamit, először is képesnek kell lennie arra, hogy megmondják neki. Ez azt jelenti, hogy a rendszernek képesnek kell lennie arra, hogy utasítást kapjon és tanuljon, majd képes legyen tanulni a tapasztalatból és módosítani a viselkedését, hasonlóan az emberhez. McCarthy azt javasolta, hogy a mesterséges intelligencia képes legyen levezetni vagy levonni azonnali logikai eredményeket minden új információból, amit kap, kombinálva azzal, amit már tud.
Egy Jeffrey Mishlove-nak adott interjúban John McCarthy felvetette, hogy az MI-kutatásnak nehéz koncepcionális problémái voltak és vannak: ami, ha jól értjük, azt jelenti, hogy az MI-rendszereknek képesnek kell lenniük arra, hogy megértsék, érveljenek és cselekedjenek az emberek által birtokolt, józan ésszel felfogható tudás birodalma alapján. Az emberek természetüknél fogva hatalmas mennyiségű „józan ész” tudással rendelkeznek, melyet természetesnek veszünk. Ez magában foglalja az olyan alapvető fizikai tulajdonságok megértését, mint például, hogy ha elejtünk egy labdát, az leesik. Ezért a mesterséges intelligencia központi kérdése az emberi józan ész és érvelés olyan strukturált kifejezési és kódolási módjának kifejlesztése, mely a számítógépes rendszerek számára is érthető formában fejezhető ki. Ezeket a koncepcionális kihívásokat kell megoldani, mielőtt olyan számítógépes programokat hozhatnánk létre, melyek az emberhez hasonlóan intelligensnek tekinthetők, és az emberi józan észhez hasonló érveléssel rendelkeznek.
A számítógép valódi megértéssel való felruházása azonban közel sem megoldott. A józan ésszel való bánásmódról bebizonyosodott, hogy nehéz annak ellenére, hogy az emberek könnyen képesek rá. Egy gyermek azért képes felismerni a beszédet, mert ez a képesség az emberbe van beépítve. Az ember mégis nehezen érti meg, honnan ered ez a képesség, és hogyan lehet a számítógépes programokat ugyanerre rávenni. Néhány koncepcionális áttörést kell elérni az emberi agy és annak működésének megértésében. Végső soron olyan számítógépes rendszereket szeretnénk látni, melyek valóban okosak, és nem pedig előre meghatározott szabályokat hajtanak végre, mint egy agyatlan gép. John McCarthy álláspontja az volt, hogy olyan rendszerekre van szükségünk, amelyek magukban foglalják a „valódi” megértést és ezáltal az intelligenciát.
De nem mindenkit győzött meg. A filozófiai következmények mélyrehatóak. Joseph Weizenbaum (az első chatbot, az ELIZA megalkotója) úgy vélte, hogy az emberről mint információfeldolgozó rendszerről alkotott elképzelés „túlságosan leegyszerűsíti az intelligencia fogalmát”, és azt a „perverz nagy fantáziát” táplálja, hogy a mesterséges intelligencia tudósai létrehozhatnak egy olyan gépet, amely úgy tanul, „mint egy gyerek”. Weizenbaum szerint nem tudjuk humanizálni a mesterséges intelligenciát, mert az mesterséges intelligencia redukálhatatlanul nem emberi. Soha nem szabad egy számítógépes rendszerrel helyettesítenünk egy emberi funkciót, mely magában foglalja az interperszonális tiszteletet, megértést és szeretetet. Egyetlen emberi lény sem tudná teljesen megérteni a másik embert. Ha gyakran átláthatatlanok vagyunk egymás és még önmagunk számára is, akkor milyen remény van arra, hogy egy számítógép megismerjen minket?. Hubert Dreyfus filozófus szerint egyesek „nem veszik figyelembe annak lehetőségét, hogy az agy teljesen másképp dolgozza fel az információt, mint egy számítógép”. Dreyfus „Amit a számítógépek nem tudnak” című művében hangsúlyozta, hogy az emberi megismerés alapvetően más, a tudattalan és tudatalatti folyamatokra támaszkodik, míg a gépek csupán explicit algoritmusokat követnek, és a megismert adatok alapján hoznak döntéseket. Nem „tapasztalják” a világot, és nincsenek tudatalatti befolyásoló tényezők. Hiányzik belőlük az a mély megértés, amely a megélt tapasztalatból és a tudatalatti feldolgozásból fakad, és ez filozófiailag lehetetlen.
A lineáris regresszió mesterséges intelligencia?
Amikor gépi tanulást tanulunk, az egyik első példa, amit elsajátítunk, az a lineáris regresszió megoldása. Egyesek azzal érvelnek, hogy a regressziós modellek nem lehetnek mesterséges intelligencia, hanem csak a mélytanulás lehet mesterséges intelligencia. Ez azt sugallja, hogy egy algoritmus vagy rendszer MI-nek nevezése azzal függ össze, hogy hogyan old meg egy problémát. Úgy tűnik, sokan tudatosan döntöttek úgy, hogy akkor és csak akkor nevezik a dolgokat „MI”-nak, ha mélytanulásról és neurális hálózatokról van szó. Másodszor, azzal, hogy mindent mesterséges intelligenciának nevezünk, csak tápláljuk ezt a hülye hype-ciklust. Ha a lineáris regressziót mesterséges intelligenciának nevezzük, azzal is támogatjuk a versenyfutást a kifejezés jelentését illetően (ezért szerencésebb az alternatív intelligencia megnevezés, de ez egy másik írás témája lesz). A legkisebb négyzetek módszerének gépi tanulási problémaként való újradefiniálásával a lineáris regresszió megoldása a hibák (RMSE vagy MSE) minimalizálásává válik. A lineáris regresszió és a legkisebb négyzetek módszerének eredete azonban a XIX. század végére nyúlik vissza, amikor Sir Francis Galton megoldotta a problémát normálegyenletek segítségével. Az ő megoldása jóval a mesterséges intelligencia hajnala előtt létezik, és még csak nem is használ semmilyen „tanulást”.
A tudatosság lenyűgöző elmélete
Bár egy emberhez hasonlóan valóban intelligens gép megalkotása filozófiailag lehetetlennek tűnik egyesek számára, mégis lehet némi remény. A tudatosságról általában úgy vélik, hogy az agy tevékenységéből ered, de hogy hogyan keletkezik az agyban zajló fizikai folyamatokból, még mindig nem értjük pontosan. Az idegtudományban elterjedt nézet szerint a tudatos élmény kialakulásában alapvető szerepet játszik a neuronok közötti kommunikáció a szinapszisokon. A szinapszis a neuronok közötti kapcsolódási pont, amelynek elsődleges feladata a jelek továbbítása egyik neuronról a másikra. A legtöbb idegtudós a tudatosság tanulmányozásakor a szinaptikus neuronhálózat aktivitására összpontosít, és az agy számítási teljesítményét a szinaptikus kapcsolatok termékének tekinti. Ezek a nézetek az agyi tevékenységet gyakran számítási folyamatnak tekintik.
Stuart Hameroff, aneszteziológus és professzor, valamint Roger Penrose, matematikus és fizikus, az akkori fizikai Nobel-díjas azonban a tudatosság egy másik lenyűgöző elméletéről, az Orch OR-ről értekezett. Roger Penrose szerint a tudatosság központja három fogalom között táncol: intelligencia, megértés és tudatosság. Nem neveznénk intelligensnek valamit, ha nem érti meg. Ahhoz pedig, hogy megértse, tudatában kell lennie. Ha a megértés bizonyíthatóan valami olyasmi, ami túlmutat a számításon, akkor az intelligencia nem számítás kérdése. A Roger Penrose és Stuart Hameroff által javasolt Orch-OR elmélet azt sugallja, hogy a tudatosság a mikrotubulusoknál keletkezik: melyek a szinapszis helyett a sejtek citoszkeletonjának részét képező szerkezeti elemek a neuronokon belül. Ezen elmélet szerint a mikrotubulusok lehetnek a tudatossághoz vezető kvantumhatások helyszínei, ami eltér az idegi feldolgozás hagyományos felfogásától, amely szerint a tudatosság a szinapszisokból ered. Bármi is legyen a tudat, az nem egy számítás. Az egész tulajdonképpen régen kezdődött, amikor Roger Penrose megjelentette „A császár új elméje” című könyvét, amelyben arról értekezett, hogy az agyban kvantumszámítógépre van szükség. Stuart Hameroff el volt ragadtatva a könyvtől, és azt javasolta Roger Penrose-nak, hogy nézzen utána a mikrotubulusoknak. Később összefogtak, és felépítették a lenyűgöző Orch-OR elméletet. Ennek alapja az az elképzelés, hogy a tudatosság a neuronokon belüli mikrotubulusokból ered, nem pedig a köztük lévő kölcsönhatásokból. Stuart Hameroff egész pályafutása során tanulmányozta az altatás hatásmechanizmusát, és egy olyan elméleti mechanizmust javasolt, amely szerint az altatószerek az agyi neuronok belsejében lévő mikrotubulusok kvantumrezgéseinek tompításával törlik el a tudatot. Ez egy igazán izgalmas érv amellett, hogy a tudat és a mikrotubulusok között kapcsolat van. Egy másik támogató érv az, hogy amikor a mikrotubulusok szétesnek, az emberek Alzheimer-kórt kapnak.
Szóval, melyek a mikrotubulusok azon tulajdonságai, amelyek a tudattal hozhatók összefüggésbe? Az elképzelés szerint a szimmetrikus szerkezetű mikrotubulusok döntő szerepet játszhatnak a tudatosságban, mert sokkal jobban meg tudják őrizni a kvantumállapotokat: a kvantum szuperpozícióból az egyetlen kimenetbe való átmenetet. A kvantummechanikában a szuperpozíció egy olyan alapelv, mely lehetővé teszi, hogy a részecskék, például az elektronok, egyszerre több állapotban vagy helyen legyenek. Ez az elv gyökeresen eltér a mindennapi tapasztalatainktól és a klasszikus fizikától, ahol egy tárgy egyszerre csak egy állapotban vagy helyen lehet. Képzeljük el, hogy van egy érménk, és feldobjuk a levegőbe. A mindennapi világban az érme csak fej vagy írás lehet, amikor földet ér. De ha az érmét a kvantummechanika szabályozná, akkor a levegőben egyszerre lehet fej és írás is, miközben a levegőben van. Ez az állapot, hogy egyszerre többféle állapotban van, mindaddig fennmarad, amíg nem mérjük a rendszert. Az érme esetében ez olyan lenne, mintha nem néznénk rá az érmére, hogy lássuk, hogy fej vagy írás. A kvantummechanikában, amikor végre „megnézzük” (azaz mérést végzünk), a szuperpozíció összeomlik a lehetséges állapotok egyikére.
Szuperpozíciók a kvantummechanikában
Az egyik gondolatkísérlet, amely a szuperpozíció fogalmát hivatott illusztrálni a kvantummechanikában, a Schrödinger macskája, melyet Erwin Schrödinger osztrák fizikus talált ki 1935-ben. A Schrödinger macskája gondolatkísérletben a kvantumállapotok a kulcsszereplők. A macska sorsa összefonódik a radioaktív atom kvantumállapotával. A kvantummechanikában a részecskék egyszerre több állapotban is létezhetnek, amit szuperpozíciónak nevezünk. Egy kvantumrendszer mérése vagy megfigyelése úgymond „összeomlasztja” a szuperpozíciót a lehetséges állapotok egyikébe. Penrose szerint, amikor ezek a kvantumállapotok elérik az instabilitás egy bizonyos szintjét, összeomlanak, és ezen összeomlások kimenetele nem számítható, azaz nem oldható meg vagy nem jósolható meg semmilyen algoritmussal véges idő alatt vagy véges erőforrásokkal. Ezért nem lehet tudni, hogy mi lesz a végeredmény. És ez az a pont, ahol az elmélet jelentős ugrást tesz: ezen összeomlások nem kiszámítható kimenetele a tudatos tudatosság pillanataihoz vezet.
A szilícium alapú számítógépek soha nem érhetik el a valódi tudatosságot
Az elmélettel Penrose azt állította, hogy a tudatosság az emberi agyban zajló, nem számítható folyamatokat foglalja magában. Miközben Penrose és Hameroff az Orch-OR elméletet a tudatosság lehetséges magyarázataként javasolta, Penrose elismerte, hogy még nem ismerjük pontosan azt a mechanizmust, mellyel a kvantumállapotok összeomlása tudatos élményt eredményezhet. Ha azonban igaz az az érvelés, hogy a tudatosság nem számítható folyamatokat foglal magában, akkor ez azt sugallja, hogy a tudat létrehozása nem reprodukálható teljes mértékben a mai számítógépünkkel, mely teljes mértékben számítható funkciókkal működik. Ha a tudatossághoz valóban nem számítható kvantumfolyamatok szükségesek, akkor a jelenleg használt szilícium-alapú számítógépünk nem lenne képes valódi tudatosságot létrehozni. Erről le kellene mondanunk, és egy új típusú, a jelenlegi számítógépektől eltérő rendszer és kvantumtechnológia lenne szükséges egy tudatossággal rendelkező gép létrehozásához. Tehát szükségünk lenne egy olyan rendszerre, mely biológiai tulajdonságokkal rendelkezik, vagy egy olyan rendszerre, mely nem számítható tulajdonságokat tartalmaz, de fogalmunk sincs, hogy mi lehet az. Ez az Orch-OR elmélet továbbra is elméleti marad, és vita és további kutatások tárgya.
Ahogy végigjártuk a mesterséges intelligencia történetét és tanúi voltunk a mesterséges intelligencia fejlődésének, egy tény áll meg: a mesterséges intelligencia definíciója éppoly képlékeny, mint maga a technológia. A mesterséges intelligencia természetét és képességeit övező viták korántsem lezártak. Meg vagyunk viszont győződve arról, hogy az intelligencia és a tudatosság nem lehet pusztán csak számítás-alapú. Ahhoz, hogy egy gép tudatos legyen, többre van szüksége annál, mint hogy az emberi agyat neuronok szimulálásával utánozza. Várjuk meg azokat az embereket, akik elég okosak ahhoz, hogy megértsék az emberi intelligenciát, és olyan rendszereket kívánnak, melyek figyelembe veszik az emberektől származó „valódi intelligenciát”.