A gépi tanulás, a mélytanulás (deep learning) egyik úttörője, a brit-kanadai kognitív pszichológus és informatikus Geoffrey Hinton lemondott Google alelnöki posztjáról, és távozott a nagyvállalattól. A Google Brain-hez a 2010-es évek elején, akkor csatlakozott, amikor Andrew Ng vezette a kutatócsoportot.
Az 1980-as évektől a ChatGPT-ig
Az emberi agyról mintázott, de az agysejteket drasztikusan leegyszerűsítő, a Homo sapiens tanulási és információfeldolgozási tevékenységét (elnagyoltan) utánozni hivatott mesterséges neurálisháló-kutatással az 1980-as évek óta foglalkozik, fontos technikákat talált ki, rengeteget hozzátett a szakterület és az egész mesterséges intelligencia fejlődéséhez. Oroszlánrészt vállalt a hálók gyakoroltatásához használt alapeljárás, a backpripagation algoritmus népszerűsítésében. (Az algoritmus a hálózat súlyaihoz viszonyítva, egyetlen bemenet-kimenet példa esetén, hatékonyan számítja ki a veszteségfüggvény gradiensét. Ezt az utolsó rétegtől visszafelé iterálva – innen származik az elnevezése – rétegenként teszi meg, amivel elkerüli a lánc köztes elemeinek redundáns számításait. A mély neurálishálók legfőbb ismérve, hogy több, általában nagyon sok rétegén keresztül valósul meg a tanulás, ezért mélytanulás a neve.)
Az AlexNet idegháló-architektúra vezető fejlesztőjeként – a háló révén – elévülhetetlen érdemeket szerzett a képosztályozás forradalmasításában. 2018-ban a szintén „MI-keresztapaként” nyilván tartott Yoshua Bengio és a Facebook ezirányú fejlesztéseit vezető Yann LeCun társaságában, megosztva neki ítélték oda a diszciplína legnagyobb szakmai elismerésének számító Turing-díjat. Nagyrészt hármuknak köszönhetjük, hogy eljutottunk a gépitanulás-alapú kutatásfejlesztések tíz éve tartó szárnyalásáig, ChatGPT-ig és a többi mostani csúcsmodellig.

Miért lehet veszélyes az MI?
Az MI-modellek viszont gyorsabban fejlődnek, mint Hinton gondolta, és a generatív mesterséges intelligencia körüli aranyláz miatt úgy érzi: az innováció pénzügyi haszna háttérbe szorítja a technológia negatív hatásait megfékező törekvéseket. Részben sajnálja is az életművét… Ugyanakkor, rácáfolva egyes véleményekre, amelyek szerint azért távozott a Google-tól, hogy kritizálhassa őket, egy tweetben megjegyezte: a nagyvállalat felelősségteljesen jár el az MI-fejlesztésekben. A benne rejlő veszélyek viszont valóban aggodalommal töltik el, ráadásul hetvenöt évesen, öregnek érzi magát a technikai munkához. A jövőben filozófiai kérdésekre kíván összpontosítani.
Aggályai három pontban foglalhatók össze: a gépileg generált média ronthat az átlagember valóságfelismerő képességén, a nemcsak fizikai tevékenységek automatizálásával az MI-modellek nagyon komoly munkanélküliséget okozhatnak, az automatizált kódgenerátorok embereket veszélyeztető programokat írhatnak. Támogatja a globális szabályozást, de nincs meggyőződve az esetleges intézkedések hatékonyságáról. Tudósok valószínűleg eredményesebb biztonsági intézkedéseket hozhatnak, mint a döntéshozók – véli.
„Az általános ismeretek mennyiségének birtoklásában az olyan modellek, mint például a GPT-4 elhomályosítják, az embert. Az érvelésben nincs annyira jó, mint mi, de egyszerű érvelésben már igen. És ha figyelembe vesszük a fejlődés ütemét, nagyon gyorsan egyre jobb lesz” – nyilatkozta, majd felvetette az egyik legrosszabb, lidércnyomás-forgatókönyv lehetőségét: képzeljük el, hogy negatív szereplők negatív célokra használják fel a technológiát. „Például Vlagyimir Putyin orosz elnök úgy dönt, hogy lehetőséget ad robotoknak saját részcélok kidolgozására” – szemléltet.
Egyik legérdekesebb kijelentésében arra hívja fel a figyelmet, hogy a miénktől nagyon különböző intelligenciát fejlesztünk. Biológiai rendszerekkel szemben, a digitálisaknak sok másolata lehet ugyanazokkal a súlyokkal, világmodellel, és a másolatok mind, külön-külön tanulnak, de ismereteiket azonnal megoszthatják egymás között. Mintha mondjuk, tízezer személy tanulna, és ha egyvalaki megtanul valamit, a többi is automatikusan tudja azt. A chatbotok így tehetnek szert egy-egy embernél nagyobb tudásra.
Nem kell szüneteltetni a fejlesztéseket
Az MI kockázataival kapcsolatos gondolatai teljesen megalapozottak, kevesen ismerik annyira a területet, mint ő. Óvatosságra inthetik, munkájuk morális dimenzióinak kiértékelésére, elveik melletti kitartásra ösztönözhetik a fejlesztőket. Viszont azt is elmondta, hogy rövidtávon a mesterséges intelligencia sokkal több hasznot hoz, mint amennyi kockázattal jár.
Felületes szemlélők, szenzációhajhász újságírók és a mindig mindentől rettegők Hinton döntésébe azonnal belelátták, hogy csatlakozott az MI-szkeptikusok népes táborához, a bő egy hónapja a GPT-4-nél előrehaladottabb technológiák fejlesztésének a megfelelő robusztus biztonsági intézkedések meghozataláig és érvényesítéséig tartó, de legalább féléves moratóriumát javasló nyílt levélhez. A levelet több mint ezren írták alá, komoly szakértők és komoly outsiderek, köztük Elon Musk, Stuart Russell, Yuval Noah Harari, két DeepMind-fejlesztő és Yoshua Bengio is (utóbbi a váratlan felgyorsulás miatt).
Hinton azonban nem gondolja, hogy a fejlesztéseket ideiglenesen is le kellene állítani, ráadásul a nemzetközi verseny miatt a szünet betartatása sem lenne egyszerű. „Ha az USA-ban mindenki leállna a fejlesztéssel, Kína nagy előnyre tenne szert” – jegyezte meg. Mivel tudós technológia-szakértő, a szabályozáshoz nem ért, és a kormány felelőssége megakadályozni, hogy az MI-fejlesztés rossz irányba forduljon.
A tegnapi Google-kutató véleményét azért is érdemes megfontolni, mert semmi nincs benne a Terminátor, más hollywoodi disztópiák és sci-fi regények utolsóítélet-szcenárióiból. Nem riogat azzal a bugyuta, és a valóságtól elrugaszkodott látomással, amire Musk is hajlamos, hogy a gépi szuperintelligencia átveszi az uralmat, és akár az emberi fajt is kiirthatja, ha az útjában állunk.
Ítéletnap-forgatókönyvek és a valóság
A korábban az OpenAI alkalmazottjaként nagy nyelvmodell (large language model, LLM) fejlesztésben részt vett Paul Christiano szerint tíz-húsz százalék az MI-hatalomátvétel, ötven pedig az általános mesterséges intelligencia (artificial general intelligence, AGI) megjelenése utáni negatív forgatókönyv esélye. A legradikálisabb álláspontot, az autodidakta MI-kutató, egykori transzhumanista, a „barátságos mesterséges intelligencia” koncepcióról ismert Eliezer Yudkowsky képviseli. Ő úgy látja, hogy a nyílt levél nem ment messze, mert a fejlesztések szüneteltetése nem elég. Le kell mindet állítani – jelentette ki, és ezért nem írta alá a levelet. Globális tiltást követel, és ha valamelyik ország nem tartja be, akkor le kell bombázni a fejlesztéseknek otthont adó adatközpontjait…
„Továbbra is elkötelezettek vagyunk a mesterséges intelligencia felelős megközelítése mellett. Folyamatosan tanuljuk megérteni a felmerülő kockázatokat, miközben bátran újítunk” – nyilatkozta a Google MI-részlegét vezető Jeff Dean.
Az MI veszélyei egyébként távolról sem annyira apokaliptikusak, mint egyre többen láttatni igyekeznek. Három területre kellene igazán fókuszálni: mélyhamisításokra (deepfakes) és a velük is terjedő dezinformációra, a gyakorló adatok válogatására, hogy a majdani döntéshozó, döntéshozásban segédkező modellek ne elfogult, előítéletes anyagokon tanuljanak, valamint az automatizált fegyverekre, amelyek elvileg akár emberi jóváhagyás nélkül is dönthetnek célpontok, köztük humán célpontok megsemmisítéséről. Ezeket kellene mielőbb szabályozni, de a legoptimálisabb a fejlesztő közösségek önszabályozása lenne, amelyre meg is van a hajlam. Rövidebb és hosszabb távon is ez a legjárhatóbb út, és nem az, ha népszerűséget hajhászó, hozzá nem értő politikusok, döntéshozók ítélkeznek napjaink legígéretesebb technológiájáról.