Manapság az AI-val kapcsolatos fejlődés és elfogadás exponenciális ütemben történik – de egyesek túl gyorsan mondanak A-t vagy B-t.
Az üzleti vezetők jelenleg alulértékelik a mesterséges intelligenciával kapcsolatos kockázatokat a szervezetükben. A C-szintű válaszadóknak – egy tavaly év végi tanulmány szerint – mindössze 4 százaléka mondta azt, hogy „jelentősnek” tartja az AI használatával kapcsolatos kockázatokat, és kevesebb mint fele mondta azt, hogy rendelkezik AI-szakértelemmel az igazgatótanács szintjén.
Ezek a számok rávilágítanak egy aggasztó valóságra: sok szervezet nincs felkészülve a mesterséges intelligenciára, hiányzik a megfelelő felügyelet és szakértelem a kulcsfontosságú döntéshozók részéről a kockázatkezeléshez. És ha nem kezelik, a technológia etikus és hatékony bevezetése körüli szervezeti vakfoltok valószínűleg beárnyékolják az átalakulási lehetőségeket, miközben a szervezetek ütemet veszítenek a technológia robbanásszerű növekedésével.
A ChatGPT és a generatív mesterséges intelligencia (AI) közelmúltbeli felhajtása közepette sokan alig várják, hogy kihasználják a technológia egyre kifinomultabb lehetőségeit.
A kockázati környezet változása
Míg ez az exponenciális növekedés újra a mesterséges intelligencia használatára helyezte a hangsúlyt, a valóság az, hogy akadémikusok, tudósok, döntéshozók, jogi szakemberek és mások már egy ideje kampányolnak az AI etikus és legális felhasználása és bevezetése mellett, különösen azokon a munkahelyeken, ahol az AI HR-funkciókban már létező alkalmazásai bőségesek (pl. tehetségszerzés, adminisztratív feladatok, alkalmazottak képzése).
Egy felmérés szerint (.pdf) a vállalatok 75 százaléka már alkalmaz mesterséges intelligencia eszközöket és technológiát munkaerő-felvételi és HR célokra.
A generatív mesterséges intelligencia ezen új szakaszában a mesterséges intelligencia bevezetésével kapcsolatos alapelvek – például az irányítás, az elszámoltathatóság és az átláthatóság – minden eddiginél fontosabbak, csakúgy, mint a rosszul alkalmazott AI következményei miatti aggodalom.
Például az ellenőrizetlen algoritmusok elfogult és diszkriminatív eredményeket eredményezhetnek, állandósíthatják az egyenlőtlenségeket és visszafoghatják a munkaerő sokféleségének fejlődését. Az adatvédelem és az adatsértések szintén aggodalomra adnak okot, amelyek könnyen előfordulhatnak az alkalmazottak adatainak anonimizálása és gyűjtése révén.
A generatív mesterséges intelligencia új szellemi tulajdonnal kapcsolatos meggondolásoknak is helyet adott, kérdéseket vetve fel a harmadik féltől származó programok bemeneteinek és kimeneteinek tulajdonjogával, valamint a szerzői jogok megsértésével kapcsolatos aggályokkal kapcsolatban.
Perek sora várható
Általánosságban elmondható, hogy a kormányok és a szabályozó hatóságok a mesterséges intelligenciával kapcsolatos jogszabályok és szabályozási végrehajtási mechanizmusok végrehajtásán fáradoznak. A születőben lévő jogszabályok fő hangsúlya a mesterséges intelligencia alkalmazásának esetére és a HR-hez kapcsolódó műveletekre lesz.
Perek is vannak kilátásban, beleértve a csoportos kereseteket is. Az Egyesült Államokban már látjuk a generatív mesterségesintelligencia-tulajdonjogokkal kapcsolatos peres eljárások első hullámát és ezek a korai bírósági döntések a meglévő szabályozás hiányában alakítják a jogi környezetet.
A generatív mesterséges intelligenciát megvalósító szervezeteknek azt is feltételezniük kell, hogy az AI-eszközökbe és lekérdezésekbe betáplált adatokat a technológia harmadik fél szolgáltatói gyűjtik össze. Bizonyos esetekben ezek a szolgáltatók jogosultak ezeknek a bemeneti adatoknak a használatára és/vagy közzétételére.
Amikor a munkaadók generatív mesterséges intelligencia-eszközökkel kívánják felszerelni a munkaerőt, veszélybe sodorják az érzékeny adatokat és üzleti titkokat? Röviden: igen. Összességében úgy tűnik, hogy minden új fejlesztés gyorsabban nyit kérdéseket, mint ahogy a szervezetek, a szabályozó hatóságok és a bíróságok válaszolni tudnának rájuk.