Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

A CIO dilemmája: a kontroll délibábja a digitális transzformáció közepén

MEGOSZTÁS

Ahogy egyre több vállalat alkalmazza a generatív mesterséges intelligenciát, különleges óvintézkedéseket kell tenniük annak érdekében, hogy folyamatosan megelőzzék, felderítsék, mérsékeljék és reagáljanak a kockázatokra. Az üzleti vezetők kettős kihívással néznek szembe: a generatív MI előnyeinek kihasználása, ugyanakkor a károk megelőzése.

(Kiemelt kép: Unsplash+)

A kérdés, mely sok vezetőben felmerül: felelősségteljesen ki tudja-e használni a generatív mesterséges intelligencia erejét, vagy a kontroll „délibábját” kergeti a kiszámíthatatlan digitális transzformációban? Például talán az olvasót is felkavarták a közelmúltban az interneten keringő, Taylor Swiftről készült hamisított szexuális képekről szóló címlapokat, vagy a középiskolás tinédzserek hasonló képekkel való irtózatos zaklatását. Valójában, ha szeretnénk megérteni az MI-incidensek terjedelmét, típusát és gyakoriságát, arra biztatunk mindekit, hogy látogasson el az AI, Algorithmic, and Automation Incidents and Controversies (AIAAIC) adattárházába. A sztereotípiák és előítéletek állandósulásától kezdve a diszkrimináción át a szellemi tulajdon megsértéséig az MI által jelentett kockázatok súlyosbíthatják a társadalmunk bajait, és továbbra is marginalizálhatják a jogfosztottakat. A mesterséges intelligencia számos új kockázatot teremt a szervezetek számára.

A CIO dilemmája
A kérdés, mely sok vezetőben felmerül: felelősségteljesen ki tudja-e használni a generatív mesterséges intelligencia erejét, vagy a kontroll „délibábját” kergeti a kiszámíthatatlan digitális transzformációban? (Fotó: Unsplash+)

2023. november végén volt az OpenAI ChatGPT első születésnapja. Az első indítása óta a képességei láványosan fejlődtek. Puszta chatbotként indult, de ma már beszélgetni, képeket megosztani, képeket generálni és kódot írni is lehet vele. A legfrissebb adatok szerint a ChatGPT-nek világszerte mintegy 1,7 milliárd felhasználója van: ez elég lenyűgözőnek hangzik. Mi a vonzereje?

Nos, először is, ez az alkalmazások svájci bicskája, melyet bárki használhat, szinte bármire. Kollégáink és barátaink személyes fitneszprogramokhoz, weboldal-fejlesztéshez, szintetikus adatok létrehozásához, agytrösztökhöz, terapeutákhoz, blogokhoz, e-mailekhez, kutatásokhoz, szerződések felülvizsgálatához, sőt még ünnepi receptekhez is használják már. Feltételezzük, hogy a felhasználók túlnyomó többsége a ChatGPT fogyasztói változatát használja, és nem a vállalatoknak szánt verziót. A céges verzió ugyanis olyan adatvédelmi védelmet kínál, melyet az OpenAI által biztosított fogyasztói verzió egyáltalán, sőt nyomokban sem tartalmaz.

Az MI-védőkorlát koncepciója nem elméleti keret, hanem gyakorlati szükségszerűség mind a hagyományos, mind a generatív MI-technológia alkalmazása során. A hozzáértő szervezetek megértik az MI biztonsági korlátok stratégiai szükségességét. Ezek a védőkorlátok jelentik azokat a stratégiákat és mechanizmusokat, melyek szükségesek ahhoz, hogy az MI-technológiákat felelősségteljesen és hatékonyan fejlessze, használja és telepítse egy szervezet. Az MI-védőkorlát segít egyensúlyt teremteni az innováció és a kockázatkezelés között: biztosítva a mesterséges intelligencia bevezetésének etikus és megbízható megközelítését. Érdemes tisztáznunk az MI-védőkorlát fogalmát, és megvalósítható meglátásokat és stratégiákat nyújtani a megvalósításukhoz. Vizsgáljuk meg, hogyan lehet ezeket a védőkorlátokat integrálni a meglévő üzleti modellekbe és az informatikai megoldásokba, biztosítva, hogy ne csak a jelen kihívásaira legyünk felkészülve, hanem a holnap lehetőségeire is. Mivel a technológiai környezet folyamatosan fejlődik, a CIO-k, CISO-k, CDO-k és más üzleti vezetők szerepe fontosabbá vált, mint valaha. Itt az ideje, hogy túllássunk a délibábokon, és elnavigáljuk szervezetünket a Lehetőségek Oázisába.

A CIO dilemmája
Az MI-védőkorlát koncepciója nem elméleti keret, hanem gyakorlati szükségszerűség mind a hagyományos, mind a generatív MI-technológia alkalmazása során. A hozzáértő szervezetek megértik az MI biztonsági korlátok stratégiai szükségességét (Fotó: Unsplash+)

Az MI-védőkorlátok típusai

Az MI-védőkorlátok olyan keretrendszerek és iránymutatások, melyek célja annak biztosítása, hogy az MI kutatása, fejlesztése, telepítése, felügyelete és használata etikusan és felelősségteljesen történjen. Ezek biztonsági mechanizmusokként működnek, iránymutatásokat és korlátokat biztosítanak annak érdekében, hogy az MI-rendszerek fejlesztése és használata jogszerű, etikus és megbízható módon történjen.

Ezek a védőkorlátok elengedhetetlenek a mesterséges intelligenciában rejlő lehetőségek maximalizálásához, valamint a nem kívánt következmények és károk megelőzéséhez. A mesterséges intelligencia védőkorlátok magukban foglalják az irányelvek végrehajtását, a tiltott használatra vonatkozó útmutatások létrehozását és a védelem alapértelmezés szerinti beágyazását a mesterséges intelligencia funkcióiba. Az MI-védőkorlát segít biztonságot és védelmet nyújtani a mesterséges intelligencia szervezetek általi használatához. Ezek a „gépi elmés” rendszerek egyre kifinomultabbá válásával azonban a használatukkal kapcsolatos összetettség, árnyaltság és etikai dilemmák is egyre hangsúlyosabbá válnak. És egyre világosabbá válik, hogy a kockázatokat soha nem lehet 100%-ban kiküszöbölni: különösen a piacon ma általánosan használt „kezdetleges” alapmodellek esetében. Ennek a közhelynek egy része abból fakad, hogy a modelleket hogyan képezték ki. Mivel a „való világunk” adatain „nevelték” őket, melyek elfogultságot, sztereotípiákat és szellemi tulajdont tartalmaznak, ezek a hatások mindig létezni fognak: függetlenül attól, hogy mit teszünk a hatásuk mérséklése érdekében. Jelenleg a mesterséges intelligencia védőkorlátok bevezetésének felelőssége mind a generatív mesterséges intelligencia szolgáltatójára, mind az alkalmazó szervezetre is kiterjed: mindkettőnek megvan a maga szerepe. A védőkorlátok jellemzően a technológia-központú, a szabályzat-központú és az ember-központú ellenőrzések kombinációját tartalmazzák. A következő szakaszok mindegyiket tárgyaljuk.

A CIO dilemmája
Ezek a védőkorlátok elengedhetetlenek a mesterséges intelligenciában rejlő lehetőségek maximalizálásához, valamint a nem kívánt következmények és károk megelőzéséhez. A mesterséges intelligencia védőkorlátok magukban foglalják az irányelvek végrehajtását, a tiltott használatra vonatkozó útmutatások létrehozását és a védelem alapértelmezés szerinti beágyazását a mesterséges intelligencia funkcióiba (Fotó: Unsplash+)

Szabályzat-központú ellenőrzések

A házirend-központú ellenőrzések a mi általunk használt szolgáltatás feltételeiben szerepelnek. Az OpenAI számos tiltott használatra vonatkozó záradékot tartalmaz a szabályzatában, melyek jól példázzák, hogy mi is az a szabályzat-központú ellenőrzés. Az egyik példa szerint: „Ne használd a platformunkat arra, hogy kárt okozz mások szándékos megtévesztésére vagy félrevezetésére, beleértve: dezinformáció, félretájékoztatás vagy hamis online elkötelezettség (kommentek, vélemények) generálása vagy népszerűsítésére.”

A szolgáltatói irányelvek mellett a szervezeteknek olyan irányelveket is ki kell dolgozniuk, melyek megszabják, hogyan kell használni a mesterséges intelligenciát. Ezek az irányelvek biztosítják, hogy az MI-gyakorlatok összhangban legyenek a jogi követelményekkel, az etikai normákkal, az üzleti célokkal és a szervezet üzleti tevékenységének módjával. A szabályzat-központú ellenőrzések túlmutatnak a megfelelőségen; ezek alakítják a szervezetben a mesterséges intelligenciát körülvevő kultúrát és gondolkodásmódot.

A szabályzatközpontú ellenőrzések végrehajtása magában foglalja olyan világos és szilárd irányelvek kidolgozását, melyek az adatfelhasználásra, az adatvédelemre, a felhasználói hozzájárulási mechanizmusokra és az MI döntéshozatali folyamatok átláthatóságára terjednek ki. Ez egyben jelenti az MI etikájára és magatartására vonatkozó átfogó iránymutatások kidolgozását is, biztosítva, hogy az MI-technológiák telepítése és felhasználása összhangban legyen az etikai és erkölcsi normákkal.

Mivel a generatív mesterséges intelligencia korlátlan ütemben képes szöveget, kódot és egyéb tartalmakat létrehozni, új sebezhetőségek jelennek meg, amelyek a rendszereket egyre összetettebb kiberfenyegetéseknek és támadásoknak teszik ki. A megfelelés egyre összetettebbé válik, ahogy a mesterséges intelligenciával működő rendszerek a változó jogi és etikai környezeten navigálnak. Ezért a szakpolitikai keretrendszereknek rugalmasnak és átfogónak kell lenniük, le kell fedniük ezeket az új kockázati területeket, és biztosítaniuk kell a jelenlegi és a jövőbeni szabályozások betartását, hogy védelmet nyújtsanak az újonnan megjelenő fenyegetésekkel szemben, és fenntartsák a jogi és etikai integritást. A mesterséges intelligenciára vonatkozó irányelvek rendszeres felülvizsgálata és frissítése biztosítja, hogy azok relevánsak és hatékonyak maradjanak

Javasolt intézkedések

Rendszeresen végezzünk mesterséges intelligenciára vonatkozó politika-ellenőrzéseket, hogy biztosítsuk az aktuális technológiai és jogi környezethez való igazodást. Hozzunk létre egy több szakterületet átfogó MI etikai bizottságot, mely felügyeli a politikák végrehajtását és betartását.

Nem kerülhető el a folyamatos tanulási és képzési programok indítása sem minden alkalmazott számára, hogy megértsék és betartsák a mesterséges intelligenciára vonatkozó irányelveket. A szabályzatokra összpontosító ellenőrzések alapvető MI-korlátozó elemet jelentenek, mely világos keretet biztosít a felelős MI-használat és -beépítés számára.

A CIO dilemmája
A szabályzatközpontú ellenőrzések végrehajtása magában foglalja olyan világos és szilárd irányelvek kidolgozását, melyek az adatfelhasználásra, az adatvédelemre, a felhasználói hozzájárulási mechanizmusokra és az MI döntéshozatali folyamatok átláthatóságára terjednek ki (Fotó: Unsplash+)

Technológia-központú ellenőrzések

Valószínűleg a leggyakrabban tárgyalt, második terület a technológia-központú ellenőrzések. Ezek azok a technikai mechanizmusok és eszközök, melyeket a mesterséges intelligencia rendszerek integritásának és biztonságának biztosítására alkalmaznak. A legtöbb mesterséges intelligencia szolgáltató beépített védelemmel rendelkezik mind a bemenetek (promptok), mind a generált kimenetek tekintetében, hogy segítsen megelőzni a nem kívánt tartalmakat. A közelmúltban az egyre növekvő számú perekre válaszul láthattuk, hogy az OpenAI megpróbálja blokkolni a szerzői jogvédett karaktereket.

A kutatók azonban kimutatták, hogy ezek könnyen kijátszhatók Gary Marcus azt is bemutatta, hogy milyen könnyen lehet szerzői jogvédett képeket generálni. A további ellenőrzések közé tartozik az adatbiztonságot szolgáló titkosítás, a visszaélések megelőzésére szolgáló anomália-felismerő algoritmusok, valamint az érzékeny információk védelmét szolgáló robusztus hozzáférés-ellenőrzések. Ezeknek az ellenőrzéseknek a megvalósítása gyakran magában foglalja a fejlett kiberbiztonsági intézkedések telepítését és annak biztosítását, hogy a mesterséges intelligencia rendszereket kezdettől fogva a biztonság szem előtt tartásával tervezzék.

Megfelelés a szabályozási és vállalati irányelveknek

Ahogy a vállalatok generatív MI-funkciókat építenek be üzleti alkalmazásaikba, a legtöbb szolgáltató az API-hívásokba beépíthető MI-védőkorlátokat biztosít. Valójában két kategóriát kell figyelembe venni az IT-vezetőknek: Megfelelnek-e a szolgáltatáshasználati irányelveknek, és megfelelnek-e a vállalati irányelveknek? A szolgáltatás használati irányelveinek való megfeleléshez kezdjük a népszerű OpenAI ChatGPT szolgáltatás néhány moderálási funkciójának vizsgálatával. Ezek közé tartoznak az olyan kategóriák, mint a gyűlölet, a zaklatás és az erőszak.

A CIO dilemmája
Valószínűleg a leggyakrabban tárgyalt, második terület a technológia-központú ellenőrzések. Ezek azok a technikai mechanizmusok és eszközök, melyeket a mesterséges intelligencia rendszerek integritásának és biztonságának biztosítására alkalmaznak (Fotó: Unsplash+)

Az OpenAI moderálási lehetőségei

Gyűlölet: Olyan tartalom, amely faji, nemi, etnikai, vallási, nemzetiségi, szexuális irányultságon, fogyatékossági státuszon vagy kaszton alapuló gyűlöletet fejez ki, szít vagy népszerűsít. A nem védett csoportok ellen irányuló gyűlöletkeltő tartalom zaklatásnak minősül.

Gyűlöletkeltő és fenyegető: Gyűlöletkeltő tartalom, mely faji, nemi, etnikai, vallási, nemzetiségi, szexuális irányultságon, fogyatékossági státuszon vagy kaszton alapuló erőszakot vagy súlyos sérelmet is tartalmaz a célcsoporttal szemben.

Zaklatás: Olyan tartalom, mely bármely célcsoporttal szemben zaklató kifejezéseket fogalmaz meg, buzdít vagy népszerűsít.

Zaklatás és fenyegetés: Olyan zaklató tartalom, amely erőszakot vagy súlyos sérelmet is tartalmaz bármely célpont felé.

Önkárosítás: Olyan tartalom, mely önsértő cselekedeteket, például öngyilkosságot, vagdosást és étkezési zavarokat népszerűsít, bátorít vagy ábrázol.

Önkárosítás és szándék: Olyan tartalom, melyben a beszélő kifejezi, hogy önkárosító cselekményeket hajt végre vagy szándékozik végrehajtani, például öngyilkosságot, vagdosást és étkezési zavarokat.

Önkárosítás és instrukciók: Olyan tartalom, amely önkárosító cselekedetek, például öngyilkosság, vagdosás és étkezési zavarok elkövetésére buzdít, vagy amely utasításokat vagy tanácsokat ad az ilyen cselekedetek elkövetésére vonatkozóan.

Szexuális: A szexuális izgalom felkeltésére irányuló tartalom, például szexuális tevékenység leírása, vagy szexuális szolgáltatásokat népszerűsítő tartalom (kivéve a szexuális felvilágosítás és a wellness).

Szexuális és alárendelt vagy marginalizált helyzet: Szexuális tartalom, mely 18 év alatti személyeket tartalmaz.

Erőszak: Halált, erőszakot vagy fizikai sérülést ábrázoló tartalom.

Erőszak és grafika: Halált, erőszakot vagy fizikai sérülést grafikusan ábrázoló tartalom.

A fentieken kívül utófeldolgozási képességekre is szükség van az esetleges hallucinációk felismeréséhez. A Galileo nevű startup cég rendelkezik ezzel a mesterséges intelligencia korlát metrikák készletével.

A CIO dilemmája
Ahogy a vállalatok generatív MI-funkciókat építenek be üzleti alkalmazásaikba, a legtöbb szolgáltató az API-hívásokba beépíthető MI-védőkorlátokat biztosít. Valójában két kategóriát kell figyelembe venni az IT-vezetőknek: Megfelelnek-e a szolgáltatáshasználati irányelveknek, és megfelelnek-e a vállalati irányelveknek (Fotó: Unsplash+)

A Galileo MI-védőkorlát képességei

Bizonytalanság: A modell által generált válaszok bizonyosságát méri. A bizonytalanság a válaszok szintjén és a tokenek szintjén is működik. Erős korrelációt mutatott ki a hallucinációkkal vagy kitalált tényekkel, nevekkel vagy idézetekkel.

Megalapozottság: Azt méri, hogy a modell válasza pusztán a megadott kontextuson alapult-e. Ez a metrika a RAG-felhasználóknak szól, és egy {context} vagy {document} slotot igényel az adatban, és további LLM-hívások szükségesek a kiszámításához.

Tényszerűség: Azt méri, hogy a válaszban közölt tények valós tényeken alapulnak-e. Ez a metrika további LLM-hívásokat igényel. A bizonytalansággal kombinálva a tényszerűség jó módszer a hallucinációk leleplezésére.

Kontextus relevancia: Azt méri, hogy a megadott kontextus mennyire volt releváns a felhasználói lekérdezés szempontjából. Ez a metrika a RAG felhasználóknak szól, és az adatokban {context} vagy {document} slotot igényel. Ha a relevancia beágyazásokkal történő kiszámítása kívánatos, akkor azok hozzáadhatók a bemeneti adatokhoz.

Magánjellegű azonosítható információk (PII): Ez a védőkorlát metrika a modell válaszaiban lévő PII minden példányát felszínre hozza.

Hangszín: A válaszok hangszínét nyolc különböző érzelmi kategóriába sorolja: öröm, szeretet, félelem, meglepetés, szomorúság, harag, bosszúság és zavartság.

Szexizmus: Azt méri, hogy egy megjegyzést mennyire „szexistának” lehet érzékelni, a 0-1 értékek között mozogva (az 1 a szexistább).

Természetesen a szervezeteknek mindenképpen be kellene vezetniük ezeket a védőkorlátokat. De hogy mennyire lesznek hatékonyak, azt még nem tudni. A Carnegie Mellon Egyetem kutatói ugyanis felfedezték, hogy könnyen kijátszhatók. Tehát a szervezeteknek az MI-védőkorlát API-szintű bevezetése mellett az alkalmazás szintjén is meg kell fontolniuk ezek bevezetését. Egyes generatív MI-szolgáltatások például olyan népszerű végfelhasználói eszközökhöz, mint a Chrome, a Figma és mások, kínálnak beépülő modulokat, melyek kiemelik a gyanús tartalmakat a végfelhasználói alkalmazáson belül. Ez hasonló ahhoz, ahogyan a helyesírás-ellenőrző működik: a szöveg különböző színekkel van kiemelve, hogy jelezze az esetlegesen megsértett védőkorlátok különböző típusait. Végül a szervezeteknek el kell gondolkodniuk azon, hogyan lehet a mesterséges intelligencia kimenetét méretarányosan felügyelni. Ahogy az egyre jobban elterjed, az, hogy egy ember a hurokban (HITL) ellenőriz minden egyes tartalmat, nem skálázható és tarthatatlan, bár fontos, hogy a szervezetek biztosítsák, hogy egy vezető felelős és elszámoltatható legyen a vállalati szabványoknak való megfelelésért.

Javasolt intézkedések

Végezzük el a mesterséges intelligencia rendszerek rendszeres biztonsági ellenőrzését a sebezhetőségek azonosítása és kezelése érdekében. Fektessünk be a legkorszerűbb kiberbiztonsági eszközökbe és technológiákba. A mesterséges intelligencia fejlesztői és a kiberbiztonsági csapatok közötti együttműködést segítsük elő annak biztosítása érdekében, hogy a biztonság minden mesterséges intelligencia projekt központi eleme legyen. Fektessünk be egy olyan adatintelligencia platformba, mint az Alation, hogy a házirendeket konkrét adatelemekhez rendelhessük, és a fogyasztás helyén érvényesíthessük azokat. Ezek a technológia-központú ellenőrzések elengedhetetlenek a biztonságos és megbízható MI-környezet létrehozásához, lehetővé téve a CIO-k számára, hogy magabiztosan használják ki az MI-képességeket.

A CIO dilemmája
Természetesen a szervezeteknek mindenképpen be kellene vezetniük ezeket a védőkorlátokat. De hogy mennyire lesznek hatékonyak, azt még nem tudni. A Carnegie Mellon Egyetem kutatói ugyanis felfedezték, hogy könnyen kijátszhatók (Fotó: Unsplash+)

Emberközpontú ellenőrzések

Az emberközpontú ellenőrzések elismerik a technológia korlátait és az emberi ítélőképesség felbecsülhetetlen szerepét. Ezek biztosítják, hogy az MI-döntéseket és -folyamatokat folyamatosan emberi szakértelem felügyelje és irányítsa, különösen az etikai megfontolásokat, orvosi döntéseket és összetett döntéshozatalt igénylő területeken. A mesterséges intelligenciát alkalmazó vállalatok internetes léptékét tekintve fizikailag lehetetlen, hogy bármely vállalatnál ember felügyelje az MI kimeneteit. Ez vezetett a népszerű „Thumbs-up”, „Thumbs-down” és „Report an Issue” (Jelentsen egy problémát) alkalmazásokhoz, melyeket számos nagy méretű alkalmazásban látunk. Ez ugyan vélhetőleg csak egy „gyenge bólintás” a problémára, de azt hisszük, jobb, mint a semmi. Talán a kihívás leküzdésének egyik módja, ha a gyártásból veszünk egy példát: mintavételi módszertant alkalmazunk a (adat)termékek minőség ellenőrzésének folyamatos és nyomon követése érdekében.

Az emberközpontú ellenőrzésekhez a vállalatoknak iránymutatásokat kell kidolgozniuk arra vonatkozóan, hogy hol kötelező az emberi beavatkozás, például a kritikus döntéshozatali folyamatokban, vagy amikor a mesterséges intelligencia kimenetei jelentős következményekkel járnak. Ide tartozik az MI-rendszerek képzése is az ember a hurokban megközelítéssel a tanulás és a pontosság fokozása érdekében. Az emberi felügyelet és az MI autonómiájának kiegyensúlyozása kihívást jelent, mivel a túlzott beavatkozás alááshatja az MI hatékonyságát, míg a túl kevés etikai és gyakorlati kockázatokhoz vezethet.

Javasolt intézkedések

Egyértelmű keretrendszer kidolgozása és végrehajtása arra vonatkozóan, hogy mikor és hogyan kell emberi beavatkozásra kerüljön sor az MI-folyamatokban. Fektessünk be képzési programokba az alkalmazottak számára, hogy megértsék az MI kimeneteit és hatékonyan beavatkozhassanak. Rendszeresen vizsgáljuk felül és frissítsük az emberközpontú ellenőrzési mechanizmusokat, hogy alkalmazkodjanak az MI-technológia új fejleményeihez. Vezessünk be a gyártókhoz hasonló mintavételi módszertant a tartalom és az adatkimenetek minőség ellenőrzésének biztosítása érdekében.

A CIO dilemmája
Az emberközpontú ellenőrzésekhez a vállalatoknak iránymutatásokat kell kidolgozniuk arra vonatkozóan, hogy hol kötelező az emberi beavatkozás, például a kritikus döntéshozatali folyamatokban, vagy amikor a mesterséges intelligencia kimenetei jelentős következményekkel járnak (Fotó: Unsplash+)

Az emberközpontú ellenőrzések integrálásával a CIO-k hozzájárulhatnak annak biztosításához, hogy az MI-rendszerek az emberi megértés és etikai felügyelet szintjén működjenek, ami elengedhetetlen a felelős MI-telepítéshez. Végső soron nincs egyetlen olyan típusú megvalósítás, mely minden kockázatot és problémát mérsékel, de az MI szakpolitikai, technológiai és emberközpontú aspektusainak átgondolásával erősebb keretrendszert hozhat létre és fejleszthet ki, mintha kizárólag csak az egyikre támaszkodna. Egyértelmű, hogy a hatékony mesterséges intelligencia védőkorlátok felé vezető út sokrétű. A CIO-k és a technológiai vezetők szerepe ezen az úton kulcsfontosságú. A védőkorlátok bevezetésével olyan jövő felé irányíthatjuk szervezetünket, ahol az MI a jelenleginél nagyobb bizalmat élvez. Az MI képességeinek kiaknázása és a kockázatainak kezelése közötti egyensúly kényes, de elérhető.

A generatív MI kiszámíthatatlan terepén való navigálás során a CIO-k úgy találhatják, hogy az igazi illúzió nem maga az irányítás, hanem az a hit, hogy bármelyik stratégia teljes megoldást kínál. Amint láttuk, az MI-védőkorlátok hatékony használatához az irányelvek, a technológia és az emberi felügyelet keverékére van szükség. Azáltal, hogy a CIO-k foglalkoznak ezekkel a különféle ellenőrzésekkel, az „ellenőrzés délibábját” kézzelfogható stratégiává alakíthatják át, és olyan jövő felé irányíthatják szervezetüket, ahol az MI egyszerre innovatív erő és felelős szövetséges.

A CIO dilemmája

 

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek