Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Mesterségesintelligencia-fejlesztők a webszabványokat megkerülve jutnak hozzá tartalmakhoz

MEGOSZTÁS

A webet egyre nagyobb mértékben terjednek a tartalmakat illegálisan megszerző botok, mesterségesintelligencia-ágensek. MI-fejlesztők és médiacégek között többször terelődött már jogi útra a vita.

Hónapok óta dúl és egyre szélesebb körű a vita mesterségesintelligencia-fejlesztők és médiaszolgáltatók között. MI-cégek igyekeznek megkerülni a kiadók által használt, tartalmaik generatív MI-rendszerekben történő felhasználását blokkoló, általános webes szabványt. A sajtó egyelőre nem nevezte meg az érintett vállalatokat és médiumokat, viszont napvilágot látott egy erről szóló nyilvános levél. A levélben szintén nem említettek neveket.

Kutakodnak a webes botok

A mesterségesintelligencia-keresőt fejlesztő Perplexity startup és a Forbes vitája viszont köztudott, az ok és a webes szabvány ugyanaz. A kiadó plágiummal vádolja a startupot: MI-je a Forbes oknyomozó történeteiből engedély és hivatkozás nélkül generál összefoglalókat. A Wired szerint a Perplexity webes bottal (web crawler), a keresőkhöz kapcsolódó botok előtt bizonyos tartalmakat blokkoló szabványt, egy protokollal (robot.txt) játssza ki.

A startup nem hajlandó kommentálni a vitát.

 

Lassan mindenre alkalmas a mesterséges intelligencia

A több mint 2200 amerikai kiadót képviselő News Media Alliance aggodalmát fejezte ki a botok tevékenysége miatt. Ha így folytatódik, alig lesz bevételük, és az újságírókat sem tudják fizetni – figyelmeztetnek.

A tevékenysége korai szakaszában lévő – és az említett nyilvános levelet jegyző – TollBit startup licencszerződést kínálva, a tartalomra éhes MI-cégek és a kiadók közé pozícionálja magát. Nyomon követi a kiadók weboldalaira irányuló MI-forgalmat, elemzéseket készítve segíti mindkét felet, hogy elszámolhassanak a különböző tartalomtípusok miatti díjakkal. Például prémiumtartalmakért, legfrissebb hírekért, exkluzív anyagokért stb. több kérhető el. Májusban ötven weboldalt monitoroztak, de nem neveztek meg egyet sem, és megállapították, hogy a Perplexity mellett mások is megkerülik az ominózus protokollt.

Van ok az aggodalomra

A robot.txt-t még az 1990-es években dolgozták ki, azzal a céllal, hogy elkerüljék weboldalak botokkal történő túlterhelését. Nincs rá egyértelmű jogi szabályozás, viszont eddig legalábbis mindenki igyekezett megfelelni az elvárásoknak. A News Media Alliance szerint a kiadók élhetnek jogorvoslattal.

A protokoll a közelmúltban vált kulcsfontosságúvá, rendeltetése a techcégek megakadályozása, hogy ingyen férjenek hozzá, majd saját rendszereik fejlesztéséhez használjanak tartalmakat. Ezek a modellek többek között cikkeket foglalnak össze, akár valósidőben is.

A kiadók nagyon aggódnak a hírösszefoglalók miatt. A Google például tavaly vezetett be egyes keresési lekérdezésekre MI segítségével összefoglalókat generáló terméket. Ha meg akarják akadályozni, hogy tartalmaikat ilyen MI-k használjanak összefoglalókhoz, lényegében ugyanazt az eszközt kell használniuk, hogy ne jelenjenek meg a Google keresési eredményei között, gyakorlatilag láthatatlanná tegye őket az interneten.

 

Képek: Wikimedia Commons, Standards Australia

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!