Augusztus utolsó napjaiban írta alá az Anthropic és az OpenAI a jövőbeni hivatalos együttműködés kereteit rögzítő egyezményt az USA kereskedelmi minisztériuma által felügyelet Nemzeti Szabványügyi és Technológiai Intézet (NIST) mesterséges intelligenciával foglalkozó hivatalával.
Már a megjelenés előtt hozzáfér a NIST a nyelvi modellekhez
A megállapodások lehetővé teszik az MI-biztonságért felelős intézet számára, hogy hozzáférjen mindkét vállalat új nyelvi modelljeihez már az előtt, hogy azokat a cégek a nyilvánosság számára is elérhetővé tennék. Mindemellett a hivatal és a cégek közös kutatásokban térképezik majd fel az MI megoldások képességeit, valamint biztonsági kockázatait is, és együttesen dolgoznak majd ki módszertant arra, hogy az esetleges kockázatokat csökkentsék.
A biztonság jelenti ugyanis az áttörést a technológiai innovációban. A most aláírt megállapodások pedig jelentős fejlődést eredményezhetnek az MI-biztonság tudományos hátterében – mondta Elizabeth Kelly, az MI biztonságért felelős intézetének igazgatója.
Mindezeken felül az intézet folyamatosan tájékoztatja majd az Anthropic és az OpenAI szakembereit, hogy fejleszthetik biztonságosabb irányban modelljeiket.
Az új megállapodások szerint elvégzett értékelések a Biden-Harris-kormányzat MI-szabályozására és a vezető MI-fejlesztők által a kormányzatnak tett önkéntes kötelezettségvállalásokra építve segítik majd elő az MI biztonságos és megbízható fejlesztését, valamint alkalmazását.
(kép: Pexels.com/Tara Winstead)