Az OpenAI egy volt munkatársa komoly szakmai vitát indított el tavaly áprilisban. Daniel Kokotajlo szcenáriója szerint miután az MI-fejlődés kontrollja kicsúszik a kezünkből, a szuperintelligencia elpusztítja majd az emberiséget. A szakértő most módosított a korábban jósolt idővonalon.
Költői eszközökkel fedezték fel MI-modellek sebezhetőségét
A költészet nyelvi és szerkezeti szempontból is kiszámíthatatlan lehet. Ami azonban az olvasónak öröm, az – a jelek szerint – rémálom a mesterséges intelligencia modelleknek. Legalábbis ezzel a megállapítással összegezhető az olasz Icaro Lab kutatása.