Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Kínos Apple baki: az iPhone diktálási funkciója összekeveri a rasszista szót Trumppal

MEGOSZTÁS

Az elmúlt években már megszokhattuk, hogy a technológiai óriások néha olyan hibákba futnak bele, amelyek nemcsak bosszantóak, hanem egyenesen nevetségesek is. Az Apple legújabb bakitörténete azonban egészen más szintre emelte ezt a műfajt.

A felhasználók felfedezték, hogy ha az iPhone diktálási funkciójában kimondják a „rasszista” szót, a telefon időnként „Trump”-ra fordítja. Az Apple természetesen azonnal reagált a problémára.

Közleményük szerint technikai hiba okozhatta a szavak felcserélését. Indoklásuk szerint a hiba a gépi tanulási algoritmusuk téves asszociációjából ered. A vállalat szóvivője elmondta, hogy a beszédfelismerő rendszer néha hasonló hangzású vagy gyakran egymás mellett előforduló szavakat tévesen azonosít. Hangsúlyozta, hogy semmiféle politikai szándék nem áll a hiba mögött.

A vállalat természetesen javítja a hibát, a következő frissítésben.

Politikai vihar a tech világában

Mint minden, ami Trump nevével kapcsolatos, ez is pillanatok alatt politikai ügy lett. A konzervatív körök azonnal elfogultsággal vádolták az Apple-t, mondván, hogy a vállalat „nyíltan baloldali propagandát folytat”. A demokrata érzelmű internetezők pedig a lehető legtermészetesebb dologként fogadták a jelenséget. Sokan egyenesen azt kívánták, bárcsak a technológia mindig ennyire „őszinte” lenne.

Trump hivatalosan nem reagált az ügyre (legalábbis egyelőre). Egyes republikánus politikusok viszont kongresszusi vizsgálatot követelnek az ügyben, azt állítva, hogy ez újabb bizonyítéka annak, hogy a nagy techcégek ellenük dolgoznak.

Nem ez az első ilyen eset

Ez azonban nem az első alkalom, hogy egy mesterséges intelligencia alapú rendszer különös módon viselkedik. Korábban a Google Asszisztens is hasonló problémákkal küzdött, amikor bizonyos politikai kérdésekre adott válaszai túl egyoldalúnak tűntek. Az Amazon Alexa is belefutott már olyan helyzetbe, amikor egyes kérdésekre furcsa vagy félreérthető válaszokat adott. Az Apple Siri-je sem mentes az ilyen botlásoktó. Elég csak visszaemlékezni arra az időszakra, amikor a digitális asszisztens tévesen azt állította, hogy bizonyos történelmi események nem is történtek meg.

IT EXPERTS-TECH LEADERS 2024 FELHŐ A JAVÁBÓL KONFERENCIA

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek

ICT Global News

Iratkozz fel a hírlevelünkre, hogy ne maradj le az IT legfontosabb híreiről!