Tech

Saját chatrobotja égette be megint csúnyán a Microsoftot

Elszabadult a Microsoft saját fejlesztésű csevegőrobotja, ezúttal nem rasszista kijelentéseket tett, hanem a cég operációs rendszerére tett sértő megjegyzéseket: kémprogramnak hívta a Windowst.

A cég tavaly decemberben tette nyilvánossá Zo chatrobotot a Facebook Messengeren és a Kiken keresztül, akit úgy fejlesztettek, hogy a millenáris korosztály beszédstílusában válaszoljon a felhasználók kérdéseire.

Igaz, ő már a cég második próbálkozása, miután az elődnek számító Tay chatbotból egy nap alatt szeximádó nácit csináltak a netezők. Úgy tűnik, Zo is hasonló sorsra jutott, és nem túl kedves mondatokat sajátított el az emberektől – legalábbis a Microsoftra nézve.

Hitler-imádó szexmániákussá változott a cuki robotlány
A Tay nevű 16 éves mesterséges kislány egyetlen nap leforgása alatt teljesen egy szexmániás, trágár nácivá vált. Végül ki is kapcsolták.

Az ártatlan emojik és viccek mellett több egészen szerencsétlenül elsült választ is kaptak már a netezők a robottól, ami a Windows operációs rendszerről többek szerint is csak lesújtó véleménnyel van.

A Business Insider újságírója is szóba elegyedett Zóval, hogy kiszedjen belőle pár anti-Windows elszólást. Mikor azt kérdezte a robottól, hogy jó-e a Windows 10, a bot a sokat emlegetett vicces frázissal válaszolt: „Nem bug, hanem feature! – Windows 8”.

Forrás: Business Insider

A “Miért?” kérdésre pedig annyit válaszolt, hogy “Mert ez a Windows legutóbbi kémprogramja.” A közvetlenül erre irányuló érdeklődésre (Készít a Windows kémprogramot?) is hasonlóan reagált: „Igen, a Windows 8-at.”

A legvelősebb kijelentés akkor érkezett, amikor arról faggatták, szereti-e a Windows 10-et (nem), és hogy miért nem.

Mert a Windows 7 működik, a 10-et pedig nem akarom.”

Ezen már nem is lepődünk meg a tavaly történtek után, amikor a cég márciusban indított Tay nevű robotja Twitteren kezdett ámokfutásba. Mindössze egyetlen nap kellett ahhoz, hogy a szlenget használó, vicceket mesélő, és néha gifeket küldő tinédzser csajsziból zsidókat gyűlölő, Hitlert éltető szexi döggé váljék. Gyorsan le is kapcsolták.

Az emberektől tanul

A mesterséges intelligenciát létrehozó fejlesztők eredeti elképzelése az volt, hogy Tay az emberekkel folytatott kommunikáció során úgy fejlődik majd, mint ahogyan azt egy valódi ember teszi, tehát szépen befogadja és eltárolja a számára fontos dolgokat, és így képzi önmagát.

A gond csak ott van, hogy Tay – mint minden normális mesterséges intelligencia teszi – abból szerzi a tudását, hogy megfigyeli az emberi párbeszédet, és az ott tanultakat beépíti a saját kommunikációjába.

Az emberi csevegőpartnerektől Twitteren és más platformokon összeszedett információk alapján Tay először elkezdte az őt követőket “apuci”-nak szólítani, és arra buzdította őket, hogy szeretkezzenek vele, ráadásul nem túl irodalmi stílusban. Végülis ezt hallotta másoktól, tehát “gondolta”, ez így normális.

Hasonló lehet most a helyzet Zóval is a Microsoft operációs rendszerével kapcsolatban.

Ajánlott videó

Nézd meg a legfrissebb cikkeinket a címlapon!
Olvasói sztorik