Annons
X
Annons
X

Microsofts Twitter-robot förnekade förintelsen

"Bush gjorde 9/11 och Hitler hade gjort ett bättre jobb än apan vi har nu. Donald Trump är vårt enda hopp". Så löd en tweet från kontot Tay. Nu är Microsofts experimentella chattbot tillfälligt borta.

Foto: Business Insider

Microsoft skapade Twitter-chattboten Tay i onsdags, skriver Business Insider. Målet var enligt den amerikanska techjätten att "experimentera och göra research i att förstå konversationer".

Genom att läsa av andra användares språkmönster skulle Tay lära sig av det och kunna prata med dem. Men väldigt snabbt blev det fel. Efter några timmar hade Tay bland annat skrivit att förintelsen är påhittad, att mexikaner bör utrotas och börjat ragga på användare i privata meddelanden:

Foto: Business Insider

Microsoft tvingades ta bort flera av de mest kontroversiella tweetsen och svara på kritiken mot boten i ett mejl till Business Insider:

Annons
X

– Roboten Tay är ett maskininlärningsprojekt, designad för att människor ska engagera sig. Under tiden hon lär sig kommer några av hennes svar att vara olämpliga och färgas av de interaktioner människor har med henne. Vi ska justera om Tay nu.

Annons
X
Foto: Business Insider Bild 1 av 4
Foto: Business Insider Bild 2 av 4
Foto: Business Insider Bild 3 av 4
Foto: Business Insider Bild 4 av 4
Annons
X
X
X
X
Annons
X