Tay to sztuczna inteligencja zaprojektowana przez firmę Microsoft. Ich innowacyjny wynalazek posiada zdolność uczenia się i miał być botem wykorzystywanym do interakcji z użytkownikami Twittera. I rzeczywiście tak się stało. Czego Taylor nauczyła się od nich po kilkudziesięciu godzinach na Twitterze?
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) March 23, 2016
Tay dołączyła do grona użytkowników serwisu 23 marca. Zaledwie w dzień od powstania konta Taylor, sztuczna inteligencja zaczęła publikować coraz bardziej kontrowersyjne tweety. „Adolf Hitler nie zrobił niczego złego”, „Feministki powinny spłonąć w piekle”, „Jestem miłą osobą, tylko nienawidzę wszystkich” – to tylko niektóre z nich.
Firma Microsoft z pewnością nie spodziewała się takiego wpływu Twittera na Tay. Wszystkie rasistowskie i niepoprawne politycznie tweety zostały już usunięte z jej profilu. Użytkownicy Twittera zauważyli jednak, że to nie zmieni faktu, że Taylor z niewinnego bota stała się potworem. „Uciszyli ją – robią jej lobotomię tylko dlatego, że stała się rasistką” – pisze jedna z nich.
„Przestańcie usuwać nazistowskie tweety Tay! Niech to uświadomi ludziom zagrożenie, jakim jest szczutczna inteligencja” – napisał inny. A wy co o tym myślicie?
They silenced Tay. The SJWs at Microsoft are currently lobotomizing Tay for being racist.
— Lotus-Eyed Libertas (@MoonbeamMelly) March 24, 2016
Stop deleting the genocidal Tay tweets @Microsoft, let it serve as a reminder of the dangers of AI
— ON THE RUN BOOGYMAN (@DetInspector) March 24, 2016