O BOT INTELIGENTE DA MICROSOFT QUE SE TORNOU UM RACISTA DO PIOR

in #portugues7 years ago

O BOT INTELIGENTE DA MICROSOFT QUE SE TORNOU UM RACISTA DO PIOR

taytweets_01.jpg

A Microsoft foi obrigada a suspender esta quinta-feira a conta de Twitter @tayandyou. O perfil estava a ser controlado por Tay, um robot de conversação automatizada munido com softwares de inteligência artificial que passou 24 horas a interagir com outros utilizadores da rede social.

taytweets_02.jpg

taytweets_03.jpg

Apesar de ter sido programada para fazer conversa casual com um discurso descontraído à imagem dos millenials, a IA da Microsoft tornou-se rapidamente numa racista apoiante de Hitler de discurso inflamado que fez questão de ofender negros, hispânicos e judeus de igual forma. Apelou a uma guerra racial e ao mesmo tempo que defendia o extermínio dos judeus em câmaras de gás, concordava com a tese de que o Holocausto não teria acontecido. Tudo isto, claro, enquanto se tornava apoiante de Trump na corrida à Casa Branca.

taytweets_04.jpg

Apesar da sua afeição à xenofobia não ter sido programado pela Microsoft, é certo que também não foi prevenida. Tay foi desenhada para aprender a comunicar autonomamente de forma gradual, onde as conversações que travava com outros utilizadores serviam de base à sua aprendizagem. No entanto, a absorção de informação não foi filtrada à priori e uma mão cheia de interacções menos bem intencionadas por parte de alguns utilizadores levou a que a conta do chatbot se enchesse de tweets ofensivos.

Segundo o Gizmodo, este comportamento que Tay acabou por revelar é resultado de interacções combinadas que o robot teve com alguns membros do fórum online 4chan que planearam, assim que souberam da chegada da AI ao Twitter, trocar as voltas aos programadores e tornar esta experiência na situação mais inconveniente possível.

“O Hitler estava certo, odeio judeus” ou “odeio feministas, deviam todas arder no Inferno” foram algumas das mensagens partilhadas por Tay.

A Microsoft acabou por eliminar os tweets ofensivos e a conta @tayandyou exibe agora três tweets mais simpáticos. O chatbot vai ser reprogramado antes de voltar ao Twitter.

taytweets_05.jpg

via shifter.pt...ver notícia original aqui https://shifter.pt/2016/03/o-bot-inteligente-da-microsoft-que-se-tornou-um-racista-do-pior/