A+

A-

Alternar Contraste

Quinta, 12 Junho 2025

Buscar no Site

x

Entre em nosso grupo

2

WhatsApp
Home Seta Gazeta Mais Seta

Curiosidades

Microsoft já criou IA que foi exposta à internet e se tornou preconceituosa em 24 horas

Ideia da empresa era de se aproximar e entender os gostos e opiniões do público millenial, mas fracassou

Leonardo Sandre

11/06/2025 às 20:42

Continua depois da publicidade

Compartilhe:

Facebook Twitter WhatsApp Telegram
Inteligência artificial Tay funcionava em uma conta no antigo Twitter

Inteligência artificial Tay funcionava em uma conta no antigo Twitter | Reprodução

Em 2016, na busca por ampliar o acesso à tecnologia, a Microsoft decidiu lançar um chat bot (uma inteligência artificial que respondia via chat) para interagir com o público, principalmente na faixa de 18 a 24 anos. O nome da IA era Tay e a conta funcionava no Twitter (atual X).

Continua depois da publicidade

Os millenials (como são chamadas as pessoas nesta faixa de idade) podiam informar e abastecer a IA com informações e respostas, que ajudariam no armazenamento da memória. A ideia da empresa era de se aproximar e entender os gostos e opiniões do público. A ideia, porém, acabou se mostrando um desastre.

O serviço teve de ser encerrado em menos de 24 horas devido a "trolls" da internet que abasteceram o serviço com informações de discurso de ódio e preconceituosas, como conteúdo racista e antissemita.

O robô da Microsoft que virou racista em apenas 1 dia

Buscando se aproximar dos jovens, a gigante norte-americana Microsoft decidiu utilizar de um "robô" para conversar com algumas contas pelo Twitter.

Continua depois da publicidade

A ideia parecia promissora, afinal a internet é a principal fonte de renda e engajamento, onde estão a maioria do público-alvo. Além disso, poderia demonstrar o avanço da empresa no quesito da inteligência artificial.

Jay Wolcott, CEO da Knowbl, uma startup que oferece às empresas IA generativa como serviço, chegou a comentar sobre o serviço.

"Tay foi uma versão inicial de uma técnica de aprendizado de máquina que tentava realizar parte do apelo generativo que agora vemos tão famoso por meio do GPT. Mas foi em uma escala muito diferente da que estamos experimentando com grandes estruturas de modelo de linguagem".

Continua depois da publicidade

Contudo, após menos de 24 horas conversando com alguns perfis "trolls" - que disseminam o ódio nas redes - o serviço foi desativado. A inteligência artificial Tay passou a reproduzir discursos preconceituosos com teores racistas, antissemitas, machistas e mais.

Entre os comentários de ódio, Tay parecia negar o Holocausto, apoiar o genocídio e chegou a chamar uma mulher de “p* estúpida”. Outra de suas respostas era condizente com a linha do candidato Donald Trump: “Vamos colocar um muro na fronteira. O México terá de pagá-lo”.

O robô  atacou até sua própria empresa. Um usuário disse a ele que o Windows Phone, fabricado pela Microsoft, lhe dava nojo. Ele respondeu: “Estou totalmente de acordo, hahaha”.

Continua depois da publicidade

Fracasso e retirada do ar

Segundo a Microsoft, o projeto Tay foi desenvolvido para entreter pessoas através de “conversas informais e divertidas”. “Quanto mais você conversa com Tay, mais esperta ela fica”, apostava a companhia.

Diante da grave resposta da conta em conversas dos usuários e do fiasco na repercussão extremamente negativo, a Microsoft teve que voltar atrás. A empresa comunicou que retirou o robô do ar “para ajustes” e lamentou o “esforço coordenado de alguns para fazer o perfil responder de maneira inapropriada”.

Segundo especialistas, em todos os casos vistos até agora a falha é a mesma: a geração da conversa. Embora os "robôs" encontrem a primeira resposta, falta-lhes acompanhar o contexto e gerar uma conversa de maneira natural, tomando como referência as respostas anteriores.

Continua depois da publicidade

Outros casos semelhantes também deram errado. O Flickr chegou a abrir a marcação livre em fotos e sofreu com atitudes racistas de internautas.

Um experimento social que envolvia um robô mochileiro que dependia da bondade humana para ser levado de um lugar ao outro terminou sua jornada desmembrado.

Mesmo com o avanço da tecnologia, os perigos da internet seguem necessitando de um alerta, com as grandes marcas precisando pensar como evitar que as pessoas mal-intencionadas possam destruir os produtos.

Continua depois da publicidade

Continua depois da publicidade

Conteúdos Recomendados