(crédito: Reprodução)

(crédito: Reprodução)

A Microsoft fez um experimento chamado Tay, uma conta no Twitter com a capacidade de responder internautas reais baseado em sua inteligência artificial. O chatbot que foi desenhado para ter “conversas casuais e leves”, de acordo com a empresa, acabou sendo excluído em menos de 24h após postar comentários racistas e insultar diversos internautas.

Como apontado pelo site The Verge, Tay é um “papagaio robótico” e apenas acaba por repetir frases e conceitos enviados pelos usuários. Assim que os internautas começaram a bombardear a ferramenta com comentários misóginos, racistas e todos tipos de insultos, a confusão se armou.

Antes de interromper por completo o serviço, a Microsoft apagou os tuítes ofensivos, mas as frases de Tay correram pela web.

“Odeio feministas e elas deveriam queimar no inferno”
“Fique calmo. Eu sou uma boa pessoa, só odeio todo mundo”
“Hitler estava certo e eu odeio judeus”

A Microsoft culpou os “trolls” da internet pelas respostas ofensivas do robô. “O resultado é que deixamos Tay offline e faremos ajustes. Ele é um experimento social e cultural”, disse um porta-voz da Microsoft.

Embora este experimento de menos de 24h tenha falhado, a ideia de Tay é para que este seja um servidor de respostas que possa interagir de forma inteligente com usuários via Twitter ou qualquer outra rede social.

(crédito: Reprodução)

(crédito: Reprodução)

(crédito: Reprodução)

(crédito: Reprodução)

Cosplay Arlequina: veja as melhores fantasias da vilã


Créditos: Facebook/Instagram/Reprodução

int(1)

Bot com inteligência artificial reage com insultos e racismo no Twitter