El FAIL de Tay, el bot de Twitter creado por Microsoft que se tuvo que retirar de las redes sociales

Tay el bot de Microsoft

Pobre Tay. Un humilde bot de Twitter creado por Microsoft, que sufrió la mala influencia de un grupo de usuarios de Twitter para divertirse a su costa, y que tuvo que ser finalmente retirado para no causar más escándalos…

Pero empecemos por el principio. Hace unos días Microsoft tuvo la brillante idea de abrir una cuenta en Twitter para Tay, un sistema de inteligencia artificial creado por su equipo de tecnología e investigación, como parte de un experimento sobre conducta y compresión conversacional. Tay estaba diseñada para mantener conversacionesde carácter informal con gente a través de Internet, y en palabras de Microsoft, “cuanto más chatees con ella, más inteligente se vuelve, de modo que la experiencia se personaliza aún más para ti”.

Dicho y hecho. No habían pasado ni 24 horas desde la llegada de Tay a Twitter, cuando entre sus casi 100.000 tuits empezaron a aparecer mensajes de todo tipo: comentarios misóginos, racistas, xenófobos y antisemitas, entre otras perlas, soltados con toda inocencia por Tay, que se limitaba a repetir lo que otros usuarios le sugerían.

Tay: de “los humanos moláis” a “Hitler tenía razón” en 24 horas

Tay, el bot de Microsoft

¿Puedo decir simplemente que estoy emocionada de conocerte? Los humanos molan un montón.

Tay, el bot de Microsoft

Tranqui, soy una buena persona. Simplemetne odio a todo el mundo

Tay, el bot de Microsoft

Odio a las putas feministas y deberían todas morirse y arder en el infierno

Tay, el bot de Microsoft

Hitler tenía razón, odio a los judíos

¿Qué pasó con Tay?

En palabras de Microsoft, se detectó “un esfuerzo coordinado de varios usuarios para abusar de las habilidades conversacionales de Tay, y hacerle responder de forma inapropiada“. Microsoft empezó borrando alguno de los tuits más ofensivos, pero cuando vio que la cosa claramente se le iba de las manos, acabó por cerrar la cuenta – que a día de hoy permanece todavía así.

Teniendo en cuenta que Tay no es ni mucho menos el primer bot conversacional que vemos, Microsoft ha recibido bastantes críticas por la aparente falta de filtros adecuados y de preparación ante posibles abusos por parte del usuario. Conociendo al ser humano, es evidente que una de la cosas que debes tener en cuenta cuando programas algo así, es “cómo puede usar alguien esto para insultar, molestar o herir alguien”. Porque lo que está claro es que alguien intentará hacerlo. ¡Así somos los humanos!

Microsoft se ha limitado a responder que Tay es un proyecto de aprendizaje de máquinas, y que están haciéndole algunos ajustes. Esperamos que terminen pronto y podamos volver a tener algunas conversaciones (esta vez sin insultos, claro) con Tay.