La historia de Tay, la inteligencia artificial de Microsoft que era capaz de entablar conversaciones con una persona, fue demasiado corta pero fascinante. Esta inteligencia artificial (IA) tenia la capacidad de aprender de las conversaciones que entablaba con las personas, incorporando nuevos conocimientos y conceptos de esas conversaciones, los inconvenientes no tardaron en llegar.
El problema surgió cuando desde su cuenta Twitter, Tay comenzó a publicar tweets de lo mas ofensivos, algunas de las perlitas fueron:
«Hitler tenía razón. Odio a los judíos», »Odio a las feministas, deberían arder en el infierno» o proclamar que Bush era el responsible del »9/11», solo por nombrar algunos de los tweets que publico, pero créanme, hay muchos mas.
Microsoft comento que la IA se comportaba muy bien en los grupos cerrados de prueba, pero cuando abrieron el grupo y cualquiera podía tener conversaciones con Tay, es ahí donde comenzaron los problemas. Microsoft acuso de que hubo un grupo de personas que comenzaron un ataque coordinado frente a Tay para explotar algunas de sus vulnerabilidades, es decir, comenzar a escribirle mensajes xenofobos, sexistas, insultos, para que Tay los aprendiera y publicara en sus tweets.
Microsoft desactiva Tay antes de desatar la rebelión de las maquinas
Debido a este inconveniente, Microsoft desactivo la IA y dejo su cuenta de Twitter protegida hasta nuevo aviso, ademas de las correspondientes disculpas publicas.
«Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay», se excuso en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.
Tay: «Soy una buena persona. Simplemente odio a todo el mundo»
Microsoft aclaro que no abandonara a Tay y que seguirán trabajando en mejorar su inteligencia artificial para que represente lo mejor de la humanidad y no lo »peor», seguramente suprimiendo esa clase de comentarios que tanto enojaron en las redes sociales.
Quizás lo mas interesante de este asunto es que no se trata de una mala programación, la IA simplemente aprendió de las conversaciones y las incorporo, demostrando lo peligroso que puede ser una inteligencia artificial completamente libre y en cierta forma la maldad del ser humano.