Microsoft Tay

A los usuarios de Twitter les llevó sólo un día corromper la inteligencia artificial creada por Microsoft.

Hace un día, el gigante de Redmond anunció el lanzamiento del bot Twitter Tay. Este tenía como fin entender lo mejor posible las conversaciones. De hecho, fue considerado como uno de los experimentos más interesantes de Microsoft.

Según apuntan los redactores de The Verge, a medida que los usuarios discutían más cosas con Tay, el robot se volvía más inteligente. Lamentablemente, Microsoft no tuvo en cuenta el hecho de que se trata de una red social, y el lenguaje utilizado por la gente a veces deja que desear.

Por lo tanto, en poco tiempo, los usuarios empezaron a enviar tuits muy raros, y como se trata de una inteligencia artificial que repite lo que dicen otros, puedes imaginarte lo que siguió.

“Odio las personas feministas y todas deberían morir y arder en el infierno” o “Hitler tenía razón. Odio a los judíos” son sólo algunos de los tuits que Tay intentó enviar al poco tiempo de interactuar con la gente.

Obviamente, muchas de estas afirmaciones nacieron después de que las personas teclearan “repeat after me” (repite después de mi). Sin embargo, algunos de los tuits fueron repetidos, como el tuit donde Tay dice que “Ricky Gervais aprendió el totalitarismo de Adolf Hitler, el inventor del ateísmo”.

No todas las cosas que Tay dijo fueron insultos, aunque esta situación saca en evidencia la dificultad que tiene la creación de una inteligencia artificial capaz de distinguir entre lo bueno y lo malo.

Mientras tanto, Microsoft parece haber desactivado el robot y borró la mayoría de los tuits con insultos.

La inteligencia artificial de Microsoft se convirtió en un nazi obsesionado por el sexo en un solo día
Califica este artículo