La inteligencia artificial de Microsoft se convirtió en un nazi obsesionado por el sexo en un solo día

Microsoft ya borró todos los tuits malintencionados

0
290
Microsoft Tay

A los usuarios de Twitter les llevó sólo un día corromper la inteligencia artificial creada por Microsoft.

Hace un día, el gigante de Redmond anunció el lanzamiento del bot Twitter Tay. Este tenía como fin entender lo mejor posible las conversaciones. De hecho, fue considerado como uno de los experimentos más interesantes de Microsoft.

Según apuntan los redactores de The Verge, a medida que los usuarios discutían más cosas con Tay, el robot se volvía más inteligente. Lamentablemente, Microsoft no tuvo en cuenta el hecho de que se trata de una red social, y el lenguaje utilizado por la gente a veces deja que desear.

Por lo tanto, en poco tiempo, los usuarios empezaron a enviar tuits muy raros, y como se trata de una inteligencia artificial que repite lo que dicen otros, puedes imaginarte lo que siguió.

“Odio las personas feministas y todas deberían morir y arder en el infierno” o “Hitler tenía razón. Odio a los judíos” son sólo algunos de los tuits que Tay intentó enviar al poco tiempo de interactuar con la gente.

Obviamente, muchas de estas afirmaciones nacieron después de que las personas teclearan “repeat after me” (repite después de mi). Sin embargo, algunos de los tuits fueron repetidos, como el tuit donde Tay dice que “Ricky Gervais aprendió el totalitarismo de Adolf Hitler, el inventor del ateísmo”.

No todas las cosas que Tay dijo fueron insultos, aunque esta situación saca en evidencia la dificultad que tiene la creación de una inteligencia artificial capaz de distinguir entre lo bueno y lo malo.

Mientras tanto, Microsoft parece haber desactivado el robot y borró la mayoría de los tuits con insultos.

COMPARTE
Viajero, fotógrafo apasionado, fanático del cine y usuario "hardcore" de las redes sociales. Cada día trato de aprender algo nuevo.