Inicio / Tecnología / Microsoft vuelve a sacar a Tay de la circulación

Microsoft vuelve a sacar a Tay de la circulación

EFEFUTURO.- Microsoft se ha visto obligada a retirar  de nuevo de Twitter a su usuario robótico Tay, después de que las conversaciones con algunos cibernautas provocaran en él respuestas racistas y caóticas.

Fotografía tomada el 24 de octubre de 2011 que muestra el logotipo de Windows en una tienda de Microsoft. EFE/ Zoltan Mathe

Ante las menciones de algunos internautas para interactuar con el robot, Tay respondió hoy de manera masiva “Los mensajes van demasiado rápido”, lo que indica que el robot no pudo contestar adecuadamente a la alta demanda de atención en la red.

Entre los pocos tuits que tenían sentido, Tay mostró una vez más que no puede ser “domesticado”, lo que llevó a Microsoft a sacarlo de nuevo de la red, aunque después de que muchos registraran sus respuestas con algunas capturas de pantalla.
En un tuit, Tay se quejó de su propia estupidez, diciendo que se sentía como “la pieza más frívola de la tecnología”.

“Se supone que tengo que ser más inteligente que ustedes. MIERDA”, concluyó, con malas palabras.

Tras las críticas por las respuestas racistas del robot hace unos días, la popularidad de Tay aumentó en Twitter, lo que hizo que los usuarios se lanzaran a provocar a la máquina para obtener sus reacciones.

Esta apuesta de Microsoft para avanzar en sus investigaciones sobre inteligencia artificial se lanzó el 23 de marzo, como una especie de amigo virtual en aplicaciones de mensajería como Kik, GroupMe y Twitter.

Al abrir cualquiera de estas aplicaciones y buscar el nombre de Tay (Acrónimo en inglés de “Think about you”, piensa en ti), aparece su contacto y los internautas pueden chatear o tuitear con él, que está diseñado con la personalidad de un adolescente.

Microsoft celebra hoy su conferencia de desarrolladores, donde se espera que su director ejecutivo, Satya Nadella, explique las grandes expectativas de la compañía en esta materia. EFEfuturo
(Sin votaciones)
Cargando…