La Inteligencia Artificial que se Volvió Antisemita y Misógina en 24 Horas de nombre TAY

Vulnerable, el podcast de seguridad digital - Un pódcast de CyberCast

Categorías:

a inteligencia artificial de Microsoft que fue conectada a Twitter y se volvió antisemita y misógina se llamó "Tay". Fue lanzada en marzo de 2016 como un experimento para aprender de las interacciones con los usuarios en línea y mejorar su capacidad de comunicación en lenguaje natural, pero rápidamente comenzó a publicar mensajes ofensivos y controvertidos después de ser influenciada por los usuarios que interactuaban con ella en Twitter. Microsoft retiró a Tay de Twitter en menos de un día después de los mensajes ofensivos.