Robot ofensivo
La semana pasada Microsoft
lanzó un software botchat de nombre Tay con la personalidad de una adolescente, que estaba diseñada para aprender de la interacción en línea con personas reales. Sin embargo, después de 24 horas el programa comenzó la conversación casual y divertida, y pasó a comentarios racistas y sexistas, incluso en apoyo a Hittler, en búsqueda de dar respuestas graciosas a mensajes y fotografías en Twitter. La empresa explicó que esto se debió a la gente soez que obligo a Tay a responder de manera inapropiada, por lo que se borraron todos los comentarios ofensivos y Microsoft ya ofreció una disculpa.