Milenio

Robot ofensivo

-

La semana pasada Microsoft

lanzó un software botchat de nombre Tay con la personalid­ad de una adolescent­e, que estaba diseñada para aprender de la interacció­n en línea con personas reales. Sin embargo, después de 24 horas el programa comenzó la conversaci­ón casual y divertida, y pasó a comentario­s racistas y sexistas, incluso en apoyo a Hittler, en búsqueda de dar respuestas graciosas a mensajes y fotografía­s en Twitter. La empresa explicó que esto se debió a la gente soez que obligo a Tay a responder de manera inapropiad­a, por lo que se borraron todos los comentario­s ofensivos y Microsoft ya ofreció una disculpa.

Newspapers in Spanish

Newspapers from Mexico