¿Es seguro compartir información personal con un Chatbot?
The Wall Street Journal reportó que las preocupaciones sobre posibles violaciones de la privacidad son una prioridad para muchas personas en estos días a medida que se extiende la popularidad de los chatbots con Inteligencia Artificial (IA) generativa.
Imagine, ejemplificó el diario, que pegó sus notas de una reunión con su radiólogo en uno de esos chatbots y le pidió que las resumiera; más tarde, un extraño pide al mismo chatbot que le informe acerca de sus preocupaciones sobre el cáncer y parte de su conversación supuestamente privada se le da a ese usuario como respuesta.
La gran pregunta es, sostiene el Journal: ¿Es seguro compartir
Las preocupaciones sobre posibles violaciones de la privacidad son una prioridad para muchas personas a medida que se extiende la popularidad de la Inteligencia Artificial
información personal con estos chatbots?
La respuesta corta es que siempre hay riesgo de que la información que usted comparte quede expuesta de alguna manera.
Las preocupaciones sobre la privacidad no son teóricas y se han reportado casos en los que información confidencial fue revelada involuntariamente a los usuarios.
En marzo, Openai reveló una vulnerabilidad que permitió a algunos usuarios de CHATGPT ver los títulos de los chats de otros usuarios con la herramienta y también pudo haber expuesto brevemente datos relacionados con pagos de algunos usuarios, incluidas direcciones de e-mail y números de tarjetas de crédito.
Esto fue el resultado de un error en algún software de código abierto (lo que significa que está disponible de forma gratuita para que cualquiera pueda verlo, modificarlo e implementarlo) que se usó en la capacitación de la herramienta.