Estas son las 5 cosas que no debes decirle a ChatGPT
El contenido que se publica en una conversación con chatbots nunca es completamente privado, ya que eso es usado para el entrenamiento de la tecnología. Acá, lo que deberías evitar confesarle a ChatGPT y otros programas similares.
Lunes, 31 de Marzo de 2025
Conversar con Inteligencia Artificial generativa, que para muchos se ha convertido en una especie de "mejor amigo", es capaz de brindar instantáneamente ideas novedosas e incluso consejos.
Sin embargo, las conversaciones que se mantienen con esa herramienta nunca son completamente privadas, dado que toda la información que se ha puesto allí se usa para su entrenamiento, lo que puede poner en riesgo la privacidad y seguridad de los datos personales.
Jennifer King, investigadora del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano, explicó a The Wall Street Journal que los chatbots suelen sonar "inquietantemente humanos", lo que a menudo provoca que los usuarios se sinceren y compartan información sensible en sus diálogos.
Desde la visión de la investigadora, al escribir cualquier cosa en un chatbot, inmediatamente "pierdes el control" sobre cómo se utilizará a futuro.
A principios de 2023, OpenAI, la compañía creadora de ChatGPT, dio a conocer que un fallo de seguridad masivo había causado que el historial de conversación de algunos usuarios quedara expuesto frente a otros. A eso se suma que sus datos personales como su nombre y apellido, dirección de correo electrónico e información de pago, también fueron visibles durante 9 horas.
Cuáles son las 5 cosas que no debes decirle a ChatGPT
Información de identidad. Tu fecha de nacimiento, dirección, número de teléfono, licencia de conducir y pasaporte, deben mantenerse en privado y no ser mencionados en una conversación con la IA.
Resultados médicos. Algunos usuarios acuden a ChatGPT para buscar respuestas rápidas sobre sus síntomas o condiciones de salud. No obstante, este tipo de herramientas no garantizan confidencialidad como lo hacen los recintos de salud, lo que puede dejarte expuesto en caso de una eventual filtración de datos como la que se registró en 2023.
Información financiera. Los números de cuentas bancarias, sueldos o información de impuestos, no deben ser mencionados por ningún motivo durante una conversación con el chatbot, pues también podrían quedar vulnerables en caso de una falla de seguridad.
Información corporativa. Una acción tan sencilla como redactar un correo electrónico para el trabajo podría contribuir a que datos de clientes o secretos comerciales queden vulnerables. De hecho, recientemente Samsung optó por prohibir el uso de la IA para sus empleados luego de que uno de ellos filtrara accidentalmente el código fuente interno del servicio.
Inicios de sesión. Con el aumento de los programas de IA que prometen asistir a los usuarios en sus tareas cotidianas, puede parecer útil compartirles las credenciales de una cuenta. Sin embargo, la recomendación es guardar contraseñas, PIN y preguntas de seguridad en un administrador de contraseñas.