ChatGPT se ha convertido en una herramienta multifacética que acompaña a millones de usuarios en tareas tan variadas como redactar textos, corregir códigos, interpretar exámenes médicos o incluso contar cuentos para dormir.
Sin embargo, detrás de cada respuesta se esconde un sistema de inteligencia artificial (IA) que aprende y evoluciona con cada interacción, recopilando información para mejorar su rendimiento.
A lo largo del tiempo, estos algoritmos no solo han captado hábitos de consumo o inquietudes de salud, sino que también han memorizado detalles personales mucho más íntimos.
Esto se debe a que modelos como ChatGPT están diseñados para personalizar sus respuestas y volverse más precisos conforme recopilan datos del usuario.
Desde estados de ánimo hasta datos privados, todo lo que se dice puede ser registrado.
TE RECOMENDAMOS: ChatGPT en WhatsApp: Así funcionan las nuevas actualizaciones
Aunque OpenAI permite desactivar esta función desde la configuración, una gran parte de los usuarios desconoce esta posibilidad o no le da importancia, lo que abre la puerta a una gran exposición de datos sensibles.
¿Qué información es recomendable no compartir con ChatGPT?
Expertos en ciberseguridad advierten que hay cinco tipos de datos que es mejor mantener fuera de estas plataformas:
-
Datos identificativos: compartir números de pasaporte, direcciones, teléfonos o fechas de nacimiento puede facilitar robos de identidad. Aunque algunos modelos intentan censurar esta información, no existe una garantía absoluta.
- Resultados médicos: los chatbots no están sujetos a las mismas leyes de protección de datos de salud que las instituciones médicas.
Si es necesario compartirlos, asegúrate de eliminar cualquier dato que pueda vincularse contigo.
- Información financiera: nunca se deben introducir números de cuentas bancarias, tarjetas o inversiones. Un descuido podría traducirse en filtraciones con consecuencias económicas graves.
- Información empresarial confidencial: usar ChatGPT para revisar correos o códigos de trabajo puede poner en riesgo secretos industriales o códigos internos que deberían mantenerse bajo estricta confidencialidad.
- Contraseñas y credenciales: bajo ninguna circunstancia se deben usar chatbots como almacenes de contraseñas o accesos, pues para ello existen softwares especializados y cifrados.
A pesar de estas advertencias, grandes empresas tecnológicas como OpenAI, Google o Microsoft utilizan las conversaciones para entrenar y perfeccionar sus modelos.
TE RECOMENDAMOS: ¿Para qué los usa? Estos son los datos que recopila ChatGPT de los usuarios
¿Cómo evitar compartir información personal con ChatGPT?
Si bien existe la opción de impedir que los datos se usen para este fin, muchos desconocen cómo hacerlo.
Los especialistas recomiendan varias medidas para mantener la privacidad:
- Activar el modo de chat temporal, que impide que las conversaciones se guarden en el sistema.
- Eliminar el historial de conversaciones después de cada uso.
- Utilizar herramientas como Duck.ai, que permite interactuar con IA de forma anónima, aunque con funcionalidades limitadas.
Los chatbots como ChatGPT están diseñados para retener información y ofrecer respuestas cada vez más precisas, por lo que es necesario saber qué información es oportuno compartir.
Deja una respuesta