#Salud: Las 5 cosas que jamás debes decirle a ChatGPT

0
204


En la actualidad, la inteligencia artificial facilita muchas
tareas diarias. ChatGPT responde dudas, ayuda a redactar documentos
e incluso colabora en análisis de datos. Sin embargo, compartir
ciertos datos con estas plataformas puede abrir la puerta a riesgos
importantes para la privacidad personal y
profesional
. Entender los peligros de confiar información
sensible a un chatbot ayuda a protegerse frente a fraudes,
suplantación de identidad y filtraciones. Mantener la alerta sobre
lo que se comparte evita problemas legales y personales, sobre todo
considerando que, pese a los sistemas de seguridad, nada garantiza
la confidencialidad absoluta.

Por
qué los datos sensibles no deben compartirse con
ChatGPT


ChatGPT
procesa las conversaciones para ofrecer respuestas cada
vez más precisas. Aunque existen políticas y herramientas que
regulan el uso de la información, siempre queda la posibilidad de
almacenamiento temporal o mal manejo de datos
confidenciales. La IA necesita analizar los textos, y algunas
plataformas incluso utilizan fragmentos de conversaciones para
mejorar sus algoritmos. Han existido incidentes donde bases de
datos inseguras e incluso errores en el software han permitido
filtraciones accidentales.

Por si fuera poco, la falta de regulación clara sobre la
privacidad
y el auge de engaños en la red exponen a los
usuarios a nuevos riesgos. Quien accede a una conversación ajena
puede encontrar datos personales, resultados médicos, detalles
financieros o información sobre proyectos de empresa, lo que
resulta un blanco fácil para robos o fraudes si no se toman
precauciones. Si la responsabilidad de proteger estos secretos
recae sobre el usuario, la mejor defensa sigue siendo la precaución
y la discreción.

Cinco
tipos de información que nunca se deben compartir

Existen ciertos grupos de información que siempre deben
mantenerse en reserva al utilizar ChatGPT. Entre ellos destacan los
datos personales y de identidad, como nombres
completos, direcciones, números de identificación o fechas de
nacimiento; ya que pueden ser empleados para cometer suplantación o
fraudes. Ingresar credenciales y contraseñas en
una conversación es una de las prácticas más peligrosas, aún cuando
se trate de ejemplos inocentes o pruebas. Si estos detalles caen en
manos equivocadas, se corre el riesgo de perder el control de
cuentas, sufrir robos o facilitar ataques.

La información financiera, por mínima que sea,
nunca debe incluirse en un intercambio con la IA. Esto abarca desde
números de tarjetas o cuentas bancarias hasta detalles sobre
inversiones y transferencias. Los ladrones digitales suelen buscar
datos así para vaciar cuentas o manipular servicios de pago. Con
respecto a datos médicos y de salud, compartir
resultados de exámenes, diagnósticos o antecedentes médicos puede
terminar en fraudes, discriminación o filtraciones hacia compañías
aseguradoras o terceros sin autorización.

Por último, la información empresarial y
confidencial
dentro de empresas debe mantenerse fuera de
cualquier chatbot. Desde estrategias hasta códigos internos,
secretos de productos o planes comerciales, su exposición puede
provocar pérdidas económicas y dañar la reputación profesional.

Datos personales y de
identidad

Este grupo incluye todo aquello que identifica a la persona:
nombres y apellidos, dirección residencial, teléfonos, correos, y
números oficiales como DNI, pasaporte o RUT.
Publicar estos datos, incluso en contextos aparentes de
confianza
, permite que terceros cometan suplantación.
Casos recientes muestran cómo estafadores, tras obtener solo un par
de referencias, logran acceder a cuentas o solicitar préstamos en
nombre del usuario. Proteger este tipo de información también
reduce la probabilidad de campañas de phishing o
amenazas personalizadas.

Te podría interesar:
Foto Freepik

Credenciales y
contraseñas

Nunca se debe ingresar una contraseña, clave de acceso, nombre
de usuario o PIN en una conversación con ChatGPT, ya
sea por error o en ejemplos. Un simple descuido puede permitir que
personas externas accedan a cuentas bancarias, redes
sociales o plataformas laborales
. Inclusive el uso de
contraseñas en textos de prueba representa un riesgo, porque la
información podría permanecer registrada de forma momentánea y
terminar comprometida. Se han documentado compras en línea y
trámites realizados con credenciales compartidas de modo
accidental, causando pérdidas de dinero y acceso a información
clave.

Información financiera

Los datos bancarios y de tarjetas, como números completos,
códigos de seguridad (CVV), saldos o detalles de transferencias, no
tienen cabida en ninguna plataforma de IA. La delincuencia
digital
suele utilizar técnicas avanzadas para rastrear
conversaciones vulnerables y aprovechar cualquier filtración.
Incluso agregar detalles parciales incrementa el peligro, ya que
pueden cruzarse con otros datos online y convertirse en pie para
fraudes complejos o robos de identidad financiera. Cuidar la
privacidad financiera brinda un escudo ante estafas y bloqueos
inesperados en cuentas bancarias.

Datos médicos y de
salud

Subir resultados de exámenes, diagnósticos de laboratorio,
medicamentos o antecedentes médicos es igual de riesgoso. Esta
información puede ser utilizada sin permiso, generando
discriminación laboral, manipulación de pólizas médicas o
dificultando el acceso a empleos y seguros. Ya se han dado casos en
los que datos filtrados terminan en bases de datos externas o son
vendidos a terceros, con consecuencias graves tanto para la persona
como para su entorno.

Información
empresarial y confidencial

Las empresas, sin importar su tamaño, deben proteger datos como
estrategias de mercado, códigos fuente, cifras de ventas, listas de
clientes y cualquier secreto interno. Basta que un fragmento de
conversación con la IA incluya detalles exclusivos para que se
conviertan en potencial filtración. La competencia o
delincuentes
pueden aprovechar estos descuidos, llevando a
pérdidas económicas, robo de ideas y problemas legales. Adoptar
protocolos estrictos de seguridad interna y limitar el acceso a
chatbots para temas confidenciales señala la diferencia entre un
error menor y una crisis empresarial.

¿Le resultó útil este artículo?



Source link