Anthropic anunció que empleará las conversaciones de los usuarios con Claude para entrenar sus modelos de inteligencia artificial. La compañía actualizó sus políticas de uso con nuevas cláusulas que le permitirán conservar los datos de sus usuarios hasta por cinco años y utilizarlos como material de entrenamiento. Los cambios entrarán en vigor el 28 de septiembre de 2025.
Al abrir la aplicación de Claude o acceder al chatbot desde la web, aparecerá una nueva ventana que anuncia una actualización de los Términos del Consumidor. Esta pantalla incluye una opción para ayudar a mejorar Claude, la cual especifica que se autoriza el uso de chats y sesiones de código para mejorar los modelos de Anthropic.

Esta característica, activada por defecto, implica que la compañía usará las transcripciones de las conversaciones con la IA, incluido Claude Code. Los usuarios pueden desactivarla en esta ventana antes de aceptar la nueva política o hacerlo dentro de la configuración de privacidad de su cuenta.
Anthropic establece en sus nuevos términos: “Podemos usar sus Entradas y Salidas para entrenar nuestros modelos y mejorar nuestros Servicios, a menos que opte por no participar a través de la configuración de su cuenta. Incluso si opta por no participar, usaremos Entradas y Salidas para mejorar el modelo cuando sus conversaciones estén marcadas para revisión de seguridad o nos haya informado explícitamente de los materiales”.
Para evitar que Anthropic use los chats, los usuarios deben acceder a la página de perfil, seleccionar «Privacidad» en el menú lateral y desactivar la opción «Ayudar a mejorar Claude». También es posible deshabilitar los metadatos de ubicación para mayor privacidad.
Aunque el uso de conversaciones para entrenar a Claude es opcional, los usuarios deberán aceptar un cambio en la retención de datos. Anthropic menciona que, para mejorar las protecciones de seguridad, la compañía podrá retener la información hasta por cinco años, incluidas todas las interacciones con sus sistemas.
Estos cambios se producen justo un día después de que la empresa revelara que un hacker utilizó Claude en varios intentos de ciberataques y estafas. La compañía descubrió que una persona empleó Claude Code para montar una operación de ransomware dirigida a 17 compañías. El actor malicioso se apoyó en la IA para definir la mejor estrategia para extraer datos, calcular el coste de la extorsión e incluso redactar las notas de rescate.
Anthropic publicó un informe con este y otros casos en los que personas superaron las barreras de seguridad de la IA para desarrollar malware. La empresa afirma que bloqueó las cuentas de los hackers e implementó actualizaciones para mitigar y evitar nuevos intentos.
**REDACCIÓN FV MEDIOS**


