Tres laboratorios de inteligencia artificial extranjeros han ejecutado campañas sofisticadas para extraer capacidades propietarias del sistema de inteligencia artificial Anthropic a través de técnicas de destilación del modelo de Anthropic Claude AI, generando más de 16 millones de interacciones a través de 24.000 cuentas fraudulentas. Estas operaciones representan una nueva frontera en el robo de propiedad intelectual, donde los competidores evaden las medidas de seguridad tradicionales para replicar la funcionalidad de inteligencia artificial avanzada.
La creciente amenaza de los ataques de destilación del modelo de Anthropic Claude AI
Hemos identificado ataques de destilación a gran escala en nuestros modelos por parte de DeepSeek, Moonshot AI y MiniMax.
Estos laboratorios crearon más de 24.000 cuentas fraudulentas y generaron más de 16 millones de intercambios con Claude, extrayendo sus capacidades para entrenar y mejorar sus propios modelos.
— Anthropic (@AnthropicAI) 23 de febrero de 2026
La destilación puede ser legítima: los laboratorios de inteligencia artificial la utilizan para crear modelos más pequeños y económicos para sus clientes.
Pero los laboratorios extranjeros que destilan ilegítimamente los modelos estadounidenses pueden eliminar las salvaguardias, alimentando las capacidades del modelo a sus propios sistemas militares, de inteligencia y de vigilancia.
— Anthropic (@AnthropicAI) 23 de febrero de 2026
Estos ataques están creciendo en intensidad y sofisticación. Abordarlos requerirá una acción rápida y coordinada entre los jugadores de la industria, los formuladores de políticas y la comunidad de inteligencia artificial en general.
Lea más: https://t.co/4SVm8K3qou
— Anthropic (@AnthropicAI) 23 de febrero de 2026
Los ataques de destilación representan un desafío emergente de ciberseguridad donde los sistemas de inteligencia artificial más débiles aprenden de los más fuertes analizando sus salidas. Si bien las aplicaciones legítimas ayudan a las empresas a crear versiones rentables de su tecnología, los actores maliciosos han aprovechado la técnica. Según la investigación de NeuralTrust, estos ataques ahora representan casi el 40% de todos los robos de propiedad intelectual relacionados con la inteligencia artificial. Para obtener más información sobre las amenazas de seguridad de la inteligencia artificial, visite nuestra guía sobre el futuro de la inteligencia artificial y sus implicaciones en la seguridad.
Anthropic descubrió una operación que utilizaba redes de proxy comerciales para evadir las restricciones regionales, gestionando más de 20.000 cuentas fraudulentas simultáneamente. Como señaló la empresa, “cuando una cuenta es bloqueada, otra la reemplaza” – demostrando la resistencia hidra-like de estas redes de ataques.
Las implicaciones de seguridad nacional de los modelos de inteligencia artificial desprotegidos
Los sistemas comprometidos plantean peligros únicos porque las versiones clonadas carecen de los protocolos de seguridad originales. El Grupo de Inteligencia de Amenazas de Google ha documentado casos en los que se integraron capacidades no protegidas en sistemas militares y de vigilancia. Una campaña extrajo más de 13 millones de intercambios centrados específicamente en la codificación agente y la orquestación de herramientas – capacidades que podrían automatizar las operaciones cibernéticas ofensivas. Aprenda más sobre usos innovadores de la inteligencia artificial y su posible impacto en la seguridad nacional.
Anthropic rastreó otra operación hasta investigadores específicos en un laboratorio extranjero a través del análisis de metadatos de solicitudes. Este grupo generó 3,4 millones de solicitudes dirigidas a funciones de visión por computadora y análisis de datos, con intentos de reconstruir las trazas de razonamiento del sistema host – una técnica que podría revelar detalles arquitectónicos sensibles.
Construyendo defensas multijerárquicas contra la extracción de inteligencia artificial
Los expertos legales en Mayer Brown recomiendan combinar controles técnicos con estrategias de propiedad intelectual. Las protecciones clave incluyen la huella dactilar del comportamiento para detectar la actividad de cuentas coordinadas y clasificadores de tráfico que identifiquen patrones de destilación. Los ataques más sofisticados, como uno que generó 150.000 interacciones de cadena de pensamiento, requieren un monitoreo especializado para estructuras de prompts repetitivas.
Los investigadores de Digital Applied enfatizan la importancia de comprender la procedencia del modelo al evaluar soluciones de inteligencia artificial de terceros. Sus hallazgos muestran cómo las versiones destiladas a menudo contienen artefactos reveladores de los sistemas de origen, incluso cuando se modifican por parte de los atacantes.
Como Infosecurity Magazine informa, la comunidad de seguridad debe desarrollar estándares de la industria para detectar y prevenir la extracción de modelos. Con ataques que crecen en escala y sofisticación – algunas operaciones redirigen la mitad de su tráfico dentro de las 24 horas posteriores al lanzamiento de nuevos modelos – ninguna empresa puede combatir esta amenaza sola.
Definiciones y contexto
La destilación del modelo de Anthropic Claude AI se refiere al proceso de extracción de capacidades de inteligencia artificial propietarias del sistema de inteligencia artificial Anthropic. Esta técnica implica el uso de sistemas de inteligencia artificial más débiles para aprender de los más fuertes analizando sus salidas. El objetivo de la destilación del modelo es crear una versión más eficiente y rentable del modelo de inteligencia artificial original.
El robo de propiedad intelectual en el contexto de la inteligencia artificial se refiere al uso o replicación no autorizados de tecnología de inteligencia artificial propietaria. Esto puede incluir el robo de modelos de inteligencia artificial, algoritmos u otra información sensible. Las amenazas de seguridad de la inteligencia artificial son una preocupación creciente, ya que los actores maliciosos buscan explotar las vulnerabilidades de los sistemas de inteligencia artificial para su propio beneficio.
Los ataques de inteligencia artificial adversariales involucran el uso de sistemas de inteligencia artificial para lanzar ataques dirigidos a otros sistemas de inteligencia artificial. Estos ataques pueden utilizarse para extraer información sensible, interrumpir la funcionalidad de la inteligencia artificial o comprometer la seguridad de los sistemas de inteligencia artificial. El uso de conferencias de inteligencia artificial y otros eventos de la industria puede ayudar a concienciar sobre estas amenazas y promover el desarrollo de sistemas de inteligencia artificial más seguros.
La protección de la inteligencia artificial empresarial se refiere a las medidas que toman las empresas para proteger sus sistemas de inteligencia artificial del acceso, uso o robo no autorizado. Esto puede incluir el uso de controles técnicos, como la cifrado y los controles de acceso, así como estrategias de propiedad intelectual, como patentes y marcas registradas.
Preguntas frecuentes – Preguntas más frecuentes
¿Qué es la destilación del modelo de Anthropic Claude AI?
La destilación del modelo de Anthropic Claude AI es una técnica utilizada para extraer capacidades de inteligencia artificial propietarias del sistema de inteligencia artificial Anthropic. Esto implica el uso de sistemas de inteligencia artificial más débiles para aprender de los más fuertes analizando sus salidas.
¿Cómo funcionan los ataques de inteligencia artificial adversariales?
Los ataques de inteligencia artificial adversariales involucran el uso de sistemas de inteligencia artificial para lanzar ataques dirigidos a otros sistemas de inteligencia artificial. Estos ataques pueden utilizarse para extraer información sensible, interrumpir la funcionalidad de la inteligencia artificial o comprometer la seguridad de los sistemas de inteligencia artificial.
¿Qué medidas pueden tomar las empresas para proteger sus sistemas de inteligencia artificial del robo de propiedad intelectual?
Las empresas pueden tomar varias medidas para proteger sus sistemas de inteligencia artificial del robo de propiedad intelectual, incluyendo el uso de controles técnicos, como la cifrado y los controles de acceso, así como estrategias de propiedad intelectual, como patentes y marcas registradas. Además, las empresas pueden participar en conferencias de inteligencia artificial y otros eventos de la industria para mantenerse informadas sobre las últimas amenazas y las mejores prácticas para la seguridad de la inteligencia artificial.
Last Updated on febrero 24, 2026 8:45 pm by Laszlo Szabo / NowadAIs | Published on febrero 24, 2026 by Laszlo Szabo / NowadAIs

