El ultimátum del contrato militar de inteligencia artificial del Pentágono desencadena un enfrentamiento de alto riesgo con la empresa de tecnología

0
11


La relación de $200 millones del ejército de EE. UU. con la empresa de inteligencia artificial Anthropic se enfrenta al colapso después de que los funcionarios de Defensa exigieron acceso sin restricciones a la tecnología de la empresa para aplicaciones de combate. El secretario de Guerra Pete Hegseth entregó personalmente el ultimátum del contrato militar de inteligencia artificial del Pentágono durante una reunión tensa con el CEO Dario Amodei, estableciendo un plazo para el viernes para eliminar las restricciones de uso o enfrentar la terminación.

El ultimátum del contrato militar de inteligencia artificial del Pentágono pone a prueba los límites de la ética tecnológica

En juego está la posición de Anthropic como el único proveedor de inteligencia artificial comercial avanzada que opera actualmente en redes de Defensa clasificadas. El sistema Claude de la empresa ayudó en la operación de enero para capturar al líder venezolano Nicolás Maduro, pero las preguntas posteriores de Anthropic sobre usos militares específicos desencadenaron el enfrentamiento. Documentos internos revelan que el Pentágono interpreta tales preguntas como una supervisión inaceptable de operaciones legales. Para obtener más información sobre la inteligencia artificial en operaciones militares, visite nuestro artículo sobre El futuro de la inteligencia artificial.

“No podemos depender de una empresa privada que mantiene restricciones categóricas sobre ciertos usos de su tecnología, incluso si esos usos son legales”, declaró un funcionario de Defensa anónimo. Hegseth comparó la situación con estar prohibido de usar aviones específicos para misiones, según las transcripciones de la reunión.

Las líneas rojas de Anthropic: armas autónomas y vigilancia doméstica

La empresa de inteligencia artificial mantiene dos restricciones no negociables: prevenir que Claude alimente sistemas de armas completamente autónomos o permita la vigilancia masiva de ciudadanos estadounidenses. Durante las negociaciones, Amodei argumentó que estos límites no interferirían con operaciones militares legítimas, enfatizando el compromiso de la empresa con el desarrollo responsable de la inteligencia artificial, similar a los principios descritos en nuestro artículo sobre Inteligencia artificial como aumento vs. reemplazo.

El portavoz de Anthropic lanzó una declaración cuidadosamente redactada: “Seguimos conversaciones de buena fe sobre nuestra política de uso para asegurarnos de que Anthropic pueda seguir apoyando la misión de seguridad nacional del gobierno en línea con lo que nuestros modelos pueden hacer de manera confiable y responsable”. La declaración evita conspicuamente abordar directamente las demandas del Pentágono.

Opciones nucleares: terminación de contrato y poderes de emergencia

Si Anthropic se niega a cumplir para el viernes, el liderazgo del Departamento de Defensa ha delineado tres caminos de escalada: cancelación inmediata del contrato de $200 millones, designación como riesgo de la cadena de suministro que prohibiría a la empresa trabajar en defensa, o invocación de la Ley de Producción de Defensa para obligar el acceso. Esto representaría un uso sin precedentes de poderes federales de emergencia sobre sistemas de inteligencia artificial, lo que podría tener implicaciones significativas para el futuro del desarrollo de la inteligencia artificial, como se discute en nuestro artículo sobre Los 5 usos innovadores de la inteligencia artificial.

Mientras tanto, Grok AI de Elon Musk ha acordado el uso militar sin restricciones, lo que da a los negociadores del Pentágono una ventaja. “Otras empresas de inteligencia artificial de vanguardia están cerca de acuerdos similares”, confirmó un funcionario de Defensa, sugiriendo que Anthropic pronto puede encontrarse aislada en su resistencia.

Implicaciones más amplias para las asociaciones entre el ejército y la tecnología

El enfrentamiento representa la primera prueba importante de si las barreras éticas de la inteligencia artificial avanzada serán establecidas por empresas privadas o agencias gubernamentales. Analistas de la industria advierten que el resultado podría redefinir cómo Silicon Valley colabora con entidades de seguridad nacional, con efectos potenciales en toda la base industrial de defensa.

Con el plazo del viernes acercándose, ambas partes reconocen que el conflicto se trata tanto de control como de aplicaciones de batalla. Como señaló un insider del Pentágono: “Esto no se trata de apuntar autónomo hoy – se trata de quién decide qué es aceptable mañana”.

Te podría interesar:

Definiciones y contexto

Inteligencia artificial (IA) se refiere al desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren inteligencia humana, como percepción visual, reconocimiento de voz y toma de decisiones. En el contexto del contrato del Pentágono con Anthropic, la IA se utiliza para aplicaciones militares, incluyendo operaciones de combate y recolección de inteligencia.

Sistemas de armas autónomas son sistemas de IA que pueden seleccionar y atacar objetivos sin intervención humana. El desarrollo y uso de tales sistemas plantean preocupaciones éticas significativas, ya que tienen el potencial de causar daños no intencionados a civiles y violar el derecho humanitario internacional.

Vigilancia masiva se refiere a la recolección y análisis generalizados de datos personales, a menudo sin el conocimiento o consentimiento de las personas vigiladas. En el contexto del contrato del Pentágono con Anthropic, la vigilancia masiva podría involucrar el uso de sistemas de IA para monitorear y analizar las comunicaciones y actividades de ciudadanos estadounidenses.

La Ley de Producción de Defensa es una ley federal que otorga al Presidente la autoridad para dirigir a empresas privadas a priorizar la producción de ciertos bienes y servicios en tiempos de emergencia nacional. En el contexto del contrato del Pentágono con Anthropic, la Ley de Producción de Defensa podría usarse para obligar a la empresa a proporcionar acceso sin restricciones a su tecnología de IA para uso militar.

Preguntas frecuentes – Preguntas y respuestas

¿Cuál es el ultimátum del contrato militar de inteligencia artificial del Pentágono a Anthropic?

El Pentágono ha dado a Anthropic un ultimátum para eliminar las restricciones de su sistema de IA Claude para el viernes o arriesgarse a la terminación del contrato y la blacklist de la cadena de suministro. El ultimátum es una respuesta a la negativa de Anthropic a proporcionar acceso sin restricciones a su tecnología de IA para uso militar.

¿Cuáles son las implicaciones del enfrentamiento entre el Pentágono y Anthropic?

El enfrentamiento entre el Pentágono y Anthropic tiene implicaciones significativas para el futuro del desarrollo de la inteligencia artificial y la relación entre el ejército y las empresas de tecnología. Plantea preguntas sobre quién debería controlar el desarrollo y uso de la tecnología de IA, y qué pautas éticas deberían estar en lugar para asegurarse de que la IA se utilice de manera responsable.

¿Cuál es el impacto potencial de la Ley de Producción de Defensa en Anthropic y la industria de la IA?

La Ley de Producción de Defensa podría tener un impacto significativo en Anthropic y la industria de la IA en general. Si se invoca la Ley, podría obligar a Anthropic a proporcionar acceso sin restricciones a su tecnología de IA para uso militar, lo que podría socavar el compromiso de la empresa con el desarrollo responsable de la IA. También podría sentar un precedente para el uso de la Ley para controlar el desarrollo y uso de la tecnología de IA en el futuro.





Source link