Tras meses de negociaciones entre el Pentágono y desarrolladores de San Francisco, la administración de Donald Trump vetó a la empresa tecnológica Anthropic y la catalogó como un «riesgo para la cadena de suministro» tras la negativa de la firma a permitir el uso irrestricto de su modelo Claude en sistemas de armas autónomas.
El Departamento de Defensa de los Estados Unidos buscó integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en los centros de mando que coordinan operaciones en Medio Oriente.
Domingo de Ramos: el Papa León XIV pidió en su mensaje frenar la violencia y “deponer las armas”
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Según la Casa Blanca las salvaguardas éticas de la empresa constituyen una «obstrucción operativa» para las capacidades de defensa nacional. Para la administración republicana, Anthropic presenta limitaciones que ralentizan la respuesta de sistemas automatizados en escenarios de combate real y una vulnerabilidad estratégica frente a potencias extranjeras.
La medida excluye a la compañía de cualquier licitación vinculada a la infraestructura crítica del Estado y prohíbe a las agencias federales renovar licencias de software con la firma californiana. Mientras tanto, la empresa defendió su postura y ratificó su compromiso con la seguridad del usuario.
¿Por qué el Pentágono sancionó a Anthropic?
El conflicto escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven. El proyecto utiliza IA para identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto.
Los técnicos de la firma se negaron a eliminar los filtros que impiden generar respuesta relacionadas a la planificación de ataques físicos. La negativa fue interpretada por el Departamento de Defensa como una «falta de cooperación».
La administración actual sostuvo que la prioridad es la «superioridad algorítmica» en el campo de batalla, especialmente ante el avance de sistemas similares desarrollados en China.
¿Qué impacto tendrá el veto en el desarrollo de la IA?
La sanción administrativa podría ralentizar el entrenamiento de futuros modelos de la serie Claude, que depende de infraestructura de gran escala. Sin embargo, la empresa mantiene su base de clientes en el sector privado, principalmente empresas financieras e instituciones de salud.
Irán activa a los rebeldes hutíes de Yemen y Europa teme una ola de atentados terroristas
Expertos en seguridad nacional indicaron que la medida define la frontera entre la IA civil y la militar. Mientras la Casa Blanca busca establecer que cualquier desarrollo debe ser «militarizable», la firma de San Francisco cuenta con seguridad propia encargada de garantizar que el avance tecnológico no supere los límites de seguridad humana.
Lo cierto es que la situación en Medio Oriente aceleró la urgencia del Gobierno por adquirir herramientas de análisis predictivo que funcionen sin las restricciones de seguridad habituales. Estados Unidos busca que la IA proponga cursos de acción letales de manera autónoma para reducir los tiempos de reacción humana.
Por su parte, la empresa inició un proceso de revisión legal para apelar la designación bajo el argumento de que sus protocolos de seguridad son precisamente lo que garantiza que la tecnología no sea robada.
BGD/ML










