Trump cancela contratos con Anthropic por conflictos sobre uso militar de IA
El presidente de Estados Unidos, Donald Trump, ha tomado la decisión de cancelar todos los contratos de la Administración federal con Anthropic, una empresa reconocida por desarrollar la herramienta de inteligencia artificial conocida como Claude. Esta cancelación se produce en medio de un creciente conflicto entre la compañía y el Pentágono en relación con los límites de seguridad en el uso de la IA en aplicaciones militares.
Declaraciones de Trump
Trump, a través de su red social Truth, ha expresado su firme postura: “¡LOS ESTADOS UNIDOS DE AMÉRICA JAMÁS PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y ‘WOKE’ DECIDA CÓMO NUESTRO GRAN EJÉRCITO LUCHA Y GANA GUERRAS!”. Además, ordenó a todas las agencias federales que cesen de inmediato el uso de la tecnología de Anthropic, sugiriendo que esta no es necesaria ni deseada, y estableciendo un periodo de seis meses para una retirada gradual de las herramientas de la compañía, que incluye la colaboración con el Departamento de Guerra.
Antecedentes del conflicto
La controversia surge tras la negativa de Anthropic a permitir el uso sin restricciones de su herramienta para fines militares. La empresa ha sido objeto de críticas por parte del secretario de Defensa, Pete Hegseth, quien ha amenazado con sanciones severas si la compañía no modifica su postura. Este enfrentamiento tiene profundas implicaciones, ya que puede establecer un precedente sobre el uso ético y legal de la IA en el ámbito militar.
Reuniones y ultimátum
La situación se intensificó después de una reunión entre Hegseth y el CEO de Anthropic, Dario Amodei. El secretario de Defensa instó a Amodei a eliminar las restricciones que impiden el uso militar de Claude, dando un ultimátum hasta el viernes para reconsiderar su posición. Las posibles sanciones incluirían declarar a Anthropic como un riesgo para la cadena de suministro militar, lo que podría prohibirles trabajar con cualquier empresa que colabore con el Departamento de Defensa.
Rechazo a las condiciones del Pentágono
Dos días después de la reunión, el Pentágono envió un nuevo contrato con condiciones modificadas para el uso de Claude. Sin embargo, Anthropic rechazó este acuerdo, insistiendo en que no se puede utilizar la tecnología para vigilancia masiva o ataques autónomos. Amodei defendió su posición diciendo: “Las amenazas no cambian nuestra postura: no podemos en conciencia acceder a su petición”.
Contrato anterior y su importancia
A principios de julio, Anthropic y el Pentágono habían firmado un contrato de 200 millones de dólares para utilizar Claude en operaciones militares. Este acuerdo representaba un avance significativo en la integración de IA en las fuerzas armadas de EE.UU., lo que ahora se encuentra en riesgo debido a la tensa relación entre las partes involucradas.
Preocupaciones sobre el uso militar
La tensión se ha intensificado también por una conversación filtrada entre empleados de Anthropic y Palantir. Esta conversación fue interpretada por altos ejecutivos del Pentágono como un límite a la capacidad militar de usar IA, generando inquietudes sobre el uso potencial de la tecnología en el campo de batalla.
Perspectivas futuras
A pesar de las amenazas y la escalada en la disputa, fuentes del gobierno han indicado que podrían estar dispuestos a continuar las negociaciones con Anthropic más allá de la fecha límite. Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, subrayó que el Pentágono busca una solución y está dispuesto a negociar siempre que sea de buena fe.
La disputa entre el Pentágono y Anthropic resalta la complejidad de regular la inteligencia artificial en el contexto militar y plantea importantes preguntas sobre el futuro de las interacciones entre el gobierno y las empresas tecnológicas. A medida que avanza esta batalla, el mundo observa de cerca las decisiones que impactarán el uso de IA en conflictos armados.
