El Pentágono tacha a Anthropic de ‘riesgo para la cadena de suministro’
El gobierno estadounidense acusó a la empresa de inteligencia artificial Anthropic de poner en peligro a los miembros de las fuerzas armadas al añadir sus propias restricciones al uso legal de su programa de IA Claude. En consecuencia, el gobierno etiquetó a Anthropic como un riesgo en la cadena de suministro el jueves, una designación normalmente reservada para empresas de adversarios extranjeros. La etiqueta prohíbe a los militares y a sus numerosos contratistas hacer negocios con la empresa. Esto sigue a los informes de que el ejército estadounidense utilizó Claude AI para capturar al presidente venezolano Nicolás Maduro y la está utilizando para el análisis de inteligencia y la evaluación de objetivos en Irán. Se ha ordenado a los militares que eliminen progresivamente la IA de Claude y la sustituyan por una o varias de sus competidoras de IA. La disputa resalta la importancia y la dependencia de la inteligencia artificial, a pesar de las incógnitas y los riesgos, como se destaca en “Por qué tenemos que desarrollar la IA (aunque nos mate)”.