
Anthropic ha obtenido una medida cautelar que impide al Departamento de Defensa de EE UU etiquetarla como riesgo para la cadena de suministro, lo que podría despejar el camino para que los clientes reanuden su colaboración con la empresa. La sentencia dictada el jueves por Rita Lin, juez federal de distrito en San Francisco, supone un revés simbólico para el Pentágono y un importante impulso para la empresa de IA generativa en su intento de preservar su negocio y su reputación.
«Es probable que la designación de Anthropic como ‘riesgo para la cadena de suministro’ por parte de los demandados sea contraria a la ley y arbitraria y caprichosa», escribió Lin al justificar la medida cautelar. «El Departamento de Guerra no ofrece ninguna base legítima para inferir, a partir de la insistencia de Anthropic en las restricciones de uso, que podría convertirse en un saboteador».
Anthropic y el Pentágono no respondieron de inmediato a las solicitudes de comentarios sobre el fallo.
El recuento de los hechos
El Departamento de Defensa, que bajo Trump se llama a sí mismo el Departamento de Guerra, ha confiado en las herramientas de IA Claude de Anthropic para redactar documentos sensibles y analizar datos clasificados en los últimos dos años. Pero este mes, comenzó a retirar Claude después de determinar que Anthropic no era de fiar. Los funcionarios del Pentágono citaron numerosos casos en los que Anthropic supuestamente puso o intentó poner restricciones de uso en su tecnología que la administración Trump consideró innecesarias.
La administración finalmente emitió varias directivas, incluida la designación de la empresa como un riesgo para la cadena de suministro, que han tenido el efecto de detener lentamente el uso de Claude en todo el gobierno federal y dañar las ventas y la reputación pública de Anthropic. La empresa presentó dos demandas contra las sanciones por inconstitucionales. En una audiencia celebrada el martes, Lin afirmó que el gobierno parecía haber perjudicado y castigado ilegalmente a Anthropic.
La sentencia de Lin del jueves «restablece el statu quo» al 27 de febrero, antes de que se emitieran las directivas. «No impide a ningún acusado emprender ninguna acción legal que hubiera tenido a su disposición en esa fecha. Por ejemplo, esta orden no requiere que el Departamento de Guerra utilice los productos o servicios de Anthropic y no impide que el departamento realice la transición a otros proveedores de IA, siempre que esas acciones sean coherentes con las regulaciones, estatutos y disposiciones constitucionales aplicables».
Qué dice la sentencia
El fallo sugiere que el Pentágono y otras agencias federales aún tienen la libertad de cancelar acuerdos con Anthropic y pedir a los contratistas que integran Claude en sus propias herramientas que dejen de hacerlo, pero sin citar la designación de riesgo en la cadena de suministro como base.
El impacto inmediato no está claro porque la orden de Lin no entrará en vigor hasta dentro de una semana. Además, un tribunal federal de apelaciones de Washington DC aún no se ha pronunciado sobre la segunda demanda interpuesta por Anthropic, que se centra en otra ley en virtud de la cual también se prohibió a la empresa suministrar software al ejército.
Pero Anthropic podría utilizar la sentencia de Lin para demostrar a algunos clientes preocupados por trabajar con un paria de la industria que la ley puede estar de su lado a largo plazo. Lin no ha fijado un calendario para dictar una sentencia definitiva.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.
