Anthropic presentó dos declaraciones juradas ante un tribunal federal de California el viernes por la tarde para desafiar las acusaciones del Pentágono. La empresa argumenta que el gobierno se basa en malentendidos técnicos y afirmaciones que nunca se plantearon durante las negociaciones previas. Esta acción legal ocurre una semana después de que el presidente Trump y el secretario de Defensa declararan públicamente la ruptura de la relación.
Los documentos fueron presentados junto con el resumen de la demanda de Anthropic contra el Departamento de Defensa antes de la audiencia programada para el 24 de marzo. Sarah Heck, directora de políticas de Anthropic, y Thiyagu Ramasamy, jefe del sector público, firmaron los testimonios bajo juramento. El caso será juzgado por la juez Rita Lin en un tribunal de San Francisco.
Heck refuta la afirmación de que la empresa solicitó algún tipo de rol de aprobación sobre operaciones militares, calificando esto como una falsedad central en los documentos del gobierno. Ella señala que estas preocupaciones específicas no surgieron durante los meses de negociación que precedieron al desacuerdo actual. Según su testimonio, ningún empleado de Anthropic manifestó querer tener control sobre el uso de sus modelos por parte del Pentágono.
Un detalle crucial que llamará la atención es un correo electrónico del subsecretario Emil Michael enviado el 4 de marzo al CEO Dario Amodei. En el mensaje, Michael indicó que las dos partes estaban muy cerca de un acuerdo sobre las dos cuestiones que el gobierno ahora cita como amenazas de seguridad. Este mensaje fue enviado apenas un día después de que el Pentágono finalizara su designación formal de riesgo. Este contenido contradice las declaraciones públicas posteriores de Michael sobre la inexistencia de negociaciones activas con la compañía de inteligencia artificial.
Thiyagu Ramasamy aborda las preocupaciones técnicas sobre la posibilidad de que Anthropic interfiera en operaciones militares mediante actualizaciones remotas o apagados. Según su testimonio, una vez desplegado en sistemas aislados operados por contratistas, la empresa no tiene acceso ni interruptores de apagado. Ramasamy argumenta que cualquier cambio en el comportamiento del modelo requeriría la aprobación y acción explícita del Pentágono.
Ramasamy también cuestiona la clasificación de riesgo de la cadena de suministro basada en la contratación de nacionales extranjeros, señalando que el personal tiene autorizaciones de seguridad. Afirmó que Anthropic es la única empresa de inteligencia artificial con personal autorizado que construye modelos diseñados para entornos clasificados. El testimonio destaca que los empleados han pasado por el mismo proceso de verificación requerido para acceder a información clasificada.
La demanda de Anthropic alega que la designación de riesgo constituye una retaliación por sus puntos de vista sobre la seguridad de la inteligencia artificial, violando la Primera Enmienda. El gobierno rechaza esto en un documento de 40 páginas, argumentando que la negativa a permitir usos militares era una decisión comercial y no un discurso protegido. El Departamento de Defensa insiste en que el acceso a la tecnología debe ser ininterrumpido para las operaciones críticas. La administración sostiene que la designación fue una llamada de seguridad nacional directa y no un castigo por las opiniones de la empresa.
Este caso marca la primera vez que una compañía estadounidense recibe una designación de riesgo de cadena de suministro por parte del gobierno federal. La audiencia ante la juez Rita Lin establecerá precedentes importantes para la regulación de la inteligencia artificial en el sector de defensa. Los observadores del sector tecnológico esperan que la resolución defina los límites de la seguridad nacional en el desarrollo de modelos avanzados. Además, el resultado influirá en cómo otras empresas de tecnología gestionan contratos gubernamentales y protegen sus algoritmos.