Anthropic demanda al gobierno de EEUU por disputa sobre uso de su IA
La startup californiana Anthropic demandó el lunes al gobierno del presidente Donald Trump por considerar que fue penalizada tras negarse a autorizar el uso militar sin límites de sus modelos de inteligencia artificial Claude.
El Departamento de Defensa de Estados Unidos designó la semana pasada a Anthropic como un “riesgo para la cadena de suministro de seguridad nacional”, luego de que la empresa rechazara el uso de su tecnología para vigilancia masiva o fines bélicos.
En la demanda de 48 páginas, presentada ante un tribunal federal de San Francisco, Anthropic solicita que esta designación sea revertida y que se declare ilegal.
Lea también: Nuevos documentos publicados sobre caso Epstein involucrarían a Trump con presunta agresión sexual
La compañía sostiene que fue fundada bajo el principio de que su inteligencia artificial debe “usarse de una manera que maximice los resultados positivos para la humanidad” y que debe ser “la más segura y responsable”.
“Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias por expresar ese principio”, señala el documento.
Anthropic es la primera empresa estadounidense catalogada como “riesgo” para la seguridad nacional por el gobierno federal, una clasificación que normalmente se reserva para entidades de países rivales, como el gigante tecnológico chino Huawei.
La designación obliga a proveedores y contratistas de defensa a certificar que no utilizan los modelos de Anthropic en sus trabajos con el Pentágono.
“Consecuencias enormes”
Fundada en 2021 por los hermanos Dario Amodei y Daniela Amodei, antiguos empleados de OpenAI, creadora de ChatGPT, Anthropic se ha consolidado como una de las compañías que compiten en la carrera global de la inteligencia artificial, con un enfoque centrado en la seguridad tecnológica.
“Las consecuencias de este caso son enormes”, señala la demanda, al advertir que el Gobierno estadounidense busca destruir el valor económico generado por una de las empresas privadas de más rápido crecimiento del mundo.
La disputa se intensificó después de que Anthropic generara molestia en el Pentágono al insistir en que su tecnología no debía emplearse para vigilar a ciudadanos ni para sistemas de armas completamente autónomos.
Posteriormente, el presidente Donald Trump ordenó a las agencias federales suspender el uso de la tecnología de Anthropic.
El secretario de Defensa Pete Hegseth calificó a la empresa como “riesgo para la cadena de suministro de la seguridad nacional” y ordenó que ningún contratista, proveedor o socio militar realice actividades comerciales con la compañía. No obstante, el Pentágono concedió un periodo de transición de seis meses para aplicar la medida.
El conflicto entre el Pentágono y Anthropic se produjo pocos días antes de la ofensiva militar estadounidense contra Irán.
Actualmente, Claude, el modelo de inteligencia artificial desarrollado por Anthropic, es uno de los sistemas más avanzados utilizados por el Departamento de Defensa y el único de este tipo que opera en sistemas clasificados del Pentágono.
En su demanda, la empresa sostiene que las medidas adoptadas en su contra exceden la autoridad legal del Pentágono y vulneran derechos constitucionales.
“La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso”, concluye el documento.