A Anthropic, desenvolvedora do modelo de inteligência artificial Claude, iniciou uma batalha jurídica contra o Departamento de Defesa (DOD) dos Estados Unidos. A empresa protocolou processos em tribunais da Califórnia e de Washington, D.C., após ser classificada como um risco para a cadeia de suprimentos. A startup alega que a medida é uma forma de retaliação do governo após a empresa se recusar a permitir o uso irrestrito de sua tecnologia para fins militares e de vigilância.
O Conflito sobre Ética e Autonomia na IA
O impasse central reside nas diretrizes éticas da Anthropic, que estabeleceu limites rígidos: sua tecnologia não deve ser utilizada para vigilância em massa de cidadãos nem para alimentar armas totalmente autônomas que operem sem intervenção humana em decisões de ataque. Por outro lado, o Secretário de Defesa defende que o Pentágono deve ter acesso aos sistemas de IA para qualquer finalidade legal, sem limitações impostas por fornecedores privados.
"A Constituição não permite que o governo use seu enorme poder para punir uma empresa por seu discurso protegido", afirma a petição inicial da Anthropic, referindo-se às suas posições públicas sobre segurança e transparência na IA.
Retaliação Política e Rotulagem de Risco
A designação de "risco à cadeia de suprimentos" é uma ferramenta geralmente aplicada a adversários estrangeiros e impede que agências governamentais utilizem os serviços da empresa. A Anthropic descreve a ação como inconstitucional e ilegal, argumentando que o governo está punindo a empresa por suas opiniões sobre segurança. Líderes do governo chegaram a classificar a startup e seu CEO, Dario Amodei, como "radicais" devido às suas exigências por salvaguardas tecnológicas.
Impactos no Mercado e Contratos Governamentais
Como consequência direta da decisão do Pentágono, o contrato "OneGov" da Anthropic foi rescindido, bloqueando o acesso de todos os ramos do governo federal aos seus modelos de linguagem. A empresa argumenta que o Departamento de Defesa ignorou os procedimentos exigidos pelo Congresso, que incluem notificações formais, avaliações de risco detalhadas e o direito de resposta antes de excluir um fornecedor da cadeia de suprimentos federal.
Defesa da Liberdade de Expressão e Valor Econômico
No processo, a Anthropic sustenta que, embora o Estado não seja obrigado a adquirir seus produtos, ele não pode utilizar o poder estatal para suprimir a expressão da empresa ou destruir seu valor de mercado. A startup busca uma liminar imediata para suspender a designação de risco enquanto o caso tramita, alegando danos irreparáveis aos seus negócios, clientes e parceiros.
"Buscar a revisão judicial não altera nosso compromisso de longa data em aproveitar a IA para proteger a segurança nacional, mas este é um passo necessário para proteger nossos negócios", declarou um porta-voz da companhia. A empresa reitera que continuará buscando o diálogo com o governo, mas defende a necessidade de um debate robusto sobre o papel da IA na guerra e na vigilância global.


Deixe um comentário