A disputa entre a Anthropic e o Departamento de Defesa dos EUA (DOD) ganhou um novo capítulo com o apoio inesperado de mais de 30 funcionários da OpenAI e do Google DeepMind, que contestam a classificação da startup como um ‘risco à cadeia de suprimentos’.
O Conflito Ético e a Retaliação do Pentágono
Recentemente, o Pentágono rotulou a Anthropic, criadora do modelo Claude, como um risco de segurança — uma designação geralmente reservada a adversários estrangeiros. O motivo por trás dessa decisão seria a recusa da empresa em permitir que sua tecnologia fosse utilizada para vigilância em massa de cidadãos americanos ou no acionamento autônomo de armamentos. Em resposta, a Anthropic moveu processos contra o DOD e outras agências federais, alegando que a medida foi uma retaliação por suas políticas de segurança.
Unidade na Indústria de Inteligência Artificial
Um grupo de especialistas do setor, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, protocolou um documento jurídico em apoio à Anthropic. De acordo com o texto do amicus brief:
"A designação do governo de que a Anthropic é um risco para a cadeia de suprimentos foi um uso impróprio e arbitrário de poder que tem sérias ramificações para a nossa indústria."
Os signatários argumentam que, se o Pentágono estivesse insatisfeito com os termos contratuais estabelecidos, deveria simplesmente ter cancelado o acordo e buscado outro fornecedor, em vez de rotular a empresa de forma punitiva.
O Papel da OpenAI no Impasse
Curiosamente, o Departamento de Defesa assinou um contrato com a OpenAI quase simultaneamente à desqualificação da Anthropic. Essa movimentação gerou protestos internos na própria OpenAI, com colaboradores temendo que a ação governamental sirva para silenciar debates sobre os riscos e benefícios dos sistemas de IA atuais. Para esses profissionais, punir uma das principais empresas de IA por estabelecer limites éticos prejudica diretamente a competitividade científica e industrial dos Estados Unidos.
A Importância das Salvaguardas Contratuais
Na ausência de leis públicas abrangentes para governar o uso da inteligência artificial, o documento afirma que as restrições técnicas e contratuais impostas pelos desenvolvedores são a única defesa crítica contra o uso indevido catastrófico. A tentativa de remover essas barreiras unilateralmente é vista como um precedente perigoso que pode inibir a transparência e a segurança no desenvolvimento tecnológico global.
Pressão por Mudanças na Defesa
Além do apoio jurídico, muitos dos funcionários envolvidos têm assinado cartas abertas instando o DOD a retirar o rótulo de risco. Eles também apelam às lideranças de suas próprias empresas para que apoiem a postura da Anthropic e se recusem a permitir o uso irrestrito de seus sistemas de IA para fins militares que violem princípios éticos fundamentais. O caso agora segue nos tribunais, representando um marco na tensão entre segurança nacional e ética tecnológica.


Deixe um comentário