Funcionários da OpenAI e Google se unem contra o Pentágono em defesa da Anthropic

A disputa entre a Anthropic e o Departamento de Defesa dos EUA (DOD) ganhou um novo capítulo com o apoio inesperado de mais de 30 funcionários da OpenAI e do Google DeepMind, que contestam a classificação da startup como um ‘risco à cadeia de suprimentos’.

O Conflito Ético e a Retaliação do Pentágono

Recentemente, o Pentágono rotulou a Anthropic, criadora do modelo Claude, como um risco de segurança — uma designação geralmente reservada a adversários estrangeiros. O motivo por trás dessa decisão seria a recusa da empresa em permitir que sua tecnologia fosse utilizada para vigilância em massa de cidadãos americanos ou no acionamento autônomo de armamentos. Em resposta, a Anthropic moveu processos contra o DOD e outras agências federais, alegando que a medida foi uma retaliação por suas políticas de segurança.

Unidade na Indústria de Inteligência Artificial

Um grupo de especialistas do setor, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, protocolou um documento jurídico em apoio à Anthropic. De acordo com o texto do amicus brief:

"A designação do governo de que a Anthropic é um risco para a cadeia de suprimentos foi um uso impróprio e arbitrário de poder que tem sérias ramificações para a nossa indústria."

Os signatários argumentam que, se o Pentágono estivesse insatisfeito com os termos contratuais estabelecidos, deveria simplesmente ter cancelado o acordo e buscado outro fornecedor, em vez de rotular a empresa de forma punitiva.

O Papel da OpenAI no Impasse

Curiosamente, o Departamento de Defesa assinou um contrato com a OpenAI quase simultaneamente à desqualificação da Anthropic. Essa movimentação gerou protestos internos na própria OpenAI, com colaboradores temendo que a ação governamental sirva para silenciar debates sobre os riscos e benefícios dos sistemas de IA atuais. Para esses profissionais, punir uma das principais empresas de IA por estabelecer limites éticos prejudica diretamente a competitividade científica e industrial dos Estados Unidos.

A Importância das Salvaguardas Contratuais

Na ausência de leis públicas abrangentes para governar o uso da inteligência artificial, o documento afirma que as restrições técnicas e contratuais impostas pelos desenvolvedores são a única defesa crítica contra o uso indevido catastrófico. A tentativa de remover essas barreiras unilateralmente é vista como um precedente perigoso que pode inibir a transparência e a segurança no desenvolvimento tecnológico global.

Pressão por Mudanças na Defesa

Além do apoio jurídico, muitos dos funcionários envolvidos têm assinado cartas abertas instando o DOD a retirar o rótulo de risco. Eles também apelam às lideranças de suas próprias empresas para que apoiem a postura da Anthropic e se recusem a permitir o uso irrestrito de seus sistemas de IA para fins militares que violem princípios éticos fundamentais. O caso agora segue nos tribunais, representando um marco na tensão entre segurança nacional e ética tecnológica.

Cadastre seu e-mail para receber nossas notícias

Não fazemos spam! Leia nossa política de privacidade para mais informações.



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *