A Microsoft confirmou que as empresas e startups que utilizam a inteligência artificial Claude, da Anthropic, por meio de seus serviços, não perderão o acesso à tecnologia. A garantia surge em um momento de tensão, após o Departamento de Defesa dos Estados Unidos classificar a Anthropic como um "risco na cadeia de suprimentos". A gigante de tecnologia é a primeira a assegurar publicamente a continuidade da oferta, excetuando apenas o uso direto por órgãos de defesa.
O Conflito entre Anthropic e o Pentágono
A designação de risco imposta pelo governo norte-americano ocorreu após a Anthropic se recusar a conceder acesso irrestrito à sua tecnologia para aplicações que a empresa considera inseguras. Entre os usos vetados pela startup estão a vigilância em massa e o desenvolvimento de armas totalmente autônomas. Essa classificação é severa e, geralmente, aplicada apenas a empresas de nações adversárias, limitando drasticamente a atuação da companhia junto a órgãos federais.
Impacto nos Contratos Governamentais
Na prática, a decisão do Pentágono impede que o órgão utilize produtos da Anthropic e exige que qualquer contratada da Defesa certifique que não faz uso desses modelos em seus projetos militares. No entanto, a Microsoft, que possui contratos vastos com o governo — incluindo o Office e serviços de nuvem —, realizou uma análise jurídica detalhada para proteger sua base de clientes comerciais e civis.
Disponibilidade em Plataformas Microsoft
Segundo comunicados da empresa, o Claude permanecerá integrado a ferramentas essenciais de produtividade e desenvolvimento. Importantes keywords como Microsoft 365, GitHub e Microsoft AI Foundry continuam oferecendo suporte aos modelos da Anthropic para o público geral e corporativo. A restrição, portanto, é cirúrgica e não afeta projetos que não possuam vínculo direto com o Departamento de Defesa.
"Nossos advogados estudaram a designação e concluíram que os produtos da Anthropic, incluindo o Claude, podem permanecer disponíveis para nossos clientes — exceto o Departamento de Defesa — e que podemos continuar a trabalhar com a Anthropic em projetos não relacionados à defesa", afirmou um porta-voz da Microsoft.
O CEO da Anthropic, Dario Amodei, também se manifestou, reforçando que a medida não pode limitar o uso do Claude em relações comerciais que não façam parte de contratos específicos com a Defesa. Amodei reiterou que a empresa pretende contestar a designação judicialmente, enquanto observa um crescimento contínuo no uso de sua IA pelo setor consumidor, mesmo diante das pressões governamentais.


Deixe um comentário