Funcionários do Departamento de Defesa dos Estados Unidos, ex-servidores e contratados de TI que atuam junto às Forças Armadas afirmam que não querem abrir mão das ferramentas de inteligência artificial (IA) da Anthropic, que consideram superiores às alternativas disponíveis. Isso ocorre mesmo depois de o secretário de Defesa, Pete Hegseth, ter classificado a empresa como um risco à cadeia de suprimentos no início de março, proibindo seu uso no Pentágono e entre contratados após um prazo de seis meses. A decisão surgiu de um desentendimento entre a Anthropic e o Departamento de Defesa sobre os limites de uso das ferramentas de IA militares. Apesar da ordem formal, parte do pessoal está descumprindo o prazo de transição, e alguns já planejam retomar o uso da plataforma caso o impasse seja resolvido. O movimento indica que a retirada do Claude das redes militares será um processo lento e custoso. Pete Hegseth, secretário de Defesa dos Estados Unidos, classificou o Claude como risco à cadeia de suprimentos militares (Imagem: Joshua Sukoff / Shutterstock.com) Profissionais de TI frustrados com a ordem A resistência interna é palpável. As pessoas de carreira em TI no Departamento de Defesa odeiam essa decisão porque finalmente tinham conseguido que os operadores se sentissem confortáveis usando IA , afirmou um contratado ouvido pela Reuters, que disse considerar o modelo Claude o melhor , enquanto o Grok, da xAI, frequentemente apresentava respostas inconsistentes para uma mesma consulta. As ferramentas de IA tornaram-se essenciais para as Forças Armadas dos EUA, sendo usadas em tarefas que vão desde o direcionamento de armamentos e planejamento de operações até o manuseio de material classificado e a análise de informações. A Anthropic firmou um contrato de US$ 200 milhões com o Departamento de Defesa em julho de 2025 e se integrou rapidamente ao fluxo de trabalho militar. O Claude foi o primeiro modelo de IA aprovado para operar em redes militares classificadas, e seu
📰 Source: Olhar Digital