Anthropic é classificada como 'risco' pelo Departamento de Defesa e pode perder contratos militares
A Anthropic foi classificada pelo Departamento de Defesa como "risco para a cadeia de abastecimento" após se recusar a permitir o uso de seu modelo de IA em vigilância em massa ou armas autônomas letais. A empresa argumenta que essa medida é ilegal e inédita para uma empresa americana, violando seus direitos constitucionais. A decisão pode afetar diretamente os negócios da Anthropic e abrirá um debate sobre o uso militar de sistemas de inteligência artificial
:format(jpg)/f.elconfidencial.com%2Foriginal%2F750%2F43e%2F570%2F75043e5706c5d22bd0e41ce53745752b.jpg)
A Anthropic, empresa americana líder em inteligência artificial (IA), enfrenta um dos maiores desafios da sua história após ser classificada pelo Departamento de Defesa como "risco para a cadeia de abastecimento". A medida pode impedir que a empresa obtenha contratos e projetos militares, afetando diretamente seus negócios.
A disputa começou quando a Anthropic se recusou a permitir o uso do seu modelo de IA, Claude, em vigilância em massa ou armas autônomas letais. Em resposta ao conflito com o Pentágono, os militares decidiram classificar a empresa como um risco para a cadeia de abastecimento, uma medida normalmente reservada a empresas estrangeiras consideradas ameaças à segurança nacional.
A Anthropic argumenta que essa classificação é ilegal e inédita para uma empresa americana. Além disso, os executivos da companhia afirmam que a decisão do governo viola seus direitos constitucionais ao punir sua postura sobre o uso ético da IA.
O caso abriu uma nova frente no debate sobre até que ponto as empresas de tecnologia podem impor limites ao uso militar de suas sistemas de inteligência artificial. O Pentágono, por outro lado, defende que não pode permitir que um fornecedor de tecnologia limite o uso de capacidades consideradas críticas para as forças armadas.
A decisão também tem importantes consequências econômicas para a Anthropic, pois corre risco de perder contratos governamentais de milhões de dólares. Além disso, outros fornecedores que trabalham com o governo podem buscar alternativas tecnológicas.
Nesse cenário complexo, a OpenAI tentou ocupar o lugar da Anthropic ao assinar um acordo para oferecer sua tecnologia ao Pentágono. No entanto, essa decisão não será gratuita e pode ter implicações éticas próprias. Caitlin Kalinowski, responsável por hardware e robótica da OpenAI, renunciou recentemente após o polêmico acordo.
Kalinowski explicou que sua saída se deve a motivos éticos. Ela reconheceu que a IA tem um papel importante na segurança nacional mas afirmou que questões como vigilância de cidadãos sem supervisão judicial ou uso de sistemas autônomos letais exigem mais reflexão.
Essas tensões entre as empresas de tecnologia e o governo americano abrem uma discussão sobre os limites do uso militar da inteligência artificial. Enquanto a Anthropic busca revogar sua classificação como "risco para a cadeia de abastecimento", outros atores estão observando com interesse, sabendo que as consequências dessa disputa podem ser significativas não apenas para a empresa envolvida mas também para o futuro do setor.