Embate sobre uso militar de IA se intensifica em Washington
Anthropic voltou ao centro das atenções após a Justiça da Califórnia suspender, na última semana, sanções do governo norte-americano que limitavam a empresa por restringir o uso bélico de seu assistente de IA, o Claude.
- Em resumo: Departamento de Justiça tem até 30 de abril para recorrer e restabelecer o veto ao posicionamento pacifista da startup.
Pentágono fala em “vergonha” e alerta para impacto tático
O subsecretário de Guerra, Emir Michael, classificou a liminar como “vergonhosa” e alegou que ela compromete a capacidade operacional dos EUA. Segundo reportagem da The Verge, o Claude já auxilia analistas a identificar alvos e projetar cenários, inclusive em ofensivas recentes contra o Irã.
“Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como adversária por discordar do governo”, escreveu a juíza Rita Lin ao congelar as punições.
Histórico de tensão entre Big Tech e Defesa
Desde o protesto de funcionários do Google contra o Projeto Maven, em 2018, empresas de tecnologia vêm endurecendo cláusulas que proíbem o uso de IA em armamentos autônomos ou vigilância em massa. A Anthropic, fundada por ex-pesquisadores da OpenAI, inclui essas restrições em seus contratos — movimento que ganha força à luz do recém-aprovado AI Act europeu e da pressão de investidores por responsabilidade socioambiental.
O que você acha? Startups devem ceder às demandas militares ou manter limites éticos? Para mais análises sobre inovação e defesa, acesse nossa editoria de tecnologia.
Crédito da imagem: Divulgação / Reuters