IA Militar: o que está acontecendo entre empresas de tecnologia, o Pentágono e a China
- Leonardo R. Cordeiro

- 1 de mar.
- 4 min de leitura
Nas últimas semanas, a inteligência artificial deixou de ser apenas tema de inovação empresarial e passou a ocupar o centro de decisões estratégicas militares. Dois movimentos chamaram atenção: o cancelamento de um contrato entre o Pentágono e a empresa Anthropic e, horas depois, a assinatura de um acordo entre o Departamento de Defesa dos Estados Unidos e a OpenAI.
Este texto explica o que ocorreu, quais são as diferenças entre as empresas envolvidas e como isso se conecta à corrida tecnológica entre Estados Unidos e China.

1. O conflito entre o Pentágono e a Anthropic
Em fevereiro de 2026, o Secretário de Defesa dos EUA, Pete Hegseth, pressionou a Anthropic a remover restrições internas do seu sistema de IA, o Claude, para permitir usos militares mais amplos. A empresa recusou autorizar aplicações como:
Vigilância doméstica em massa
Uso em armas letais autônomas sem supervisão humana
Após a recusa, o governo cancelou um contrato que poderia chegar a US$ 200 milhões e classificou a empresa como risco à cadeia de suprimentos .
O CEO da Anthropic, Dario Amodei, declarou que a decisão da empresa visava proteger princípios democráticos e evitar o uso irrestrito da tecnologia militar . Veja a entrevista completa: Link Entrevista Dario Amodei.
Esse episódio criou um precedente relevante: o uso de instrumentos legais para pressionar empresas privadas a flexibilizarem limites éticos de suas tecnologias.
2. O acordo da OpenAI com o Departamento de Defesa
Poucas horas após o cancelamento do contrato da Anthropic, a OpenAI assinou um novo acordo com o Pentágono .
O pacto permite o uso de modelos de IA em redes militares classificadas, com foco em:
Prototipagem para operações de combate
Ciberdefesa
Saúde militar
Otimização administrativa
O contrato expande um acordo anterior de até US$ 200 milhões firmado em 2025 .
A OpenAI afirmou manter “linhas vermelhas”, como:
Proibição de vigilância doméstica em massa
Proibição de armas letais totalmente autônomas
Obrigatoriedade de humanos no processo decisório de uso da força
A diferença central está no modelo adotado. Enquanto a Anthropic exigia que essas limitações estivessem explícitas no contrato, a OpenAI incorporou salvaguardas técnicas diretamente no software .
3. O que muda na prática
Na prática, o governo dos EUA passa a ter acesso a modelos avançados de IA dentro de redes classificadas, com uso em:
Planejamento operacional
Análise de dados militares
Defesa cibernética
Suporte logístico e hospitalar
O debate público gira em torno de duas questões:
Se as salvaguardas técnicas são suficientes para evitar uso indevido.
Se a dependência do governo em relação a empresas privadas aumenta ou reduz o controle democrático sobre tecnologias militares.
4. A corrida entre Estados Unidos e China
O pano de fundo é a disputa estratégica entre EUA e China.
Os Estados Unidos investem em:
Drones autônomos
Caças com apoio de IA
Navegação sem GPS
Sistemas de combate assistidos por algoritmos
A China adota um modelo diferente: integração total entre setor privado e Estado, conhecida como “fusão civil-militar”, com dezenas de projetos voltados à aplicação militar de IA .
Há ainda registros de uso de IA em operações cibernéticas altamente automatizadas, o que demonstra que a aplicação ofensiva já não é apenas teórica .
A diferença estrutural é clara:
EUA | China |
Parcerias com empresas privadas | Integração direta entre Estado e Big Tech |
Debate público sobre limites éticos | Prioridade estratégica sobre restrições |
Tentativa de manter humanos no loop | Expansão acelerada de autonomia |
5. Os riscos envolvidos
Especialistas alertam para riscos concretos:
Sistemas autônomos que tomem decisões de ataque com base em dados incompletos
Falhas algorítmicas em cenários de guerra
Escalada automática de conflitos sem intervenção humana
Uso de IA para microsegmentação de alvos civis
O histórico da corrida nuclear mostra que tecnologias estratégicas tendem a ser centralizadas sob forte controle estatal. O cenário atual sugere um movimento semelhante com a inteligência artificial militar .
6. O dilema das empresas de IA
As empresas enfrentam um impasse:
Resistir pode significar perder contratos e influência.
Colaborar pode garantir acesso e diálogo, mas abre espaço para flexibilização gradual de limites.
O caso Anthropic vs. OpenAI ilustra dois caminhos possíveis dentro do mesmo ambiente político.
Conclusão
A integração entre inteligência artificial e defesa nacional já está em curso. O cancelamento do contrato da Anthropic e o acordo firmado com a OpenAI marcam um ponto de inflexão.
A disputa entre EUA e China acelera o processo. Ao mesmo tempo, amplia o debate sobre:
Controle humano em decisões letais
Responsabilidade jurídica por ações algorítmicas
Limites éticos em tecnologia de defesa
Equilíbrio entre segurança nacional e direitos civis
A IA militar deixou de ser um projeto futuro. Ela já está sendo integrada às estruturas de defesa das principais potências globais. O desafio agora é definir quem controla essas tecnologias, sob quais regras e com quais mecanismos de supervisão.
Versão em PodCast do Assunto: Link PodCast
Quer saber mais sobre as perspectivas e os futuros possíveis da IA, e entender como a ASI pode impactar nosso cenário social e político? Te convido a ler meu livro Governados pela IA, onde exploro todos esses temas.
📘 Disponível na Amazon: https://www.amazon.com/dp/6501409284


Comentários