top of page

IA Militar: o que está acontecendo entre empresas de tecnologia, o Pentágono e a China


Nas últimas semanas, a inteligência artificial deixou de ser apenas tema de inovação empresarial e passou a ocupar o centro de decisões estratégicas militares. Dois movimentos chamaram atenção: o cancelamento de um contrato entre o Pentágono e a empresa Anthropic e, horas depois, a assinatura de um acordo entre o Departamento de Defesa dos Estados Unidos e a OpenAI.


Este texto explica o que ocorreu, quais são as diferenças entre as empresas envolvidas e como isso se conecta à corrida tecnológica entre Estados Unidos e China.


OpenAI x Anthropic
Apropriação de Tecnologias pelos Governos

1. O conflito entre o Pentágono e a Anthropic

Em fevereiro de 2026, o Secretário de Defesa dos EUA, Pete Hegseth, pressionou a Anthropic a remover restrições internas do seu sistema de IA, o Claude, para permitir usos militares mais amplos. A empresa recusou autorizar aplicações como:

  • Vigilância doméstica em massa

  • Uso em armas letais autônomas sem supervisão humana


Após a recusa, o governo cancelou um contrato que poderia chegar a US$ 200 milhões e classificou a empresa como risco à cadeia de suprimentos .

O CEO da Anthropic, Dario Amodei, declarou que a decisão da empresa visava proteger princípios democráticos e evitar o uso irrestrito da tecnologia militar . Veja a entrevista completa: Link Entrevista Dario Amodei.


Esse episódio criou um precedente relevante: o uso de instrumentos legais para pressionar empresas privadas a flexibilizarem limites éticos de suas tecnologias.



2. O acordo da OpenAI com o Departamento de Defesa

Poucas horas após o cancelamento do contrato da Anthropic, a OpenAI assinou um novo acordo com o Pentágono .


O pacto permite o uso de modelos de IA em redes militares classificadas, com foco em:

  • Prototipagem para operações de combate

  • Ciberdefesa

  • Saúde militar

  • Otimização administrativa


O contrato expande um acordo anterior de até US$ 200 milhões firmado em 2025 .

A OpenAI afirmou manter “linhas vermelhas”, como:

  • Proibição de vigilância doméstica em massa

  • Proibição de armas letais totalmente autônomas

  • Obrigatoriedade de humanos no processo decisório de uso da força


A diferença central está no modelo adotado. Enquanto a Anthropic exigia que essas limitações estivessem explícitas no contrato, a OpenAI incorporou salvaguardas técnicas diretamente no software .



3. O que muda na prática

Na prática, o governo dos EUA passa a ter acesso a modelos avançados de IA dentro de redes classificadas, com uso em:

  • Planejamento operacional

  • Análise de dados militares

  • Defesa cibernética

  • Suporte logístico e hospitalar


O debate público gira em torno de duas questões:

  1. Se as salvaguardas técnicas são suficientes para evitar uso indevido.

  2. Se a dependência do governo em relação a empresas privadas aumenta ou reduz o controle democrático sobre tecnologias militares.



4. A corrida entre Estados Unidos e China

O pano de fundo é a disputa estratégica entre EUA e China.

Os Estados Unidos investem em:

  • Drones autônomos

  • Caças com apoio de IA

  • Navegação sem GPS

  • Sistemas de combate assistidos por algoritmos


A China adota um modelo diferente: integração total entre setor privado e Estado, conhecida como “fusão civil-militar”, com dezenas de projetos voltados à aplicação militar de IA .

Há ainda registros de uso de IA em operações cibernéticas altamente automatizadas, o que demonstra que a aplicação ofensiva já não é apenas teórica .


A diferença estrutural é clara:

EUA

China

Parcerias com empresas privadas

Integração direta entre Estado e Big Tech

Debate público sobre limites éticos

Prioridade estratégica sobre restrições

Tentativa de manter humanos no loop

Expansão acelerada de autonomia


5. Os riscos envolvidos

Especialistas alertam para riscos concretos:

  • Sistemas autônomos que tomem decisões de ataque com base em dados incompletos

  • Falhas algorítmicas em cenários de guerra

  • Escalada automática de conflitos sem intervenção humana

  • Uso de IA para microsegmentação de alvos civis


O histórico da corrida nuclear mostra que tecnologias estratégicas tendem a ser centralizadas sob forte controle estatal. O cenário atual sugere um movimento semelhante com a inteligência artificial militar .


6. O dilema das empresas de IA

As empresas enfrentam um impasse:

  • Resistir pode significar perder contratos e influência.

  • Colaborar pode garantir acesso e diálogo, mas abre espaço para flexibilização gradual de limites.


O caso Anthropic vs. OpenAI ilustra dois caminhos possíveis dentro do mesmo ambiente político.


Conclusão

A integração entre inteligência artificial e defesa nacional já está em curso. O cancelamento do contrato da Anthropic e o acordo firmado com a OpenAI marcam um ponto de inflexão.


A disputa entre EUA e China acelera o processo. Ao mesmo tempo, amplia o debate sobre:

  • Controle humano em decisões letais

  • Responsabilidade jurídica por ações algorítmicas

  • Limites éticos em tecnologia de defesa

  • Equilíbrio entre segurança nacional e direitos civis


A IA militar deixou de ser um projeto futuro. Ela já está sendo integrada às estruturas de defesa das principais potências globais. O desafio agora é definir quem controla essas tecnologias, sob quais regras e com quais mecanismos de supervisão.


Versão em PodCast do Assunto: Link PodCast


Quer saber mais sobre as perspectivas e os futuros possíveis da IA, e entender como a ASI pode impactar nosso cenário social e político? Te convido a ler meu livro Governados pela IA, onde exploro todos esses temas.


📘 Disponível na Amazon: https://www.amazon.com/dp/6501409284

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page