Contrato militar acende debate sobre limites éticos da IA generativa
OpenAI – Após fechar um acordo recente com o Departamento de Defesa dos EUA, a desenvolvedora do ChatGPT se prepara para inserir seus modelos em cenários classificados, inclusive no conflito em torno do Irã.
- Em resumo: Modelos da OpenAI podem priorizar alvos, reforçar defesas antidrones e automatizar burocracia militar.
IA decide quem atacar primeiro?
Fontes ligadas ao Pentágono descrevem um workflow no qual analistas enviam listas de possíveis alvos ao modelo, que cruza dados logísticos, imagens e vídeos para sugerir a ordem de ataque. Em tese, um oficial humano revisa o resultado, mas o ritmo operacional tende a acelerar – algo que especialistas da MIT Technology Review classificam como “o primeiro grande teste em combate” para a IA generativa.
“A questão não é mais se a IA participará da decisão de fogo, mas quão perto ela ficará do gatilho”, alertou um oficial de defesa ouvido sob condição de anonimato.
Drones, Lattice e a força da Anduril
Além do mapeamento de alvos, a parceria com a Anduril abre espaço para que os modelos da OpenAI interpretem em tempo real feeds de sensores, identifiquem ameaças aéreas e orientem o sistema Lattice – plataforma que já controla mísseis, submarinos autônomos e, agora, pode integrar chatbots militares. O contrato de US$ 20 bilhões assinado pela Anduril na última semana indica a escala dessa integração.
Para analistas de mercado, o movimento também dá à OpenAI uma nova fonte de receita em meio ao alto custo de treinar grandes modelos (estimado em US$ 700 milhões somente em GPUs NVIDIA H100, segundo cálculos do Morgan Stanley). Em contrapartida, cresce a pressão interna: funcionários preocupados com usos bélicos pedem linhas vermelhas claras sobre armas autônomas e vigilância.
GenAI.mil: IA também na retaguarda
No back-office, o Pentágono já disponibiliza a plataforma GenAI.mil, que incorpora Gemini, Grok e, em breve, o ChatGPT para redigir contratos, relatórios de suprimentos e até estudos de impacto ambiental. Embora essas tarefas pareçam inofensivas, elas reforçam a “adoção total” defendida pelo secretário de Defesa Pete Hegseth, criando familiaridade com a tecnologia em todos os níveis das Forças Armadas.
O que você acha? O avanço da IA generativa no campo de batalha deve ter limites mais rígidos ou é um passo inevitável? Para acompanhar outras análises sobre inteligência artificial, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / OpenAI