IA na guerra: como a inteligência artificial está mudando o campo de batalha

Robôs assassinos ou ajudantes de IA: sobre inteligência artificial na guerra e como ela está mudando a guerra.

Existem quatro áreas de aplicação principais para a tecnologia de IA nas forças armadas: logística, reconhecimento, ciberespaço e guerra.

Nas três primeiras áreas, aplicativos avançados de IA já estão em uso ou sendo testados. A IA está ajudando a otimizar as cadeias logísticas, prever a manutenção necessária, encontrar vulnerabilidades no software e combinar grandes quantidades de dados em informações acionáveis.

A inteligência artificial já está, portanto, tendo um impacto nas operações militares. Mas a luta em si ainda é realizada principalmente por humanos.

A terceira revolução na guerra

Um prenúncio da guerra assistida por IA é o número crescente de drones pilotados remotamente em zonas de conflito em todo o mundo: entre 2009 e 2017, o número de soldados americanos em combate diminuiu em 90 por cento e a número de ataques de drones dos EUA aumentou dez vezes . Hoje, drones americanos, russos, israelenses, chineses, iranianos e turcos estão realizando ataques no Oriente Médio, continente africano, sudeste da Ásia e Europa.

Drones totalmente autônomos que identificam e atacam de forma autônoma seus alvos são uma possibilidade realista e de acordo com um relatório da ONU eles já podem ter sido implantados.

Esses sistemas são um exemplo de sistemas letais de armas autônomas (“LEIS”). Existem esforços internacionais para regulá-los fortemente ou bani-los completamente. No entanto, porque eles podem fazer ou quebrar uma guerra, as principais potências militares em particular relutam em bani-los.

Armas autônomas são consideradas a terceira revolução na guerra após a invenção da bomba atômica e da pólvora. Eles têm a mesma capacidade de alterar o equilíbrio de poder.

Abandonar o uso de tecnologia avançada de IA em sistemas de armas é como abandonar a eletricidade e os motores de combustão interna, diz Paul Scharre, ex-soldado, consultor do Departamento de Defesa dos EUA e autor de “Army of None: Autonomous Weapons and the Future of Guerra”.

IA na guerra: autonomia em três estágios e munições vadias

Nem todos os sistemas de armas autônomos são robôs assassinos distópicos. A autonomia dos sistemas de armas pode ser dividida em três níveis:

  • Sistemas de armas semi-autônomos (humano no circuito)
  • Sistemas de armas autônomos supervisionados por humanos (humano no loop)
  • Sistemas de armas totalmente autônomos (humano fora do circuito)

Um exemplo de sistemas de armas semi-autônomos são mísseis “dispare e esqueça” que atacam independentemente um alvo previamente designado após serem disparados por um humano. Isso permite que os pilotos ataquem vários alvos em rápida sucessão. Os mísseis são usados ​​por militares em todo o mundo para atingir alvos aéreos e terrestres.

Sistemas de armas autônomos monitorados por humanos têm sido tradicionalmente mais defensivos por natureza e são usados ​​sempre que o tempo de reação humana não consegue acompanhar a velocidade da batalha.

Uma vez ativados por um humano, eles atacam os alvos independentemente – mas sob constante supervisão humana. Os exemplos incluem o sistema de combate Aegis usado em navios da Marinha, que ataca independentemente mísseis, helicópteros e aeronaves uma vez ativados, ou os sistemas de defesa antimísseis Patriot e Iron Dome. Mais de 30 países já estão usando esses sistemas, diz Scharre.

Mas isso mudou com o desenvolvimento de um nova classe de armas chamada “munições de vadiagem”. Esses drones aéreos carregados com ogivas têm capacidades autônomas e são programados por um ser humano para atacar alvos específicos. Este ataque pode ser abortado pelo humano. Eles podem fornecer apoio aéreo às tropas sem colocar em risco aviões de combate ou helicópteros.

Tais drones obscurecer a linha entre sistemas de armas supervisionados e totalmente autônomos e estão em uso há pelo menos uma década. Os sistemas amplamente utilizados incluem o Harop israelense, o Switchblade americano, o Lancet russo e o Shahed iraniano, por exemplo. Seu impacto recente nos confrontos Armênia-Azerbaijão e na guerra da Ucrânia levou alguns especialistas militares a ver o grau de autonomia possibilitado pelas tecnologias modernas como parte da dissuasão.

Por exemplo, o almirante Lee Hsi-ming, ex-chefe do estado-maior taiwanês, ex-vice-ministro da defesa nacional e comandante da marinha taiwanesa, vê munições ociosas como elementar para a capacidade militar de Taiwan para dissuadir uma possível guerra de conquista chinesa.

O estado das máquinas de guerra autônomas

Nenhum militar opera oficialmente sistemas de armas totalmente autônomos Até a presente data. Uma guerra totalmente autônoma é (ainda) apenas uma distopia da guerra assistida por IA.

Do ponto de vista técnico, o fato de tais sistemas ainda não estarem sendo amplamente implantados tem um motivo principal: a tecnologia de IA necessária ainda não existe. O boom do aprendizado de máquina na última década produziu inúmeros avanços na pesquisa de IA, mas os sistemas de IA atuais não são adequados para uso militar profissional.

Em teoria, eles prometem precisão, confiabilidade e resposta de alta velocidade. Mas, na prática, eles ainda falhar devido à complexidade do mundo real.

Os sistemas de IA atuais muitas vezes não entendem o contexto, não conseguem lidar de forma confiável com as mudanças nas circunstâncias, são vulneráveis ​​a ataques e certamente não são adequados para tomar decisões éticas de vida ou morte. Pelas mesmas razões, apesar dos investimentos maciços e das grandes promessas, os carros autônomos ainda não circulam amplamente em nossas estradas.

Embora a OTAN e os EUA tenham expressado apoio ao desenvolvimento e implantação de sistemas de armas autônomos, eles não querem ir além dos sistemas de armas autônomos supervisionados – os humanos devem permanecer no controle, o que também requer sistemas de IA confiáveis. O braço de pesquisa das forças armadas dos EUA, DARPA, está financiando bilhões de dólares em desenvolvimentos relacionados.

Mas o que exatamente é controle? Nem sempre está claro onde exatamente a linha é traçada – é suficiente para um humano lançar um sistema de armas que então mata por conta própria? Ele precisa ser capaz de desligá-lo novamente? E as situações em que a velocidade de tomada de decisão humana não é mais suficiente?

Cooperação homem-máquina no ar

Atualmente, o foco das empresas militares e de defesa está principalmente na fusão de vários dados de sensores e no desenvolvimento de sistemas que cooperam com humanos. O foco dos militares dos EUA é a assistência cognitiva na guerra conjunta, disse o ex-chefe do JAIC Nan Mulchandani em 2020.

Alguns desses sistemas são projetados para voar, dirigir ou mergulhar, coletar informações, atacar alvos designados por conta própria ou entregar suprimentos. Mas eles sempre obtêm suas missões, alvos e autorizações de um humano.

A Força Aérea dos EUA, por exemplo, testou variantes do Kratos’ XQ-58A como parte do Programa Skyborg. Os drones furtivos devem ser baratos e voar ao lado de um piloto humano, recebendo ordens dele enquanto fornecem uma plataforma de apoio de reconhecimento e armas. O programa está classificado desde 2021, mas até um espera-se que dezenas dos drones estejam operacionais até a primavera de 2023 . Enquanto isso, a Marinha dos EUA está desenvolvendo aviões-tanque autônomos baseados no drone MQ-25A Stingray.

A Boeing também desenvolveu um drone Loyal Wingman e o está vendendo para a Força Aérea Australiana (RUAF). A Força Aérea Russa, por outro lado, conta com a maior S-70 Okhotnik drone, e a Força Aérea Chinesa aposta no FH-97A .

Em combate, esses drones devem ser controlados por um piloto humano de um Next-Generation Fighter (NGF). Ele, por sua vez, será apoiado a bordo por um co-piloto de IA . Isso reduz as latências na comunicação.

Na Europa, o desenvolvimento de um drone autônomo como transportador controlado remotamente (RC) está planejado no programa Next Generation Weapon System (NGWS) do programa NGF da França, Alemanha e Espanha. Um segundo programa na Europa chama-se Tempest e é financiado pela Inglaterra, Itália e Japão.

Drones AI na água e na terra

Também se espera que os drones ajudem os humanos na água: exemplos incluem embarcações semi-autônomas, como o contratorpedeiro da Marinha dos EUA. Caçador Marinho da Boeing submarino orca e os simples drones ucranianos atacando a Frota do Mar Negro da Marinha Russa .

Para uso no solo, os empreiteiros de defesa estão desenvolvendo várias armas, como o drone de combate Ripsaw M5, projetado para acompanhar os tanques do Exército dos EUA, e o tanque russo Uranium-9, que já foi usado – sem dúvida ineficazmente – Na Síria. A infantaria dos EUA está operando com minúsculos drones de reconhecimento com câmeras de imagem térmica, e a Força Aérea dos EUA está testando o cão robótico semi-autônomo da Ghost Robotics.

US-Soldat mit Black Hornet Drohne

A Guerra da Ucrânia também demonstra o papel central do reconhecimento por drone e da comunicação entre o operador do drone, a artilharia e a infantaria. A precisão obtida desta forma permitiu que a Ucrânia detivesse efetivamente o avanço russo.

O reconhecimento de voo baixo e de baixo custo ainda é feito por olhos humanos, mas A Ucrânia está treinando redes neurais com as imagens disponíveis , de acordo com um comandante de drone ucraniano. Isso permite que os drones detectem automaticamente soldados e veículos russos e acelerem drasticamente o Circuito OODA (Observar, Orientar, Decidir, Agir).

Inteligência artificial no ciberespaço e conflitos futuros

Longe da guerra do mundo real, A IA está sendo cada vez mais usada no ciberespaço. Lá, ele pode ajudar a detectar malware ou identificar padrões em ataques cibernéticos em infraestruturas críticas.

No final de 2022, a OTAN testou a IA para defesa cibernética: seis equipes foram encarregadas de configurar sistemas de computador e redes elétricas em uma base militar fictícia e mantê-los funcionando durante um ataque cibernético simulado.

Três das equipes tiveram acesso a um protótipo de Agente de Ciberdefesa de Inteligência Autônoma (AICA) desenvolvido pelo Laboratório Nacional Argonne do Departamento de Energia dos Estados Unidos. O teste mostrou que o AICA ajudou a entender e proteger melhor as relações entre padrões de ataque, tráfego de rede e sistemas de destino, de acordo com especialista em cibersegurança Benjamin Blakely que co-liderou o experimento.

Quer se trate de segurança cibernética, assistência cognitiva, fusão de sensores, munições vadias ou cães robóticos armados, a inteligência artificial já está mudando o campo de batalha. Os efeitos aumentarão nos próximos anos, à medida que os avanços na robótica, no desenvolvimento de modelos mundiais ou na ciência de materiais e técnicas de fabricação com base em IA permitirem novos sistemas de armas.

As LAWS provavelmente também farão parte desse futuro, pelo menos é o que diz uma proposta regulatória intitulada “Princípios e Boas Práticas sobre Tecnologias Emergentes na Área de Sistemas de Armas Autônomas Letais” (download ) sugere. Foi submetido à ONU em março de 2022 pela Austrália, Canadá, Japão, República da Coreia, Reino Unido e Estados Unidos.

Artigos relacionados