Dois caças da Força Aérea recentemente se enfrentaram em um combate aéreo na Califórnia. Um foi pilotado por um piloto humano. O outro, por inteligência artificial.
Esse segundo jato foi controlado por IA, com o secretário da Força Aérea, Frank Kendall, no assento dianteiro. Foi uma demonstração de como a Força Aérea avançou no desenvolvimento de uma tecnologia com raízes na década de 1950. Mas é apenas um vislumbre do que está por vir.
Os Estados Unidos estão competindo para se manter à frente da China no uso de IA em sistemas de armas. O foco na IA gerou preocupação pública de que futuras guerras serão travadas por máquinas que selecionam e atacam alvos sem intervenção humana direta. Oficiais dizem que isso nunca acontecerá, pelo menos do lado dos EUA. Mas há dúvidas sobre o que um potencial adversário permitiria, e os militares veem a necessidade de desenvolver rapidamente as capacidades dos EUA.
“O futuro campo de batalha”, disse o almirante Christopher Grady, vice-presidente do Estado-Maior Conjunto. “A China está trabalhando nisso tão arduamente quanto nós.”
A IA no setor militar é uma combinação de aprendizado de máquina e autonomia. O aprendizado de máquina ocorre quando um computador analisa dados e conjuntos de regras para chegar a conclusões. A autonomia ocorre quando essas conclusões são aplicadas para tomar ações sem intervenção humana adicional.
A IA deu um grande passo em 2012, quando a combinação de big data e poder de computação avançados permitiu que computadores começassem a analisar informações e escrever conjuntos de regras por conta própria. Esse novo dado criado por um computador escrevendo as regras é a inteligência artificial. Sistemas podem ser programados para agir de forma autônoma a partir das conclusões alcançadas a partir de regras escritas por máquinas, o que é uma forma de autonomia habilitada por IA.
O secretário da Força Aérea, Frank Kendall, teve uma amostra dessa guerra avançada quando voou no Vista, o primeiro caça F-16 controlado por IA, em um exercício de combate aéreo na Base Aérea de Edwards, na Califórnia. Enquanto esse jato é o sinal mais visível do trabalho de IA em andamento, há centenas de projetos de IA em andamento no Pentágono.
No MIT, membros das forças armadas trabalharam para limpar milhares de horas de conversas gravadas de pilotos para criar um conjunto de dados a partir do fluxo de mensagens trocadas entre tripulações e centros de operações aéreas durante voos, para que a IA pudesse aprender a diferença entre mensagens críticas, como o fechamento de uma pista, e conversas rotineiras do cockpit. O objetivo era que a IA aprendesse quais mensagens são críticas para elevar e garantir que os controladores as vejam mais rapidamente.
Em outro projeto significativo, os militares estão trabalhando em uma alternativa de IA à navegação dependente de satélites GPS. Em uma guerra futura, satélites GPS de alto valor provavelmente seriam atingidos ou interferidos. A perda do GPS poderia cegar os sistemas de comunicação, navegação e bancários dos EUA e tornar a frota de aeronaves e navios de guerra dos EUA menos capazes de coordenar uma resposta.
No ano passado, a Força Aérea voou com um programa de IA — carregado em um laptop que foi amarrado ao chão de um avião de carga militar C-17 — para trabalhar em uma solução alternativa usando os campos magnéticos da Terra. Foi conhecido que aeronaves poderiam navegar seguindo os campos magnéticos da Terra, mas até agora isso não era prático porque cada aeronave gera tanto ruído eletromagnético próprio que não havia uma maneira boa de filtrar apenas as emissões da Terra.
“Magnetômetros são muito sensíveis”, disse o coronel Garry Floyd, diretor do programa Acelerador de Inteligência Artificial do Departamento da Força Aérea-MIT. “Se você ligar as luzes estroboscópicas de um C-17, nós veríamos isso.”
A IA aprendeu durante os voos e os muitos dados quais sinais ignorar e quais seguir, e os resultados “foram muito, muito impressionantes”, disse Floyd. “Estamos falando de qualidade de lançamento tático.”
“Acreditamos que podemos ter adicionado uma flecha ao arco nas coisas que podemos fazer, caso acabemos operando em um ambiente negado de GPS. E nós o faremos”, disse Floyd.
Até agora, a IA foi testada apenas no C-17. Outras aeronaves também serão testadas, e se funcionar, isso poderá dar aos militares outra maneira de operar se o GPS falhar.
O Vista, o F-16 controlado por IA, tem consideráveis medidas de segurança enquanto a Força Aérea o treina. Existem limites mecânicos que impedem que a IA em aprendizado execute manobras que colocariam o avião em perigo. Há também um piloto de segurança, que pode assumir o controle da IA com o apertar de um botão.
O algoritmo não pode aprender durante um voo, então cada vez que voa tem apenas os dados e conjuntos de regras que criou a partir de voos anteriores. Quando um novo voo termina, o algoritmo é transferido de volta para um simulador, onde é alimentado com novos dados coletados em voo para aprender, criar novos conjuntos de regras e melhorar seu desempenho.
Mas a IA está aprendendo rapidamente. Devido à velocidade de supercomputação que a IA usa para analisar dados e depois voar com esses novos conjuntos de regras no simulador, seu ritmo em encontrar a maneira mais eficiente de voar e manobrar já levou a derrotar alguns pilotos humanos em exercícios de combate aéreo.
Mas a segurança ainda é uma preocupação crítica, e os oficiais disseram que a maneira mais importante de levar a segurança em consideração é controlar quais dados são reinseridos no simulador para a IA aprender. No caso do jato, é garantir que os dados reflitam um voo seguro. No final, a Força Aérea espera que uma versão da IA em desenvolvimento possa servir como o cérebro para uma frota de 1.000 aviões de guerra não tripulados em desenvolvimento pela General Atomics e Anduril.
No experimento de treinamento de IA sobre como os pilotos se comunicam, os membros do serviço designados ao MIT limparam as gravações para remover informações classificadas e a linguagem às vezes pesada dos pilotos.
Aprender como os pilotos se comunicam é “um reflexo do comando e controle, de como os pilotos pensam. As máquinas precisam entender isso também se quiserem ficar realmente boas”, disse Grady, vice-presidente do Estado-Maior Conjunto. “Eles não precisam aprender a xingar.”
As informações são do South China Morning Post.
Nenhum comentário ainda, seja o primeiro!