Israel depende de sistemas de tomada de decisão baseados em IA para identificar e atingir alvos em Gaza, apesar de uma taxa de imprecisão relatada de 10%.
À medida que a campanha aérea de Israel em Gaza entra no seu sexto mês após os ataques terroristas do Hamas em 7 de Outubro, tem sido descrita por especialistas como uma das campanhas mais implacáveis e mortíferas da história recente. É também um dos primeiros a ser coordenado, em parte, por algoritmos.
A inteligência artificial (IA) está a ser utilizada para ajudar em tudo, desde a identificação e priorização de alvos até à atribuição das armas a serem utilizadas contra esses alvos.
Os comentaristas acadêmicos há muito se concentram no potencial dos algoritmos na guerra para destacar como eles aumentarão a velocidade e a escala dos combates. Mas, como mostram revelações recentes, os algoritmos estão agora a ser utilizados em grande escala e em contextos urbanos densamente povoados.
Isto inclui os conflitos em Gaza e na Ucrânia , mas também no Iémen, no Iraque e na Síria, onde os EUA estão a experimentar algoritmos para atingir potenciais terroristas através do Projecto Maven .
No meio desta aceleração, é crucial analisar cuidadosamente o que realmente significa a utilização da IA na guerra. É importante fazê-lo, não na perspectiva daqueles que estão no poder, mas na perspectiva dos oficiais que o executam e dos civis que sofrem os seus efeitos violentos em Gaza.
Este foco destaca os limites de manter um ser humano informado como uma resposta central e à prova de falhas ao uso da IA na guerra. À medida que a seleção de alvos baseada na IA se torna cada vez mais informatizada, a velocidade da seleção de alvos acelera, a supervisão humana diminui e a escala dos danos civis aumenta.
Velocidade de segmentação
Relatórios das publicações israelitas +927 Magazine e Local Call dão-nos um vislumbre da experiência de 13 responsáveis israelitas que trabalharam com três sistemas de tomada de decisão baseados em IA em Gaza, chamados “Gospel”, “Lavender” e “Where’s Daddy?”.
Estes sistemas são supostamente treinados para reconhecer características que se acredita caracterizarem as pessoas associadas ao braço militar do Hamas. Esses recursos incluem pertencer ao mesmo grupo de WhatsApp de um militante conhecido, trocar de celular a cada poucos meses ou mudar de endereço com frequência.
Os sistemas são então supostamente encarregados de analisar dados recolhidos sobre os 2,3 milhões de residentes de Gaza através de vigilância em massa. Com base nas características pré-determinadas, os sistemas prevêem a probabilidade de uma pessoa ser membro do Hamas (Lavanda), de um edifício abrigar tal pessoa (Evangelho) ou de tal pessoa ter entrado em sua casa (Onde está o papai?).
Nos relatórios investigativos mencionados acima, os agentes de inteligência explicaram como o Gospel os ajudou a passar “de 50 alvos por ano” para “100 alvos num dia” – e que, no seu auge, Lavender conseguiu “gerar 37.000 pessoas como potenciais alvos humanos”. ” Eles também refletiram sobre como o uso da IA reduz o tempo de deliberação: “Eu investiria 20 segundos para cada alvo nesta fase… eu não tinha nenhum valor agregado como ser humano… isso economizou muito tempo”.
Eles justificaram esta falta de supervisão humana à luz de uma verificação manual que as Forças de Defesa de Israel (IDF) realizaram numa amostra de várias centenas de alvos gerados por Lavender nas primeiras semanas do conflito de Gaza, através da qual foi alegadamente estabelecida uma taxa de precisão de 90%. .
Embora os detalhes desta verificação manual provavelmente permaneçam confidenciais, uma taxa de imprecisão de 10% para um sistema usado para tomar 37.000 decisões de vida ou morte resultará inerentemente em realidades devastadoramente destrutivas.
Mas o mais importante é que qualquer número de taxa de precisão que pareça razoavelmente alto torna mais provável que a segmentação algorítmica seja confiável, pois permite que a confiança seja delegada ao sistema de IA. Como disse um oficial das FDI à revista +927: “Devido ao escopo e à magnitude, o protocolo era que, mesmo que você não tivesse certeza de que a máquina estava certa, você sabia que estatisticamente ela estava bem. Então você vai em frente.
A IDF negou estas revelações numa declaração oficial ao The Guardian . Um porta-voz disse que embora as IDF utilizem “ferramentas de gestão de informação […] para ajudar os analistas de inteligência a recolher e analisar de forma otimizada a inteligência, obtida de uma variedade de fontes, não utiliza um sistema de IA que identifique agentes terroristas”.
Desde então, no entanto, o Guardian publicou um vídeo de um alto funcionário da Unidade de Inteligência de elite israelense 8200 falando no ano passado sobre o uso de “pó mágico” de aprendizado de máquina para ajudar a identificar alvos do Hamas em Gaza.
O jornal também confirmou que o comandante da mesma unidade escreveu em 2021, sob um pseudónimo, que tais tecnologias de IA resolveriam o “gargalo humano tanto para a localização dos novos alvos como para a tomada de decisões para aprová-los”.
Escala de danos civis
A IA acelera a velocidade da guerra em termos do número de alvos produzidos e do tempo para decidir sobre eles.
Embora estes sistemas diminuam inerentemente a capacidade dos seres humanos de controlar a validade dos alvos gerados por computador, eles simultaneamente fazem com que estas decisões pareçam mais objectivas e estatisticamente correctas devido ao valor que geralmente atribuímos aos sistemas baseados em computador e aos seus resultados.
Isto permite uma maior normalização da matança dirigida por máquinas, o que equivale a mais violência, e não menos.
Embora os relatos dos meios de comunicação social se concentrem frequentemente no número de vítimas, as contagens de corpos – semelhantes aos alvos gerados por computador – têm a tendência de apresentar as vítimas como objectos que podem ser contados. Isto reforça uma imagem muito estéril da guerra.
Encobre a realidade de mais de 34 mil pessoas mortas, 766 mil feridas e a destruição ou danos a 60% dos edifícios de Gaza e das pessoas deslocadas, a falta de acesso a electricidade, alimentos, água e medicamentos.
Não enfatiza as histórias horríveis de como essas coisas tendem a se agravar. Por exemplo, um civil, Shorouk al-Rantisi , teria sido encontrado sob os escombros após um ataque aéreo no campo de refugiados de Jabalia e teve de esperar 12 dias para ser operado sem analgésicos e agora reside noutro campo de refugiados sem água corrente para cuidar de suas feridas.
Além de aumentar a velocidade de seleção de alvos e, portanto, exacerbar os padrões previsíveis de danos civis na guerra urbana, a guerra algorítmica é susceptível de agravar os danos de formas novas e pouco investigadas. Em primeiro lugar, à medida que os civis fogem das suas casas destruídas, mudam frequentemente de endereço ou dão os seus celulares a entes queridos.
Tal comportamento de sobrevivência corresponde ao que os relatórios sobre Lavender dizem que o sistema de IA foi programado para identificar como provável associação com o Hamas. Estes civis, sem o saberem, tornam-se suspeitos de serem alvos letais.
Além da segmentação, estes sistemas habilitados para IA também informam formas adicionais de violência. Uma história ilustrativa é a do poeta em fuga Mosab Abu Toha , que teria sido preso e torturado num posto de controle militar.
Em última análise, foi relatado pelo New York Times que ele, juntamente com centenas de outros palestinos, foi injustamente identificado como Hamas pelo uso do reconhecimento facial de IA e das fotos do Google pelas IDF.
Para além das mortes, dos feridos e da destruição, estes são os efeitos agravantes da guerra algorítmica. Torna-se uma prisão psíquica onde as pessoas sabem que estão sob vigilância constante, mas não sabem quais “características” comportamentais ou físicas serão acionadas pela máquina.
Do nosso trabalho como analistas da utilização da IA na guerra, é evidente que o nosso foco não deve ser apenas na capacidade técnica dos sistemas de IA ou na figura do humano no circuito como um dispositivo à prova de falhas.
Devemos também considerar a capacidade destes sistemas de alterar as interações humano-máquina-humano, onde aqueles que executam a violência algorítmica estão apenas carimbando o resultado gerado pelo sistema de IA, e aqueles que sofrem a violência são desumanizados de formas sem precedentes.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original .