Dois meios de comunicação israelenses relatam o uso pelos militares israelenses de um sistema assistido por IA chamado Lavender para identificar alvos em Gaza.
A alegada utilização pelos militares israelitas de uma base de dados alimentada por inteligência artificial, não testada e não revelada, para identificar alvos da sua campanha de bombardeios em Gaza alarmou especialistas em direitos humanos e tecnologia, que disseram que isso poderia constituir “crimes de guerra”.
A publicação israelense-palestina +972 Magazine e o meio de comunicação em língua hebraica Local Call relataram recentemente que o exército israelense estava isolando e identificando milhares de palestinos como potenciais alvos de bombardeio, usando um sistema de mira assistido por IA chamado Lavender.
“Esse banco de dados é responsável por elaborar listas de assassinatos de até 37 mil alvos”, disse Rory Challands, da Al Jazeera, reportando da Jerusalém Oriental ocupada, na quinta-feira.
Os funcionários não identificados da inteligência israelense que falaram com os meios de comunicação disseram que Lavender tinha uma taxa de erro de cerca de 10%. “Mas isso não impediu os israelenses de usá-lo para acelerar a identificação de agentes do Hamas, muitas vezes de baixo escalão, em Gaza e bombardeá-los”, disse Challands.
Está ficando claro que o exército israelense está “implantando sistemas de IA não testado para ajudar a tomar decisões sobre a vida e a morte de civis”, disse Marc Owen Jones, professor assistente de Estudos do Oriente Médio e humanidades digitais na Universidade Hamid Bin Khalifa, à Al Jazeera.
“Sejamos claros: este é um genocídio assistido pela IA e, daqui para frente, é necessário que haja um apelo a uma moratória sobre o uso da IA na guerra”, acrescentou.
As publicações israelitas relataram que este método levou a muitos dos milhares de mortes de civis em Gaza.
Na quinta-feira, o Ministério da Saúde de Gaza disse que pelo menos 33.037 palestinos foram mortos e 75.668 feridos em ataques israelenses desde 7 de outubro.
O uso de IA ‘viola’ o direito humanitário
“Os humanos que interagiam com o banco de dados de IA muitas vezes eram apenas um carimbo de borracha. Eles examinariam esta lista de mortes por talvez 20 segundos antes de decidir se dariam ou não luz verde para um ataque aéreo”, relatou Challands.
Em resposta às críticas crescentes, os militares israelitas disseram que os seus analistas devem realizar “exames independentes” para verificar se os alvos identificados cumprem as definições relevantes de acordo com o direito internacional e as restrições adicionais estipuladas pelas suas forças.
Refutou a noção de que a tecnologia é um “sistema”, mas sim “simplesmente uma base de dados cujo objetivo é cruzar fontes de inteligência, a fim de produzir camadas atualizadas de informação sobre os agentes militares de organizações terroristas”.
Mas o fato de terem ocorrido “cinco a 10 mortes de civis aceitáveis” por cada combatente palestino que era um alvo pretendido mostra porque há tantas mortes de civis em Gaza, de acordo com Challands.
O professor Toby Walsh, especialista em IA da Universidade de Nova Gales do Sul, em Sydney, disse que os juristas provavelmente argumentarão que o uso de alvos de IA viola o direito humanitário internacional.
“De uma perspectiva técnica, estas últimas notícias mostram como é difícil manter um ser humano informado, proporcionando uma supervisão significativa aos sistemas de IA que escalam a guerra de forma terrível e trágica”, disse ele à Al Jazeera.
‘Crimes de guerra’
Os meios de comunicação citaram fontes que disseram que o exército israelense tomou decisões durante as primeiras semanas do conflito atual de que “para cada agente júnior do Hamas que Lavender marcou, era permitido matar até 15 ou 20 civis”.
As fontes também disseram que se altos funcionários do Hamas fossem o alvo, então “o exército autorizou em diversas ocasiões o assassinato de mais de 100 civis no assassinato de um único comandante”.
Ben Saul, o relator especial das Nações Unidas para os direitos humanos e contraterrorismo, disse que se os detalhes do relatório forem verdadeiros, “muitos ataques israelitas em Gaza constituiriam crimes de guerra de lançamento de ataques desproporcionais”.
“Israel está atualmente tentando vender essas ferramentas a entidades estrangeiras, a governos que olham para o que Israel está fazendo em Gaza, não com desgosto, mas na verdade com admiração”, disse Antony Loewenstein, jornalista australiano e autor de Laboratório Palestina: Como Israel exporta a tecnologia de ocupação para todo o mundo.
“Descobriremos nos próximos meses e anos quem eles podem ser… a minha sensação é que serão países que atualmente dizem que se opõem ao que Israel está fazendo.”
Publicado pela Al Jazeera em 04/04/2024