Integrantes dos serviços de inteligência de Israel afirmam ter usado Inteligência Artificial para designar cerca de 37 mil alvos durante um conflito recente, com cálculos de “permissão prévia” para morte de civis, conforme aponta uma investigação. Segundo relatos, o sistema de IA, apelidado de “Lavanda”, analisou dados de cidadãos palestinos e determinou possíveis membros do Hamas e da Jihad Islâmica. Ao contrário de outras práticas militares, onde a IA é usada como parte do processo decisório antes de ataques, neste caso, as aprovações para bombardeios eram quase automáticas, com aval “humano” protocolar, sem confirmação dos dados utilizados pela IA. O clima de pressão por ataques contundentes foi relatado pelos oficiais de inteligência, que afirmaram ter recebido ordens para encontrar mais alvos e “acabar com o Hamas, não importa o preço”.
Após ataques do Hamas, o governo israelense destacou a necessidade de uma resposta contundente, justificando-a como uma vingança necessária. Testes amostrais da plataforma de IA concluíram uma taxa de acerto de aproximadamente 90%, embora não possa ser verificada independentemente devido ao sigilo das operações. Além do “Lavanda”, outro sistema chamado “Evangelho” foi utilizado para identificar potenciais locais de operações, incluindo residências onde viviam alvos e seus parentes. Casas e apartamentos eram alvos preferenciais em ataques contra membros de baixa patente do Hamas e da Jihad Islâmica, mesmo que isso resultasse em mortes de até 20 civis inocentes.
Os relatos indicam uma política permissiva sobre o número de mortes em operações, especialmente em ataques contra membros graduados do Hamas, onde até 100 mortes seriam toleradas. Recentemente, agentes afirmaram que a taxa de “mortes civis permitidas” foi reduzida, porém, o impacto prático dessa redução é questionável. A falta de conhecimento sobre o número de pessoas em prédios alvejados resultou em um alto número de mortes civis durante o conflito. Em resposta às alegações, as Forças Armadas de Israel afirmaram que algumas são “sem sentido”, e que não utilizam um sistema de IA para identificar elementos terroristas.
Além disso, o New York Times reportou que Israel implementou um amplo programa de reconhecimento facial em Gaza, coletando e catalogando informações dos civis sem consentimento. O sistema, desenvolvido a partir da Unidade 8200, analisa imagens de câmeras de segurança, vídeos do Hamas e fotos do Google Photos para identificar suspeitos. Esta tecnologia, anteriormente utilizada na Cisjordânia e em Jerusalém Oriental, gerou preocupações sobre privacidade e violações de direitos humanos.
Artigo baseado em relatório do +972 e Local Call, com informações adicionais do New York Times e The Guardian.