Quando a IA converte-se em máquina de morte

Em Gaza, Israel usa pela primeira vez programas que vasculham redes sociais para identificar opositores; e em seguida localizá-los em suas casas e liquidá-los. Quais são; como funcionam; por que é preciso regular a inteligência artificial

.

Por Javier Bornstein, em El Salto | Tradução: Antonio Martins

A atual guerra em Gaza, agora em seu nono mês de combates e com quase 40 mil palestinos mortos de acordo com os últimos números oficiais, será tristemente lembrada no futuro por muitos motivos. O número assustador de mortes e ferimentos de civis é apenas um deles. Também entrará para a história por ter sido o primeiro genocídio transmitido ao vivo pelos nossos celulares, precedido pelo anúncio do ministro da Defesa de Israel, Yoav Galant, de um bloqueio total de água, alimentos, combustível, eletricidade e ajuda humanitária à Faixa, em flagrante violação do Direito Internacional Humanitário (DIH). Também nos lembraremos dessa guerra como aquela em que seu líder, Benjamin Netanyahu, foi recebido com honras no Congresso dos EUA, enquanto enfrentava acusações de genocídio pelo Tribunal Internacional de Justiça das Nações Unidas e um mandado de prisão do Tribunal Penal Internacional.

Mas esse terrível massacre também será estudado por outro motivo muito menos conhecido, embora igualmente alarmante: a ofensiva desencadeada após os ataques de 7 de outubro marca a primeira ocasião em que um exército, o de Israel, incorporou de forma maciça e sistemática o uso de Inteligência Artificial (IA) em suas operações militares, o que desempenhou um papel central na escala sem precedentes de devastação humana e material desse conflito. Um ponto de virada na história militar, com profundas implicações legais, éticas e científicas que precisam ser abordadas com urgência pela comunidade internacional.

“Uma fábrica de assassinatos em massa”

Foi assim que um oficial de inteligência israelense descreveu o funcionamento do conjunto de sistemas de IA que o exército de seu país está usando de forma integrada na guerra de Gaza. A revelação foi feita em um artigo da +972 Magazine, um meio de comunicação formado por jornalistas palestinos e israelenses e crítico da ocupação. Publicado no final de novembro do ano passado, o texto gerou repercussão importante na mídia internacional, embora não tão grande quanto a necessária. Um segundo artigo do mesmo veículo de mídia, publicado em abril, completou o quadro da sinistra rede tecnocientífica que sustenta as operações israelenses em Gaza.

A investigação da Revista +972 revelou como Israel faz uso combinado de dois sistemas de IA para a geração de alvos militares em Gaza. Por um lado, a IA Habsora (Gospel em inglês, ou Boas Novas, em português), é capaz de identificar edifícios que abrigariam membros e agentes militares do Hamas e da Jihad Islâmica, os dois principais grupos de resistência armada que operam em Gaza. Paralelamente, a IA Lavender faz um trabalho semelhante com foco em indivíduos, buscando identificar ativistas de ambas as organizações. Ambos os sistemas trabalham buscando padrões com base em uma série de elementos fornecidos em uma fase anterior de “treinamento”. O sistema é completado por uma terceira IA chamada Where’s Daddy? que rastreia alvos humanos depois que são localizados, priorizando o bombardeio de suas casas, pois a probabilidade de um ataque bem-sucedido é considerada muito maior. A designação de alvos militares é sempre acompanhada de uma estimativa das “baixas colaterais” de civis. Israel considera aceitável que 15 pereçam, quando o alvo é um soldado do Hamas; ou que 300 percam a vida, se se trata de um oficial sênior.

O resultado desse sistema é que, nas primeiras semanas da guerra, Israel conseguiu gerar mais de 37 mil alvos militares, em comparação com os 50 por ano que os serviços de inteligência conseguiam identificar anteriormente. Esses alvos militares estão diretamente ligados aos ataques israelenses e ajudam a explicar as impressionantes 15 mil mortes só nas primeiras seis semanas do conflito.

O exército de Israel (que se autodenomina “IDF”) não negou a existência desses sistemas, mas argumenta que eles não determinam seus alvos militares e apenas fornecem informações adicionais aos serviços de inteligência na condução de suas operações. No entanto, vários testemunhos revelaram que, devido à enorme pressão nos estágios iniciais da guerra para atingir o Hamas com a maior intensidade possível, o tempo médio para validação humana do alvo proposto pelo Lavender era de cerca de 20 segundos. Na prática, isso passou a significar uma validação quase automática, com apenas uma verificação se o alvo era homem ou mulher, e uma aceitação sistemática no caso de alvos masculinos.

O problema gerado pela introdução da IA em operações militares não está nos sistemas em si, mas nas atitudes e comportamentos que eles geram. As tecnologias contribuem para moldar as percepções e as ações das pessoas, gerando novas práticas e formas de agir, desempenhando um papel ativo na tomada de decisões e na formação do moral coletivo. No caso em questão, a quase automação da seleção de alvos militares rotiniza um ato que tem consequências diretas sobre a vida e a morte de outras pessoas, minimizando a tomada de decisões por parte do pessoal militar. Após décadas de convivência próxima entre máquinas e pessoas, passamos a aceitar como válido o que as máquinas dizem, especialmente nos casos em que elas geram informações em um ritmo rápido demais para que possamos acompanhá-las. A consequência direta disso é a existência de uma aparente “lacuna de responsabilidade”. Cria-se a ilusão de que as pessoas que validam os alvos militares a partir de dados fornecidos pela IA estão isentas de responsabilidade.

O surgimento de sistemas de IA na arena militar também gerou uma preocupação crescente sobre sua compatibilidade ou não com o Direito Internacional Humanitário (DIH), as leis que regem a guerra. Cada vez mais vozes estão pedindo uma estrutura normativa que regule o uso da IA para fins militares a fim de garantir a compatibilidade com o DIH. Outros defendem diretamente sua proibição com base na total incompatibilidade entre a IA e o DIH. Na esfera judicial, as consequências do uso desses sistemas na população civil estão no centro dos processos em andamento do governo do primeiro-ministro israelense Benjamin Netanyahu, tanto no Tribunal Internacional de Justiça quanto no Tribunal Penal Internacional.

Israel e tecnologia: uma relação de conveniência

Para entender melhor a estrutura em que se deram os avanços tecnológicos implantados em Gaza pelo exército israelense, vale a pena prestar atenção ao ecossistema de Pesquisa e Desenvilvimento (P&D) israelense. Atualmente, Israel está em terceiro lugar no mundo em investimentos em IA, atrás apenas dos Estados Unidos e da China. O país tem o maior número de start-ups per capita do mundo e conta com uma estrutura legislativa que favorece muito sua proliferação. O próprio Netanyahu tem se referido repetidamente à IA como a “nova eletricidade”, afirmando que aqueles que dominarem a IA, dominarão o futuro.

Não é coincidência que, em junho de 2023, Sam Altman e Ilya Sutskever, os cofundadores da OpenAI, a empresa por trás do ChatGPT, tenham visitado Israel e se encontrado pessoalmente com Netanyahu. Nem que duas das principais empresas de tecnologia do mundo, Intel e NVIDIA, confirmassem recentemente dois projetos multimilionários em Israel para a construção de uma fábrica de microchips e um dos mais poderosos supercomputadores até hoje, respectivamente. O Estado israelense favorece de modo ativo a inovação tecnológica, que acaba revertendo e adaptando às necessidades de seu aparato militar. Tecnologias que Israel vende posteriormente a outras nações com o incentivo de terem sido comprovadas em combate.

IA e progresso, uma faca de dois gumes

O rápido desenvolvimento da IA nos últimos dez anos e sua incursão cada vez mais difundida em praticamente todas as esferas de nossas sociedades, da medicina às finanças, da criação artística à tradução simultânea, gerou preocupações crescentes sobre os efeitos negativos e/ou não intencionais de muitos desses novos sistemas. Paralelamente ao crescimento da IA, a comunidade acadêmica e de pesquisa liderou uma série de iniciativas que pedem o estabelecimento de uma estrutura comum para o desenvolvimento da IA que esteja ancorada nos princípios e valores éticos e morais das democracias modernas, incluindo os Princípios de Asilomar e a Declaração de Barcelona. Em todas essas iniciativas, encontramos um apelo à necessidade urgente de regulamentar o desenvolvimento da IA para garantir que as necessidades humanas sejam sempre mantidas no centro, por meio de uma estrutura ética que certifique os desenvolvimentos tecnológicos em IA e uma demanda por transparência e responsabilidade dos sistemas.

É amplamente aceito que a IA tem um enorme potencial para enfrentar os principais desafios contemporâneos, como as mudanças climáticas ou a proliferação de pandemias, mas também que ela representa uma ameaça direta aos direitos humanos básicos. Em seu último relatório anual, a Anistia Internacional alertou pela primeira vez sobre a ameaça do avanço descontrolado da IA e o risco de que ela aumente as desigualdades raciais, a vigilância e o discurso de ódio na Internet.

O filósofo português Boaventura de Sousa Santos, em uma brilhante reflexão sobre incerteza, medo e esperança, alertou sobre como o conhecimento científico e os desenvolvimentos tecnológicos derivados. Estes tendem – ele argumenta – a ser controlados por determinados grupos sociais e a beneficiá-los, deixando o restante da população à margem, de modo que a produção científica é realizada “sobre eles e eventualmente contra eles e, em todo caso, nunca com eles”.

O número devastador de vítimas civis na Faixa de Gaza é, dependendo do ponto de vista, uma ilustração dramática de como as tecnologias moldam nossas sociedades, mentalidades e comportamentos, e destaca a necessidade urgente de regulamentar o desenvolvimento de novas tecnologias baseadas em IA. Uma regulamentação que, no entanto, parece distante e até utópica no caso de tecnologias para fins militares, contra as quais as demandas por transparência e livre acesso se chocam frontalmente. Diante desse aparente impasse, uma moratória total sobre o uso da IA para fins militares, até que uma regulamentação acordada internacionalmente esteja em vigor, parece ser uma solução lógica, mas é improvável que seja aceita pelas principais potências militares.

No mesmo ano em que o texto de Boaventura de Sousa foi publicado, houve um avanço nas técnicas de detecção de câncer de mama por meio da colaboração homem-máquina. Ao combinar os resultados da patologia, que tinha uma margem de erro de 3,4%, e os de um sistema de IA, que tinha uma margem de erro de 7,5%, a margem de erro foi reduzida para apenas 0,52%. O progresso científico melhorou muito a qualidade de vida em alguns aspectos e piorou-a em outros. Graças à tecnologia, temos uma vida mais longa e melhor, mas também estamos levando o planeta em que vivemos a limites que podem acabar tornando-o inabitável.

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *