Os cientistas contra os robôs assassinos

Mais de 2,4 mil especialistas em Inteligência Artificial de todo o mundo propõem interromper as pesquisas em armas autônomas — que podem ser devastadoramente anti-humanas. Serão ouvidos?

.

E se armas providas de inteligência artificial forem programadas, num futuro não distante, para eliminar outras armas – e também seres humanos? E se, dotadas de capacidade física incomparável (podem voar em enxames, atiram tanto contra alvos específicos quanto contra multidões identificadas por certas características étnicas, têm imenso poder de fogo e mira certeira), engendrarem uma distopia pior que o inferno nuclear? Um grupo de cientistas de 90 países acaba de lançar um alerta contra este risco cada vez mais real (ainda que pouco debatido na mídia). O manifesto que produziram foi publicado pelo instituto Futuro of Life e está disponível aqui. É um passo importante para que o tema seja compreendido mais amplamente – e as sociedades possam afastar a ameaça.

Nesse curta ficcional realizado pela site Autonomous Weapons, o professor de Ciências da Computação da Universidade da Califórnia, Stuart Russel , aponta: “permitir que máquinas escolham matar humanos pode ser devastador para nossa segurança e liberdade”.

Ela só tem crescido, nos últimos anos. Em entrevista ao MIT Technology Review, Paul Scharre, pesquisador do Center for a New American Security, admitiu que as Forças Armadas dos EUA têm se interessado, cada vez mais, pelas chamadas “armas autônomas letais” [que, utilizando Inteligência Artificial (IA), podem decidir por elas mesmas quem matar]. Também chamadas de LAWS (Sistema de Armas Autônomas Letais, na sigla em inglês), essas armas podem procurar, identificar, selecionar e atacar alvos sem intervenção humana. Embora hoje sejam consideradas ilegais por não cumprir com princípios do Direito Internacional Humanitário (como distinção e proporcionalidade), o Departamento de Defesa dos EUA, que antes reiterava a preocupação de sempre manter humanos “no controle”, admitiu que poderá rever esta garantia – embora afirme que isso só acontecerá se se outros países derem o passo antes.

O pesquisador , que também serviu no Afeganistão e no Iraque como membro da tropa de elite do Exército estadunidense, lançou no ano passado o livro Army of None: Autonomous Weapons and the Future of War (ainda sem tradução no Brasil), que a revista Science definiu como um trabalho “irritantemente detalhado” ao apontar como serão os “campos de batalhas automatizados” que caracterizará os confrontos militares em um futuro próximo. Sempre preocupado em afirmar o caráter “defensivo” das ações dos EUA, o autor alega que a China está recrutando talentos do mundo inteiro e investindo alto para cumprir a promessa de se tornar líder global em inteligência artificial até 2030 – e que essas pesquisas, inevitavelmente, poderão ser utilizadas para fins militares.

Preocupados com essa corrida armamentista entre as potências mundiais, mais de 2.400 especialistas em AI do mundo todo se comprometem a não desenvolverem sistemas de “armas autônomas”. No documento, eles afirmam que essa tecnologia representa “um perigo claro e presente para cidadãos de todos os países do mundo”.

Aos poucos, a resistência cresce. Em junho do ano passado, o Google também se viu obrigado a não renovar o polêmico projeto Maven – que fornecia ao Pentágono tecnologia para analisar imagens de drones – após uma petição assinada por milhares de funcionários da empresa.

Scharre, no entanto, acredita que ações de pressão como essas são limitadas: os especialistas em IA, para alcançarem resultados mais efetivos, deveriam se empenhar em construir um canal de diálogo “construtivo e contínuo” com a classe política e militar, ajudando-os a compreender as implicações de utilizar sistemas de inteligência artificial.

“A tecnologia AI tem duplo aspecto hoje – é poderosa, mas também possui muitas vulnerabilidades”, pontua ele ao MIT Technology Review. “Infelizmente, os governos parecem ter recebido a primeira parte dessa mensagem (AI é poderosa), mas não a segunda (ela vem com riscos). Pesquisadores de IA podem ajudar governos e militares a entender melhor por que estão tão preocupados com as consequências do armamento dessa tecnologia”.

Leia Também: