Hora de banir as armas "inteligentes"

Nova geração de robôs armados permitirá identificar e matar seres humanos de modo automático. Chomsky, Stephen Hawking e centenas de cientistas pedem proibição

Captura de tela de 2015-08-01 11:18:37

Projeto da Lockheed Martin, empresa de tecnologia militar norte-americana, para primeiro jato de combate não-tripulado. EUA mantêm, há anos, o UCLASS – https://goo.gl/iqeeC -, programa para criar aviões de espionagem e combate (com poder de fogo muito superior ao dos drones) sem pilotos

.

Nova geração de robôs armados permitirá a exércitos identificar e matar seres humanos de modo automático. Stephen Hawking, Noam Chomsky e centenas de pesquisadores pedem proibição total

Por Doug Bolton, no The IndependentTradução: Inês Castilho

Mais de mil cientistas, especialistas em robótica e pesquisadores em inteligência artifical (IA) — entre eles o físico Stephen Hawking, o filósofo Noam Chomsky, o co-fundador da Apple, Steve Wozniak acabam de assinar uma carta aberta pedindo a proibição de “armas autônomas ofensivas”, ou, como são melhor conhecidas, os “drones e robôs assassinos”. A carta (leia na íntegra, ao final deste texto), divulgada pelo Institute Future of Life, um grupo que trabalha para mitigar “riscos existenciais enfrentados pela humanidade”, alerta para o perigo de iniciar uma “corrida armamentista militar de inteligência artificial”.

O conceito “armas robóticas” pode incluir drones armados que conseguem localizar e matar determinadas pessoas com base em programação — um passo adiante da geração atual de drones, pilotados por seres humanos que frequentemente encontram-se milhares de quilômetros distantes da zona de guerra.

A carta dos cientistas diz: “A tecnologia de IA atingiu um ponto em que a implantação desse sistema é – pratica, se não legalmente – factível dentro de alguns anos.” Acrescenta que armas autônomas “têm sido descritas como a terceira revolução da indústria bélica, depois da pólvora e das armas nucleares”. Diz que o Instituto vê o “grande potencial [da inteligência artificial] para beneficiar a humanidade de várias maneiras” — mas acredita que o desenvolvimento de armas robóticas, ao contrário, seria útil para terroristas, ditadores brutais e os grupos interessados em executar “limpezas” étnicas.

As armas a que o texto se refere ainda não existem de verdade, mas a tecnologia que permitiria construí-las e colocá-las em uso não está longe. Os que se opõem a isso, como os signatários da carta, acreditam que, ao eliminar o risco de mortes humanas entre os exércitos agressores, as armas robóticas (a tecnologia para chegar a elas vai se tornar barata e onipresente, nos próximos anos), rebaixaria o desgaste que significa fazer guerras – o que iria torná-las muito mais comuns.

No ano passado, a Coreia do Sul revelou possuir armas deste tipo – robôs-sentinela armados, atualmente instalados ao longo da fronteira com a Coreia do Norte. Suas câmeras e sensores de calor possibilitam que detectem e rastreiem serem humanos automaticamente, mas as máquinas necessitam de um operador humano para disparar suas armas.

A carta alerta também sobre o risco de as novas armas prejudicarem, entre a opinião pública, a imagem da inteligência artificial — cujos usos pacíficos podem trazer benefícios significativos à humanidade. A construção de armas robóticas, avisa o texto, pode multiplicar a oposição pública à IA, restringindo seus benefícios genuínos. A carta parece muito futurista, mas esse campo da tecnologia está avançando a passos largos, e a oposição ao uso bélico de IA começou a crescer.

A Campanha para Deter os Robôs Assassinos, um movimento iniciado em 2012 por uma rede de ONGs que inclui o Human Rights Watch, trabalha pela proibição preventiva de armas robóticas. Atualmente, age para levar a questão das armas robóticas à Convenção de Armas Convencionais em Genebra, grupo ligado à ONU que busca proibir o uso de certas armas convencionais tais como minas terrestres e armas a laser, preventivamente proibidas em 1995.

A Campanha reivindica que a Convenção crie um grupo de especialistas governamentais para debruçar-se sobre o tema, com o propósito de conseguir a proibição desse tipo de armamento. No início deste ano, o Reino Unidos opôs-se à proibição de robôs assassinos numa conferência da ONU. Um funcionário do ministério das Relações Exteriores afirmou ao The Guardian que “não vê necessidade da proibição” de armas autônomas, e que seu país não as está desenvolvendo. A seguir, o texto da carta de cientistas e intelectuais.

Carta aberta sobre Armas Autônomas

As armas autônomas selecionam e atacam alvos sem intervenção humana. Elas incluem, por exemplo, um helicóptero quadrimotor armado capaz de localizar e eliminar pessoas segundo determinados critérios pré-definidos, mas não incluem mísseis de cruzeiro ou drones pilotados remotamente, cujas decisões sobre os alvos são todas tomadas por seres humanos. A tecnologia de inteligência artificial (IA) chegou a um ponto em que a utilização desse sistema é possível – na prática, mesmo que não na lei – dentro de anos, não décadas. As apostas são altas: as armas autônomas têm sido descritas como a terceira revolução da indústria bélica, depois da pólvora e das armas nucleares.

Muitos argumentos foram usados a favor e contra armas autônomas: por exemplo o de que substituir soldados humanos por máquinas é bom, por reduzir o número de vítimas entre quem as possui; mas ruim, por rebaixar os limites do que significa ir à guerra. Hoje, a questão chave para a humanidade: vamos iniciar uma corrida global por armas de Inteligência Artificial ou evitar que ela se inicie? Se uma grande potência militar qualquer tomar a dianteira no desenvolvimento de armas de IA, uma corrida armamentista global será inevitável, e o fim dessa trajetória tecnológica parece óbvio: armas autônomas serão os fuzis Kalashnikov de amanhã.

Ao contrário das armas nucleares, elas não requerem matéria-prima cara ou difícil de obter, de modo que se tornarão onipresentes e baratas para produção em massa por todas as potências militares importantes. Será apenas uma questão de tempo até que apareçam no mercado clandestino e nas mãos de terroristas, ditadores querendo controlar melhor sua população, senhores da guerra desejando executar limpezas étnicas etc. Armas autônomas são ideais para tarefas como assassinatos, desestabilizando nações, subjugando populações e matando seletivamente um grupo étnico particular. Acreditamos portanto que uma corrida por armas de IA não seria benéfica para a humanidade. Há várias maneiras por meio das quais a inteligência artificial pode tornar o mundo mais seguro para os seres humanos, especialmente civis, sem criar novas ferramentas para matar pessoas.

Assim como a maioria dos químicos e biólogos não têm interesse em construir armas químicas ou biológicas, a maioria dos pesquisadores de IA não têm interesse em construir armas de IA – e não querem que outros manchem sua área fazendo isso. Tal passo criaria uma grande oposição contra a inteligência artificial, o que poderia restringir seus benefícios sociais futuros. De fato, químicos e biólogos têm apoiado amplamente os tratados internacionais de proibição de armas químicas e biológicas, assim como a maioria dos físicos apoiaram os tratados que proíbem armas nucleares espaciais e armas laser que causam cegueira.

Em suma, acreditamos que IA tem grande potencial para beneficiar a humanidade de várias maneiras, e sua meta deveria ser essa. Iniciar uma corrida armamentista militar de IA é má ideia, e a prevenção deveria ser a proibição de armas autonômas ofensivas além de significativo controle humano.

A lista de signatários pode ser encontrada aqui

 

Leia Também:

Um comentario para "Hora de banir as armas "inteligentes""

  1. Caio Murta disse:

    Apesar de achar que tal proibição não impedirá o seu desenvolvimento às escondidas e quem sabe o uso futuro para o terrorismo, concordo plenamente com a proibição. É assustador acreditar em tantas possibilidades bélicas que existem hoje, seja com o uso de drones ou robôs ou ainda com a impressão 3D.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *