O Big Brother chinês no Brasil

Em nome do combate o crime, bancadas ultra-conservadoras querem adotar vigilância total sobre cidadãos. Legislação abre brechas — é preciso alterá-la rapidamente

Por Rafael Zanatta, no E-mancipação

Tem gerado muito debate a matéria da Folha de São Paulo sobre a viagem de parlamentares recém-eleitos do PSL à China, cuja missão é explorar as tecnologias de ponta de reconhecimento facial, com a possibilidade de importá-las para utilização no Brasil.

Paula Soprana, repórter que há anos trabalha com o tema da tecnologia e da privacidade, publicou em 17/1 matéria na qual detalha o interesse dos parlamentares em “apresentar já no início do ano legislativo um projeto de lei que obriga a implementação de câmeras inteligentes em locais públicos para fins de segurança”. Conforme relatado por Soprana, a tecnologia operacionalizada pelas empresas chinesas permite “detectar quantas vezes uma pessoa passa por determinado local, se tem um comportamento considerado suspeito pelas autoridades e com quem está acompanhada”.

Os parlamentares viajaram à convite do governo chinês, que, como se sabe, é controlado pelo Partido Comunista Chinês. Apesar do profundo afastamento ideológico do PSL em qualquer questão “comunista” — uma das grandes bandeiras retóricas propagadas em 2018, além de um discurso de aproximação com EUA e afastamento com China –, a questão envolve um alinhamento estratégico de dois interesses. De um lado, o interesse chinês de exportação dessas tecnologias e de domínio do mercado de inteligência artificial para “governança social”. De outro, o racional “tecno-solucionista” dos parlamentares eleitos, que vêem nas tecnologias de vigilância a solução para o problema de segurança pública que afeta o Rio de Janeiro.

+ Em meio à crise civilizatória e à ameaça da extrema-direita, OUTRAS PALAVRAS sustenta que o pós-capitalismo é possível. Queremos sugerir alternativas ainda mais intensamente. Para isso, precisamos de recursos: a partir de 15 reais por mês você pode fazer parte de nossa rede. Veja como participar >>>

É notória a crise de segurança no Brasil, com uma das maiores taxas de homicídios do mundo. A Indonésia, que tem quase a mesma população do país, tem pouco mais de mil assassinatos por ano. O nosso número quase bate sessenta mil, ultrapassando gigantes como EUA, Rússia e México. Os chineses sabem, claramente, que há pressão popular para diminuir taxas de criminalidade. Ofereceram, assim, um showroom de tecnologias que podem ser acessadas e compradas pelo governo brasileiro, para implementação em suas cidades e estados.

É compreensível o desespero dos parlamentares do PSL em “oferecer algo” e começar a cumprir promessas de campanha. Esse desespero, no entanto, além de irritar os próprios “gurus anti-China” do PSL, oferece inúmeros problemas jurídicos e políticos.

Limitações da Lei de Dados Pessoais

É evidente que essas tecnologias geram problemas de privacidade e lesionam direitos que julgamos ser fundamentais. No limite, gera um choque com os valores mais básicos que estruturam um Estado Democrático de Direito.

Alguns analistas se posicionaram publicamente sobre a importância das tecnologias de reconhecimento facial, sustentando que a Lei Geral de Proteção de Dados Pessoais é suficiente para proteger os cidadãos e seus direitos.

Essa visão, no entanto, é bastante míope. Assim como a General Data Protection Regulation da União Europeia, a lei brasileira possui inúmeras exceções para o tratamento de dados para fins de segurança pública. Uma rápida leitura da legislação resolve muitas dúvidas. Replico aqui alguns comentários que já havia feito no Twitter:

1. A Lei de Dados Pessoais não se aplica para tratamento de dados para fins de segurança pública (art. 4º, III). Assim, basta o Prefeito da cidade (ou Governador) sustentar que a coleta de dados é para “identificar bandidos e aprimorar a segurança pública”.
2. Para não nos deixar no vácuo, a Lei afirma que o tratamento de dados para fins de segurança pública “será regido por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público” (art. 4º, III, § 1º).
3. No entanto, essa lei específica não existe. E o PSL pode aproveitar sua força no Congresso, junto com Executivo, para moldá-la a seus interesses.
4. A luta cívica, portanto, será pela definição coletiva do que são medidas proporcionais e o que é “interesse público”. Será uma batalha gigante por valores e pelo modelo de sociedade que queremos.
5. Uma chance de ativismo cívico e de batalha é sustentar que “os princípios gerais de proteção e os direitos do titular previstos nesta Lei” se aplicam, desde início da vigência da Lei, ao tratamento pelo poder público. Mas isso vale a partir de agosto de 2020.

Ou seja, é ingenuidade achar que estamos salvos e que a legislação brasileira dá conta do recado. Será um esforço cívico e interpretativo imenso afirmar a tese de que “os princípios gerais de proteção” se aplicam, desde já, para o tratamento de dados pessoais para fins de segurança pública. Esse trabalho interpretativo está sendo feito, desde já, por juristas como Renato Leite Monteiro.

O problema é que a própria lei pensada pelos parlamentares do PSL para regularizar a implementação dos sistemas de inteligência artificial também pode caminhar em sentido oposto, cumprindo o papel de “lei específica” sobre tratamento de dados para fins de segurança pública, nos termos do §1º do art. 4 da Lei Geral de Proteção de Dados Pessoais.

Horizontes

Há alternativas, além dessa importante disputa cívica fundada na interpretação da Lei de Dados Pessoais e o monitoramento das atividades do Congresso?

Uma modalidade de ação pode ser disputar o modo pelo qual a aplicação de sistemas de inteligência artificial em segurança pública pode ser desenvolvido sem que haja a coleta de dados biométricos e identificadores únicos armazenáveis, promovendo sua completa destruição após um processo de “análise algorítmica” por um sistema de I.A.

Não tenho respostas nem caminhos de como isso pode ser feito, mas há todo um debate, no campo do visual content analysis em CCTV, sobre técnicas de detecção de movimentos suspeitos sem o reconhecimento facial e sem a coleta de dados pessoais sensíveis. Ao lado dessas formas de monitoramento teoricamente menos invasivas — se é que é possível acreditar em tal possibilidade –, há inúmeras recomendações técnicas sobre quem pode acessar esse tipo de informação, a aplicação de técnicas de criptografia, a limitação do acesso e a adequada elaboração de uma Data Protection Impact Assessment.

Inevitavelmente, será preciso desenvolver estratégias de mitigação de danos e de aprimoramento, em nível cívico e democrático, da utilização das tecnologias de reconhecimento facial para fins de segurança pública. Elas virão. Sejam elas chinesas, israelenses ou brasileiras.

Gostou do texto? Contribua para manter e ampliar nosso jornalismo de profundidade: OutrosQuinhentos

Leia Também: