Reconhecimento facial: uma distopia ronda SP

Câmeras por toda a cidade. Dados pessoais violados. Enquadros virtuais. Prefeitura planeja criar uma gigantesca plataforma de vigilância, sob nítido viés racista. Articulação conseguiu barrá-lo, por enquanto. Politizar as tecnologias é crucial

Imagem: Olhar Digital
.

Vigiar e controlar os espaços públicos com sofisticadas tecnologias de inteligência artificial (IA) – este parece ser plano da Prefeitura de São Paulo, recheado de uma arrojada (e declarada) pretensão: transformar a quinta maior cidade do mundo num gigantesco laboratório para a aplicação de ferramentas de reconhecimento facial via Segurança Pública – ou de segregação urbana na Era Digital, como preferem outros – replicável em outros municípios brasileiros. O polêmico programa já foi alcunhado de “Big Brother paulistano” – e denunciado por tentar promover o neoeugenismo urbano, o racismo algorítmico e o enquadro virtual

Seu nome, no entanto, é Smart Sampa, programa vinculado à Secretaria Municipal de Segurança Urbana. E o edital de fornecimento de equipamento, infraestrutura e manutenção para a criação do sistema previsto no programa, lançado em fins de novembro, pegou a sociedade civil de surpresa. As audiências públicas, realizadas desde agosto, já haviam suscitado críticas severas quanto à proposta de videomonitoramento massivo na cidade. Mas a versão final da chamada pública chocou pesquisadores e ativistas por sua dimensão – e despudor. Primeiro, assume os alvos do Smart Sampa: monitorar “pessoas suspeitas” a partir de critérios de “cor e face” e combater a “vadiagem” e a “mendicância”. Depois, prevê uma infraestrutura monumental: instalação de 20 mil novas câmeras nos espaços públicos da cidade e o uso do reconhecimento facial. O custo anual estimado: R$ 70 milhões em cinco anos, prorrogável por outros cinco. 

O pregão eletrônico estava marcado para a última segunda-feira (5/12). Estava. Mas uma ampla articulação formada por mais de 50 organizações sociais — entre elas, o Instituto Brasileiro de Defesa do Consumidor (Idec) e o Laboratório de Políticas Públicas e Internet (Lapin) — conseguiu freá-lo, por enquanto. As entidades integram a campanha #TireMeuRostoDaSuaMira, lançada em junho deste ano com o objetivo de aprofundar o debate sobre os riscos das tecnologias de reconhecimento facial, principalmente quando utilizadas pelo poder público. O recuo da Prefeitura veio após uma árdua batalha dessas entidades, que apontou violações à Constituição Federal, ao Código de Defesa do Consumidor, ao Código de Defesa dos Usuários de Serviços Públicos e à Lei Geral de Proteção de Dados Pessoais; envolveu representações no Ministério Público, na Defensoria Pública e no Tribunal de Contas do Município; teimou por diálogos com a gestão Ricardo Nunes (MDB); contou com uma nota de repúdio da Comissão de Direitos Humanos na Câmara Municipal; cavou espaços na mídia; e incidiu na Câmara Municipal, conseguindo apoio de vereadores como Eduardo Suplicy (PT), Daniel Annenberg (PSDB), Elaine do Quilombo Periférico (PSOL), Erika Hilton (PSOL) e Luana Alves (PSOL). Muitas dessas mobilizações também envolveram a Defensoria Pública, a Ordem dos Advogados do Brasil (OAB) e assessorias de alguns desses parlamentares.

“O edital viola uma série de direitos e leis, inclusive porque o município não tem competência em termos de políticas de Segurança Pública, já que a GCM [Guarda Civil Metropolitana] sequer é concebida como polícia nos moldes constitucionais”, destaca a advogada Raquel Rachid, pesquisadora do Lapin especializada em proteção de dados pessoais. “Além disso”, continua ela, “o edital fornece pouquíssimos detalhes sobre como será a integração de dados. As consequências são muito perigosas: é um movimento vitrine sem nenhuma comprovação de que melhorará a Segurança Pública”.

O prefeito, no entanto, ainda não largou o osso. Novas audiências serão convocadas para discutir o Smart Sampa e reelaborar o edital, mas sem data prevista. Nunes tenta tranquilizar a população, garantindo que por trás da IA haverá a avaliação humana dos agentes da Guarda Civil Metropolitana (GCM) – e a eficiência da “Segurança Pública preventiva em benefício de todos os paulistanos”.

Como funcionaria o panóptico da garoa

O Smart Sampa tem contornos orwellianos (ao menos, no edital apresentado pela Prefeitura): promete combater a criminalidade, prever delitos, gerenciar o caos rodoviarista e encontrar pessoas desaparecidas ou procuradas pela Justiça. Para isso, visa a construir uma megabase de dados – integrada e gerida por Inteligência Artificial. Ela abocanharia informações de toda população paulistana, vindas de secretarias, inclusive as de Saúde e Educação, autarquias e concessionárias – municipais, estaduais e federais. Também absorveria o City Câmera, outro programa polêmico da Prefeitura suspenso no ano passado, que congregava cerca de 3,5 mil câmeras de vigilância privada.

A arquitetura inicial da plataforma prevê milhares de câmeras em espaços públicos. Reconhecimento facial. Bodycams. Leitura automática de placas de veículos. Rastreadores. Radares. Sensores de solo e hídricos (de áreas de risco). Dados de boletins de ocorrência, do CET, do Samu, da Defesa Civil, da GCM, de estações climáticas, de semáforos, da vigilância de edifícios e de fluxos urbanos como movimento de cargas e pessoas. “Salas de situação” móveis (em carreta, trailer, ônibus ou micro-ônibus) em grandes eventos e mobilizações de rua. Monitoramento de mídias sociais como Facebook, Instagram, Twitter e YouTube para catalogar cidadãos “por sentimento, categorizando cada texto em positivo, neutro ou negativo” – nas palavras do próprio edital.

Todos os dados seriam processados e analisados para gerar gráficos analíticos e relatórios em tempo real, notificando automaticamente o agente mais próximo de ocorrências, detectando a densidade e concentração de pessoas em áreas públicas, identificando comportamentos “suspeitos”, tempo de permanência fora do habitual em espaços públicos e monitorando movimentos e atividades por características como cor, face, roupas e aspectos físicos.

Mas estas pretensões monumentais da Prefeitura sequer contam com um estudo de impacto, ao menos um que esteja disponível para a sociedade civil, conta Raquel Rachid. As organizações exigiram da Secretaria Municipal de Segurança Urbana o material que embasou a abertura da licitação, mas o pedido foi negado, alegando que estas informações são sigilosas, ferindo a Lei de Acesso à Informação (LAI). Além disso, analisa a pesquisadora, o edital é opaco: não explica como a plataforma seria implantada; como os dados seriam cruzados e geridos; nem como as redes sociais poderiam ser monitoradas. Tudo se perde em generalidades – e o investimento municipal, além de ser escoado para a iniciativa privada, também parece, a princípio, exíguo para um plano do patamar de serviços de inteligência. 

Porém, os “alvos” parecem bem delineados: as pessoas em situação de rua, muitas vezes famílias inteiras, que tentam sobreviver em calçadas, praças e sob viadutos; a juventude periférica em busca do direito à cidade; as transsexuais; as trabalhadoras do sexo; as atividades culturais nos espaços públicos; os ativismos nas ruas e na internet… 

A escalada do racismo algorítmico no Brasil

Esse pacote Big Brother carrega o verniz de arrojamento digital: transformar São Paulo numa “cidade inteligente”, as smart cities, um conceito que despontou em meados dos anos 2000 que apregoa que as novas tecnologias da informação e comunicação, as TICs, podem tornar os serviços urbanos mais eficientes. Porém, os pilares dessa “inteligência” são descritos por muitos urbanistas como neoliberais – ou, no mínimo, acríticos diante das desigualdades brutais e das novas formas de segregação nas cidades. 

Além disso, o Smart Sampa pode aprofundar o racismo algorítmico, definido pelo pesquisador Tarcízio Silva, em entrevista ao IHU, “como o modo pelo qual a atual disposição de tecnologias e imaginários sociotécnicos em um mundo moldado pela supremacia branca fortalece a ordenação racializada de conhecimentos, recursos, espaço e violência em detrimento de grupos não-brancos”. Estudo recente conduzido em Nova York, por exemplo, demonstrou que o reconhecimento facial impulsiona policiamento discriminatório; outro, realizado em Londres, em 2019, revelou erros sistemáticos e grande quantidade de falsos positivos, o que contribui para criminalizar ainda mais a população negra.

“O reconhecimento facial em si, usado no âmbito dos espaços públicos e da Segurança Pública, é problemático”, aponta Rachid. “Há uma série de erros decorrentes da tecnologia que cria um cenário para que a população, como um todo, seja vigiada e monitorada, o que é ainda mais alarmante quando se considera o superencarceramento da população negra e o perfil das pessoas que são submetidas à violência policial no país. Em relação às pessoas negras e trans, são muitos os casos, públicos e notórios, aqui e no exterior, nos quais os sistemas de reconhecimento facial resultaram em gravíssimos erros baseados na discriminação algorítmica”.

Concretamente, o Smart Sampa espelha-se nos programas implementados em Chicago e Dallas, nos  Estados Unidos, que são alvo de muitas críticas – as mesmas que levaram ao banimento do reconhecimento facial em outras cidades estadunidenses como Portland, Boston e São Francisco. No Brasil, o uso dessa tecnologia na administração pública não é novidade: é implantado pelo menos desde 2011, aponta o relatório Vigilância automatizada elaborado pelo Labin. A partir de então, sistemas de reconhecimento facial e projetos legislativos que propõem sua regulamentação proliferaram no país, em diversas regiões. A conclusão do relatório é que “o emprego de tecnologias de vigilância não tem sido realizado de forma transparente com a população, o que coloca em risco os direitos e liberdades individuais de cidadãos cujos dados são coletados por esses sistemas”.

Rachid aponta que, além das ilegalidades e potenciais violações aos direitos humanos, o programa pagará uma fortuna para colocar dados sensíveis do poder público – e dos cidadãos paulistanos – nas mãos de empresas privadas. 

“O edital é muito benéfico para a iniciativa privada: tanto monetariamente, afinal são R$ 70 milhões, quanto a entregar o processamento e o tratamento de dados pessoais da população, cruzando informações de diversas secretarias, numa cidade do porte de São Paulo”, analisa ela. “É dinheiro público sendo mal gasto e para violar mais direitos, sob a retórica de melhorias na Segurança Pública”.

Há alguns casos brasileiros emblemáticos do lobby do setor privado – e de ineficácia deste modelo de vigilância digital. A Secretaria de Segurança do Município de Mogi das Cruzes (SP), por exemplo, recebeu doação da Dahua Technology, empresa chinesa, com a intenção de tornar Mogi “cidade-irmã de YongKang”. Em 2019, durante o carnaval de Feira de Santana, na Bahia, apenas 3,6% dos 903 alertas gerados pelo sistema resultaram em mandados de prisão. No Rio de Janeiro, a Secretaria de Estado de Polícia Militar admitiu que a tecnologia errou em 63% dos casos.

A urgente tarefa de politizar as tecnologias

As entidades mobilizadas contra o edital também alertam que estas tecnologias de vigilância violam gravemente a liberdade de expressão e de associação, impondo brechas (e ferramentas) para perseguir movimentos sociais e atacar a democracia participativa. O temor de um enquadro virtual pode desencorajar protestos. Ativistas podem ser perseguidos mais facilmente. E, como outros casos mostram, funcionários públicos podem utilizar a ferramenta para monitorar pessoas específicas de seu interesse. A Índia de Modi dá uma dimensão deste risco: em 2020, durante um protesto pacífico, 1.100 ativistas foram presos a partir de reconhecimento facial.

A preocupação sobre o tema cresce em todo o mundo. Em 2019, o diplomata togolês Clément Nyaletsossi Voule, então relator especial para Liberdade de Expressão da ONU, defendeu a urgência de uma moratória global da venda, transferência e o uso de ferramentas de vigilância, afirmando que elas “podem interferir nos direitos humanos, desde o direito à privacidade e liberdade de expressão até os direitos de associação e reunião, crença religiosa, não discriminação e participação pública” e que “deve ser proibido o uso de técnicas de vigilância para fins de vigilância indiscriminada e não direcionada daqueles que exercem seu direito de reunião e associação pacífica, tanto em espaços físicos quanto digitais”. 

A vitória da articulação da qual a advogada faz parte, no entanto, é parcial: Ricardo Nunes afirma que não desistirá do Smart City, embora tenha cedido às pressões: “Suspendemos [a licitação], vamos corrigir eventuais pontos. É um sistema importante dentro do contexto de cidade inteligente, como ocorre nas principais cidades do mundo”. O objetivo das organizações sociais reunidas na campanha #TireMeuRostoDaSuaMira é banir o uso do reconhecimento facial pelo poder público, principalmente na Segurança Pública – e, para isso, ressalta Rachid, as ferramentas jurídicas, embora necessárias, serão insuficientes: será preciso politizar as tecnologias de vigilância e sua escalada no Brasil, através de novas (e mais amplas) articulações, mobilização da opinião pública, formação sobre os direitos na rede e incidência política para a aprovação de um projeto de lei sobre o tema. 

“Problematizar o reconhecimento facial, contestando a narrativa de que pode propiciar mais segurança às cidades, é uma disputa política, as quais devem ser ponderadas à luz do enfrentamento ao racismo, à vigilância racializada, à seletividade do sistema penal e ao encarceramento em massa no Brasil. O tema está em disputa – e o tecnossolucionismo não é caminho para mais segurança”.

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *