Memórias de Carnaval e Vigilância

Como a festa foi também, no Rio, SP e Salvador, laboratório de testes para o reconhecimento facial. Que algorítimos definem os alvos da filmagem? Quem armazena os dados? Entenda a discussão e os impactos sob a privacidade

.

Por Álvaro Okura de Almeida, Alexandre Arnz Gonzales, Rafael Sanches e Tathiane Moreira, no Boletim Lua Nova | Imagem: Alexandre Arns Gonzales, intervenção sobre foto da Agência Brasil

A intensificação da vigilância e a securitização cotidiana da vida urbana não tiram folga nem durante o Carnaval. Além da subversão autorizada, temporária e anônima dos valores e hierarquias sociais e políticas, nossa tradicional festa foi também atravessada por uma vontade de disciplina e controle. Para a segurança pública, o que aconteceu no Carnaval não se restringiu a ele .

Há tempos, para o policiamento, o Carnaval se enquadra em uma categoria mais genérica: a de  “grandes eventos”, entendidos como momentos em que multidões se aglomeram nas ruas. A mesma categoria é aplicada pelas  forças de segurança em acontecimentos como jogos de futebol ou manifestações políticas. Não é novidade que a segurança destes “grandes eventos” tem ganhado lugar de destaque na agenda estatal pelo menos desde o início dos ciclos de protestos em 2013, inflamados pela inépcia e brutalidade da ação policial e reforçados durante a Copa do Mundo (2014) e as Olimpíadas (2016) .

O conhecimento adquirido por meio das experiências passadas, conduziu à criação, pela Polícia Militar  de São Paulo (PM-SP), do mediador, figura  responsável por negociar com os “líderes” dos movimentos com o objetivo  de evitar qualquer “desordem”. Dentro deste contexto securitário, a novidade no Carnaval de 2019 ficou por conta da presença de câmeras de vigilância equipadas com tecnologia de reconhecimento facial, instaladas em lugares estratégicos de várias capitais brasileiras, como Salvador (BA) e Rio de Janeiro (RJ).

Os que defendem a estratégia de reconhecimento facial automatizada afirmam que o cruzamento entre as diversas bases de dados públicas – como, por exemplo, a de procurados pela polícia e desaparecidos-, com as imagens das pessoas que passam pelas lentes dos dispositivos instalados em locais públicos auxilia a ação policial em casos de tumultos ou crimes e, assim, se soma como força de inteligência ao aparato que visa a garantia da segurança pública.

Desse ponto de vista, ser observado, e possivelmente reconhecido, significaria o aumento do risco e do medo da punição por parte de criminosos e baderneiros, o que aumentaria  também a sensação de segurança e tranquilidade para aqueles sem nada a temer ou esconder [1]. Atualmente, a vigilância e a identificação  em tempo real é possível porque a arquitetura da técnica digital tornou-se robusta. Além do custo decrescente da velocidade de conexão e a expansão da capacidade de armazenamento, tratamento e processamento de grandes bancos de dados, o alcance destes instrumentos tem sido alargado por investimentos públicos e parcerias com grandes empresas privadas do setor.

 Cada vez mais complexos e diversificados, os algoritmos, série de procedimentos programados que de instruem as máquinas a reagirem a determinados inputs de informação, automatizam atividades analíticas e de manipulação da informação que só podiam ser sonhadas por agentes humanos há uma década. O processamento das imagens em técnicas de machine learning já permite o monitoramento e identificação de virtualmente todos e cada um dos indivíduos sob sua área de incidência. Empresas como a chinesa Huawei, presente no Carnaval do Rio de Janeiro, se vangloriam da velocidade e do alto grau de eficácia no reconhecimento de indivíduos procurados e atitudes suspeitas em meio à multidão em vídeos publicados na Internet e feiras do setor.

Para além da questão da eficácia dessas câmeras em seus propósitos declarados, o uso intensivo e indiscriminado desse tipo de parafernália suscita questões importantes sobre a legalidade e a legitimidade destes instrumentos. Desde logo é possível perguntar: quem, além da ação automatizada dos algoritmos, está por trás das câmeras? Como é realizada a proteção desses dados? Quais são os bancos de dados que estão sendo cruzados? Quem armazena, qualifica e indexa esses bancos de dados? Como eles são construídos? Qual a relação entre os dados gerados por agências públicas e os bancos de dados privados? A quem é garantido o acesso e a quem é negado? Que arquivos  são esses  de suspeitos e atitudes ilícitas que estão sendo monitorados? O que está sendo registrado? O que são as “boas práticas” de utilização desses instrumentos nas cidades inteligentes quando ainda não há legislação vigente?

Desse modo, a parceria público-privada no processo de dataveillance [2] suscita o questionamento sobre os limites para o uso, a venda e o compartilhamento dos dados mobilizados. Vale lembrar que a Lei Geral de Proteção de Dados Pessoais (LGPD), que entrará em vigor em 2020, ainda não tornou claros seus efeitos práticos sobre esse cenário.

O fato das câmeras de vigilância aditivadas pelo reconhecimento facial emergirem necessariamente vinculadas às tecnologias de informação e comunicação digital indica que não se trata simplesmente de uma câmera gravadora, mas de um sensor digital para identificação e rastreamento de sujeitos em locais abertos e fechados em meio à multidão. Nesse caso, como fica a produção dos falsos reconhecimentos em que cidadãos desavisados e inocentes podem sofrer as consequências de um viés ou preconceito embutido no algoritmo?

Os algoritmos, e as técnicas de Machine Learning, utilizados nas tecnologias de reconhecimento facial permitem a criação de novos padrões e a produção de modelos analíticos que podem ser mobilizados em tentativas preditivas sobre padrões de criminalidade, por exemplo. Desse modo, os algoritmos são capazes de modificar os critérios de tomadas de decisão dos agentes de segurança, seguindo uma lógica que, na maioria das vezes, escapa à compreensão humana. Esse modo de proceder em relação aos resultados obtidos por cálculos dos algoritmos levanta a problemática da culpabilidade. Quem deve ser imputado responsável no caso, por exemplo, de possíveis conclusões falaciosas, resultados falso-positivo? O que garante que vieses injustos e discriminatórios não estejam em operação, -como a suposição de que pessoas negras, por exemplo, têm maior propensão a cometer crimes devido à proporção de presença da etnia na população carcerária -?.

O interesse das práticas de vigilância por reconhecimento facial, facilitado pelas máquinas contemporâneas de ver e ser visto, não é entender o ser humano em seu contexto sociológico, ontológico ou psicológico; visto enquanto um ser complexo, individual, reflexivo. O objetivo é tomá-lo enquanto um “divíduo” que pode e deve ser fracionado em uma miríade de registros objetivos. O objetivo  não é dar sentido aos atos humanos, mas sim mapeá-lo se medi-los em nome da geração de valor ou para fins punitivos.

De modo geral, a datificação massiva dos comportamentos e acontecimentos sociais incide sobre a gestão de certos saberes a respeito da vida social que não se restringem à produção de valor econômico. Servem, também, de insumo às estratégias de coordenação, gestão e governo da sociedade. Na medida em que conseguirem inferir predição e antecipação dos comportamentos – com referências cruzadas e cálculos de probabilidades – estes dados e informações podem servir ao propósito conservador de controlar o ambiente e as situações sociais e incidir sobre os comportamentos para reduzir as imprevisibilidades inerentes à vida coletiva. Saberes que se prestam, por isso, não só à valorização do capital, mas que informam dispositivos voltados à gestão conservadora do mundo social e político.

 Trata-se de uma nova maneira de se governar as condutas, marcada pela busca da objetividade, da eficiência e da segurança. Do ponto de vista dos sujeitos, corre-se, portanto, o risco de normalizar a presença desses sensores digitais, aderindo à normatividade implícita de cisão do social entre os bons cidadãos e aqueles indesejados, além de introjetar um comportamento obediente e vigilante.

Na distopia de um panóptico a céu aberto, que já não parece tão distante, talvez o Carnaval sirva como plataforma de teste de mecanismos mais acurados de identificação e antecipação das ações daqueles que ousam ocupar os lugares públicos, independentemente de fantasias, máscaras e perucas. Para não somente separar foliões de bandidos e arruaceiros, mas de todos aqueles que um dia, porventura, desafiarem a ordem nos “grandes eventos”.

[1] No Brasil, outros espaços também adotam tecnologias sutis de reconhecimento facial, como, por exemplo, os aeroportos e postos da Receita Federal. .

[2] Práticas de vigilância fundada em quantidades massivas de dados.

Referências bibliográficas:

BRUNO, Fernanda. Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Porto Alegre: Editora Sulina, 2013.

VAN DIJCK, José. Datafication, dataism and dataveillance:  Big Data between scientific paradigm and ideology. Surveillance & Society v.12, n.2, 2014. pp. 197-208.Disponível em: http://www.surveillance-and-society.org

Leia Também: