Desinformação: como enquadrar as big techs

Há um caminho apressado, que está em voga mas poderá dar ainda mais poder a estas corporações. Há uma alternativa, recém proposta pelo Comitê Gestor da Internet. Ela separa o joio do trigo e concentra o fogo em quem produz manipulação algorítmica

.

Talvez por falta de percepção da complexidade do ecossistema de plataformas e da web, muitas boas vozes, em favor da democracia e contrárias à concentração de poder nas mãos das big techs, vêm propondo a derrubada do Artigo 19 do Marco Civil da Internet (MCI). O Artigo 19, publicado junto com o MCI em 2014, procura impedir a censura e diz explicitamente que “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências”. De fato, Google e Meta, por exemplo, vêm usando o Artigo 19 do MCI para argumentarem que só podem ser responsáveis civilmente por conteúdos gerados por terceiros após ordem judicial específica. E aí, nesse Palmeiras e Corinthians eterno da política, se o inimigo é a favor de algo parece lógico dizer: soy contra.

É fato que muitas das atividades das plataformas digitais têm gerado problemas graves para a sociedade. Por isso, uma parcela do Judiciário vem questionando a constitucionalidade do Artigo 19 do MCI, principalmente, pela (não) moderação de conteúdos conduzida pelas plataformas. Mas a pura e simples derrubada do Artigo 19 pode trazer complicações importantes e fazer quase nada para o tão sonhado saneamento do ambiente online. Ao contrário, pode dar ainda mais poder às plataformas.

O diabo está, em particular, nisso que o MCI chama de “aplicações de internet”, termo que vai bem além do que entendemos por big techs. Hoje, já temos uma boa literatura consolidada para definir os que são plataformas digitais dentro desse universo de “aplicações”. Em 2014, não era bem assim, ainda que o termo já fosse usado misturado com redes sociais ou mídias sociais. Para os movimentos em favor da cultura e softwares livres, o debate que leva ao Marco Civil se dá ao longo dos 2010s, e está em muito associado à luta contra o notice and take down. Essa prática, defendida tanto por grandes detentores de direitos autorais (gravadoras e Hollywood) quanto por políticos que não gostam de ser criticados, propunha que os “provedores de aplicação” tinham que retirar imediatamente o conteúdo postado assim que notificados por uma parte queixosa, sob o risco de serem co-responsabilizados.

No seu espírito, o Artigo 19 ainda é uma boa regra, que protege o direito de crítica e garante que os casos específicos sejam julgados por uma terceira parte, o Judiciário. A grande referência inspiradora é o decálogo do Comitê Gestor da Internet (CGI), que coloca, no seu item 7 que “o combate a ilícitos na rede deve atingir os responsáveis finais e não os meios de acesso e transporte, sempre preservando os princípios maiores de defesa da liberdade, da privacidade e do respeito aos direitos humanos”. Era o que se buscava, responsabilizar aqueles que de fato estão cometendo os ilícitos. Porque julgar o que é e o que não é ilícito não é lá algo muito simples e obrigar alguém a cuidar de um espaço significa dar a esse ator também a tarefa de julgar. Queremos que as big techs determinem isso pra nós? Sabemos bem pra que lado o X vai tender a julgar.

Uma tipologia de funcionalidades das aplicações

Para preservar o espírito de seu decálogo, atualizar o debate, e desfazer a confusão provocada pela cínica argumentação das big techs, o CGI lançou, no dia 18 de março, em evento em Brasília, um documento intitulado Tipologia de provedores de aplicação”. Trata-se de um texto técnico que dialoga diretamente com os debates sobre o Artigo 19. No STF, o CGI vem se alinhando àqueles que apontam que essa constitucionalidade precisa ser entendida em conformidade com as regras constitucionais. Mas a tipologia não vai na linha jurídica, procura ser uma contribuição classificatória das diferentes funcionalidades exercidas por variados provedores de aplicações.

No centro dessa classificação está perceber como os provedores manipulam a circulação de conteúdos de terceiros. Ou seja, é preciso saber até que ponto a plataforma atua sobre o que é postado por seus usuários. Porque há algumas que simplesmente hospedam conteúdos. Mas há outras que os “viralizam”, os tornam isca bélica para capturarem a nossa atenção e produzirem o tal desejado engajamento (curte, comenta, compartilha), que gera mais captura de dados e mais lucro. Ótimo exemplo é o Facebook que, em 2018, foi alertado por seus funcionários que seus algoritmos estavam promovendo mais radicalização e privilegiando conteúdos divisivos, mas resolveu ignorar em nome dos lucros (vale ler sobre as denúncias feitas no caso Facebook Papers. Por outro lado, seria descabido derrubar o WordPress inteiro, um serviço de hospedagem de blogs, porque algum alucinado decidiu colocar seu conteúdo ali. Isso torna essa plataforma diferente de uma rede social como o Instagram ou YouTube. O WordPress não atua para promover os conteúdos de seus usuários e, no caso de eventualmente fazer isso, deve ser responsabilizado nesse caso específico.

Nosso caos informacional contemporâneo não tem a ver tanto com a baixa qualidade de conteúdos na Internet. Mas sim está relacionado com o fato de que um punhado de corporações é hoje mediadora ativa no nosso consumo de conteúdos, edita as timelines de textos e vídeo de todos nós que consumimos informação diariamente.

A tipologia do CGI vai na linha de diferenciar os “provedores de aplicação a partir de suas funcionalidades e dos níveis de interferência sobre a circulação do conteúdo de terceiros”. E assim estabelece três tipos: provedores de aplicação com funcionalidades sem interferência sobre a circulação de conteúdo de terceiros; provedores de aplicação com funcionalidades de baixa interferência sobre a circulação de conteúdo de terceiros; e provedores de aplicação com funcionalidades de alta interferência sobre a circulação de conteúdo de terceiros. Com isso, ajusta a mira do Judiciário para esse terceiro tipo, que de fato se torna co-responsável pelas mensagens que espelha por aí, usando dados coletados em operações de vigilância e perfilização. E faz essa ação a partir de funcionalidades específicas referenciadas no documento, “impulsionamento próprio [ a famigerada recomendação algoritimica] ou pago, publicidade direcionada, dentre outras”.

Foco na atuação concreta dos agentes

Para além das disputas judiciais, essa categorização é útil, e globalmente pioneira, por jogar luz nas práticas concretas das plataformas. O foco nas funcionalidades ajuda a especificar as ações das plataformas que precisam de maior escrutínio público e regulação, para que elas não se esquivem covardemente culpando seus usuários por 100% do dano ou com platitudes bonitas sobre conectar o mundo. Não é a natureza humana dos usuários que é necessariamente má, é o ambiente das plataformas que se torna parceira de negócios daqueles que buscam despertar os instintos mais primitivos.

De maneira inteligente, o documento evita adentrar no que seria o regime adequado de responsabilização das plataformas. Não faz uma proposta de regulação, mas contribui com algo que pode vir a surgir a partir de um olhar complexo para o ecossistema. Faz sua contribuição técnica e ajuda a estimular um debate qualificado com outros atores competentes.

Evita também discutir proporcionalidade de responsabilização a partir dos riscos, ou seja, os potenciais impactos negativos que essas plataformas podem exercer sobre a sociedade devido à sua escala, modelo de negócios e influência, algo frequente na literatura jurídica. Trata-se de uma discussão importante, já que plataformas que intermedeiam o contato de milhões de pessoas não podem ser equiparadas a pequenas iniciativas experimentais. Ao mesmo tempo, pequenos núcleos de criação e contato de incels, por exemplo, podem ser profundamente perigosos. É uma discussão complexa mas que pode ser acoplada à da tipologia como se fosse uma segunda camada.

Outra camada importante que é deixada de lado é a da economia. Está claro que o dinheiro, junto com a política, é um motivador da desinformação, seja pelas práticas do capitalismo de vigilância praticado pelas plataformas ou por iniciativa de atores secundários. Pesquisas vêm apontando como produzir desinformação se tornou para alguns uma oportunidade de negócio (vale ler a dissertação de Jane Mesquita, “A máquina política e a política da máquina: um olhar sobre a direita no Youtube”, que tive o privilégio de orientar). A tipologia também ajuda nessa discussão essencial.

No debate de lançamento da tipologia, em Brasília, surgiram ponderações importantes, como o lembrete do professor do IDP, Francisco Britto Cruz, de que a recomendação algoritimica, tratada no documento do CGI como impulsionamento pago, nem sempre é negativa e indesejável. Entidades como a Artigo 19 (o nome não tem a ver com o MCI, mas com a declaração de direitos humanos), presente no debate, vêm propondo que a sugestão de conteúdos seja obrigatoriamente uma atividade independente, o que multiplicaria o cardápio de recomendações e permitiria escolha dos usuários.

Os votos expressos até o momento pelo STF sobre o Artigo 19 vão do equívoco voluntarista ao desastre de olho nos efeitos midiáticos. Que o documento do CGI, entidade multissetorial cuja missão legal é “estabelecer diretrizes estratégicas relacionadas ao uso e desenvolvimento da Internet no Brasil”, sirva para que os ministros se dêem conta da complexidade, das oportunidades e dos desafios de se incidir sobre uma internet que garanta a soberania do Brasil e seja justa aos brasileiros.

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *