Redes sociais: a possível diáspora
Após adesão das Big Techs à ultradireita, surge uma saída: redes federadas como Mastodom ou Bluesky, onde usuários do mundo todo usam a mesma plataforma, mas as regras de moderação são definidas por comunidades autônomas
Publicado 30/01/2025 às 18:33 - Atualizado 30/01/2025 às 18:41
Como chegamos aqui? O sistema centralizado de moderação de conteúdo, que começou a se fragmentar, foi moldado por uma combinação de valores políticos norte-americanos, normas sociais e realidades econômicas, como argumentou a pesquisadora e professora Kate Klonick na Revista de Direito de Harvard, em 2018.
O ensaio de Klonick, The New Governors, detalha como as políticas de governança das plataformas foram amplamente elaboradas por advogados dos EUA, cuja formação estava voltada para a Primeira Emenda à Constituição do país [– a que protege a “liberdade de expressão”].
Essas plataformas eram de propriedade privada e operadas por empresas, mas sua governança seguia o espírito da legislação norte-americana. No entanto, a maioria delas também considerava seu dever moderar conteúdos “obscenos, violentos ou de ódio”.
Isso se devia, em parte, ao desejo de serem vistas como ligadas a “boas práticas corporativas”, mas também era uma questão puramente pragmática: “A viabilidade econômica depende de atender às normas de discurso e comunidade dos usuários”, escreveu Klonick. Quando as plataformas criavam ambientes que atendiam às expectativas dos usuários, estes passavam mais tempo no site, e a receita poderia aumentar. Economia simples.
No entanto, enquanto as plataformas buscavam equilibrar responsabilidade corporativa, segurança dos usuários e viabilidade econômica, as regras tornaram-se cada vez mais pontos de conflito. As decisões de moderação de conteúdo passaram a ser vistas não como governança neutra, mas como julgamentos carregados de valores — declarações implícitas sobre quais vozes eram bem-vindas e quais não eram.
A remoção pelo Facebook da icônica foto Garota do Napal, em 2016 — devido à aplicação automatizada de regras contra nudez — provocou uma reação global, forçando a plataforma a reverter sua decisão e reconhecer as complexidades da moderação em larga escala.
Na mesma época, o Twitter enfrentou críticas por não responder adequadamente ao crescimento de propagandistas do Estado Islâmico e a campanhas de assédio como o Gamergate (um movimento online de 2014, supostamente sobre ética no jornalismo de games, mas amplamente visto como uma campanha de trolls contra mulheres do setor).
Esses incidentes ressaltaram as tensões entre a aplicação de padrões comunitários e a proteção da liberdade de expressão. Para muitos usuários, especialmente aqueles cujo discurso beirava o controverso ou ofensivo, os árbitros das grandes plataformas de tecnologia pareciam exercer um poder desproporcional, o que alimentava um sentimento de alienação e desconfiança.
À medida que essas forças convergiam e se consolidavam como o status quo da governança, aqueles que se sentiam insatisfeitos com esse modelo enfrentavam uma escolha clássica: sair ou protestar. Deveriam abandonar um produto ou uma comunidade em busca de opções melhores ou permanecer e expressar sua frustração, transformando-a em reivindicações por mudanças?
O economista alemão Albert Hirschman argumentou que a decisão entre sair ou se manifestar, para consumidores insatisfeitos, era mediada por um terceiro fator: a lealdade. A lealdade, esteja enraizada no patriotismo ou na afinidade com uma marca, pode manter os indivíduos ligados a uma instituição ou produto, tornando-os mais propensos a exigir mudanças do que simplesmente abandonar o espaço.
Durante anos, a lealdade às grandes plataformas tinha menos a ver com afeto e mais com realidades estruturais; o domínio monopolista e os poderosos efeitos de rede deixavam os usuários das redes sociais com poucas alternativas viáveis.
Havia poucos aplicativos com os recursos, a massa crítica ou o alcance necessários para atender às necessidades dos usuários em termos de entretenimento, conexão ou influência. Políticos e ideólogos também dependiam da escala das plataformas para propagar suas mensagens. As pessoas permaneciam, embora sua insatisfação crescesse.
A resposta foi a manifestação ativa. Políticos e grupos de defesa pressionaram as empresas para alterar suas políticas de forma a atender aos interesses de seus respectivos lados — um processo conhecido entre os estudiosos da moderação de conteúdo como “trabalhar os árbitros” (working the refs).
Em 2016, por exemplo, o “Trending Topicsgate” levou influenciadores de direita e veículos de mídia partidários a acusar o Facebook de supostamente rebaixar manchetes conservadoras em sua seção de tópicos em alta. Funcionou: o Facebook demitiu seus curadores humanos de notícias e reformulou o sistema. (O substituto, um algoritmo, rapidamente passou a espalhar manchetes sensacionalistas e falsas, incluindo algumas vindas de fábricas de trolls da Macedônia, até que a empresa finalmente decidiu eliminar o recurso.)
Organizações de inclinação progressista também “trabalharam os árbitros” ao longo dos anos, exercendo pressão para maximizar seus próprios interesses. Multidões partidárias online passaram a enxergar até mesmo decisões isoladas como evidência de um viés sistemático.
Decisões de moderação de conteúdo envolvendo disputas interpessoais aparentemente insignificantes eram ampliadas em controvérsias fabricadas — provas de que as plataformas estariam cedendo à política identitária ou perpetuando algum tipo de supremacia.
Havia um fundo de verdade: os moderadores realmente cometiam erros, ignoravam contextos e tomavam decisões equivocadas ao lidar com milhões de casos a cada trimestre. No entanto, à medida que a discordância se transformava em um esporte conflitivo, as plataformas se viram arbitrando uma guerra cultural cada vez mais intensa.
Esforços para impor ordem — para impedir que pessoas reais fossem vítimas de doxxing1, perseguição ou mesmo simples assédio — eram rotineiramente transformados em combustível para um novo ciclo de ressentimento tribal. Na direita, em particular, disputas sobre moderação foram reformuladas como batalhas existenciais sobre identidade política e liberdade de expressão.
O então presidente Donald Trump, em particular, irritado por ver seus tweets enganosos rotulados como tal, não foi sutil: passou a deslegitimar a própria moderação de conteúdo e a ameaçar ações regulatórias.
Intervenções básicas, como rótulos de verificação de fatos em declarações contestadas — e, às vezes, até a mera suspeita de intervenção (por exemplo, se um tweet não recebesse o engajamento esperado) — foram reformuladas como atos tirânicos de elites tecnológicas conspirando contra populistas de direita. Os árbitros deixaram de ser mediadores na guerra cultural; passaram a ser vistos como a oposição. À medida que essa narrativa se incorporava à identidade política da direita, o mercado respondeu oferecendo oportunidades de saída.
Plataformas como o Parler, que surgiu em 2018, foram criadas com o objetivo explícito de atender apoiadores de Trump, que agora acreditavam que as convencionais eram irremediavelmente tendenciosas. O Gettr e o Truth Social vieram em seguida, surgindo a partir de ressentimentos em torno da eleição de 2020 e dos distúrbios de 6 de janeiro. As novas plataformas alternativas de direita tinham árbitros do mesmo time, mas permaneceram pequenas — porque o preço a pagar era que havia poucos “liberais” para serem confrontados. Havia poucas oportunidades para brigas partidárias ou trolling. Havia poucos espectadores a serem potencialmente recrutados para uma causa preferida.
E assim, influenciadores políticos, figuras da mídia e políticos de todo o espectro continuaram a “trabalhar os árbitros” nas principais plataformas, onde as apostas — e as audiências — permaneciam muito maiores.
Então, em 2022, ocorreu uma mudança sísmica: Elon Musk, um verdadeiro crente na teoria dos árbitros corruptos, comprou o Twitter — e se autoproclamou o árbitro principal. A plataforma que ele passou a chamar de X sempre foi relativamente pequena, mas desproporcionalmente influente: sua concentração de pessoas obcecadas por mídia e política lhe rendeu o apelido de “praça pública”.
Mais precisamente, ela costumava funcionar como uma arena de gladiadores — um espaço caótico onde o consenso era moldado e indivíduos desavisados se tornavam os “personagens principais” de linchamentos virtuais.
Após a aquisição, Musk ofereceu uma “anistia” para aqueles que haviam caído em desgraça com os antigos árbitros — incluindo neonazistas declarados. Influenciadores de direita na plataforma aproveitaram a oportunidade para influenciar o novo árbitro com fervor, e Musk respondeu reformulando a governança de forma rápida e significativa a seu favor. Postagens que antes eram moderadas, como rumores infundados sobre eleições fraudadas ou o uso proposital de pronomes errados para pessoas transgênero, agora eram consideradas aceitáveis.
A insatisfação com o novo árbitro, as novas políticas e o ambiente geral do X levaram, assim, a um êxodo da esquerda política americana da plataforma. Inicialmente, as pessoas migraram para o Mastodon, que tinha a vantagem de já existir. Outra nova plataforma que entrou no mercado, o Bluesky, lançou sua versão beta com um modelo baseado apenas em convites, impulsionado por redes de indicação. A comunidade progressista rapidamente se estabeleceu na plataforma.
Em novembro de 2023, o Bluesky já contava com 2 milhões de usuários e reputação de ser um espaço fortemente alinhado à esquerda. Em julho de 2023, o “gorila de 800 quilos” entrou na competição pelos usuários insatisfeitos do Twitter: o Threads, da Meta.
Posicionado como um concorrente direto do X, o Threads se promoveu como uma plataforma “gerida de forma racional”, nas palavras do diretor de produtos Chris Cox. No entanto, a promessa de sanidade não protegeu o Threads das dinâmicas de “trabalhar os árbitros”. A decisão da liderança de restringir notícias políticas e bloquear algumas pesquisas relacionadas à pandemia gerou uma reação negativa de sua base de usuários, majoritariamente liberal (alguns dos quais passaram a promover o Bluesky como um lugar melhor para estar). Apesar dessas tensões, o Threads cresceu rapidamente, relatando 275 milhões de usuários ativos mensais até o final de outubro de 2024; era, como muitos usuários insatisfeitos suspiravam, melhor do que o X.
No entanto, em novembro de 2024, foi o crescimento do Bluesky que se acelerou dramaticamente, impulsionado pela reeleição de Trump e pelo alinhamento cada vez mais explícito de Musk com a extrema-direita. Musk, o usuário mais visível do X, bem como seu árbitro-chefe, tornou-se um defensor vocal de Trump e um propagador da teoria do roubo eleitoral, e os algoritmos de sua plataforma pareciam favorecê-lo, assim como seus aliados ideológicos.
A lealdade ao antigo Twitter diminuiu gradativamente entre os usuários mais influentes e ativos da plataforma. E assim, muitos optaram por sair: nas semanas seguintes à eleição, o Bluesky ultrapassou a marca de 25 milhões de usuários, impulsionado não tanto por seus recursos, mas pela insatisfação ideológica e pelo apelo de uma plataforma cuja governança parecia se alinhar mais de perto às normas progressistas.
Mas será que realmente se alinha?
Nova Governança, Novos Desafios
A Grande Descentralização — a migração das grandes plataformas centralizadas e padronizadas para espaços menores e ideologicamente distintos — é impulsionada por identidade política e insatisfação. No entanto, o mais interessante nessa última onda de migração é a tecnologia que sustenta o Bluesky, o Mastodon e o Threads — o que ela possibilita e o que ela limita inerentemente.
Essas plataformas priorizam algo fundamentalmente distinto de seus antecessores: a federação. Diferentemente das plataformas centralizadas, onde a curadoria e a moderação são controladas de cima para baixo, a federação se baseia em protocolos descentralizados — o ActivityPub para o Mastodon (que também é compatível com o Threads) e o AT Protocol para o Bluesky — que permitem abrigar os dados em servidores controlados pelos próprios usuários e transferem a moderação (e, em alguns casos, a curadoria) para o nível comunitário. Essa abordagem não apenas redefine a moderação; ela reestrutura a governança online em si. E isso porque, em grande escala, não há árbitros a serem influenciados.
É importante entender os ganhos e perdas. Se as plataformas centralizadas, com suas regras e algoritmos controlados de cima para baixo, são “jardins murados”, as redes sociais federadas podem ser melhor descritas como “jardins comunitários”, moldados por membros conectados por laços sociais ou geográficos frouxos e um interesse compartilhado em manter um espaço comunitário agradável.
Neste ambiente, conhecido tambem como “fediverso”, os usuários podem ingressar em servidores alinhados com seus interesses ou comunidades — ou criar os seus próprios. Geralmente, esses servidores são administrados por voluntários, que gerenciam os custos e estabelecem regras localmente.
A governança também é federada: embora todos os servidores do ActivityPub, por exemplo, compartilhem um protocolo tecnológico comum, cada um define suas próprias regras e normas e decide se deseja interagir com a rede mais ampla ou se isolar dela. Por exemplo, quando a plataforma Gab, declaradamente favorável a neonazistas, adotou o protocolo do Mastodon em 2019, outros servidores se desfederaram dela em massa, cortando laços e impedindo que o conteúdo do Gab chegasse a seus usuários. No entanto, o Gab persistiu e continuou a crescer, destacando uma das limitações importantes da federação: a desfederação pode isolar atores problemáticos, mas não os elimina.
As plataformas baseadas em protocolos oferecem um futuro potencial significativo para as redes sociais: um federalismo digital, onde a governança local se alinha a normas comunitárias específicas, mas permanece vagamente conectada a um todo maior. Para alguns usuários, a escala menor e o maior controle possível nas plataformas federadas são atrativos. No Bluesky — que, por enquanto, ainda é gerenciado por uma única instância, controlada pela equipe de desenvolvimento — os usuários mais experientes estão criando ferramentas para personalizar a experiência.
Há listas de bloqueio compartilháveis, feeds curados (visualizações que permitem aos usuários ver as postagens mais recentes sobre um tópico definido por um criador, como notícias, jardinagem ou esportes) e ferramentas de moderação gerenciadas pela comunidade, que permitem a aplicação de rótulos de categorização para postagens ou contas (“Conteúdo Adulto”, “Discurso de Ódio”, etc.). Esses recursos permitem que os usuários adaptem seu ambiente a seus valores e interesses, dando-lhes mais controle sobre quais postagens veem — desde discursos inflamados até nudez e política — e quais são ocultadas por um aviso ou completamente invisibilizadas. E embora, atualmente, haja um rotulador de conteúdo centralizado controlado pela equipe de moderação do Bluesky, os usuários também podem simplesmente desativá-lo.
Para alguns, esse nível de autonomia é atraente. No entanto, a maioria dos usuários nunca altera as configurações padrão de um aplicativo: o que eles realmente buscam é alívio do drama, do caos e do desalinhamento ideológico percebido em outros espaços. Eles não são atraídos por conceitos como “moderação componível” ou “governança federada” — muitos, na verdade, parecem nem compreender totalmente o que isso implica — mas sim pelo clima da instância.
O Bluesky, em sua missão de construir um protocolo que, no fim das contas, tornaria a moderação centralizada amplamente irrelevante, teve, no entanto, que quadruplicar rapidamente o tamanho de sua equipe de moderação à medida que os usuários inundaram a plataforma. E é por isso que é importante entender que a migração para longe dos árbitros centralizados traz compensações muito reais.
Sem uma governança centralizada, não há uma única autoridade para mediar questões sistêmicas ou aplicar regras de forma consistente. A descentralização impõe uma grande carga sobre os administradores das instâncias individuais, em sua maioria voluntários, que podem não ter as ferramentas, o tempo ou a capacidade para lidar com problemas complexos de forma eficaz.
Parte do meu próprio trabalho, por exemplo, tem se concentrado no grande desafio de lidar até mesmo com conteúdos explicitamente ilegais — como imagens de exploração infantil — no fediverso. A maioria dos servidores administrados por voluntários não está equipada para lidar com essas questões, o que expõe os administradores a responsabilidades legais e deixa os usuários vulneráveis.
A aplicação fragmentada das regras deixa brechas que atores mal-intencionados, incluindo manipuladores patrocinados por Estados e spammers, podem agir com relativa impunidade. A verificação de identidade é outro ponto fraco, levando a riscos de falsificação de identidade que as plataformas centralizadas normalmente gerenciam de maneira mais eficaz. Práticas de segurança inconsistentes entre servidores podem permitir que agentes mal-intencionados explorem os elos mais fracos.
Embora a federação ofereça mais autonomia aos usuários e promova diversidade, ela torna significativamente mais difícil combater danos sistêmicos ou coordenar respostas a ameaças como desinformação, assédio ou exploração. Além disso, como os administradores de servidores só podem moderar localmente — ou seja, só podem ocultar conteúdo no servidor que operam — postagens de um servidor podem se espalhar por toda a rede para outros servidores, havendo poucos recursos para sua contenção. Postagens promovendo pseudociências prejudiciais (“beber água sanitária cura o autismo”) ou doxxing podem persistir sem controle em alguns servidores, mesmo que outros rejeitem ou bloqueiem o conteúdo.
Além dos desafios de lidar com conteúdos ilegais ou prejudiciais, a Grande Descentralização levanta questões mais profundas sobre a coesão social. A fragmentação das plataformas agravará os silos ideológicos e corroerá ainda mais os espaços compartilhados necessários para o consenso e o compromisso?
Nossos espaços de comunicação moldam nossas normas e nossa política. As próprias ferramentas que agora permitem aos usuários fazer a curadoria de seus feeds e bloquear conteúdos indesejados podem também amplificar divisões ou reduzir a exposição a perspectivas divergentes. Listas de bloqueio criadas por comunidades, embora úteis para grupos específicos que buscam evitar trolls, são instrumentos brutos. Pessoas com visões mais nuançadas sobre questões polêmicas, como a política de aborto, podem acabar se autocensurando para evitar serem “rotuladas erroneamente” e excluídas. Eventos recentes no Bluesky ilustram esses desafios. O desafio do consenso não é mais apenas difícil — ele está sendo estruturalmente reforçado.
O que vem pela frente
Gostando ou não delas, as políticas centralizadas e a aplicação de regras de cima para baixo definiram a experiência das redes sociais em grandes plataformas como Facebook, Twitter e YouTube por duas décadas. Como Nilay Patel, do The Verge, disse, a moderação de conteúdo é “o produto” dessas plataformas. As decisões tomadas pelas equipes de moderação moldam não apenas o que os usuários veem, mas também o quão seguros ou ameaçados eles se sentem. Essas políticas tiveram efeitos profundos, não apenas em fenômenos sociais como a democracia e a coesão comunitária, mas também no bem-estar dos usuários individuais.
Se a Grande Descentralização continuar, essa experiência mudará.
A moderação centralizada, apesar de imperfeita, cara e opaca, ainda assim oferecia regras bem definidas, tecnologia sofisticada e equipes de aplicação profissionalizadas. As críticas a esses sistemas frequentemente surgiam de sua falta de transparência ou de erros ocasionais de grande repercussão, que alimentavam percepções de viés e insatisfação. Essa crise de legitimidade acabou inclinando a balança da manifestação ativa para a saída — e agora, a construção de um novo espaço público digital representa tanto um desafio quanto uma oportunidade.
Sim, existe o potencial para espaços online verdadeiramente democráticos, livres das relações desiguais que, até agora, definiram a relação entre plataformas e usuários. Mas a concretização desses espaços exigirá um trabalho significativo.
Também há a questão iminente da economia. As alternativas federadas precisam ser financeiramente sustentáveis se quiserem persistir. Atualmente, o Bluesky é financiado principalmente por capital de risco; já se falou na possibilidade de assinaturas pagas e recursos premium no futuro. Mas, se as últimas duas décadas de experimentação com redes sociais nos ensinaram algo, é que os incentivos econômicos inevitavelmente exercem um impacto desproporcional sobre a governança e a experiência do usuário
Tecnólogos (eu incluída) adoram falar sobre inovação mais rápida, melhor privacidade e controle mais granular do usuário como o futuro das redes sociais. Mas isso não é o que a maioria das pessoas pensa. A maioria dos usuários quer apenas bons serviços, riscos mínimos para seu bem-estar e um ambiente geralmente positivo e envolvente. Ironia: esses são precisamente os resultados que a moderação tentou oferecer.
O argumento de que os aspectos negativos da participação nas redes sociais — desinformação, doxxing e assédio — são emblemáticos do triunfo da “liberdade de expressão” foi amplamente rejeitado; muito poucos usuários realmente passam tempo em comunidades “absolutistas” onde vale tudo; o 8chan, por exemplo, nunca foi amplamente popular. E, no entanto, nossa incapacidade de concordar sobre normas e valores compartilhados, tanto online quanto offline, está nos empurrando para espaços online cada vez mais distintos.
Os usuários que estão migrando para o Bluesky estão sendo atraídos pela cultura de sua instância principal, que lembra um pouco o velho Twitter de 2014 — uma época mais simples e menos tóxica. Eles anseiam por um retorno a uma sociedade menos divisiva e hostil. Esse anseio reflete uma verdade mais profunda: as plataformas online não apenas refletem nossos valores offline; elas os influenciam ativamente.
As plataformas federadas nos darão a liberdade de curar nossa experiência online e criar comunidades onde nos sentimos confortáveis. Elas representam mais do que uma mudança tecnológica — são uma oportunidade de renovação democrática na esfera pública digital. Ao devolver a governança aos usuários e às comunidades, elas têm o potencial de reconstruir a confiança e a legitimidade de maneiras que as plataformas centralizadas já não conseguem mais.
No entanto, também correm o risco de fragmentar ainda mais nossa sociedade, à medida que os usuários abandonam os espaços compartilhados onde a coesão social mais ampla poderia ser construída.
A Grande Descentralização é um reflexo digitalizado de nossa política polarizada que, daqui para frente, também continuará a moldá-la.
1Ação de revelar informações de identificação sobre alguém na Internet, como seu nome real, endereço residencial, local de trabalho, telefone, dados financeiros e outras informações pessoais. Essas informações então circulam para o público, sem a permissão da vítima.