IA: os novos “Agentes” e os riscos à democracia

Ainda nem compreendemos o ChatGPT e seus similares, e já surgem novos sistemas, que prometem realizar tarefas complexas para pessoas e empresas. O que são. Por que as corporações digitais os lançam sem debate ético a seu respeito. Que riscos implicam

.

Os “Agentes de IA” derivam da capacidade dos sistemas de inteligência artificial (IA) de planejar e executar de maneira autônoma tarefas complexas em um cenário de envolvimento humano mínimo. Apoiam-se nos desenvolvimentos dos grandes modelos de linguagem, mas o que os diferencia é tomarem iniciativa. Ao invés de esperarem “ser acionados”, como ocorre quando solicitamos algo por comando de voz (por exemplo, na “Alexa”), pressionamos um botão ou microfone na tela (“Siri”, “Gemini” ou “Cortana”), ou acionamos por escrito em plataformas como Open AI, Midjourney e outras, os “Agentes de IA” executam tarefas de maneira independente, para o cumprimento de determinados objetivos.

Estes agentes já povoam o imaginário tecnocientífico há décadas, em especial com novos desenvolvimentos a partir dos anos 1980. No final do milênio, propagandas de vídeo com cenários de um futuro mediado pelas tecnologias (um exemplo é “Cool Town” da HP) começam a ser apresentadas ao público. Indicavam as vantagens de ter sistemas automatizados decidindo pelas pessoas, para lhes poupar tempo e mesmo salvar vidas. Referiam-se, por exemplo, a uma pessoa idosa vivendo sozinha que desmaia, com o socorro acionado imediatamente; ou alguém que, ao dirigir por uma estrada, sofre uma pane no carro – a assistência chega e se antecipa a qualquer iniciativa humana para resolver o problema.

Porém, naquele período não se pensava nas implicações sobre a privacidade no uso de tais recursos. Todo o desenvolvimento do que ficou conhecido como Internet das Coisas (IoT, em inglês), em que sistemas gerenciam as ações necessárias em uma casa, sem a presença e comando dado por humanos, vem sendo discutido ao longo das últimas duas décadas em seus “prós” e “contras”. Um dos aspectos para que chamo atenção, em minhas investigações, é sobre o quanto tais sistemas indicam um olhar sobre o mundo, modelos de vida considerados desejáveis, além das divisões entre quem tem ou não têm acesso às infraestruturas, recursos e espaços para ‘bancar’ estes modelos.

Os “agentes de IA” são, portanto, uma nova versão de sistemas autônomos, dos quais ainda não temos pleno conhecimento, à parte exemplos de aplicativos como Replika e afins, que são IAs voltadas a atender lacunas afetivas, aprendendo sobre as características, desejos, anseios e medos de seus “usuários” para lhes apresentar algum “conforto emocional”. Sim, um dos primeiros episódios da série “Black Mirror” exibido inicialmente na Inglaterra em 2013 chamada “Be right back” foi inspirada na história que resultou no desenvolvimento da Replika, esta que começou como um modelo de “start up” em 2012 e foi disponibilizada inicialmente em fases de teste em 2017 com capacidade de conversação apenas em inglês. Desde então veio crescendo, ampliando o número de usuários até chegar ao cenário atual de cerca de 30 milhões. Fato ainda a ser revelado em nossos estudos para melhor entender os desafios e complexidades de um mundo em que interagir com dispositivos técnicos e sistemas computacionais não é uma opção, são os impactos psíquicos e suas consequências diretas.

O primeiro susto após a declaração do CEO da Meta, Mark Zuckerberg, em 7 de janeiro, foi pensar que com a emergência dos agentes de IA, a infodemia de notícias falsas e tendenciosas pode tomar dimensão de algo que não apenas está “fora de controle” mas também é difícil de absorver, refletir, reagir e discernir. Isto de certa forma já está acontecendo nos últimos anos, à medida que os desenvolvimentos de IA tomam uma velocidade sem precedentes, a partir do crescimento exponencial de interconectividade na primeira década do século 21, aumentando o acesso de dispositivos capazes de coletar dados, diariamente, 24/7, de milhões a bilhões de pessoas em todo o mundo.

Se no início de 2023 havia uma grande corrida e disputa entre os grandes investidores em IA para alcançar e ultrapassar os melhores resultados com os grandes modelos de linguagem, neste ano entramos em nova corrida — a de quem será capaz de oferecer os “Agentes de IA” mais eficientes. Neste momento, análises especializadas e estudos de pesquisa experimental estão sendo publicados como preprints, sites alternativos e em formato de relatórios, devido às necessidades de atender a rápidas mudanças. Em um deles se diz: a questão não é se os agentes de IA se tornarão ubíquos, mas quando. Enquanto estamos tentando nos recuperar de uma onda que chega com força, procurando entender os seus impactos nas instituições, no trabalho, sistemas de saúde, educação e diversos setores da economia, temos mais uma onda forte chegando. E, mais uma vez, o mercado dispõe da prerrogativa de desenvolver “produtos” que possuem um forte impacto na sociedade sem que exista um processo de adequação e integração destes desenvolvimentos com as partes interessadas, afetadas, e mais impactadas.

Existem muitas questões envolvendo os debates éticos e de justiça quando estamos tratando de sistemas com certos níveis de autonomia. Não entraremos neste debate agora, pois o objetivo deste texto é refletir sobre as graves ameaças ao bem estar individual e coletivo, assim como às democracias, quando estes agentes estiverem, possivelmente, a serviço da desinformação e manipulação da opinião pública.

Quando se trata de inovação, há um conjunto de símbolos, um léxico, que associa novos “produtos” a oportunidades de mercado em ações que podem beneficiar as pessoas, com aplicações dentro de um sistema de consumo de bens e serviços. Um “agente de IA” pode resolver transações no mercado em nome de investidores, fazer publicações de engajamento de conteúdo e tomar decisões que embora pareçam ações práticas e mesmo mecânicas, possuem camadas “invisíveis” com consequências ainda desconhecidas.

Por exemplo, os “agentes de IA” tenderão a ter acesso à informações que os seus signatários não possuem e suas decisões serão tomadas dentro de um ambiente privilegiado onde o humano está em situação vulnerável. Como aplicar um “consentimento informado” sem que exista a possibilidade de total conhecimento das variáveis e fórmulas utilizadas por estes sistemas?

Estas são algumas das questões a serem observadas do ponto de vista conceitual, ético e legal. Podemos facilmente prever que, uma vez que estes sistemas já estão disponíveis, não existe qualquer garantia de que não serão utilizados de maneira “invisível” em plataformas que interagem com o público. Não apenas em mídias em que as pessoas podem entrar, continuar ou sair, como também em outros sistemas computacionais que mediam os diversos setores da vida e aos quais não há opção sobre interagir ou não com eles.

Se muita coisa mudou nos desenvolvimentos de IA desde os primeiros desastres com “chatbots” como a Tay, da microsoft no Twitter em 2016, estamos longe de alcançar um ambiente digital seguro. Em especial quando executivos das maiores empresas de tecnologia, que lucram com as bilhões de pessoas conectadas às suas redes, revertem as conquistas que envolvem aplicações de segurança, tais como os filtros para checagem de fatos, entre outras medidas. Embora a declaração de Mark Zuckerberg se aplique inicialmente aos Estados Unidos, os argumentos de que existem “vieses políticos” sobre o que é legítimo e verdadeiro anuncia um acirramento das disputas de narrativas, com aumentos de polarizações que têm aumentado a violência interpessoal, tendências ao isolamento e agravamento das condições psíquicas de pessoas em todo o mundo.

O que precisamos compreender hoje é o quanto estes novos produtos de IA vêm carregados de informações formatadas e sintéticas. Mesmo que no Brasil permaneçam alguns filtros, o que será aplicado no desenvolvimento de base poderá afetar campos sutis como o marketing político, em modelos ainda presentes e melhores desenvolvidos, para além do que foi a “Cambridge Analytica”.

O termo “democracia” já vêm sendo questionado e combatido desde há alguns anos. Em entrevista ao programa “Democracy Now”, Marc Owen Jones, autor de Autoritarismo Digital no Oriente Médio: decepção, desinformação e mídias sociais (tradução livre), debate algo relevantes sobre o uso das tecnologias digitais para atender a objetivos do autoritarismo. Segundo ele, isso demonstra também que companhias como a Meta estão se posicionando, ao submeter estas tecnologias de acesso geral aos interesses de uma elite que lucra com a “pós verdade”, ou seja, com o descompromisso de responder aos fatos.

A sustentação de uma “realidade paralela” (por exemplo, um Brasil Paralelo) tem sido um “dispositivo” de valor para os grupos que querem desconsiderar direitos sociais e ambientais, enquanto as Big Techs concentram renda na mesma medida que direitos conquistados desde o século passado vão colapsando e a necropolítica se alastra com os usos e abusos dos corpos mais vulnerados. Ampliação de desigualdades, miséria, precarização da vida, do trabalho e da própria observância dos conceitos fundamentais da justiça.

Marc Owen Jones destaca que os líderes autoritários querem promover o medo, de modo que as populações vejam o mundo através dos seus olhos. Uma “receita”, a propósito, sistematizada e apresentada por Maquiavel há mais de 500 anos.

Também entrevistada pelo programa liderado pela jornalista novaiorquina Amy Goodman, jornalista filipina Maria Angelita Ressa, vencedora do Prêmio Nobel e autora de Como enfrentar um ditador (trad. livre), destacou que o problema das redes é um assunto de segurança e não de “liberdade de expressão”, principalmente porque já foi comprovado que as dinâmicas das redes influenciam as decisões de formas manipulativas, como um “sequestro” da autonomia. Ela diz: “esta é uma plataforma que une mais de 3,2 bilhões de pessoas ao redor do mundo (…), que já facilitou atos de genocídio em Myanmar e que vem hackeando nossos sentidos, nosso sistema biológico, pois consegue mudar os modos como sentimos medo, raiva e ódio, os modos como vemos o mundo e que como agimos.” Ela lembra que desde o Brexit na Inglaterra o Facebook vem impactando os resultados das eleições.

Este é um debate que vêm se ampliando, de modo a se fazer entender que os algoritmos trazem embutidas estratégias invisíveis, não apenas em suas fórmulas, como também por seguirem uma lógica que acentua o problema de uma autoridade que não precisa prestar contas. Problema este que vem-se procurando “remediar” com soluções parciais tais como filtros, mecanismos de checagem de fatos, além de metodologias e estratégias experimentais na computação que visam embutir princípios de justiça nos algorítmos. Iniciativas estas que não alcançaram a robustez necessária para equalizar os problemas de vieses na IA, de modo que as propostas de regulamentação tais como a EBIA (Estratégia Brasileira da Inteligência Artificial) usam palavras como “mitigar” ou “minimizar” danos e não impedí-los e erradicá-los.

Portanto, enquanto não há solução efetiva temos poucos anticorpos capazes de defender a sociedade quanto à possibilidade de tecnopolíticas virem a se tornar tecnofacismos. Sim, este é o “panorama pessimista” em um rol de possibilidades onde é possível também ser otimista ou moderado, já que os desenvolvimentos tecnocientíficos também podem trazer soluções e benefícios a indivíduos e comunidades. Mas como lembra Maria Ressa, atualmente 71% dos governos no mundo estão sob a égide de regimes autoritários, infelizmente eleitos por processos democráticos, em virtude da corrupção e toxidade de mídias sociais. E isto vem se dando na mesma medida que as possibilidades das tecnologias da informação se ampliam e penetram no tecido social e corpos dos modos mais invisíveis.

Este é um processo que vem se desenvolvendo em etapas distintas, desde que a internet chegou com muitos impactos positivos, assim como boa parte dos desenvolvimentos tecnológicos. Em discussões filosóficas, gostamos de lembrar que as tecnologias não são neutras, e vamos cada vez mais ampliando a compreensão de que o respeito à terra, aos povos originários e à defesa dos princípios de justiça dependem de construirmos outras e novas perspectivas de desenvolvimento econômico e modos de abordar a inovação.

Pelo momento, que estas palavras – pensadas, escritas e elaboradas inteiramente por uma humana – cheguem aos outros humanos que nos lêem, como um convite à reflexão e atenção para o que vem por aí.

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *