Poderá a IA ser programada com ética?

Em província argentina, experiência distópica: “plataforma” de controle da gravidez na adolescência resultou em mecanismo para reforçar injustiças. Situações complexas geradas pela tecnologia exigem novas reflexões sobre bioética. Novo livro ajuda a apontar caminhos

Créditos: Museu do Futuro de Dubai
.

Leia todos os textos da coluna de Leandro Modolo

Em 2017 o governo conservador da província de Salta, na Argentina, liderado por Juan Manuel Urtubey, firmou parceria com a Microsoft e a Fundação Cooperadora para la Nutrición Infantil (CONIN), para desenvolver uma plataforma chamada “Plataforma Tecnológica de Intervenção Social”, sob as coordenadas do Ministério da Primeira Infância. Utilizando os serviços Azure, o sistema coletava dados pessoais de mais de 250.000 cidadãos, incluídas mais de 12 mil mulheres e meninas de entre 10 e 19 anos — a base era composta por dados pessoais pessoais, trabalho, educação, saúde, moradia e família, como idade, etnia, condição da moradia, acesso a serviços básicos, gravidez na família etc.

O objetivo oficial era prever, com até cinco ou seis anos de antecedência, quais meninas estariam propensas a engravidar na adolescência. À época, Urtubey afirmou que: “Estamos lançando um programa para prevenir a gravidez na adolescência usando inteligência artificial com a ajuda de uma empresa de software de renome mundial. Com essa tecnologia, você pode prever com cinco ou seis anos de antecedência — com nome, sobrenome e endereço — qual menina, futura adolescente, tem 86% de probabilidade de ter uma gravidez na adolescência”; o que permitiria intervenções preventivas.

Não tardou e vários problemas foram identificados por vários analistas, entre eles dados tendenciosos, inadequados e resultados superdimensionados. E, mais do que isso, o fato ganhou destacado significado bioético e político, pois a partir dele ressoaram questões conjunturais — a Argentina passava por ondas de protestos pela legalização do aborto — entrelaçadas com estruturas sociais que demarcam a vida de todos nós, como o patriarcardo.

Como bem destacaram Paz Peña e Joana Varon , “a ideia de que algoritmos podem prever a gravidez na adolescência antes de acontecer é a desculpa perfeita para que ativistas contra direitos sexuais e reprodutivos da mulher declarem desnecessária a permissão ao aborto.” E, relembrando o poeta, se a vida é real e de viés, os dados e as pessoas que os extraem e os manipulam não são diferentes: “Além dos métodos estatísticos serem malfeitos, a iniciativa tem presunções sexistas, racistas e classistas sobre determinado bairro ou segmento da população. O trabalho é focado em meninas, somente, presumindo que os garotos não precisam aprender sobre direitos sexuais e reprodutivos. Temos que tomar cuidado para que segmentos já segregados não sejam mais discriminados sob uma máscara de opções neutras da tecnologia”.

Além do mais, em destaque pela OMS, a utilização da IA de Urtubey/Microsoft revelou-se eticamente problemática desde a sua concepção. Ao produzir diagnósticos sensíveis sobre adolescentes sem o devido consentimento — nem delas, nem de seus responsáveis legais —, o sistema transgrediu princípios fundamentais de respeito à privacidade e à autonomia individual. E não só por se tratar de mulheres e meninas em condições de vulnerabilidade, muitas vezes sem recursos ou meios para compreender, contestar ou recusar as intervenções a que eram submetidos: o consentimento funcionava mais como uma protocolar burocracia, do que respeito aos direitos.

Portanto, ao invés de funcionar como instrumento de cuidado, a IA estava inscrita em mecanismos de perpetuação de injustiças, reforçando estigmas e naturalizando políticas de controle social marcadas pela exclusão. Mais do que uma falha técnica, tratava-se de uma violação ética e bioética profunda — uma tecnologia que, sob o véu da neutralidade, reproduzia assimetrias de poder e desigualdades estruturais.

Com inquietante clareza, esse fato evidência como ações de saúde pública alicerçadas na IA — muitas vezes envoltas no véu da neutralidade e da objetividade — podem ser empregadas como instrumentos que reforçam opressões estruturais e atropelarem direitos fundamentais. Elas podem ser acionadas para vigiar, cercear e subjugar a autonomia das mulheres, invadindo o território íntimo de seus direitos sexuais e reprodutivos. Convertendo-se assim em um novo capítulo de um velho enredo: o controle institucionalizado sobre seus corpos e suas escolhas, agora mediado por algoritmos.

Foi preocupado com questões como essas e na busca de contribuir diretamente para enriquecimento da massa crítica em torno IA, (momento jabá) que eu ajudei a organizar o livro “Artificial Intelligence and Bioethics: Perspectives” [Inteligência Artificial e Bioética: Perspectivas, em tradução literal], recém publicado. Ao lado de colegas que se encontraram à época no interior da associação ELA-IA, como Luiz Vianna SobrinhoMaíra Araújo de SantanaGiselle Machado Magalhães MorenoFabiano Tonaco BorgesWellington Pinheiro dos Santos, nele oferecemos diferentes visões para um introdutório e abrangente olhar sobre o impacto da IA, em termos éticos e bioéticos.

A linha de força, impressa na Introdução escrita por Fabiano Tonaco e Carlos Eduardo Gomes Siqueira, é que a bioética da IA deve abordar não apenas aspectos técnicos e operacionais, mas também dinâmicas de poder e responsabilidade socioambiental. Afinal, atualmente, o poder repousa nas mãos de um punhado de corporações capitalistas, navegando soberanas num mundo já marcado por abismos sociais e acúmulo de capital sem precedentes.

Como senhores de um novo tempo, a nova geração da burguesia mundial impõe seus desígnios a populações inteiras, governando o presente e o futuro com os seus algoritmos. Tudo pautado em uma concentração de poder econômico e político disposta a reestruturar (nos marcos da ordem) a economia de mercado e ampliar as desigualdades. Assim, em meio à névoa da opacidade, Estados nacionais e empresas se digladiam numa corrida por supremacia tecnológica, quase sempre ignorando as pegadas socioambientais que vão deixando no caminho. E enquanto essas disputas aceleram, é o bem comum que se perde entre os cálculos do lucro e os silêncios do poder.

Por isso tudo, o objetivo do livro é explorar não apenas as problemáticas emergentes, mas também as possibilidades de uma ética estruturada e robusta para orientar o desenvolvimento e a aplicação da IA.

Neste livro, portanto, o leitor é convidado a adentrar em um campo de questionamentos, onde se entrelaçam temas como privacidade e proteção de dados, responsabilidade algorítmica e transparência, justiça e equidade, bem como a imprescindível e urgente construção de uma regulamentação à altura do ritmo vertiginoso da inovação tecnológica.

Mais do que oferecer respostas prontas, a obra abre caminhos — horizontes de novos conceitos, outras chaves de leitura, zonas férteis para o pensamento. Trata-se, acima de tudo, de um chamado ao diálogo permanente e à reflexão compartilhada, reconhecendo que a ética e a bioética em tempos de IA é tarefa coletiva, construída no movimento contínuo entre a crítica e a autocrítica.

No capítulo do qual sou autor, discuto o potencial da IA embarcada na saúde móvel (mHealth) como meio de integração dos dois polos centrais das tecnologias em saúde, o polo sanitário-populacional e clínico-individual. Também proponho o conceito de “integração cibernética em saúde” como chave útil para compreender e aproveitar a automação dos ciclos de feedback entre ações individuais e populacionais sob o horizonte da integralidade. O livro também é composto pela Introdução, a Conclusão e mais 8 capítulos.

Iniciamos com a engenheira Karla Figueiredo e o médico Raphael Augusto Teixeira de Aguiar, cujas reflexões mergulham na urgência de se traçar contornos regulatórios para a IA. As autoras exploram os fundamentos éticos da transparência, da justiça e da responsabilidade, lançando luz sobre esforços já em curso, tanto no cenário internacional quanto no contexto brasileiro.

O incontornável Fermin Roland Schramm segue ao explorar a evolução da bioética no Brasil, caracterizando-a como jovem e tardia. Ele faz uma revisão crítica da bioética brasileira, enfatizando seu potencial para abordar questões de saúde persistentes e emergentes por meio de uma teoria complexa informada por décadas de pesquisa e atividade institucional.

Na sequência, eu me somo a um time interdisciplinar formado por Wellington Pinheiro, Maíra Araújo, Fabiano Tonaco e Giselle Moreno para discutir o impacto transformador da IA na saúde da “Maioria Global”. Identificamos desafios como dependência tecnológica e fuga de cérebros, e propomos medidas estratégicas para alcançar a soberania digital e de saúde, visando um futuro onde a IA reforce os potenciais das políticas públicas de saúde pública, não o contrário.

O médico e bioeticista Luiz Vianna Sobrinho vem segue conduzindo o leitor entre os dilemas éticos suscitados pelas tecnologias da informação, ancorando sua análise na perspectiva dos direitos humanos. Com olhar atento às transformações do presente, ele propõe uma urgente redefinição desses direitos fundamentais, como forma de preservar a dignidade e a liberdade humanas em tempos nos quais a IA pode embaralhar as fronteiras outrora nítidas entre o humano e a máquina.

Priscilla Mesquita Buzzetti Matsushita e Cristyny L. Gonçalves de Almeida, trazem o olhar do Direito para comparar as regulamentações de proteção de dados no Brasil, Europa, Estados Unidos e China. Elas destacam a importância da privacidade, segurança e transparência no processamento de dados de saúde, enfatizando a necessidade de adesão às leis de proteção de dados para evitar a discriminação algorítmica e garantir a autodeterminação dos dados.

O filósofo Pedro Fraga Vianna, por sua vez, mergulha nas intrincadas tramas políticas e conceituais que envolvem os drones de guerra, examinando não apenas suas capacidades cognitivas e suas funções estratégicas, mas também o que esses artefatos revelam sobre os rumos do conflito armado na contemporaneidade. Em sua análise, os drones deixam de ser meros instrumentos técnicos para se tornarem objetos filosóficos, cujas presenças silenciosas e letais desafiam as noções clássicas de combate, vigilância e poder.

Maíra Araújo de Santana, Giselle Machado Magalhães Moreno e Wellington Pinheiro dos Santos abordam a seguir a importância da transparência. Eles destacam os desafios éticos e práticos impostos pela falta de transparência nos sistemas de IA, especialmente na área da saúde. O capítulo analisa o trabalho recente sobre a incorporação de técnicas IA explicáveis (XAI) para tornar as decisões e processos de IA mais compreensíveis. Ao fornecer explicações para decisões de IA, a XAI aumenta a confiança e a segurança em aplicações de saúde, desde suporte diagnóstico até tratamentos personalizados e gerenciamento de saúde.

Encerrando o percurso, a confluência entre a sensibilidade antropológica e a experiência médica, de Hernán Poblete Miranda e Ciro Augusto Floriani, proporciona uma leitura rica e multifacetada do uso da IA no cuidado de idosos em situação de dependência. Revelando não apenas os riscos potenciais dessas tecnologias, mas também suas limitações operacionais e as lógicas que as sustentam. Em uma sociedade profundamente marcada por desigualdades estruturais e pelo preconceito etário, os autores nos convidam a refletir sobre que tipo de cuidado — e de humanidade — queremos cultivar.

Dito isso, é importante registrar que o esforço agora se concentram em alcançar, o mais breve possível, uma versão em português e espanhol. Com desejos que a partir de Boca Raton (EUA), sede da atual editora CRC Press, passando por Salta na Argentina, e seguindo por Santiago (Chile), Boston (EUA) e Zurique (Suíça), até chegar a Jundiaí (SP), Niterói (RJ), Rio de Janeiro (RJ), Cuiabá (MT), Recife (PE), Belo Horizonte (BH) e Porto Alegre (RS) — todas cidades que acolhem os autores e autoras —, nossas contribuições se unam às contribuições críticas desses tempos preocupantes, impulsionando-nos em direção a uma IA efetivamente revolucionária .

Por último, deixo em registro um carinho especial para Fabiano Tonaco e Luiz Vianna, sem vocês este livro não aconteceria, e minha caminhada pessoal seria mais difícil e triste.

Obs: fiquem atentos pois logo logo faremos eventos de lançamento!

Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras

Leia Também: