ChatGPT pode oferecer conselhos a adolescentes?
Pesquisa demonstra os perigos de jovens confiarem saúde mental à inteligência artificial, ferramenta desregulamentada
Publicado 29/08/2025 às 13:29
Uma pesquisa, feita com jovens norte-americanos mas que pode oferecer pistas para o Brasil, buscou descobrir o quanto eles confiam nos chats de inteligência artificial para serem seus conselheiros. Segundo seus resultados, 72% dos adolescentes buscaram os chatbots como companheiros e cerca de 12,5% procuraram apoio emocional pela ferramenta.
Fora o perigo de que buscar esse tipo de interação com máquinas fragilize os laços desses jovens com pessoas reais, surgem outros problemas – mas também benefícios. As ferramentas de IA, como ChatGPT, Gemini, Copilot e MetaAI não são cobrados para que sigam padrões de um atendimento minimamente seguro de saúde mental. E, embora os chatbots já sejam treinados para identificar situações de risco à vida dos adolescentes, como pedidos de ajuda para automutilação, especialistas enxergam muitas falhas no sistema.
“Os chatbots de IA precisam de um marco regulatório – semelhante aos aplicados a dispositivos médicos — estabelecendo proteções claras para uso com jovens”, afirmou um pesquisador estadunidense em artigo de opinião para o NY Times no qual apresentou os dados acima. Segundo ele, o Estado precisa exigir padrões de segurança, proteções rígidas de privacidade e medidas que responsabilizem as empresas quando ocorrem danos.
Em outro artigo do NY Times, um exemplo do risco da desregulação dessas plataformas que utilizam inteligência artificial em chats. Um adolescente norte-americano de 16 anos se suicidou, e seus pais descobriram que ele conversava com o ChatGPT por meses sobre transtornos mentais e ideações suicidas antes de tirar sua própria vida. Ele buscava apoio emocional e ajuda com técnicas de violência contra si próprio – e os pais acreditam que a tecnologia falhou em fazer os alertas de que aquele jovem estava em risco. Eles abriram um processo contra a OpenAI, empresa dona do chatbot, e a culpam pela perda de seu filho.
“A OpenAI lançou seu modelo mais recente (GPT-4o) com recursos intencionalmente projetados para fomentar dependência psicológica”, argumentam. A empresa responde que está “trabalhando para tornar o ChatGPT mais solidário em momentos de crise, facilitando o acesso a serviços de emergência, ajudando as pessoas a se conectarem com contatos confiáveis e fortalecendo proteções para adolescentes”.
Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras