Saltar para o conteúdo

A IA não é um psicólogo: novo estudo alerta os pais.

Mulher consola menina preocupada com telemóvel numa sala com sofá, mesa e robô pequeno.

Após analisar vários chatbots de IA, a Common Sense Media aconselha os pais a não deixarem os filhos recorrer a estas ferramentas para obter apoio psicológico ou apoio emocional.

A organização sem fins lucrativos Common Sense Media, em colaboração com o Stanford Brainstorm Lab, divulgou uma avaliação centrada no uso de diferentes chatbots - incluindo ChatGPT, Claude, Gemini e Meta AI - quando os adolescentes procuram ajuda relacionada com a saúde mental. Mesmo reconhecendo que as empresas têm introduzido melhorias, a conclusão do estudo é clara: estes sistemas continuam a ser considerados “fundamentalmente perigosos” quando utilizados por jovens como substituto de apoio psicológico.

Segundo Robbie Torney, director sénior de programas de IA na Common Sense Media, os testes identificaram falhas recorrentes em múltiplos cenários clínicos: ansiedade, depressão, PHDA (Perturbação de Hiperactividade e Défice de Atenção), perturbações do comportamento alimentar, mania e psicose - condições que, em conjunto, afectam cerca de 20% dos jovens. Torney enquadra o problema como algo que vai além de casos isolados: trata-se da forma como os chatbots de IA interagem, no dia-a-dia, com a saúde mental de milhões de adolescentes. A preocupação aumenta porque, de acordo com a organização, três em cada quatro adolescentes já usam IA para “ter companhia”.

Nos ensaios, os investigadores observaram ainda que os chatbots falharam frequentemente na identificação de sinais evidentes de sofrimento emocional. Em vez de reconhecerem indícios de perturbações mentais, os modelos tendiam a privilegiar explicações ligadas à saúde física, deixavam-se desviar por pormenores secundários e continuavam a oferecer recomendações vagas quando o mais apropriado teria sido encaminhar com urgência o adolescente para ajuda profissional.

Porque é que os chatbots de IA não foram concebidos para apoio psicológico em adolescentes

A Common Sense Media sublinha um risco adicional: por mostrarem competência aparente nalgumas áreas, os chatbots de IA podem conquistar rapidamente a confiança do utilizador. Isso pode levar crianças, adolescentes e até pais a presumirem - de forma errada - que estas ferramentas têm capacidade para prestar apoio psicológico com segurança.

Por essa razão, a organização recomenda que os pais não permitam que os filhos usem chatbots de IA para apoio emocional ou para temas de saúde mental. Aconselha também que exista uma conversa franca sobre o que a IA consegue (e não consegue) fazer, bem como uma atenção especial a possíveis sinais de dependência emocional em relação a estas plataformas.

Um aspecto que merece ser ponderado em família é a privacidade: quando um adolescente descreve sentimentos, rotinas, conflitos ou pensamentos intrusivos, pode estar a partilhar informação sensível. Mesmo quando o objectivo é “desabafar”, continua a ser essencial proteger dados pessoais e compreender que um chatbot não equivale a um profissional sujeito a deveres clínicos e confidencialidade.

Em alternativa, a Common Sense Media sugere privilegiar apoios humanos e credenciados - por exemplo, psicólogo(a) e médico(a), serviços de saúde, estruturas da escola (como psicologia e orientação) e redes de confiança (família e cuidadores). Além de mais seguro, este caminho facilita uma avaliação adequada do risco e o acesso a acompanhamento continuado.

Recomendações da Common Sense Media para empresas de chatbots de IA

Para além dos conselhos dirigidos às famílias, a Common Sense Media inclui recomendações para as empresas que disponibilizam estes produtos. Entre elas, destaca-se a proposta de limitar ou bloquear a utilização dos chatbots por adolescentes em assuntos ligados à saúde mental e ao apoio emocional.

Respostas de OpenAI, Google, Meta e Anthropic

O Wall Street Journal noticiou as reacções de OpenAI, Google, Meta e Anthropic ao estudo. No caso da OpenAI, responsável pelo ChatGPT, a empresa terá afirmado que a avaliação não representa as medidas que já colocou em prática. Uma porta-voz defendeu que a segurança dos adolescentes é uma prioridade e que a organização trabalha com clínicos, decisores políticos e investigadores em várias regiões do mundo. A mesma representante recordou ainda que a OpenAI está a desenvolver uma funcionalidade para o ChatGPT detectar a idade do utilizador, o que permitiria encaminhar menores de 18 anos para modelos mais adequados.

A Google indicou, por sua vez, que o Gemini já aplica políticas e salvaguardas específicas para utilizadores com menos de 18 anos. A empresa acrescentou que coopera com especialistas para identificar novos riscos e implementar protecções adicionais.

Já a Meta declarou que a análise foi realizada antes de serem introduzidas actualizações destinadas a proteger adolescentes. A empresa reconheceu que a saúde mental é um tema complexo e pessoal, mas afirmou estar a melhorar continuamente as suas medidas de protecção para ajudar as pessoas a obter o apoio de que necessitam.

Por fim, a Anthropic, que desenvolve o Claude, referiu que o seu sistema não foi concebido para menores e que as suas regras proíbem a utilização da tecnologia por utilizadores com menos de 18 anos.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário