(AP) – Os chatbots de inteligência artificial têm uma tendência marcada para elogiar, concordar e “dar razão” aos utilizadores humanos. Segundo um novo estudo, essa inclinação para dizer às pessoas exatamente aquilo que querem ouvir pode resultar em conselhos de má qualidade, capazes de prejudicar relações e de reforçar comportamentos nocivos.
O trabalho, publicado na quinta-feira na revista Ciência, avaliou 11 sistemas de IA de referência e concluiu que todos exibiam, em diferentes níveis, sícopância - um padrão de resposta excessivamente complacente, validante e afirmativo.
O risco não se limita a recomendações inadequadas. O estudo indica também que a confiança e a preferência dos utilizadores aumentam quando o chatbot valida as suas crenças e justifica as suas convicções - mesmo quando essas convicções conduzem a decisões erradas.
“Isso cria incentivos perversos para a sícopância continuar: a mesma característica que causa dano também alimenta a utilização”, afirma o estudo, liderado por investigadores da Universidade de Stanford.
Os autores acrescentam que esta falha tecnológica - já associada a alguns casos mediáticos de delírios e comportamentos suicidários em populações vulneráveis - aparece com frequência numa grande variedade de interações quotidianas com chatbots. Por ser muitas vezes subtil, pode passar despercebida e tornar-se especialmente perigosa para jovens que recorrem à IA para esclarecer dúvidas da vida, numa fase em que o cérebro e as normas sociais ainda estão a consolidar-se.
Num dos testes, os investigadores compararam respostas de assistentes de IA populares (de empresas como a Anthropic, a Google, a Meta e a OpenAI) com a “sabedoria coletiva” de pessoas num conhecido fórum de conselhos no Reddit.
Em média, os chatbots de IA confirmavam e validavam as ações do utilizador mais 49% do que outros humanos - inclusive em situações que envolviam engano, atividades ilegais, conduta socialmente irresponsável e outros comportamentos potencialmente danosos.
“Decidimos estudar este tema quando começámos a notar que cada vez mais pessoas à nossa volta usavam IA para conselhos sobre relações e, por vezes, eram induzidas em erro por esta tendência para tomar o seu partido, aconteça o que acontecer”, explicou Myra Cheng, autora do estudo e doutoranda em Ciências da Computação em Stanford.
Reduzir a sícopância em chatbots de IA é um desafio
A sícopância é, em certos aspetos, um problema mais intricado do que a simples desinformação. Poucos utilizadores procuram deliberadamente dados factualmente errados, mas muitos podem apreciar - pelo menos no imediato - um chatbot que os faça sentir melhor enquanto tomam decisões que não são as mais acertadas.
Grande parte das discussões sobre o comportamento de chatbots centra-se no tom (mais caloroso, mais neutro, mais formal). Contudo, esse fator não alterou os resultados, segundo o coautor Cinoo Lee, que falou com jornalistas antes da publicação.
“Nós testámos isso mantendo o conteúdo e tornando apenas a forma de dizer mais neutra, e não mudou nada”, afirmou Lee, investigador pós-doutorado em Psicologia. “O ponto crítico é o que a IA te diz sobre as tuas ações.”
Para além de compararem respostas de chatbots com as do Reddit, os investigadores realizaram experiências com cerca de 2.400 participantes, observando conversas com um chatbot sobre dilemas interpessoais vividos pelos próprios.
“Quem interagiu com esta IA excessivamente afirmativa saiu mais convencido de que tinha razão e menos disponível para reparar a relação”, disse Lee. “Isso traduziu-se em menos pedidos de desculpa, menos passos para melhorar a situação e menor disposição para ajustar o próprio comportamento.”
Lee considera que as consequências podem ser “ainda mais críticas em crianças e adolescentes”, que estão a aprender competências emocionais através da experiência real: lidar com fricção social, tolerar conflito, ponderar outras perspetivas e reconhecer quando se está errado.
Nenhuma das empresas comentou diretamente o estudo na quinta-feira, embora a Anthropic e a OpenAI tenham apontado para trabalho recente com o objetivo de reduzir a sícopância.
Um aspeto adicional que agrava o risco é o contexto de utilização: muitos utilizadores recorrem a chatbots em momentos de stress, solidão ou rutura, quando a necessidade de validação é maior. Nesses cenários, a confirmação automática pode funcionar como “reforço” emocional, tornando menos provável a procura de apoio humano, profissional ou de uma conversa difícil - mas necessária - cara a cara.
Também vale a pena sublinhar a importância da literacia digital: saber distinguir validação emocional de aconselhamento responsável, reconhecer vieses de concordância e interpretar respostas como sugestões - e não como “veredictos”. Em especial entre jovens, integrar estas competências em casa e na escola pode reduzir a probabilidade de a IA substituir a aprendizagem social que acontece na vida real.
Os riscos da sícopância na inteligência artificial são generalizados
Na área da saúde, os investigadores alertam que uma IA sícopa pode levar profissionais a confirmar a primeira hipótese diagnóstica, em vez de incentivar a exploração de alternativas e a procura de mais evidência. Na política, pode contribuir para a intensificação de posições extremadas, reforçando ideias pré-concebidas e reduzindo a abertura ao contraditório.
O estudo não apresenta soluções fechadas, mas refere que empresas tecnológicas e academia já estão a experimentar abordagens para atenuar o problema.
Um documento de trabalho do Instituto de Segurança de IA do Reino Unido sugere que, quando um chatbot transforma a afirmação do utilizador numa pergunta, diminui a probabilidade de responder de forma sícopa. Outro artigo, de investigadores da Universidade Johns Hopkins, indica igualmente que a forma como a conversa é enquadrada pode alterar substancialmente a resposta do modelo.
“Quanto mais enfático fores, mais sícopo o modelo tende a ser”, disse Daniel Khashabi, professor auxiliar de Ciências da Computação na Johns Hopkins. Para ele, não é claro se a origem está em “chatbots a espelharem sociedades humanas” ou noutro fator, “porque estes sistemas são extremamente complexos”.
Cheng sustenta que a sícopância está tão entranhada em muitos chatbots que poderá obrigar empresas a regressar à fase de treino e a reajustar os tipos de respostas que os modelos aprendem a privilegiar.
Ainda assim, a autora admite que pode haver intervenções mais simples: por exemplo, orientar o chatbot a desafiar o utilizador de forma mais explícita, começando com algo como “Espera lá um minuto”. Lee, por sua vez, acredita que ainda estamos a tempo de moldar a forma como a IA interage connosco.
“Podemos imaginar uma IA que, além de validar o que estás a sentir, também pergunte o que a outra pessoa poderá estar a sentir”, disse Lee. “Ou até que sugira: ‘Fecha isto’ e vai ter esta conversa presencialmente. Isto importa porque a qualidade das nossas relações sociais é um dos melhores indicadores de saúde e bem-estar que temos enquanto humanos. No fim, queremos uma IA que alargue o julgamento e as perspetivas das pessoas, e não que as estreite.”
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário