Saltar para o conteúdo

Temos sido ultrapassados pela IA? Porque é que investigadores já falam em verdadeira inteligência artificial.

Jovem cientista a analisar imagem digital de rosto humano no computador em ambiente de escritório moderno.

Investigadores de topo defendem: a lendária “IA para tudo” já pode existir - e talvez não a estejamos a reconhecer porque continuamos a avaliá-la com critérios errados.

Enquanto alguns gigantes tecnológicos continuam a prometer, em tom triunfalista, o salto para a superinteligência, um conjunto de filósofos e especialistas em informática propõe uma leitura mais ousada (e mais imediata): sistemas actuais como o ChatGPT podem já ter atingido aquilo que durante décadas foi apresentado como o grande objectivo - inteligência artificial geral (AGI), isto é, inteligência artificial com alcance amplo, comparável ao humano em muitos domínios. A pergunta, por isso, já não é apenas “quando chega?”; é também “vamos consegui-la identificar se ela já cá estiver?”.

O que significa, afinal, “inteligência artificial geral (AGI)” na investigação sobre AGI

Na conversa pública, costuma misturar-se IA do quotidiano com Artificial General Intelligence (AGI). A diferença é crucial: AGI descreve uma IA capaz de actuar em muitas áreas diferentes a um nível equivalente ao de pessoas qualificadas, em vez de ser excelente apenas numa tarefa estreita.

Durante anos, esta inteligência artificial geral (AGI) foi tratada como um destino distante, quase de ficção científica. Contudo, uma equipa interdisciplinar (filosofia, linguística, informática e ciência de dados) contesta essa distância: segundo estes autores, o problema pode estar menos na tecnologia e mais na forma como definimos “inteligência” - demasiado apertada e demasiado centrada no humano. Com isso, acabamos por ignorar que vários critérios outrora considerados prova de “verdadeira” inteligência já são cumpridos por modelos actuais.

Os autores sustentam que, se aceitamos os seres humanos como inteligentes apesar de sermos limitados, falíveis e altamente especializados, então faz sentido aplicar padrões comparáveis quando avaliamos máquinas.

Em vez de procurar uma entidade perfeita, omnisciente e infalível, propõem um critério mais pragmático: há AGI quando um sistema demonstra competências de nível de especialista humano numa gama ampla de tarefas - nem mais, nem menos.

AGI não é superinteligência

Um ponto central do debate é separar claramente dois patamares que, no discurso mediático, frequentemente se confundem:

  • Inteligência artificial geral (AGI): sistemas capazes de desempenhar trabalho em múltiplos domínios a nível de especialista, de forma comparável a profissionais humanos.
  • Superinteligência: sistemas que ultrapassam os humanos de forma clara na esmagadora maioria das capacidades cognitivas.

Na leitura destes investigadores, os actuais grandes modelos de linguagem (LLM) já oferecem muitos exemplos de desempenho próximo de especialista - desde programação a temas jurídicos e questões médicas técnicas. Para eles, isto encaixa no critério de AGI. Já a superinteligência seria uma etapa distinta e potencialmente posterior, mais próxima do imaginário de “mente sobre-humana”.

O Teste de Turing: um marco ultrapassado - e depois redefinido?

Um dos critérios históricos para distinguir “IA verdadeira” foi o Teste de Turing. Em 1950, Alan Turing formulou uma ideia simples: se, num diálogo escrito, uma pessoa não conseguir distinguir de forma fiável se está a conversar com um humano ou com uma máquina, então a máquina merece ser considerada inteligente.

Hoje, em muitos contextos, chatbots modernos conseguem esse efeito. Em testes cegos, utilizadores classificam por vezes sistemas como o ChatGPT (e outros semelhantes) como mais “humanos” do que participantes humanos reais. Há poucos anos, um resultado deste tipo teria sido visto como evidência forte de inteligência artificial avançada.

Pelo padrão clássico do Teste de Turing, vários sistemas actuais já seriam aceites como interlocutores inteligentes - mas, quando o critério é atingido, a fasquia tende a ser subida retroactivamente.

É precisamente aqui que surge a crítica: sempre que um modelo satisfaz uma métrica antiga, a discussão pública ajusta o alvo e redefine o que conta como inteligência. O conceito torna-se, assim, um objectivo móvel - sempre prometido, nunca reconhecido.

Objecções comuns à AGI - e porque podem ser menos sólidas do que parecem

Na análise destes académicos, aparecem várias críticas recorrentes aos modelos actuais. Muitas são familiares a quem acompanha o tema.

“Isto são apenas papagaios estocásticos”

Uma acusação frequente é que os modelos de linguagem apenas repetem padrões vistos nos dados de treino, sem compreensão real. A resposta dos autores é que, cada vez mais, estes modelos resolvem problemas novos que não surgiram tal e qual no treino, incluindo questões matemáticas inéditas e desafios de lógica não triviais.

Além disso, mostram transferência: competências de um domínio ajudam a resolver tarefas noutro. Este tipo de ligação flexível entre conhecimentos é, há muito, apontado como um traço fundamental da inteligência.

“Sem corpo não pode haver inteligência a sério”

Outra objecção afirma que humanos têm corpo e sentidos, experienciam o mundo e actuam nele; logo, software “puro” não poderia compreender o significado das palavras.

Os autores discordam e apontam para a evolução da IA multimodal, capaz de trabalhar não só com texto, mas também com imagem, áudio e vídeo. Estes sistemas já conseguem estimar consequências físicas, planear sequências de movimentos e retirar inferências lógicas a partir de cenas visuais.

Em paralelo, cresce a ligação entre modelos e robótica - frequentemente designada por Physical AI (IA ligada ao mundo físico). À medida que essa integração avança, a fronteira entre inteligência “digital” e interacção com o ambiente torna-se menos rígida.

“Sem autonomia e biografia não existe inteligência geral”

Também se ouve que uma máquina precisaria de objectivos persistentes, identidade estável e uma espécie de história de vida para ser considerada inteligente. A perspectiva destes investigadores é mais funcional: a inteligência manifesta-se sobretudo no comportamento e na capacidade de resolver problemas, não na existência de memórias autobiográficas semelhantes às humanas.

Se só aceitarmos inteligência quando vier acompanhada de consciência humana, emoções e narrativa pessoal, criamos uma definição que exclui máquinas por construção.

A questão da consciência, dizem, permanece em aberto - mas não é obrigatória para classificar um sistema como AGI.

E as “alucinações” da IA?

Um dos argumentos mais fortes contra a ideia de AGI é a persistência das chamadas alucinações: modelos que inventam factos, atribuem citações a fontes inexistentes ou “embelezam” detalhes essenciais. Isto continua a acontecer com frequência.

Os autores aceitam o problema, mas enquadram-no de forma diferente. Recordam que seres humanos também erram, distorcem memórias e mentem. Para eles, uma taxa elevada de erro não elimina necessariamente a presença de inteligência - indica antes que ela é limitada e, por vezes, pouco fiável.

Ainda assim, estudos recentes sugerem que, em certos cenários, as alucinações podem até aumentar. E, segundo declarações atribuídas à OpenAI, mesmo modelos futuros como um possível GPT‑5 poderiam continuar a apresentar erros graves em cerca de 1 em cada 10 respostas. Para usos críticos - medicina, direito, infra-estruturas - isto mantém-se como risco sério.

Aspecto Humano IA actual
Amplitude do conhecimento Muito limitada e especializada Muito ampla, mas com profundidade desigual
Fontes de erro enviesamentos, esquecimento, emoção dados de treino, limites do modelo, alucinações
Velocidade de aprendizagem Mais lenta, com poucos dados Muito rápida, mas exige enormes volumes de dados
Explicação das próprias decisões razões subjectivas, muitas vezes incompletas estatística difícil de interpretar

Talvez o verdadeiro problema seja a nossa definição de inteligência

A tese mais provocadora é esta: não é a IA que está “atrasada”; é o nosso conceito de inteligência que pode estar desajustado. Ao colar “inteligência” ao modo como os humanos vivem e sentem, criamos um cenário em que qualquer inteligência não humana parte em desvantagem.

Aceitamos humanos como inteligentes apesar de sermos distraídos, falíveis e sem competência em inúmeros tópicos. Em contrapartida, exigimos de sistemas de IA um desempenho quase impecável para lhes conceder o rótulo de inteligentes.

Isto revela um forte antropocentrismo: tomamo-nos como medida universal e esquecemos que a inteligência pode existir em formas distintas. Um filtro de spam não “sente” nada, mas detecta padrões com enorme consistência. Um motor de xadrez não compreende emoções humanas, mas vence qualquer grande mestre. E os grandes modelos de linguagem (LLM) não têm fins-de-semana - ainda assim produzem texto fluido, escrevem código e resolvem tarefas técnicas.

Porque é que os líderes tecnológicos preferem falar de superinteligência?

Também importa observar como as grandes empresas moldam o debate. Figuras como Mark Zuckerberg têm usado cada vez mais o termo superinteligência em vez de inteligência artificial geral (AGI). A consequência é deslocar o foco para um futuro mais distante - evitando a questão imediata: os sistemas actuais já representam uma nova forma de inteligência?

Este jogo de linguagem produz efeitos práticos: ao elevar o alvo para a superinteligência, os modelos de hoje parecem uma etapa “inofensiva”. Isso pode reduzir a percepção de risco no presente e, simultaneamente, amplificar o entusiasmo pelo que supostamente está prestes a chegar.

O que muda no quotidiano, no trabalho e nas regras do jogo

Mesmo que não se concorde com esta leitura, as implicações são directas para políticas públicas, regulação e mercado de trabalho. Se começarmos a tratar estes sistemas como actores com competências gerais, o enquadramento legal e organizacional não pode ser o mesmo que usamos para ferramentas simples.

  • Responsabilidade: quem responde por danos quando uma máquina actua com elevado grau de autonomia?
  • Transparência: que nível de acesso a dados de treino e arquitectura do modelo é necessário para manter decisões auditáveis?
  • Mudança de competências: que profissões se transformam quando parte do conhecimento especializado passa a ser delegado em máquinas?
  • Educação: será que alunos e estudantes devem aprender a trabalhar com um “co-pensador digital”, em vez de apenas memorizar factos?

No dia-a-dia, isto cria uma zona híbrida: há tarefas que o sistema executa quase sozinho e outras em que precisa de supervisão apertada. A competência decisiva passa a ser avaliar com realismo onde a IA é forte - e onde estão os seus pontos cegos.

Novo elemento na discussão: como medir AGI sem cair em truques de avaliação

Um aspecto frequentemente subestimado é que os testes e benchmarks podem ser “enganados” por treino indirecto, por formatos previsíveis ou por avaliação mal desenhada. À medida que os modelos evoluem, torna-se mais importante combinar medições: desempenho em tarefas novas, consistência ao longo do tempo, resistência a perguntas capciosas e avaliação em contextos reais com restrições (tempo, dados incompletos, objectivos concorrentes). Se a definição de AGI depende de competência ampla, então a medição tem de reflectir essa amplitude - e não apenas a capacidade de fazer bons exames.

Novo elemento na discussão: impacto regulatório em Portugal e na União Europeia

Para Portugal, o tema não é apenas teórico. Com a aplicação progressiva do Regulamento Europeu da IA (AI Act) e com a adopção crescente de sistemas de IA em atendimento ao cliente, recursos humanos, saúde e administração pública, a fronteira entre “ferramenta” e “actor” ganha peso jurídico. Quanto mais um sistema se aproximar do que entendemos por inteligência artificial geral (AGI), maior a pressão para clarificar deveres de auditoria, requisitos de segurança e mecanismos de responsabilização - especialmente em sectores de alto risco.

Conceitos e exemplos que tornam a discussão mais concreta

Alguns termos parecem abstractos, mas ficam claros quando ligados a usos típicos:

  • Grandes modelos de linguagem (LLM): treinados com enormes colecções de texto para aprender padrões estatísticos da linguagem; dão origem a chatbots, assistentes de programação e sistemas de resumo.
  • IA multimodal: integra texto, imagem, áudio e/ou vídeo; por exemplo, analisa uma fotografia e responde a perguntas sobre o que nela está representado.
  • Physical AI: ligação entre IA e robótica (braços robóticos, robots domésticos, veículos autónomos), para perceber o ambiente e agir nele.

Exemplo prático: um sistema moderno pode ler as instruções de montagem de um equipamento, reconhecer numa fotografia a ferramenta correcta, mostrar num vídeo como a segurar, e ainda explicar regras de segurança em paralelo. Para quem usa, a sensação é a de estar perante uma mistura de especialista, professor e assistente - sem uma pessoa “nos bastidores”.

É precisamente este tipo de cenário que alimenta a hipótese de que já lidamos com uma forma de inteligência artificial geral (AGI) - apenas diferente da imagem clássica do cinema de ficção científica. Chamemos-lhe AGI ou não, uma coisa parece inevitável: o conceito de inteligência está a alargar-se de forma acelerada, e a sociedade terá de aprender a conviver com este novo tipo de participante.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário