Saltar para o conteúdo

Aumentam as críticas contra o ChatGPT: avaliações negativas sobem 775% e há número recorde de desinstalações em poucos dias.

Pessoa a usar telemóvel com avaliação por estrelas e botão de desinstalar, perto de portátil com imagem de drone militar.

Uma única notícia foi suficiente para mudar o ambiente quase de um dia para o outro.

Em poucos dias, o principal assistente de IA da OpenAI passou de ferramenta popular a alvo de críticas, com uma vaga de avaliações de uma estrela e muitas desinstalações, depois de se saber da sua parceria com o Departamento da Defesa dos EUA.

A weekend that changed the mood around chatgpt

A app móvel da OpenAI já era presença habitual nos rankings das lojas de aplicações, vista por muita gente como uma simples ferramenta de produtividade. Essa imagem começou a desmoronar no fim de fevereiro de 2026.

A partir de 28 de fevereiro, as desinstalações da aplicação ChatGPT dispararam. Segundo números divulgados em França, os apagamentos subiram cerca de 295% num único fim de semana, uma subida quase inédita para uma app de consumo massificado que já estava madura no mercado.

Os utilizadores não se limitaram a sair em silêncio. As classificações caíram a pique, com as críticas negativas a crescerem cerca de 775%, transformando as lojas de apps num espaço de desabafo de frustração e desconfiança.

Até aqui, as críticas ao ChatGPT costumavam girar em torno de alucinações, enviesamento ou do preço da subscrição. Esta nova vaga de rejeição é diferente. Mira menos as limitações técnicas do produto e mais as escolhas políticas e éticas da OpenAI.

The trigger: a deal with the us department of defense

O ponto de rutura foi o anúncio de uma parceria entre a OpenAI e o Departamento da Defesa dos EUA, ainda muitas vezes referido por meios internacionais pelo nome histórico “Department of War”.

A OpenAI apresentou o acordo como uma forma de apoiar casos de uso ligados à “defesa e segurança nacional”. Essa formulação levantou de imediato alarmes entre utilizadores receosos de ver a IA usada para guerra, vigilância ou decisões automatizadas em contextos de conflito.

Nas redes sociais, muitos fãs de longa data do ChatGPT falaram em traição. Vários disseram não ter problema com IA aplicada a educação, escrita ou programação, mas traçaram uma linha vermelha quando o tema são sistemas de armas ou inteligência militar.

Para uma parte relevante do público, a parceria destruiu a ideia de que o ChatGPT era uma ferramenta neutra, civil e assente em intenções puramente benignas.

Esta polémica juntou-se ao cepticismo já existente em torno de Sam Altman, CEO da OpenAI, cuja liderança tem sido repetidamente posta em causa desde a crise interna do conselho de administração no fim de 2023. Para os críticos, o acordo com a defesa prova que as ambições comerciais e estratégicas já se sobrepõem ao discurso inicial de segurança em primeiro lugar.

Bad reviews: what users actually complain about

From bugs and subscriptions to ethics and trust

Antes deste episódio, as avaliações negativas da app móvel do ChatGPT mencionavam muitas vezes limitações da versão gratuita, problemas de login ou o acesso ao GPT-4 preso atrás de uma subscrição. Essas queixas não desapareceram, mas deixaram de ser o centro da conversa.

Nos últimos dias, os comentários dos utilizadores passaram a focar-se em:

  • Indignação com a alegada “militarização” de uma ferramenta de IA civil
  • Pedidos de mais transparência sobre parcerias com governos
  • Receio de que dados sejam partilhados com agências de defesa ou de informação
  • Apelos ao boicote da app até existirem garantias éticas

Alguns avaliadores dizem explicitamente que continuam a achar a tecnologia impressionante, mas que deixam de a apoiar financeiramente ou de a manter instalada no telemóvel enquanto estes acordos estiverem em vigor.

A trust crisis, not just a UX complaint

O salto de cerca de 775% nas avaliações negativas mostra que os utilizadores não estão apenas irritados. Estão a repensar se os objetivos da empresa batem certo com os seus próprios valores.

Normalmente, as apps sofrem quedas de reputação por causa de bugs, mudanças de design ou aumentos de preço. Esta tempestade nasceu de um anúncio corporativo. E isso faz toda a diferença: corrigir a interface ou acrescentar funções não resolve automaticamente uma fractura moral.

Competitors sense an opening

Os problemas do ChatGPT acabaram, inevitavelmente, por beneficiar os rivais. O assistente da Anthropic, Claude, por exemplo, fez questão de salientar publicamente que não assinou qualquer acordo com o Departamento da Defesa dos EUA.

A empresa já referiu desacordos sobre a forma como a IA pode ser usada para vigilância e armas autónomas, posicionando-se como mais prudente no que toca a aplicações militares.

Ao afastar-se de contratos de defesa, o Claude apresenta-se como uma alternativa para quem quer IA avançada sem ligações ao setor das armas.

Outros intervenientes, desde projetos open source a startups mais pequenas, também se apressaram a reforçar as suas credenciais éticas. Alguns destacam estruturas de governação transparentes, limites aos acionistas ou proibições claras de uso militar ofensivo.

Sam altman under renewed scrutiny

Sam Altman tem sido há muito uma figura polarizadora no setor tecnológico. Admirado por uns como um visionário capaz de levar a IA para o uso corrente, é criticado por outros por diluir a fronteira entre investigação em segurança e expansão comercial agressiva.

A parceria com a defesa reacendeu esse debate. Para os detratores, a OpenAI afastou-se da missão original sem fins lucrativos e passou a comportar-se como um contratante convencional à procura de negócios com o Estado, sobretudo em setores estratégicos como a defesa.

Os defensores contrapõem que o trabalho com a segurança nacional também pode incluir aplicações não letais: cibersegurança, logística, simulação, planeamento de resposta a catástrofes. Dizem que rejeitar qualquer contacto com entidades da defesa excluiria a IA de áreas onde poderia reduzir danos ou ajudar a estabilizar crises.

Preocupação Argumento pró-acordo Argumento dos críticos
Uso em guerra Foco apenas em ferramentas defensivas As ferramentas podem ser desviadas para fins ofensivos
Privacidade dos dados Os contratos podem incluir salvaguardas rigorosas O risco de acesso governamental continua elevado
Confiança pública Parcerias de segurança nacional são normais Enfraquece a imagem civil e amigável da IA

What this means for everyday users

Para a maioria das pessoas, o ChatGPT continua a funcionar da mesma forma no ecrã. Escreve emails, gera planos de aula, ajuda a criar código. Os algoritmos por trás das conversas não se transformaram de repente em armas.

O debate prende-se mais com governação e rumo. No fundo, os utilizadores perguntam: se dependo desta ferramenta todos os dias, quem é que decide o seu futuro? E onde traçam eles as suas fronteiras morais?

Alguns optam por continuar a usar o ChatGPT, mas pressionam a OpenAI para divulgar mais detalhes sobre a parceria, incluindo:

  • Limites claros aos tipos de uso militar
  • Auditorias independentes às práticas de segurança
  • Relatórios públicos sobre contratos com governos

Outros decidem desinstalar a app de vez, mudando para alternativas que assumem posições mais rígidas sobre trabalho com a defesa, ou para modelos locais que correm no próprio dispositivo.

Understanding the risks and trade‑offs

Quando empresas de IA trabalham com instituições de defesa, somam-se vários riscos em camadas. Tecnologia de dupla utilização pode servir tanto fins pacíficos como violentos. Uma ferramenta treinada para analisar imagens de satélite e coordenar ajuda humanitária pode também apoiar sistemas de targeting.

Há ainda o risco de deslizamento de funções. Um modelo inicialmente usado para tradução ou logística pode mais tarde ser afiado para simulações de campo de batalha. Mesmo que o contrato imponha limites no início, a pressão política ou situações de emergência podem acabar por enfraquecer essas barreiras.

Por outro lado, recusar colaboração por completo também tem custos. Os Estados vão procurar capacidades reforçadas por IA de qualquer forma. Se os atores mais preocupados com segurança ficarem de fora da mesa, outros menos escrupulosos podem ocupar esse espaço e moldar a IA militar com menos travões éticos.

How users can respond in practical ways

Quem ficou incomodado com a notícia recente tem várias opções concretas para além de deixar uma avaliação de uma estrela.

  • Comparar políticas de privacidade e declarações éticas de diferentes ferramentas de IA
  • Usar as versões de navegador em vez das apps móveis e limitar a partilha de dados sempre que possível
  • Testar modelos mais pequenos ou open source para tarefas sensíveis
  • Contactar fornecedores a pedir políticas explícitas sobre uso militar
  • Apoiar grupos de investigação e ONG que monitorizam o uso de IA na guerra

Outra via é separar tarefas. Alguns utilizadores passaram a manter um assistente “geral” para conteúdo inofensivo e a recorrer a ferramentas locais e offline para tudo o que envolva dados pessoais, médicos ou políticos. Esta divisão reduz a exposição se as parcerias de um fornecedor mudarem de direção outra vez.

Para muitos, o aumento das avaliações negativas e das desinstalações é menos uma rutura definitiva do que um aviso sério. Mostra que o público está atento ao rumo da IA generativa e que as linhas éticas traçadas pelos utilizadores podem gerar uma reação rápida e mensurável quando sentem que foram ultrapassadas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário