Um único anúncio bastou para virar o ambiente quase de um dia para o outro.
Em poucos dias, o principal assistente de IA da OpenAI viu-se confrontado com uma vaga de utilizadores indignados, uma enxurrada de classificações de uma estrela e desinstalações em massa, depois de se tornar pública a sua parceria com o Departamento de Defesa dos EUA.
O fim de semana que mudou o sentimento em torno do ChatGPT da OpenAI
Durante muito tempo, a aplicação móvel da OpenAI foi presença constante nos rankings das lojas de aplicações, encarada por muitos como uma ferramenta inofensiva de produtividade. Essa leitura começou a desfazer-se no final de fevereiro de 2026.
A partir de 28 de fevereiro, as desinstalações do ChatGPT dispararam. Segundo números noticiados em França, as eliminações aumentaram cerca de 295% num único fim de semana - um salto raríssimo para uma aplicação de consumo generalista que já tinha atingido uma fase de maturidade.
Os utilizadores não se limitaram a abandonar em silêncio. As classificações caíram a pique, com as críticas negativas a aumentarem, estimadamente, 775%, transformando as lojas de aplicações num espaço de desabafo e de desconfiança.
Até então, as críticas ao ChatGPT concentravam-se sobretudo em alucinações, enviesamentos ou no preço das subscrições. A reação atual é de outra natureza: mira menos as limitações técnicas do produto e mais as escolhas políticas e éticas atribuídas à OpenAI.
O detonador: a parceria com o Departamento de Defesa dos EUA
O ponto de rutura foi o anúncio de uma parceria entre a OpenAI e o Departamento de Defesa dos EUA, ainda referido em muitos relatos de imprensa estrangeira pelo seu nome histórico, “Departamento da Guerra”.
A OpenAI apresentou o acordo como um apoio a casos de uso de “defesa e segurança nacional”. Essa formulação soou imediatamente a alarme para utilizadores receosos de ver a IA aplicada a guerra, vigilância ou tomada de decisões automatizada em cenários de conflito.
Nas redes sociais, fãs antigos do ChatGPT relataram um sentimento de traição. Muitos diziam aceitar a IA para estudar, escrever ou programar, mas traçavam uma linha vermelha perante qualquer ligação a sistemas de armamento ou a inteligência militar.
Para uma fatia relevante do público, a parceria destruiu a ideia de que o ChatGPT era uma ferramenta neutra e civil, sustentada por intenções exclusivamente benévolas.
Porque é que esta polémica dói mais do que um erro na aplicação
O salto de cerca de 775% nas classificações negativas sugere que não se trata de uma irritação passageira. Os utilizadores estão a reavaliar se os objetivos da empresa coincidem com os seus próprios valores.
Normalmente, uma aplicação perde pontos por causa de falhas, alterações de design ou aumentos de preço. Aqui, a tempestade veio na sequência de um anúncio corporativo. E isso faz diferença: corrigir a interface ou acrescentar funcionalidades não repara, por si só, uma fratura de natureza moral.
Além disso, a discussão tornou-se também sobre rumo e governação: quem define o futuro de uma ferramenta usada diariamente por milhões? E onde ficam, na prática, os limites éticos?
Críticas e avaliações negativas: do preço e falhas à ética e confiança
De problemas técnicos e subscrições a ética e transparência
Antes deste episódio, os comentários negativos na aplicação móvel do ChatGPT apontavam frequentemente para limites do plano gratuito, problemas de início de sessão ou acesso ao GPT-4 condicionado a subscrição. Essas queixas não desapareceram - mas deixaram de ser o centro da conversa.
Nos últimos dias, as reclamações passaram a focar-se em:
- Revolta com a perceção de “militarização” de uma ferramenta de IA civil
- Exigências de maior transparência sobre parcerias governamentais
- Receio de partilha de dados com entidades de defesa ou agências de informações
- Apelos ao boicote da aplicação até existirem garantias éticas claras
Alguns avaliadores afirmam, sem rodeios, que continuam a achar a tecnologia impressionante - mas recusam apoiá-la financeiramente ou mantê-la no telemóvel enquanto estes acordos estiverem em vigor.
Uma crise de confiança, não apenas de experiência de utilização
O padrão das críticas indica que a discussão deixou de ser “a aplicação funciona mal?” para passar a ser “posso confiar no que esta empresa fará a seguir?”. Para muitos, a questão central já não é usabilidade; é credibilidade e alinhamento de valores.
Concorrentes farejam oportunidade: Claude (Anthropic) e alternativas
As dificuldades do ChatGPT acabaram por beneficiar concorrentes. O assistente Claude, da Anthropic, sublinhou publicamente que não assinou um acordo com o Departamento de Defesa dos EUA.
A empresa tem referido divergências sobre a forma como a IA pode ser usada em vigilância e em armamento autónomo, procurando posicionar-se como mais prudente no campo militar.
Ao afastar-se de contratos de defesa, o Claude surge como alternativa para quem quer IA avançada sem ligações ao setor do armamento.
Outros intervenientes - desde projetos de código aberto a empresas emergentes - apressaram-se a destacar cartas éticas, modelos de governação mais transparentes, limites a acionistas ou proibições explícitas de usos militares ofensivos.
Sam Altman sob escrutínio renovado
O CEO da OpenAI, Sam Altman, há muito divide opiniões no setor tecnológico. É visto por alguns como um visionário capaz de levar a IA para o quotidiano; por outros, como alguém que esbate a fronteira entre investigação em segurança e expansão comercial agressiva.
A parceria com a defesa reacendeu essas discussões. Os críticos sustentam que a OpenAI se afastou da missão original sem fins lucrativos e passou a comportar-se como um prestador convencional, a disputar contratos do Estado - sobretudo em setores estratégicos como a defesa.
Os apoiantes contrapõem que o trabalho em segurança nacional pode incluir aplicações não letais, como cibersegurança, logística, simulação e planeamento de resposta a catástrofes. Defendem que recusar qualquer interação com entidades de defesa afastaria a IA de áreas onde poderia reduzir danos e estabilizar crises.
| Preocupação | Argumento a favor do acordo | Argumento crítico |
|---|---|---|
| Utilização em guerra | Foco apenas em ferramentas defensivas | As ferramentas podem migrar para usos ofensivos |
| Privacidade de dados | Contratos podem impor salvaguardas rigorosas | O risco de acesso governamental mantém-se elevado |
| Confiança pública | Parcerias de segurança nacional são comuns | Enfraquece a imagem civil e “amigável” da IA |
O que isto significa para utilizadores no dia a dia
Para a maioria das pessoas, o ChatGPT continua a comportar-se da mesma forma no ecrã: redige e-mails, cria planos de aula, ajuda a escrever código. Os algoritmos por trás das conversas não se transformaram subitamente em armas.
A disputa é, sobretudo, sobre governação e trajetória. Na prática, os utilizadores perguntam: se dependo desta ferramenta todos os dias, quem decide o que ela será amanhã? E quais são as fronteiras morais que essa liderança aceita (ou não aceita)?
Alguns optam por manter o ChatGPT, mas exigem que a OpenAI publique mais informação sobre a parceria, incluindo:
- Limites explícitos aos tipos de utilização militar
- Auditorias independentes às práticas de segurança
- Relatórios públicos sobre contratos governamentais
Outros preferem desinstalar de imediato, migrando para alternativas com posições mais restritivas sobre trabalho com defesa, ou para modelos locais que correm no próprio dispositivo.
Um enquadramento adicional na Europa e em Portugal: confiança, RGPD e regras emergentes
Na Europa, a sensibilidade a temas de dados e governação tende a ser maior, tanto por cultura regulatória como por obrigações legais. Para utilizadores e organizações em Portugal, a questão não é apenas “com quem a empresa trabalha”, mas também como isso pode influenciar práticas de retenção, acesso e finalidade dos dados à luz do RGPD.
À medida que o quadro europeu para a IA (incluindo regras específicas para usos de alto risco) se consolida, cresce a pressão para que fornecedores expliquem, de forma verificável, que dados são recolhidos, com que finalidades e que salvaguardas existem quando há trabalho com entidades estatais. Mesmo quando o utilizador individual não lê políticas extensas, mudanças de posicionamento ético tendem a traduzir-se rapidamente em reputação - e, como se viu, em desinstalações e avaliações.
Compreender riscos e contrapartidas em contratos de defesa
Quando empresas de IA colaboram com instituições de defesa, há riscos que se acumulam em camadas. Tecnologias de dupla utilização podem servir fins pacíficos e violentos: um sistema treinado para analisar imagens de satélite para coordenar ajuda humanitária pode, com relativa facilidade, apoiar sistemas de seleção de alvos.
Existe ainda o risco de deriva funcional. Um modelo inicialmente aplicado a tradução ou logística pode, mais tarde, ser ajustado para simulações de campo de batalha. Mesmo que um contrato comece com restrições, pressão política ou situações de emergência podem ir corroendo esses limites.
Em contrapartida, recusar colaboração de forma absoluta também tem custos. Os Estados vão procurar capacidades reforçadas por IA de qualquer maneira. Se atores mais atentos à segurança se afastarem da mesa, concorrentes menos escrupulosos podem ocupar o espaço - e moldar a IA militar com menos travões éticos.
Como os utilizadores podem reagir de forma prática
Quem ficou inquieto com as notícias recentes tem várias opções concretas para lá de deixar uma avaliação de uma estrela:
- Comparar políticas de privacidade e declarações éticas de diferentes ferramentas de IA
- Usar a versão no navegador em vez da aplicação móvel e limitar a partilha de dados sempre que possível
- Testar modelos mais pequenos ou de código aberto para tarefas sensíveis
- Contactar fornecedores a pedir políticas explícitas sobre utilização militar
- Apoiar grupos de investigação e ONG que monitorizam o uso de IA em contextos de guerra
Outra estratégia passa por separar tarefas. Alguns utilizadores mantêm um assistente “generalista” para conteúdos inofensivos e recorrem a ferramentas locais, sem ligação à Internet, para tudo o que envolva dados pessoais, médicos ou políticos. Ao dividir o uso, reduz-se a exposição caso as parcerias de um fornecedor mudem novamente de direção.
Para muitos, o aumento súbito de más classificações e desinstalações é menos uma rutura definitiva e mais um aviso claro: o público está atento ao rumo da IA generativa e, quando sente que uma linha ética foi ultrapassada, a reação pode ser rápida, visível e quantificável.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário