Saltar para o conteúdo

A Arábia Saudita abandona discretamente o seu governo inteligente com IA após anos de investimento, e analistas alertam para problemas mais profundos.

Homem árabe a interagir com ecrã digital interativo exibindo mapa num escritório moderno com vista urbana.

A ideia, ao início, soava quase a ficção científica. Num centro de conferências envidraçado em Riade, responsáveis públicos subiram ao palco e garantiram que, até 2025, cada interação dos cidadãos com o Estado seria “sem fricção, preditiva, IA em primeiro lugar”. Renovar-se-ia o cartão de identificação através de um chatbot, pagar-se-iam multas antes sequer de se saber que existiam e as regras fiscais seriam explicadas por um funcionário virtual que nunca dormia. Ecrãs exibiam maquetes impecáveis, consultores estrangeiros acenavam em concordância e os jornalistas saíam com brochuras brilhantes, carregadas de chavões e com pouca substância.

No final de 2025, o ambiente é… mais contido. Os slogans continuam no site, mas as aplicações emblemáticas de governo inteligente deixaram de receber atualizações. Os vídeos de demonstração desapareceram das páginas principais. Alguns serviços ainda funcionam, muitos falham, e outros simplesmente deixaram de existir nas lojas de aplicações.

Ninguém lhe chama, oficialmente, um recuo. No terreno, porém, é isso que se vê.

Do brilho da promessa ao recuo silencioso do governo inteligente em Riade

Num dia útil de manhã, basta entrar num dos centros de atendimento mais recentes de Riade para perceber o contraste. As paredes mantêm quiosques digitais que, em tempos, anunciavam ajuda “orientada por IA” em meia dúzia de línguas. Grande parte dos ecrãs está ligada, repetindo animações polidas sobre um “governo inteligente para todos”.

Só que, ao tocar no ecrã, o percurso volta a ser o de sempre. Os botões do “assistente inteligente” encaminham para formulários genéricos na Internet. O sistema de fila preditiva deu lugar a uma senha impressa. E os funcionários, com naturalidade, repetem que “o sistema de IA está em manutenção” - uma manutenção que, na prática, se prolonga há meses.

Há poucos anos, o discurso oficial era de ambição total: tornar a Arábia Saudita uma “superpotência de IA na governação”. Foram anunciados milhares de milhões para plataformas de dados, policiamento preditivo, tribunais “inteligentes” e licenciamento automatizado. Nos documentos da Visão 2030, a IA aparecia como a espinha dorsal de um novo Estado.

Dentro de alguns ministérios, no entanto, a história foi-se escrevendo de outra forma. Um responsável intermédio descreve iniciativas que arrancaram com estrondo e depois encolheram devagar: primeiro um piloto numa cidade, depois num bairro, mais tarde num único balcão. “Disseram-nos para deixar de falar em IA nas notas públicas”, conta. “Passou a ser ‘transformação digital’ e pronto.”

O que trava este tipo de agenda não é apenas um detalhe técnico: serviços ao cidadão com IA exigem dados limpos, ligados entre si e fiáveis. As bases de dados públicas sauditas continuam fragmentadas e muitas entidades protegem a informação como se fosse território. A isto somaram-se resistências discretas de juízes, escrivães e forças policiais, desconfortáveis com decisões automatizadas.

Alguns analistas defendem que o abrandamento revela algo mais fundo: um Estado pode gastar muito em ferramentas de IA e, ainda assim, tropeçar se a canalização da burocracia - transparência, responsabilização e regras claras - continuar irregular. A tecnologia prometia saltar por cima dessas falhas; em vez disso, expôs-as.

Custos escondidos: quando o “inteligente” chega antes da prontidão

Nos bastidores, grande parte do desgaste ficou no código. Programadores contratados para o grande impulso de IA relatam prazos comprimidos e objetivos em permanente mutação. Num mês, o pedido era um sistema preditivo de apoios sociais; no seguinte, transformava-se num motor “inteligente” de subsídios aos combustíveis; pouco depois, era reduzido discretamente a um simples calculador de elegibilidade.

Cada mudança obrigava a voltar a treinar modelos, renegociar acessos a dados e reescrever interfaces para sistemas antigos - por vezes sem documentação minimamente consistente. O resultado: muitos painéis de prova de conceito, excelentes para impressionar em salas de reunião, mas frágeis quando cidadãos reais tentavam usá-los às 08:00 de um domingo.

Há ainda o lado humano, onde a confiança se ganha ou se perde. Num piloto citado com frequência, uma ferramenta de pontuação de risco por IA deveria assinalar registos empresariais suspeitos antes de ocorrer fraude. No papel, parecia funcionar. Na prática, pequenos comerciantes viram pedidos atrasarem semanas sem explicação. Alguns eram assinalados repetidamente por padrões de morada que o algoritmo não interpretava corretamente.

Um dono de loja em Jidá recorda-se de estar à frente de um funcionário que encolheu os ombros e disse: “O computador diz que é alto risco, não posso fazer nada.” Depois de uma pequena tempestade nas redes sociais, a ferramenta foi “reavaliada” e nunca mais se ouviu falar dela. A lição ficou clara: quando os cidadãos não confiam na caixa-preta, culpam o Estado - não o fornecedor de software.

Por trás de falhas e atrasos, existe uma tensão estrutural. A IA vive de experimentar e iterar depressa; a administração pública vive de estabilidade e processos descritos ao pormenor. Quando estes mundos chocam, tende a vencer a lógica da máquina - e, paradoxalmente, o sistema fica mais vulnerável. Funcionários queixaram-se de modelos a mudar mais depressa do que as regras conseguiam acompanhar. Auditores perguntavam como se chegava a decisões e as equipas de ciência de dados nem sempre conseguiam responder em linguagem simples.

Sejamos francos: ninguém reescreve direito público cada vez que um modelo recebe um novo conjunto de dados. Esse desfasamento assusta juristas - e juristas cautelosos travam projetos. No caso saudita, vários observadores acrescentam que a dependência de consultores externos amplificou o problema: muitas apresentações estratégicas impecáveis, mas execução insuficientemente financiada e acompanhada no terreno.

Um aspeto que raramente aparece nos anúncios, mas pesa no resultado, é a contratação pública. Programas de IA no governo exigem contratos que prevejam manutenção, auditoria, qualidade de dados, responsabilização por erros e métricas de serviço. Quando estas cláusulas ficam vagas, a pressão concentra-se no lançamento - e não na continuidade. O que parecia “inovação” torna-se, rapidamente, um conjunto de serviços a meio gás, difíceis de corrigir sem renegociar tudo.

Também a cibersegurança e a privacidade ganham outra escala num governo inteligente: mais automação significa mais integrações, mais pontos de acesso e mais superfícies de ataque. Sem regras claras de minimização de dados, registos de auditoria e gestão de identidade digital, a promessa de conveniência pode aumentar o risco - e esse risco, num contexto de baixa confiança, tem impacto político imediato.

O que outros países podem aprender com a experiência saudita

Para quem está longe de Riade, a conclusão prática é simples: começar pequeno, fazer o “aborrecido” bem e só depois escalar. Em vez de vender um “governo do futuro” movido a IA, é mais eficaz escolher um problema concreto que as pessoas sintam todas as semanas: uma renovação de licença lenta, um formulário de subsídio confuso, uma linha de apoio que nunca atende.

A seguir, aplicar IA em cima de um processo que já funcione manualmente. Se não se consegue explicar o percurso completo do cidadão, do início ao fim, sem chavões, o algoritmo vai aumentar a confusão - não resolvê-la.

Todos já passámos por isso: a aplicação “mágica” que prometia poupar tempo e, no fim, torna tudo mais complicado. Os governos caem na mesma armadilha, só que com orçamentos maiores e consequências mais sérias. O erro recorrente é perseguir o rótulo “IA em primeiro lugar” para comunicados de imprensa, em vez de construir a infraestrutura discreta - mas robusta - que sustenta serviços públicos.

Os cidadãos não acordam a desejar governo inteligente. Querem um Estado que responda, que explique e que não perca documentos. Qualquer implementação de IA que ignore isto - sobretudo em áreas de alto impacto, como vistos ou policiamento - será vista como fria, arbitrária e até hostil.

Um analista regional resumiu o problema sem rodeios:

“A Arábia Saudita não bateu apenas numa parede técnica; bateu numa parede de confiança. A confiança não se automatiza - conquista-se.”

Por trás da frase está uma verdade difícil de engolir: a tecnologia amplifica o que já existe, para o bem e para o mal.

Para decisores e líderes tecnológicos a observar o caso saudita, destacam-se três práticas realistas:

  • Começar com ferramentas transparentes e explicáveis em áreas de baixo risco, antes de tocar em policiamento, apoios sociais ou tribunais.
  • Investir em governação de dados e interoperabilidade básica antes de correr atrás das promessas mais vistosas de IA.
  • Envolver cedo - e continuamente - quem está na linha da frente e os próprios cidadãos, garantindo um canal claro para dizer “isto não está a funcionar”.

Um recuo discreto que levanta perguntas mais altas

O abrandamento da ambição saudita de um governo inteligente movido por IA não significa abandono da tecnologia. Os contratos de cloud continuam, os centros de dados mantêm-se ativos e os programas de talento seguem no papel. O que mudou foi o tom: menos bravura sobre algoritmos a “governar o Estado”, mais conversa sobre “serviços digitais” e melhorias incrementais.

Para analistas, este episódio é um estudo de caso sobre o que acontece quando o entusiasmo ultrapassa a maturidade institucional. Para os cidadãos, é um lembrete de que toda a promessa “inteligente” pode transformar-se em desilusão vazia se os básicos - atendimento, clareza e recurso - não estiverem assegurados.

A narrativa mais relevante pode estar no que não se anuncia. Que projetos vão resistir, discretamente, sendo afinados com pragmatismo quando os chavões desaparecerem? Que ministérios vão optar pelo caminho difícil de limpar dados, clarificar regras e partilhar controlo entre máquinas e pessoas?

Estas perguntas não costumam dominar as redes sociais, mas determinam como poder, responsabilização e tecnologia vão coexistir - de Riade à câmara municipal da sua cidade.

Ponto-chave Detalhe Valor para o leitor
O recuo da IA na Arábia Saudita é real Ferramentas emblemáticas de governo inteligente estão a ser renomeadas, reduzidas ou arquivadas discretamente. Mostra onde grandes promessas de IA podem falhar na prática.
Problemas estruturais pesam mais do que as ferramentas Dados fragmentados, regras opacas e baixa confiança institucional enfraquecem sistemas avançados. Indica o que deve ser corrigido antes de investir fortemente em IA.
IA pragmática e centrada no cidadão tende a funcionar melhor Focar dores quotidianas e assentar em processos manuais sólidos. Oferece um roteiro para tecnologia pública que é usada - e valorizada.

Perguntas frequentes

  • Pergunta 1: A Arábia Saudita cancelou oficialmente o seu programa de governo inteligente com IA?
    Não de forma explícita. Em vez de um anúncio de cancelamento, vários projetos foram renomeados, reduzidos ou absorvidos em iniciativas genéricas de “transformação digital”.
  • Pergunta 2: Porque é que a implementação de IA teve tantas dificuldades na Arábia Saudita?
    Apontam-se sistemas de dados fragmentados, dependência excessiva de consultores, pouca transparência e a tensão entre modelos de IA que evoluem depressa e regulamentos que mudam devagar.
  • Pergunta 3: Houve serviços de IA no Estado que tenham funcionado?
    Sim, mas sobretudo em casos de uso limitados: chatbots básicos, digitalização documental e analítica interna, especialmente quando o risco para os cidadãos é baixo e os processos já eram claros.
  • Pergunta 4: O que podem outros governos aprender com este revés?
    Priorizar dados limpos e ferramentas simples e explicáveis; começar por áreas de baixo risco; envolver cedo os funcionários de atendimento; e evitar construir política pública em torno de slogans de marketing.
  • Pergunta 5: Isto significa que a IA não tem lugar na administração pública?
    Não. Significa que a IA no governo precisa de ser pragmática, transparente e sustentada por bases burocráticas sólidas, em vez de vendida como solução rápida para desafios estruturais profundos.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário