A China transforma o Ano Novo Lunar numa montra de aceleração tecnológica: novos modelos de IA enfrentam de frente a hegemonia da Califórnia.
Enquanto as ruas se enchem de danças do dragão e o céu se ilumina com fogo-de-artifício, os gigantes tecnológicos chineses lançam o seu próprio espetáculo - desta vez digital. Modelos de IA saídos de Pequim, Hangzhou e Shenzhen aproximam-se tanto de ChatGPT, Gemini e companhia que até Sam Altman, CEO da OpenAI, parece obrigado a reavaliar o cenário. A pergunta ganha urgência: por quanto tempo mais o Silicon Valley continuará a dominar a inteligência artificial?
Ano Novo Lunar como montra: a China expõe robótica e modelos de IA chineses
As celebrações do Ano Novo Lunar não foram apenas um desfile de tradição - também serviram para sublinhar ambição industrial. Em eventos oficiais, robôs humanoides surgiram a dançar em sincronia com pessoas, coreografias cuidadosamente montadas para transmitir uma mensagem clara: a China quer provar que já não é “seguidora” na robótica e na inteligência artificial.
Em paralelo, as principais empresas tecnológicas do país desencadearam uma nova vaga de modelos de IA, cobrindo praticamente todas as frentes relevantes da atual corrida: geradores de vídeo, chatbots multimodais e assistentes de programação altamente especializados.
A tentativa dos EUA de travar a China com restrições à exportação de chips acabou por criar uma pressão que empurra as empresas chinesas para uma eficiência mais agressiva - com impactos visíveis no ritmo de evolução e nos custos.
Num entrevista à CNBC, Sam Altman descreveu como “notável” a velocidade a que a China está a avançar. Quando um executivo de topo dos EUA faz um elogio tão direto, fica evidente que o Silicon Valley passou a encarar esta concorrência como séria.
O embargo dos EUA como “turbo” inesperado para a IA
A raiz desta aceleração está, em grande medida, na política norte-americana. Washington tem limitado fortemente a exportação de chips avançados para IA para a República Popular da China. Em teoria, a medida deveria travar os planos chineses; na prática, muitas vezes produz o efeito inverso.
Enquanto OpenAI, Google e Meta ampliam centros de dados gigantescos com chips Nvidia, os programadores e investigadores chineses são obrigados a trabalhar com recursos bem mais escassos. Isso força abordagens diferentes: arquiteturas mais frugais, métodos de treino mais otimizados e substitutos para hardware americano.
Um exemplo concreto é a utilização de chips Huawei Ascend no treino de grandes modelos de linguagem. Estes semicondutores não são dos EUA, mas já atingem um nível suficiente para treinar modelos de topo. Quem aprende a tirar mais desempenho por watt e por euro reduz custos de forma duradoura - e isso torna-se uma vantagem estratégica no mercado global.
Modelos abertos como trunfo: a aposta chinesa em Open Source e Open Weight
Há um ponto particularmente relevante para utilizadores e empresas na Europa: muitos dos novos modelos chineses são disponibilizados como Open Source ou Open Weight.
- Open Source: o código-fonte, a arquitetura do modelo e, muitas vezes, também os dados de treino são públicos.
- Open Weight: os pesos do modelo podem ser descarregados, mas parte do código e do “pipeline” pode continuar proprietária.
Em ambos os casos, o resultado prático é semelhante: os modelos podem ser executados localmente - em servidores próprios ou até em workstations potentes. Para as empresas, isto significa controlo total sobre dados e operações, sem necessidade de enviar informação para plataformas norte-americanas ou para fornecedores de cloud chineses.
Para muitas organizações, o ponto decisivo é a privacidade: um modelo forte a correr integralmente no próprio centro de dados pode tornar-se mais apelativo do que um sistema ligeiramente superior alojado numa cloud externa.
É precisamente aí que muitos fornecedores chineses estão a posicionar a oferta: desempenho elevado combinado com a possibilidade de descarregar, adaptar e “fechar” o modelo dentro da própria infraestrutura. Para comunidades de desenvolvimento, isto é um impulso enorme; para empresas dos EUA, ameaça diretamente o negócio de licenças e de APIs.
Vídeo generativo em destaque: Seedance 2.0 deixa Hollywood em alerta
Um dos anúncios que mais atenção recebeu no período do Ano Novo Lunar foi o modelo de vídeo Seedance 2.0, do grupo ByteDance (TikTok). Os clips gerados parecem pequenas cenas cinematográficas, com movimentos de câmara elaborados e personagens convincentes - bem mais próximos do padrão de cinema do que tentativas anteriores.
O Seedance 2.0 destaca-se desta vaga chinesa por um motivo: não está disponível de forma aberta. Nem código nem pesos podem ser descarregados; trata-se de um produto claramente proprietária. Ainda assim, já gerou controvérsia: Disney, Paramount e Netflix acusam a ByteDance de potenciais violações de direitos de autor. A suspeita é que o modelo possa ter sido treinado com material audiovisual protegido.
Para o setor, é um sinal de aviso. Quanto mais realistas se tornam os vídeos gerados, mais os estúdios, realizadores e sindicatos reforçam a pressão sobre temas como dados de treino justos, proteção de universos de marcas e perdas de postos de trabalho. Apesar disso, a mensagem tecnológica é inequívoca: a China já compete no patamar mais alto da IA de vídeo.
Qwen, GLM, DeepSeek e Kimi: a nova armada de IA da China
Qwen3.5: o “tudo-em-um” multimodal da Alibaba
A Alibaba aposta no Qwen3.5, um grande modelo vision-language capaz de compreender e relacionar texto, imagens e vídeo. O chatbot identifica conteúdos em cerca de 200 línguas e consegue atuar como “agente” em formulários, websites ou ferramentas internas - por exemplo, para automatizar fluxos de trabalho.
O Qwen3.5 está disponível sob licença aberta em plataformas como o GitHub. Programadores podem integrá-lo em produtos, ajustá-lo (fine-tuning) e executá-lo na sua própria infraestrutura. Para a Alibaba, isto também funciona como forma de atrair ecossistemas globais de IA para a sua cloud.
GLM-5 (Zhipu AI): mais foco em agentes e raciocínio complexo
O GLM-5, apresentado pela Zhipu AI, aponta mais diretamente a programadores e empresas que querem construir agentes de IA autónomos. Segundo a empresa, o modelo enfatiza raciocínio lógico em múltiplas etapas, planeamento mais rigoroso e resolução de problemas com maior robustez.
Do lado técnico, destaca-se o uso de DeepSeek Sparse Attention (DSA): uma técnica que limita a atenção do modelo às partes mais relevantes do contexto. O objetivo é reduzir o custo computacional sem degradar demasiado a qualidade. O GLM-5 foi treinado integralmente em chips Huawei Ascend, reforçando a independência face a hardware dos EUA.
DeepSeek V4: o desafiante chinês para GPT e Claude
Há grande expectativa em torno do DeepSeek V4. A geração anterior, DeepSeek V3, já tinha causado impacto por se aproximar de ChatGPT em vários benchmarks - e com custos de treino consideravelmente mais baixos.
A próxima versão V4 deverá brilhar sobretudo em tarefas de programação. Segundo investigações da imprensa especializada, o DeepSeek V4 poderá, em certos benchmarks, superar modelos GPT atuais da OpenAI e o Claude da Anthropic. Se isso se confirmar no uso real, passará a existir um assistente de código chinês capaz de aliviar equipas de desenvolvimento em todo o mundo.
Kimi K2.5 (Moonshot AI): especialização em vez de “tamanho por tamanho”
A Moonshot AI segue com o Kimi K2.5 uma abordagem também conhecida de sistemas como o Google Gemini 3.0: Mixture of Experts (MoE). Em vez de um único “bloco” monolítico, o modelo é dividido em vários submódulos especialistas; um router decide, a cada pedido, quais os especialistas que entram em ação.
Este desenho poupa computação, porque nem todas as partes do modelo trabalham com intensidade máxima em todas as consultas. Alguns especialistas podem focar-se em programação, outros em compreensão linguística, outros em matemática ou escrita criativa.
- Vantagem: menor consumo de energia por pedido
- Vantagem: permite otimizar especialistas de forma direcionada
- Risco: arquitetura mais complexa e mais difícil de depurar
A diferença de desempenho encolhe - e pode até inverter-se
Em muitos benchmarks, ChatGPT, Gemini e outros modelos norte-americanos ainda registam resultados ligeiramente superiores. No entanto, esse avanço tornou-se pequeno e, muitas vezes, só é visível em tabelas de teste muito específicas. Para o uso empresarial, tendem a pesar mais outros critérios: custo, controlo, capacidade de adaptação e segurança jurídica.
Um modelo apenas marginalmente inferior, mas executado localmente e sem fuga de dados, pode ser mais atraente para PME do que um serviço “premium” na cloud da Califórnia.
Na Europa, onde as regras de privacidade são exigentes, modelos chineses Open Source e Open Weight podem preencher uma lacuna: as organizações descarregam os pesos, executam-nos em hardware próprio ou com fornecedores locais e mantêm informação sensível dentro de casa. Isto tem potencial para deslocar a balança de poder no mercado global de IA.
Um fator adicional, particularmente relevante no contexto europeu, é o enquadramento regulatório - incluindo o Regulamento de IA da União Europeia (EU AI Act). A possibilidade de operar modelos localmente, auditar integrações e limitar fluxos de dados pode facilitar conformidade em projetos de maior risco, embora não elimine a necessidade de avaliar licenças, dados de treino e responsabilidades.
Também importa considerar a dimensão energética. À medida que a IA passa de “demonstração” a infraestrutura de produção, eficiência (energia por inferência, custo por 1.000 tokens, capacidade de servir em hardware menos exclusivo) deixa de ser detalhe técnico e torna-se vantagem competitiva - precisamente o tipo de pressão que as restrições a chips parecem ter intensificado na China.
O que significam, na prática, “Open Weight” e “IA de Agentes”
Muitos termos associados a estes modelos soam abstratos, mas traduzem-se em usos muito concretos. Open Weight significa que os pesos do modelo treinado ficam disponíveis. Isto permite às equipas:
- fazer fine-tuning com dados próprios,
- usar o modelo em ambientes offline, incluindo redes isoladas,
- reduzir dependência do fornecedor original, desde que a licença o permita.
Já IA de Agentes descreve sistemas que não se limitam a responder: planeiam e executam passos por conta própria - pesquisam documentos, preenchem formulários, chamam ferramentas externas. É exatamente aqui que Qwen3.5 e GLM-5 procuram diferenciar-se: não querem ser apenas chatbots, mas assistentes que “trabalham” em segundo plano, da contabilidade ao desenvolvimento de software.
Oportunidades e riscos para Portugal, a Península Ibérica e também para a região DACH
Para empresas em Portugal (e, por extensão, na Península Ibérica), esta evolução abre novas opções - mas também introduz incerteza. Do lado das oportunidades surgem alternativas potencialmente mais baratas a serviços dos EUA, maior diversidade tecnológica e a hipótese de construir infraestrutura própria de IA sem ficar totalmente presa a um único fornecedor.
Ao mesmo tempo, os riscos mantêm-se: tensões geopolíticas, possíveis restrições futuras à exportação (não só de chips, mas também de software e componentes), além de questões legais sobre responsabilidade, direitos de autor e uso de dados. Tal como já se discute na Alemanha e na região DACH, qualquer organização que adote modelos chineses deve analisar cuidadosamente a licença e a proveniência dos dados de treino.
Na prática, para muitas empresas faz sentido uma estratégia híbrida: aplicações críticas em modelos Open Weight executados localmente; casos criativos ou não sensíveis continuam em serviços de cloud como o ChatGPT. Assim, distribui-se o risco e as equipas ganham experiência em ambos os ecossistemas - enquanto a distância entre a China e o Silicon Valley continua a diminuir, dia após dia.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário