O Ano Novo Lunar, na China, serviu também de palco para uma demonstração de força tecnológica: novos modelos de IA surgiram para desafiar de frente a liderança da Califórnia.
Enquanto o país celebra com dragões e fogo de artifício, os gigantes tecnológicos chineses lançam a sua própria salva digital. Modelos saídos de Pequim, Hangzhou e Shenzhen estão já tão perto do ChatGPT, Gemini e companhia que até Sam Altman, da OpenAI, admite que a concorrência merece atenção. A grande questão começa a ganhar forma: durante quanto tempo é que o Silicon Valley ainda vai mandar na inteligência artificial?
A China usa o Ano Novo como montra de IA
No Ano Novo chinês, a tradição dividiu espaço com a alta tecnologia. Em espectáculos oficiais, robots humanoides dançaram em perfeita sincronização ao lado de pessoas. A imagem foi pensada ao detalhe: a China quer mostrar que já não é apenas seguidora em robótica e inteligência artificial.
Ao mesmo tempo, os grandes grupos tecnológicos do país apresentaram uma nova vaga de modelos de IA. A oferta cobre praticamente todas as áreas importantes do desenvolvimento atual: desde geradores de vídeo a chatbots multimodais, passando por assistentes de programação altamente especializados.
Enquanto os EUA tentaram travar a China com restrições à exportação de chips, essa pressão está, na prática, a obrigar as empresas chinesas a serem muito mais eficientes - com efeitos claros na velocidade e nos custos.
Num entrevista à CNBC, Sam Altman descreveu o ritmo chinês como “notável”. O facto de um dirigente de topo dos EUA elogiar tão claramente o avanço mostra bem até que ponto o Silicon Valley leva a sério esta nova pressão competitiva.
Embargo dos EUA como turbo inesperado
O pano de fundo desta evolução é, ironicamente, a própria política americana. Washington restringe de forma severa a exportação de chips de IA avançados para a República Popular da China. A intenção era travar os planos chineses, mas o efeito real nem sempre é esse.
Enquanto empresas como OpenAI, Google ou Meta montam enormes centros de dados com chips Nvidia, os programadores chineses trabalham com recursos muito mais limitados. Isso empurra-os para novas abordagens: arquiteturas mais leves, métodos de treino optimizados e alternativas ao hardware americano.
Um exemplo disso é o uso de chips Huawei Ascend para grandes modelos de linguagem. Estes semicondutores não vêm dos EUA, mas já têm capacidade suficiente para treinar modelos de topo. Trabalhar com maior eficiência reduz custos de forma estrutural - uma vantagem estratégica na competição global.
Modelos abertos como trunfo: a aposta chinesa no Open Source
Há um ponto que chama a atenção, especialmente para muitos utilizadores na Europa: uma grande parte dos novos modelos chineses surge em versões open source ou open weight.
- Open Source: o código-fonte, a arquitetura do modelo e, muitas vezes, também os dados de treino são públicos.
- Open Weight: os pesos do modelo estão disponíveis para download, mas o código por trás pode continuar parcialmente proprietário.
As duas abordagens têm algo em comum: os modelos podem ser executados localmente, em servidores próprios ou até em estações de trabalho mais potentes. Assim, as empresas mantêm controlo total sobre os seus dados, sem os enviar para plataformas americanas ou clouds chinesas.
Para muitas empresas na Alemanha, o ponto decisivo é a proteção de dados: um modelo forte a correr inteiramente no próprio centro de dados passa, de repente, a ser mais apelativo do que um sistema americano ligeiramente melhor na cloud.
É precisamente aqui que muitos fornecedores chineses querem posicionar-se. Juntam bons resultados com a possibilidade de descarregar o modelo, ajustá-lo e mantê-lo internamente protegido. Para as comunidades de desenvolvimento é uma vantagem; para os gigantes americanos, uma ameaça direta ao negócio de licenças e APIs.
Vídeos espectaculares: Seedance 2.0 põe Hollywood em alerta
O modelo de vídeo Seedance 2.0, da ByteDance, empresa por detrás do TikTok, foi um dos destaques do Ano Novo. Os clips gerados lembram pequenas cenas de cinema, com movimentos de câmara elaborados e personagens convincentes - muito mais perto de um nível cinematográfico do que as abordagens anteriores.
O Seedance 2.0 destaca-se da vaga chinesa porque não está disponível de forma aberta. Nem o código nem os pesos podem ser descarregados, mantendo-se como um produto clássico e proprietário. Ainda assim, já está a causar polémica: Disney, Paramount e Netflix acusam a ByteDance de possíveis violações de direitos de autor. A suspeita é que o modelo possa estar fortemente apoiado em material cinematográfico protegido.
Para o sector, isto é um sinal de aviso. Quanto mais realistas se tornam os vídeos generativos, mais forte fica o debate entre estúdios, realizadores e sindicatos sobre dados de treino justos, proteção de universos de marca e possíveis perdas de emprego. Mesmo assim, o Seedance 2.0 deixa uma mensagem clara: a China já joga na liga máxima da IA de vídeo.
Qwen, GLM, DeepSeek e Kimi: a nova armada de IA da China
Qwen3.5: versátil multimodal da Alibaba
A Alibaba aposta no Qwen3.5 como um grande modelo vision-language, capaz de compreender e cruzar texto, imagens e vídeos. O chatbot identifica conteúdos em cerca de 200 línguas e pode funcionar como “agent” em formulários, sites ou ferramentas internas - por exemplo, para automatizar fluxos de trabalho.
O Qwen3.5 está disponível sob licença livre em plataformas como o GitHub. Os programadores podem integrá-lo em produtos próprios, afiná-lo ou executá-lo na sua própria infraestrutura. Para a Alibaba, esta também é uma forma de prender ecossistemas globais de IA à sua cloud.
GLM-5 da Zhipu AI: optimizado para agentes e raciocínio complexo
O GLM-5, apresentado pela Zhipu AI, dirige-se mais a programadores e empresas que querem construir agentes de IA autónomos. Segundo a empresa, o foco está no raciocínio lógico em várias etapas, no planeamento preciso e na resolução robusta de problemas.
Do ponto de vista técnico, destaca-se o uso de “DeepSeek Sparse Attention” (DSA). Esta técnica limita a atenção do modelo apenas às partes relevantes do contexto. O resultado é menor carga computacional, sem grande perda de qualidade. O GLM-5 foi treinado inteiramente em chips Huawei Ascend, o que reforça a independência face ao hardware dos EUA.
DeepSeek V4: rival chinês para GPT e Claude
O sector está particularmente atento à próxima versão do modelo DeepSeek. A geração anterior, o DeepSeek V3, já tinha chamado a atenção por ficar muito perto do ChatGPT em vários benchmarks, mas com custos de treino bastante inferiores.
A futura versão V4 deverá destacar-se sobretudo em tarefas de programação. Segundo investigações de meios especializados, o DeepSeek V4 poderá ultrapassar os atuais modelos GPT da OpenAI e o Claude da Anthropic em alguns benchmarks. Se isso se confirmar na prática, ficará disponível um assistente de código chinês capaz de apoiar equipas de desenvolvimento em todo o mundo.
Kimi K2.5 da Moonshot AI: especialização em vez de gigantismo
A Moonshot AI segue com o Kimi K2.5 uma abordagem já conhecida do Google Gemini 3.0: “Mixture of Experts” (MoE). Neste modelo, o grande sistema de linguagem é dividido em vários sub-redes especializadas. Para cada pedido, um router decide quais as partes especialistas que devem ser activadas.
Esta estrutura poupa capacidade de processamento, porque o modelo inteiro não trabalha sempre em plena carga. Uns especialistas concentram-se na programação, outros na compreensão de linguagem, outros em matemática ou escrita criativa.
- Vantagem: menor consumo de energia por pedido
- Vantagem: optimização dirigida de especialistas individuais
- Risco: arquitetura mais complexa, mais difícil de depurar
A diferença de desempenho está a encolher - e pode até inverter-se
Para já, ChatGPT, Gemini e outros modelos americanos continuam a apresentar resultados ligeiramente melhores em vários benchmarks. Mas essa margem diminuiu, e muitas vezes só aparece quando se analisam tabelas de teste com detalhe. Na prática empresarial, o que pesa mesmo é outra coisa: custos, controlo, personalização e segurança jurídica.
Um modelo apenas um pouco mais fraco, mas que funcione localmente e sem fuga de dados, pode ser mais apelativo para uma PME do que um serviço brilhante da Califórnia.
Especialmente na Europa, onde a legislação sobre proteção de dados é rigorosa, os modelos open source chineses podem preencher uma lacuna. As empresas descarregam os pesos, executam-nos em hardware próprio ou em alojamento local e mantêm a informação sensível dentro de casa. Esta perspetiva está a mexer com o equilíbrio de poder no mercado global de IA.
O que significam termos como “open weight” e “IA agente”
Muitos dos termos associados aos novos modelos parecem técnicos, mas têm impacto em usos bem concretos. “Open weight” significa que os pesos puros da rede treinada estão disponíveis livremente. Com isso, os programadores podem:
- afinar o modelo com os seus próprios dados,
- usá-lo em ambientes offline, por exemplo em redes isoladas,
- ficar independentes do fornecedor original, desde que a licença o permita.
“IA agente” refere-se a sistemas que não se limitam a responder perguntas, mas que planeiam e executam passos por conta própria: procuram documentos, preenchem formulários, ligam-se a ferramentas externas. É precisamente aqui que Qwen3.5 e GLM-5 apostam. A ideia não é serem apenas chatbots, mas assistentes que trabalham ativamente em segundo plano - da contabilidade ao desenvolvimento de software.
Oportunidades e riscos para Portugal e o espaço DACH
Para empresas em países de língua alemã, esta evolução traz novas opções, mas também incerteza. Do lado das oportunidades, há alternativas mais baratas aos serviços americanos, maior diversidade tecnológica e a possibilidade de montar infraestrutura própria de IA sem depender totalmente de um único fornecedor.
Do lado dos riscos, surgem tensões geopolíticas, possíveis restrições à exportação de software de IA e questões legais sobre responsabilidade, direitos de autor e uso de dados. Quem adotar modelos chineses deve confirmar cuidadosamente a licença e a forma como foram treinados.
Na prática, para muitas empresas, faz sentido uma abordagem híbrida: aplicações críticas em modelos open weight alojados localmente, enquanto casos de uso criativos ou menos sensíveis continuam a passar por serviços na cloud, como o ChatGPT. Assim, o risco fica distribuído e as equipas ganham experiência nos dois mundos - enquanto a distância entre a China e o Silicon Valley continua a diminuir todos os dias.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário