Na frente do palco, uma comissária europeia fala de “IA fiável”, enquanto, ao fundo da sala, o fundador de uma startup ri-se discretamente e, em simultâneo, lança um novo modelo no portátil. À frente, PowerPoint; atrás, clusters de GPU. Uns discutem guardrails, outros procuram o atalho para a próxima grande descoberta. Já vimos dinâmicas destas noutras áreas - clima, finanças, proteção de dados - mas, na IA, tudo parece acelerado, quase em câmara lenta ao contrário. Mal surge uma proibição, já existe um desvio operacional em circulação. A política tenta surfar a vaga enquanto o oceano ainda está a perceber quão profundo é. E toda a gente age como se continuasse com a mão firme no volante. Ainda assim, há qualquer coisa nesta cena que não bate certo.
A ilusão do controlo: quando a regulação da IA encontra a inovação em velocidade turbo
Quando os responsáveis políticos falam de IA, o discurso soa muitas vezes a plano mestre. Regulamentos, classes de risco, questões de responsabilidade - tudo parece arrumado em artigos e números de lei. Mas, nos bastidores dos hotéis de conferências, o que se sente é outra coisa: inquietação. Porque a regulação leva anos; a IA precisa de poucas semanas para dar um salto. Hoje um modelo “state of the art”, amanhã já está ultrapassado. Esta velocidade devora ferramentas clássicas de poder. Quem alguma vez tentou travar um fenómeno do TikTok com uma circular interna percebe o quão inglório isso pode ser.
Um funcionário explicou-me, em voz baixa, à margem de uma audição: “Estamos sempre dois updates atrasados.” E percebe-se que ele não está a exagerar.
Um exemplo que ainda persegue muita gente em Bruxelas: quando os primeiros rascunhos da Lei Europeia da IA se tornaram públicos, começaram a circular em fóruns de programadores, em poucos dias, listas com instruções do género: “Assim contornas a categoria de alto risco.” Não eram hackers sinistros, mas sim curiosos aborrecidos que viam o jogo regulatório como um puzzle. Nos Estados Unidos, o Congresso discute segurança em IA enquanto as comunidades de código aberto já distribuem modelos que qualquer adolescente pode treinar num cartão gráfico minimamente decente. Em termos estatísticos, bastam hoje alguns milhares de euros de orçamento em cloud para criar um modelo que, há cinco anos, ainda parecia saído de um laboratório de investigação. Os custos caem mais depressa do que as leis conseguem passar pelas comissões.
Há ainda um outro fator, menos vistoso mas decisivo: a energia e a infraestrutura. Um modelo poderoso não vive apenas de código e talento; depende de eletricidade barata, centros de dados, refrigeração e cadeias de fornecimento estáveis. Isto significa que parte da verdadeira disputa já não acontece apenas em ministérios ou parlamentos, mas também em contratos de energia, licenças urbanísticas e políticas industriais. Quem quer influência real sobre a IA tem de olhar para esses pontos aparentemente prosaicos.
Quem fala com programadores ouve muitas vezes a mesma frase: “Não estamos à espera de Bruxelas nem de Washington.” E é precisamente aí que se vê o limite da regulação clássica.
A lógica da política é vertical: no topo, as regras; em baixo, a aplicação.
A lógica da IA é horizontal: código que se copia, se bifurca, se partilha, se aperfeiçoa e se anonimiza. Uma pensa em competências e jurisdições; a outra, em repositórios. Entre estes dois mundos existe um vazio que nenhuma nota de rodapé no texto legal consegue preencher.
Sejamos honestos: ninguém, antes de fazer um git push, lê primeiro o Jornal Oficial da União Europeia.
O que significa hoje ter poder sobre a IA
Quando alguém fala de “poder sobre a IA”, raramente quer dizer exatamente a mesma coisa. Para os governos, isso costuma significar limitar riscos, clarificar responsabilidades e proteger a soberania. Para as grandes empresas, significa sobretudo quotas de mercado, acesso a dados e capacidade de computação. Para os utilizadores, porém, trata-se de autonomia no dia a dia - de perceber se um algoritmo participa, em silêncio, na decisão sobre quem obtém crédito ou que propostas de emprego alguém vê.
Se procurarmos os pontos de alavanca reais, acabamos sempre nos mesmos três: chips, cloud e dados. Em vez de regular a “IA” em abstrato, negoceia-se o acesso a hardware de alto desempenho, apertam-se controlos à exportação e atribuem-se subsídios para centros de dados. O poder está a deslocar-se do parlamento para a sala dos servidores.
Muitas leis soam a tentativa de criar barreiras morais, mas, no fim, acabam por regular acesso. Que empresa consegue chegar a que clusters de GPU? Quem pode usar conjuntos de dados sensíveis? Quem tem de divulgar modelos e quem fica dispensado? Entre linhas, esconde-se uma verdade simples: quem controla a infraestrutura controla as linhas de jogo. Não controla o pensamento dos programadores, mas controla o enquadramento em que eles trabalham. O quotidiano de uma equipa de machine learning passa, cada vez mais, a ser acompanhado por formulários de auditoria. Uma nova funcionalidade? Primeiro o formulário de risco, depois o lançamento.
Num plano mais alargado, o conflito deixa de ser “proíbemos a IA perigosa?” e passa a ser “como limitamos as consequências de um sistema que, de qualquer forma, já se está a espalhar?”. Os reguladores não conseguem desligar os dados de treino da internet como se puxassem uma ficha da tomada. Mas podem distribuir responsabilidades, impor transparência e definir deveres de comunicação. É assim que surge uma forma indireta de poder: não sobre o código em si, mas sobre as condições em que ele é utilizado. Só que este modelo encontra rapidamente os seus limites quando os projetos de código aberto estão dispersos pelo mundo, os programadores aparecem anonimamente e os modelos cabem comprimidos em portáteis. Um mercado global não se domestica facilmente com formulários nacionais. O poder sobre a IA torna-se, neste cenário, mais uma questão de probabilidades do que uma resposta simples de sim ou não.
Leituras práticas: poder sobre a IA, cloud e dados sem fantasias de omnipotência
Quem fala com legisladores e equipas de IA percebe depressa: o caminho mais sensato raramente é uma proibição em bloco, mas sim uma intervenção cirúrgica. Uma abordagem que tem ganho força é concentrar-se em aplicações claramente de alto risco. Diagnóstico médico, armas autónomas, vigilância biométrica em massa - aqui a regulação pode tornar-se concreta. Obrigações de autorização, testes rigorosos e auditorias independentes. Nas empresas, por sua vez, faz sentido uma medida sóbria, quase aborrecida, mas muito útil: um “registo interno de modelos”. Cada modelo relevante fica inscrito com a sua finalidade, dados de treino e responsáveis. Não tem glamour, mas traz rastreabilidade. Dessa forma, cria-se pelo menos um grau de controlo interno sobre o que já está em utilização - em vez de se controlar apenas o que aparece em apresentações vistosas.
Muitas empresas caem na mesma armadilha: subestimam a rapidez com que um “experimento” se transforma em “infraestrutura crítica”. Primeiro, uma equipa testa um assistente de IA para respostas a clientes; meses depois, metade do apoio ao cliente já depende dele. Sem análise de risco, sem red teaming, sem plano de emergência. Toda a gente conhece este momento em que uma ferramenta se torna, de repente, “indispensável” e ninguém consegue explicar com precisão como funciona por dentro. Por vergonha ou falta de tempo, continua-se como antes. Sejamos honestos: ninguém verifica, no dia a dia, cada prompt quanto a enviesamento e equidade. O caminho realista é definir com muita clareza algumas linhas vermelhas: certos tipos de dados nunca entram em modelos externos; a IA nunca decide sozinha sobre concessão de crédito ou despedimentos; decisões delicadas ficam sempre ligadas a controlo humano final. Regras que podem soar banais, mas que, no momento certo, fazem toda a diferença.
Há ainda um ponto cada vez mais importante: a governação da IA não começa apenas no modelo, mas também na contratação. Se uma organização compra um serviço de IA sem exigir direitos de auditoria, sem limites claros de retenção de dados e sem cláusulas de saída, está a abdicar de poder antes mesmo de começar. Os contratos, neste contexto, são tão estratégicos como as linhas de código. E o mesmo se aplica ao ciclo de vida do sistema: definir quando ele entra em produção é importante, mas definir quando e como ele é desligado é igualmente essencial.
Um responsável pela ética num grande grupo cotado no DAX resumiu-me a questão assim:
“Aceitámos que não conseguimos controlar a IA por completo. A nossa tarefa é segurá-la nos pontos em que pessoas reais podem sofrer danos.”
Disto podem tirar-se algumas conclusões sóbrias:
- Defina zonas proibidas claras para a IA, em vez de se perder em debates de princípio sem fim.
- Construa pequenas equipas habituadas a trabalhar juntas para a governação da IA, e não enormes monstros de conformidade sem poder de decisão.
- Mantenha um registo simples e escrito de cada modelo: finalidade, fontes de dados, responsáveis.
- Planeie, antes do lançamento, como vai parar um modelo - e não apenas quando já estiver a rebentar o escândalo.
- Pense sempre no poder sobre a IA também como poder sobre a infraestrutura: quem opera o quê, onde e com que padrões mínimos?
Entre impotência e responsabilidade: o que aprendemos com a regulação da IA
O debate sobre a regulação da IA muitas vezes parece uma discussão sobre o volante, quando o carro já segue em modo autónomo. Uns agarram-se à ideia de que uma única lei pode domar a velocidade da evolução. Outros encolhem os ombros e dizem: “É tarde demais, o génio já saiu da lâmpada.” Ambas as perspetivas ficam aquém da realidade. Na verdade, estamos a viver uma fase de transição em que o poder sobre a IA está fragmentado. Estados, empresas, comunidades de código aberto, fornecedores de cloud e departamentos especializados - todos têm uma peça do puzzle, mas ninguém detém a imagem completa. Em vez de procurar a entidade de controlo perfeita, vale mais perguntar: onde é que eu tenho influência concreta e onde é que, com honestidade, só me resta limitar danos?
Talvez seja precisamente este olhar pragmático o início de uma responsabilidade real. Quando a direção de uma escola decide se os chatbots são ou não permitidos nos trabalhos de casa. Quando um médico explica conscientemente em que momentos desconfia de um diagnóstico feito por IA. Quando um programador se recusa a integrar um modelo em sistemas críticos sem supervisão humana. São pequenos atos de poder quotidiano, muito longe dos grandes documentos estratégicos dos governos. E, no entanto, acabam por moldar a forma como a IA entra de facto nas nossas vidas. A questão em aberto continua a ser esta: conseguiremos transformar todas estas decisões dispersas numa espécie de postura coletiva? Numa cultura que reconheça que não dominamos a IA por completo, mas que conseguimos, sem dúvida, definir limites? Talvez seja aí que resida a forma de poder mais discreta - e, ao mesmo tempo, mais eficaz.
| Ponto central | Detalhe | Valor acrescentado para o leitor |
|---|---|---|
| As regras ficam atrás da tecnologia | Os ciclos legislativos não acompanham o ritmo extremamente rápido do desenvolvimento de modelos | Expectativas mais realistas sobre a capacidade política de orientar a IA |
| O poder desloca-se para a infraestrutura | O controlo sobre chips, cloud e dados decide as fronteiras do jogo | Compreensão de onde a influência pode realmente ser exercida hoje |
| Leituras pragmáticas funcionam melhor do que ambições totais | Foco em aplicações de alto risco, zonas proibidas e governação interna | Pontos de ação concretos para assumir responsabilidade apesar do controlo limitado |
Perguntas frequentes
Porque é que a IA é tão difícil de regular?
Porque o desenvolvimento e a difusão dos modelos acontecem de forma extremamente rápida e global, enquanto as leis nascem devagar e são, na maioria dos casos, limitadas a um país ou região.O Estado ainda consegue controlar a IA de forma eficaz?
Em parte, sim: os Estados conseguem influenciar a infraestrutura, as aplicações de alto risco e as regras de responsabilidade, mas não conseguem controlar cada fragmento de código em projetos de código aberto distribuídos.O que significa “poder sobre a IA” para as empresas?
Significa, acima de tudo, transparência sobre os modelos usados, linhas vermelhas claras em aplicações sensíveis e responsabilidades que vão muito além das questões informáticas.A IA de código aberto é um problema para a regulação?
Torna as lógicas clássicas de proibição mais difíceis, mas também traz vantagens: mais transparência, auditoria conjunta e menor dependência de grandes empresas individuais.O que pode fazer uma pessoa individual?
Escolher com consciência onde usa IA no dia a dia, fazer perguntas críticas quando algoritmos tomam decisões sobre si e estabelecer, no seu próprio contexto, pequenas regras claras e firmes.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário