Saltar para o conteúdo

Regulação da IA: Como os políticos tentam controlar uma tecnologia que está sempre a evoluir.

Homem de fato a analisar documento sobre lei, sentado numa sala de reuniões formal com bandeira da UE.

As cadeiras da sala de comissões rangem de forma quase imperceptível quando os deputados se inclinam para a frente e fixam os olhos no ecrã.

Desta vez não há slides nem gráficos: está aberto um chatbot que responde a perguntas em tempo real - mais rápido, mais mordaz e, por vezes, com uma autoconfiança desconcertante. Um jovem assessor escreve: «Redige uma lei contra ti próprio.» O sistema devolve artigos, números, notas e um tom subtilmente irónico. Por instantes instala-se um silêncio estranho, daqueles em que toda a gente percebe que algo se deslocou de lugar. De repente, a conversa sobre tempos de pausa e ajudas de custo soa datada. E, ainda assim, são exactamente estas pessoas que agora têm de desenhar regras para uma tecnologia que já lhes está a escapar por entre os dedos.

O instante em que a política percebe que a IA não lê o Diário da República

Quem, nos últimos meses, espreitou reuniões sobre digital ou segurança em Bruxelas - e também em capitais como Berlim - reconhece a mesma mistura física de fascínio e excesso de carga. Em cima das mesas: café para levar, pilhas de papel, e-mails impressos. Nos portáteis: dossiês de IA, notas de urgência e janelas do ChatGPT. Muitos decisores admitem, em privado, que já usam IA todos os dias - para resumir, traduzir, «dar um jeito» a um texto. Em público, o tema é a regulamentação. Nos bastidores, o esforço é anterior: perceber com o que, afinal, estão a lutar.

Um técnico parlamentar descreveu o cenário como correr num tapete rolante que alguém acelerou sem aviso. Mal sai um rascunho do AI Act europeu, já aparece um novo modelo no mercado com riscos diferentes. A sensação de estar sempre atrasado infiltra-se em cada reunião. A IA não respeita legislaturas nem calendários de comissões. Avança a uma velocidade própria: de comunidades open source para laboratórios de big tech - enquanto a política tenta acompanhar com actas, pareceres e propostas de alteração.

Sejamos pragmáticos: ninguém pega por gosto em 400 páginas de fundamentação legal sobre classes de risco de algoritmos. Mas é nesses documentos que se decide, neste momento, se uma IA pode influenciar quem obtém crédito, quem entra no radar de autoridades de segurança ou de quem é descartado o currículo num processo de recrutamento. A resposta instintiva da política é usar ferramentas conhecidas: classificação, proibições, cadernos de encargos. A IA é arrumada em “alto risco”, “risco limitado” e “risco mínimo”. No papel, parece impecável; na prática, a sensação é a de tentar arquivar uma cascata em dossiers.

O que o AI Act e a regulamentação da IA tentam fazer - e onde já ficam aquém

O AI Act europeu é, hoje, o exemplo mais visível do esforço de recuperar controlo. A lógica, enunciada de forma simples, é esta: quem desenvolve ou utiliza aplicações particularmente sensíveis - como reconhecimento facial em espaço público, diagnóstico médico ou infra-estruturas críticas - passa a ter obrigações exigentes. Transparência, análise de risco, supervisão humana. Sistemas concebidos para manipular pessoas ou explorar vulnerabilidades específicas devem ser proibidos. Um tipo de vedação digital construída com artigos e números, num ritmo recorde para os padrões de Bruxelas.

No terreno, porém, o quadro fica mais granular. Start-ups perguntam-se se ainda conseguem treinar modelos na Europa sem se afundarem num pântano de compliance. Autoridades fazem contas ao número de novos técnicos necessários apenas para fiscalizar as regras. E as pressões de lobby chegam de todos os lados: uns alertam para o perigo de excesso regulatório; outros, para normas brandas que não mordem. Ao mesmo tempo, surgem modelos open source que qualquer pessoa descarrega, instala e corre num computador doméstico relativamente potente - longe de qualquer entidade supervisora.

Há uma frase seca que especialistas repetem com frequência: regular a IA apenas onde ela é “vendida oficialmente” é ignorar metade do jogo. A zona verdadeiramente crítica está entre os extremos - nos modelos semi-profissionais, nas empresas que usam sistemas “apenas internamente” e nos organismos públicos que testam projectos-piloto. A regulamentação da IA acaba, assim, presa num paradoxo: demasiado permissiva para os maiores riscos; demasiado complexa para os actores mais pequenos. O conflito central mantém-se: como criar regras que abrandeçam o ritmo sem empurrar investigação e capacidade industrial, por inteiro, para os EUA ou a China?

Como pode ser uma boa supervisão da IA - menos manchetes, mais regras de utilização (IA) no dia-a-dia

Quem trabalha na fronteira entre política e tecnologia tende a convergir numa proposta prática: menos gestos simbólicos e mais regras concretas no local de uso. Não apenas grandes leis sobre IA, mas também orientações internas claras em administrações públicas, escolas, redacções e empresas. A ideia-chave é simples: a regulamentação não pode ser só “lá em cima, em Bruxelas”; tem de existir como prática repetida. Que dados podem ser utilizados? Quem responde quando um sistema falha? Como se regista que um algoritmo influenciou uma decisão? É dessas perguntas, aparentemente áridas, que nasce a supervisão real.

Mas aqui aparece um obstáculo humano conhecido: organizações que produzem guias longuíssimos sobre IA e depois os deixam a ganhar pó na intranet. São aqueles PDFs que ninguém lê, acompanhados por um webinar de meia hora - que muitos assistem enquanto tratam e-mails. A verdade é esta: quase ninguém consegue cumprir isso diariamente. Uma regulamentação viva da IA precisa de rotinas, não de formações únicas. Check-ins curtos em equipa, exemplos concretos, actualizações regulares quando mudam ferramentas ou enquadramentos legais. E, sobretudo, a permissão para dizer: «Isto ainda não sabemos; vamos testar - com rede de segurança.»

Entre o pessimismo tecnológico e a euforia da IA, alguns responsáveis procuram uma linguagem que não seja nem fatalista nem ingénua:

«Temos de deixar de tratar a IA como um fenómeno natural», afirma uma jurista envolvida em directrizes europeias. «Algoritmos são concebidos, treinados e aplicados - por pessoas e organizações, com interesses concretos. É aí que a regulamentação tem de actuar.»

Levando essa ideia a sério, o caminho tende a reduzir-se a três passos muito concretos:

  • Transparência: registar onde a IA é usada - internamente e, sempre que possível, também para o exterior.
  • Responsabilidade: definir quem responde, quem decide e quem pode intervir quando um sistema sai do controlo.
  • Limites: estabelecer, de forma deliberada, para que fins a IA não será utilizada - mesmo que tecnicamente fosse possível.

Um ponto adicional que a Europa tende a subestimar: capacidade de fiscalização e literacia em IA

Uma lei forte sem equipas capazes de a aplicar transforma-se em intenção. Uma parte decisiva do AI Act e da regulamentação da IA será, inevitavelmente, operacional: quem audita, com que competências, com que prazos e com que ferramentas. Sem massa crítica de especialistas em avaliação de risco, segurança de modelos, protecção de dados e compras públicas, a supervisão fica dependente de relatórios auto-declarados - precisamente o tipo de fragilidade que actores mal-intencionados exploram.

Ao mesmo tempo, a literacia em IA precisa de sair do círculo técnico. Se gestores, professores, jornalistas e funcionários públicos não souberem reconhecer limites, enviesamentos e riscos de automatização, a “supervisão humana” vira um carimbo vazio. Treino prático, exemplos por sector e linguagem acessível não são um luxo: são uma camada essencial de controlo.

E agora? Viver com uma tecnologia que aprende mais depressa do que as instituições

É provável que tenhamos de aceitar que a IA nunca será “confinada” com a mesma limpeza com que se regulam sectores clássicos. Fábricas, redes eléctricas, linhas ferroviárias - tudo isso, no limite, dá para desligar, vedar ou desmontar. Modelos de IA circulam como código: são copiados, adaptados, reduzidos, escondidos em aplicações de nicho. É esta característica que torna o debate tão emocional: a percepção silenciosa de que, talvez pela primeira vez, se tenta regular uma tecnologia que, se for preciso, encontra uma porta dos fundos para entrar em quase qualquer sistema. E que já está instalada no quotidiano - no telemóvel, no correio electrónico, no GPS do automóvel.

Por isso, uma versão mais madura da regulamentação da IA tenderá a depender menos de sinais de “proibido” e mais de normas partilhadas. O que aceitamos como sociedade? Que decisões automatizadas toleramos - e quais recusamos? Daqui a alguns anos, quem consultar os arquivos desta fase provavelmente sorrirá perante certos pânicos, mas também abanará a cabeça perante ingenuidades evidentes. A pergunta central não é se a política alguma vez terá “controlo” total sobre a IA; é se consegue, depressa o suficiente, construir regras, cultura e educação para que esta tecnologia não se transforme num tema permanente de impotência, mas num instrumento que reaprendemos a usar - vezes sem conta.

E talvez comece com um exercício simples e desconfortável: sempre que surge uma nova aplicação de IA, perguntar - quem ganha, quem perde e quem assume, no fim, a responsabilidade?

Ponto central Detalhe Valor para o leitor
A IA escapa à lógica tradicional da lei Ciclos rápidos de modelos, disponibilidade global, open source Percebe porque a regulamentação costuma chegar “tarde” e onde estão os pontos cegos
As regras precisam de estar perto do uso real Orientações internas, responsabilidades, deveres de documentação Ganha pistas para a sua organização usar IA de forma responsável
As normas sociais também regulam Debate sobre aplicações aceitáveis de IA, não só textos legais É convidado a formar uma posição própria sobre usos e limites da IA

FAQ

  • Pergunta 1: O que regula, na prática, o AI Act europeu?
  • Pergunta 2: Porque parece que a política está sempre a correr atrás da IA?
  • Pergunta 3: Uma regulamentação mais exigente ameaça a inovação e as start-ups?
  • Pergunta 4: Como pode uma empresa, já hoje, usar IA de forma responsável?
  • Pergunta 5: A IA vai algum dia ser regulada como a electricidade ou os transportes?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário