As cadeiras da sala de comissões rangem de forma quase imperceptível quando os deputados se inclinam para a frente e fixam os olhos no ecrã.
Desta vez não há slides nem gráficos: está aberto um chatbot que responde a perguntas em tempo real - mais rápido, mais mordaz e, por vezes, com uma autoconfiança desconcertante. Um jovem assessor escreve: «Redige uma lei contra ti próprio.» O sistema devolve artigos, números, notas e um tom subtilmente irónico. Por instantes instala-se um silêncio estranho, daqueles em que toda a gente percebe que algo se deslocou de lugar. De repente, a conversa sobre tempos de pausa e ajudas de custo soa datada. E, ainda assim, são exactamente estas pessoas que agora têm de desenhar regras para uma tecnologia que já lhes está a escapar por entre os dedos.
O instante em que a política percebe que a IA não lê o Diário da República
Quem, nos últimos meses, espreitou reuniões sobre digital ou segurança em Bruxelas - e também em capitais como Berlim - reconhece a mesma mistura física de fascínio e excesso de carga. Em cima das mesas: café para levar, pilhas de papel, e-mails impressos. Nos portáteis: dossiês de IA, notas de urgência e janelas do ChatGPT. Muitos decisores admitem, em privado, que já usam IA todos os dias - para resumir, traduzir, «dar um jeito» a um texto. Em público, o tema é a regulamentação. Nos bastidores, o esforço é anterior: perceber com o que, afinal, estão a lutar.
Um técnico parlamentar descreveu o cenário como correr num tapete rolante que alguém acelerou sem aviso. Mal sai um rascunho do AI Act europeu, já aparece um novo modelo no mercado com riscos diferentes. A sensação de estar sempre atrasado infiltra-se em cada reunião. A IA não respeita legislaturas nem calendários de comissões. Avança a uma velocidade própria: de comunidades open source para laboratórios de big tech - enquanto a política tenta acompanhar com actas, pareceres e propostas de alteração.
Sejamos pragmáticos: ninguém pega por gosto em 400 páginas de fundamentação legal sobre classes de risco de algoritmos. Mas é nesses documentos que se decide, neste momento, se uma IA pode influenciar quem obtém crédito, quem entra no radar de autoridades de segurança ou de quem é descartado o currículo num processo de recrutamento. A resposta instintiva da política é usar ferramentas conhecidas: classificação, proibições, cadernos de encargos. A IA é arrumada em “alto risco”, “risco limitado” e “risco mínimo”. No papel, parece impecável; na prática, a sensação é a de tentar arquivar uma cascata em dossiers.
O que o AI Act e a regulamentação da IA tentam fazer - e onde já ficam aquém
O AI Act europeu é, hoje, o exemplo mais visível do esforço de recuperar controlo. A lógica, enunciada de forma simples, é esta: quem desenvolve ou utiliza aplicações particularmente sensíveis - como reconhecimento facial em espaço público, diagnóstico médico ou infra-estruturas críticas - passa a ter obrigações exigentes. Transparência, análise de risco, supervisão humana. Sistemas concebidos para manipular pessoas ou explorar vulnerabilidades específicas devem ser proibidos. Um tipo de vedação digital construída com artigos e números, num ritmo recorde para os padrões de Bruxelas.
No terreno, porém, o quadro fica mais granular. Start-ups perguntam-se se ainda conseguem treinar modelos na Europa sem se afundarem num pântano de compliance. Autoridades fazem contas ao número de novos técnicos necessários apenas para fiscalizar as regras. E as pressões de lobby chegam de todos os lados: uns alertam para o perigo de excesso regulatório; outros, para normas brandas que não mordem. Ao mesmo tempo, surgem modelos open source que qualquer pessoa descarrega, instala e corre num computador doméstico relativamente potente - longe de qualquer entidade supervisora.
Há uma frase seca que especialistas repetem com frequência: regular a IA apenas onde ela é “vendida oficialmente” é ignorar metade do jogo. A zona verdadeiramente crítica está entre os extremos - nos modelos semi-profissionais, nas empresas que usam sistemas “apenas internamente” e nos organismos públicos que testam projectos-piloto. A regulamentação da IA acaba, assim, presa num paradoxo: demasiado permissiva para os maiores riscos; demasiado complexa para os actores mais pequenos. O conflito central mantém-se: como criar regras que abrandeçam o ritmo sem empurrar investigação e capacidade industrial, por inteiro, para os EUA ou a China?
Como pode ser uma boa supervisão da IA - menos manchetes, mais regras de utilização (IA) no dia-a-dia
Quem trabalha na fronteira entre política e tecnologia tende a convergir numa proposta prática: menos gestos simbólicos e mais regras concretas no local de uso. Não apenas grandes leis sobre IA, mas também orientações internas claras em administrações públicas, escolas, redacções e empresas. A ideia-chave é simples: a regulamentação não pode ser só “lá em cima, em Bruxelas”; tem de existir como prática repetida. Que dados podem ser utilizados? Quem responde quando um sistema falha? Como se regista que um algoritmo influenciou uma decisão? É dessas perguntas, aparentemente áridas, que nasce a supervisão real.
Mas aqui aparece um obstáculo humano conhecido: organizações que produzem guias longuíssimos sobre IA e depois os deixam a ganhar pó na intranet. São aqueles PDFs que ninguém lê, acompanhados por um webinar de meia hora - que muitos assistem enquanto tratam e-mails. A verdade é esta: quase ninguém consegue cumprir isso diariamente. Uma regulamentação viva da IA precisa de rotinas, não de formações únicas. Check-ins curtos em equipa, exemplos concretos, actualizações regulares quando mudam ferramentas ou enquadramentos legais. E, sobretudo, a permissão para dizer: «Isto ainda não sabemos; vamos testar - com rede de segurança.»
Entre o pessimismo tecnológico e a euforia da IA, alguns responsáveis procuram uma linguagem que não seja nem fatalista nem ingénua:
«Temos de deixar de tratar a IA como um fenómeno natural», afirma uma jurista envolvida em directrizes europeias. «Algoritmos são concebidos, treinados e aplicados - por pessoas e organizações, com interesses concretos. É aí que a regulamentação tem de actuar.»
Levando essa ideia a sério, o caminho tende a reduzir-se a três passos muito concretos:
- Transparência: registar onde a IA é usada - internamente e, sempre que possível, também para o exterior.
- Responsabilidade: definir quem responde, quem decide e quem pode intervir quando um sistema sai do controlo.
- Limites: estabelecer, de forma deliberada, para que fins a IA não será utilizada - mesmo que tecnicamente fosse possível.
Um ponto adicional que a Europa tende a subestimar: capacidade de fiscalização e literacia em IA
Uma lei forte sem equipas capazes de a aplicar transforma-se em intenção. Uma parte decisiva do AI Act e da regulamentação da IA será, inevitavelmente, operacional: quem audita, com que competências, com que prazos e com que ferramentas. Sem massa crítica de especialistas em avaliação de risco, segurança de modelos, protecção de dados e compras públicas, a supervisão fica dependente de relatórios auto-declarados - precisamente o tipo de fragilidade que actores mal-intencionados exploram.
Ao mesmo tempo, a literacia em IA precisa de sair do círculo técnico. Se gestores, professores, jornalistas e funcionários públicos não souberem reconhecer limites, enviesamentos e riscos de automatização, a “supervisão humana” vira um carimbo vazio. Treino prático, exemplos por sector e linguagem acessível não são um luxo: são uma camada essencial de controlo.
E agora? Viver com uma tecnologia que aprende mais depressa do que as instituições
É provável que tenhamos de aceitar que a IA nunca será “confinada” com a mesma limpeza com que se regulam sectores clássicos. Fábricas, redes eléctricas, linhas ferroviárias - tudo isso, no limite, dá para desligar, vedar ou desmontar. Modelos de IA circulam como código: são copiados, adaptados, reduzidos, escondidos em aplicações de nicho. É esta característica que torna o debate tão emocional: a percepção silenciosa de que, talvez pela primeira vez, se tenta regular uma tecnologia que, se for preciso, encontra uma porta dos fundos para entrar em quase qualquer sistema. E que já está instalada no quotidiano - no telemóvel, no correio electrónico, no GPS do automóvel.
Por isso, uma versão mais madura da regulamentação da IA tenderá a depender menos de sinais de “proibido” e mais de normas partilhadas. O que aceitamos como sociedade? Que decisões automatizadas toleramos - e quais recusamos? Daqui a alguns anos, quem consultar os arquivos desta fase provavelmente sorrirá perante certos pânicos, mas também abanará a cabeça perante ingenuidades evidentes. A pergunta central não é se a política alguma vez terá “controlo” total sobre a IA; é se consegue, depressa o suficiente, construir regras, cultura e educação para que esta tecnologia não se transforme num tema permanente de impotência, mas num instrumento que reaprendemos a usar - vezes sem conta.
E talvez comece com um exercício simples e desconfortável: sempre que surge uma nova aplicação de IA, perguntar - quem ganha, quem perde e quem assume, no fim, a responsabilidade?
| Ponto central | Detalhe | Valor para o leitor |
|---|---|---|
| A IA escapa à lógica tradicional da lei | Ciclos rápidos de modelos, disponibilidade global, open source | Percebe porque a regulamentação costuma chegar “tarde” e onde estão os pontos cegos |
| As regras precisam de estar perto do uso real | Orientações internas, responsabilidades, deveres de documentação | Ganha pistas para a sua organização usar IA de forma responsável |
| As normas sociais também regulam | Debate sobre aplicações aceitáveis de IA, não só textos legais | É convidado a formar uma posição própria sobre usos e limites da IA |
FAQ
- Pergunta 1: O que regula, na prática, o AI Act europeu?
- Pergunta 2: Porque parece que a política está sempre a correr atrás da IA?
- Pergunta 3: Uma regulamentação mais exigente ameaça a inovação e as start-ups?
- Pergunta 4: Como pode uma empresa, já hoje, usar IA de forma responsável?
- Pergunta 5: A IA vai algum dia ser regulada como a electricidade ou os transportes?
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário