Saltar para o conteúdo

Regulação da IA: quando a lei fica para trás

Homem dentro de carro autónomo a ler documentos com representação digital de cérebro a flutuar no para-brisas.

Na frente, um ministro fala em “segurança para o futuro” e em “balizas orientadoras favoráveis à inovação”, mas as suas frases embatem nas pessoas de sweatshirt com capuz e portáteis na última fila e fazem ricochete. Uma delas construiu há três meses uma ferramenta de IA que já gera milhões de imagens por dia - completamente à margem de qualquer regulação. Conhecemos bem este momento, em que dois mundos ocupam a mesma sala e, ainda assim, não comunicam entre si. No palco negoceiam-se parágrafos de lei. Em segundo plano, o código que altera o jogo já está a correr. A verdadeira questão entra discretamente entre as filas de cadeiras.

Quando a lei anda de marcha-atrás

Em Bruxelas, as comissões debatem formulações enquanto, em São Francisco, programadores e programadoras já afinam a geração seguinte de modelos. Quem fala com pessoas do meio da IA ouve muitas vezes a mesma frase: “Quando uma lei entra em vigor, nós já reconstruímos o sistema três vezes.” Pode soar a exagero, mas a sensação é brutalmente real. A regulação da IA parece um navegador com mapas desatualizados, que diz com simpatia “vire à direita” quando a estrada já se transformou numa autoestrada. A tecnologia acelera, a lei vai a pé. E, algures no meio, ficamos todos nós, meio fascinados, meio com um aperto no estômago.

Um exemplo que muita gente subestimou: os primeiros deepfakes conhecidos de figuras políticas já circulavam quando a palavra “deepfake” ainda não aparecia em nenhum texto legal nacional. Em campanhas eleitorais, surgiam vídeos manipulados no TikTok e no Telegram, partilhados em grupos de conversa, comentados e acreditados. Semanas depois, as comissões começaram a definir “media sintéticos”, quando esses clipes já faziam parte do quotidiano. Com as ferramentas de IA generativa para texto aconteceu algo parecido: escolas, universidades e órgãos de comunicação social discutiam, com nervosismo, plágio, vagas de desinformação e batota. Muitos documentos estratégicos nacionais, porém, ainda falavam em “oportunidades futuras para a análise massiva de dados”. Quem depois percorre esses rascunhos sente esse atraso estranho, quase como ver uma transmissão em direto com muito desfasamento.

A lógica por trás disto é duríssima e bastante simples: a regulação reage, a inovação atua. As leis têm de ser negociadas, escrutinadas, traduzidas e aprovadas. Já os modelos de IA precisam sobretudo de capacidade de computação, capital de risco e uma boa equipa - e escalam em meses. Sejamos honestos: ninguém lê por vontade própria 300 páginas de fundamentação legislativa para ajustar um modelo de negócio quando o mercado está a chamar. É assim que as primeiras gerações de regras acabam muitas vezes por se tornar documentos históricos para tecnologias que já ficaram para trás. Os críticos dizem então, com razão: esta regulação existe, mas entra em vazio. Protege contra os perigos de ontem, enquanto as experiências reais já decorrem noutros sítios.

Porque “demasiado fraca” não é só um chavão

Quem olhar mais a fundo percebe: o problema não é apenas o momento em que se legisla, mas também a força das próprias regras. Muitas leis apostam fortemente em compromissos voluntários das empresas, conselhos de ética e relatórios de transparência. Soa civilizado, mas muitas vezes é inócuo. Em muitos casos, continua pouco claro como é que as infrações são sequer detetadas, quanto mais sancionadas. Uma empresa pode publicar diretrizes bonitas enquanto, por dentro, equipas são pressionadas para lançar tudo cada vez mais depressa. A realidade dos resultados trimestrais e das chamadas com investidores choca com formulações cautelosas em documentos PDF. No fim, costuma impor-se o lado que gera receita, não o que levanta dúvidas.

Basta olhar para o debate sobre os dados de treino. Milhares de milhões de imagens, textos e obras musicais entram em modelos de IA, muitas vezes sem consentimento explícito dos autores. As primeiras grandes regulações falam em “transparência adequada”, em “responsabilização” e em “consideração pelos direitos de autor”. Parece razoável - até artistas, fotógrafos e jornalistas perceberem que o seu trabalho já desapareceu dentro de conjuntos de dados. Os tribunais começam, com hesitação, a apreciar casos-tipo. Entretanto, surgem novos modelos assentes em massas de dados ainda maiores. Muitas pessoas afetadas vivem esta fase como um assalto em câmara rápida - enquanto o legislador ainda está a fazer o inventário.

A fragilidade estrutural tem várias causas. As autoridades reguladoras estão cronicamente subdimensionadas, ao passo que as grandes tecnológicas mobilizam departamentos inteiros de lóbi. Termos como “explicabilidade”, “enviesamento” ou “risco sistémico” soam, nas audições, rapidamente técnicos - e é precisamente aí que o poder se desloca. Quem define os termos acaba, muitas vezes, por determinar também os espaços de manobra. Em certos textos, a IA é descrita de forma tão estreita que novos modelos ficam convenientemente “fora do âmbito de aplicação”. Ao mesmo tempo, criam-se exceções, sobretudo para usos militares ou de segurança, nos quais a transparência termina de imediato. Assim nasce uma regulação que parece rigorosa no papel, mas que, na prática, deixa ar entrar nos pontos decisivos.

O que teria de acontecer agora - para lá da política de fachada

Quando se fala com quem trabalha no terreno, há uma palavra que surge repetidamente: flexibilidade. Em vez de aprovar, de poucos em poucos anos, um pacote legislativo gigantesco, são precisas regras mais leves e modulares, que possam ser ajustadas com rapidez. Por exemplo, autoridades independentes de supervisão da IA com competência técnica para inspecionar modelos, impor auditorias e classificar riscos. Algo semelhante ao que fazem as inspeções alimentares - mas aplicado a conjuntos de dados e algoritmos. Um enquadramento claro em que certos usos, como a vigilância em massa ou a pontuação social, sejam simplesmente proibidos. Algumas linhas vermelhas, que não sejam negociáveis, fariam mais do que cem páginas de princípios vagos.

Outro erro frequente nestas discussões é esperarmos pela “grande” solução global em vez de começarmos localmente. Enquanto os grupos de trabalho discutem normas internacionais, os municípios já podiam testar regras para a IA nas escolas, nas autarquias ou no mercado da habitação. Que ferramentas podem as autoridades usar quando estão em causa dados de cidadãos? Até que ponto têm de ser transparentes as decisões algorítmicas na saúde ou no apoio social? Muitas pessoas sentem-se impotentes porque a IA lhes parece uma nuvem abstrata. É precisamente aqui que são precisos projetos concretos, próximos do dia a dia - e comunicação honesta. Sejamos francos: ninguém faz, todos os dias, o esforço de percorrer declarações de privacidade e listas de funcionalidades de ferramentas de IA. Ainda mais importante, portanto, que as instituições assumam esse trabalho com seriedade.

Também é aqui que entram as compras públicas e a contratação de tecnologia. Se um município, um hospital ou uma escola vai usar IA, o contrato pode exigir documentação de auditoria, registo de decisões, testes de enviesamento e canais reais de reclamação. A regulação não precisa de viver apenas no parlamento; pode ser incorporada nas condições de compra e nos procedimentos internos. É um modo prático de transformar princípios em exigências verificáveis.

Outro ponto decisivo é a literacia digital. Não basta saber “que existe IA”; é preciso compreender como influencia diagnósticos, atribuição de benefícios, seleção de currículos ou avaliação de alunos. Quando as instituições explicam de forma clara onde a tecnologia ajuda e onde pode falhar, reduzem-se o medo difuso e a aceitação cega ao mesmo tempo. A proteção democrática começa muitas vezes por essa simplicidade: linguagem acessível, regras curtas e possibilidade real de contestação.

É interessante ouvir quem vive entre dois mundos - tecnologia e direito. Um jurista que antes foi programador resumiu a questão assim:

“Tratamos a IA como um tema especial para comités de peritos, mas ela já é uma questão de infraestrutura, tal como a eletricidade ou a água. Se algo corre mal, uma orientação ética não chega.”

Daqui poderiam resultar:

  • Categorias de risco vinculativas para a IA: quanto maior o potencial de dano, mais rigorosos devem ser os deveres de verificação e as regras de responsabilidade.
  • Registos transparentes de modelos: listas públicas de grandes sistemas de IA com informações sobre áreas de utilização, entidades operadoras e riscos conhecidos.
  • Participação real: conselhos de utilizadores, canais de reclamação e direitos de ação judicial que não existam apenas no papel.
  • Travões técnicos obrigatórios: mecanismos de corte de emergência, registo de atividade e protocolos rastreáveis em aplicações sensíveis.
  • Espaços protegidos sem IA: áreas como a educação na primeira infância ou a terapia em contextos delicados, onde a IA deve permanecer fortemente limitada.

Entre a fascinação e a perda de controlo

No fim, sobra uma conclusão desconfortável: não vamos “regular a IA até ficar concluída” e depois seguir em paz. Os sistemas mudam depressa demais, demasiado fundo, demasiado silenciosamente. Muitos criticam as regras atuais por chegarem tarde e serem demasiado frágeis, porque têm a sensação de entrar numa série em curso apenas a partir da terceira temporada. Ao mesmo tempo, o reflexo de proibir tudo dificilmente se sustenta. A questão muda, portanto: sai de “somos a favor ou contra a IA?” e passa para “quanto risco queremos suportar em conjunto e quem decide isso?”. Entre estes polos vai desenrolar-se a nossa próxima década política.

Talvez a regulação genuína comece noutro ponto: na disponibilidade para aguentar a incerteza e, ainda assim, traçar linhas claras. Nem todos os pormenores de um caso de uso podem ser regulados antecipadamente, nem toda a inovação cabe nas gavetas já existentes. Mas podemos escolher se incluímos as pessoas mais frágeis do sistema ou se as transformamos silenciosamente em experiências. Pessoas cujos rostos entram em bases de dados. Trabalhadores e trabalhadoras que passam a depender de valores de pontuação. Crianças cujas trajetórias de aprendizagem são acompanhadas desde cedo. Quem leva estas histórias a sério já não pode fingir que regras fracas e tardias são um dano colateral a caminho da inovação.

Talvez valha a pena, no próximo lançamento entusiasmante de uma ferramenta de IA, não nos limitarmos a admirar o que agora é possível e fazermos uma pergunta simples: quem protege quem - e a partir de quando? Esses pequenos momentos de estranheza, partilhados em conversas, comentários e reuniões de câmara, podem ser mais fortes do que mais um plano estratégico bem sonante. A regulação da IA não é um tema para especialistas em tecnologia; é uma votação discreta sobre que tipo de futuro queremos considerar normal. E, com cada nova aplicação que aceitamos sem regras claras, esse futuro aproxima-se um pouco mais - estejamos ou não preparados.

Ponto central Detalhe Valor acrescentado para o leitor
Diferença de ritmo O desenvolvimento da IA avança em meses, os processos legislativos levam anos Ajuda a perceber por que razão muitas regras parecem saídas do passado
Fragilidade estrutural Compromissos voluntários, sanções pouco claras, pressão de lóbis Dá uma visão nítida de onde a regulação falha na prática
Alavancas concretas Categorias de risco, autoridades de supervisão, espaços protegidos sem IA Apresenta ideias tangíveis para um enquadramento mais robusto

Perguntas frequentes:

  • Pergunta 1 - Porque é que muitas regras atuais sobre IA são consideradas tardias?
  • Pergunta 2 - O que torna as regras de hoje tão “leves”?
  • Pergunta 3 - Uma regulação rigorosa pode travar totalmente a inovação?
  • Pergunta 4 - Que papel podem cidades e municípios desempenhar concretamente?
  • Pergunta 5 - O que posso fazer, enquanto pessoa individual, para lá da política e do meio tecnológico?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário