Numa sala de reuniões de um ministério em Berlim, o ar condicionado está demasiado frio.
Lá fora, o sol bate com força no asfalto; cá dentro, um orador projecta um diapositivo com o título “Regulamento da IA – versão preliminar 14”. Na última fila, uma jovem jurista usa o ChatGPT, durante a pausa, para juntar um texto e preparar a acta da reunião. Ou seja: está a usar IA para definir como a IA deve ser regulada. É, no mínimo, irónico.
Há anos que falamos de inteligência artificial como se falássemos do tempo: está algures presente, parece perigosa, mas nunca se percebe bem quem é responsável por ela. Ao mesmo tempo, surgem novas ferramentas em todo o lado - escrevem código, preparam candidaturas de emprego, compõem cartas de amor. Enquanto os políticos discutem a terminologia, as crianças passam por deepfakes no TikTok sem sequer abrandar. Sente-se que os calendários já não coincidem.
A questão de fundo impõe-se.
Regulação da IA: quando as leis avançam com o travão de mão puxado
Quem já viu um processo legislativo por dentro sabe que este sistema foi desenhado para ser cauteloso, não veloz. Uma proposta circula por direcções, é coordenada, reescrita, traduzida, negociada e, muitas vezes, suavizada. Quando uma ideia clara se transforma num PDF com 200 páginas, as startups já lançaram duas novas funcionalidades de IA e um projecto de código aberto já se tornou viral. O direito move-se como um cargueiro, enquanto a IA atravessa as ondas como uma lancha de corrida.
Todos conhecemos aquele momento em que uma lei entra em vigor e, mesmo assim, já parece datada. Em 2023, quando o Regulamento Europeu da IA ficou fechado ao nível político, já estavam a circular modelos que não apareciam em nenhum dos primeiros rascunhos. Nos Estados Unidos, uma equipa de investigadores concluiu que, em apenas 18 meses, chegaram ao mercado mais de 1.000 novas ferramentas de IA, muitas delas sem qualquer obrigação formal de aprovação. Em paralelo, alguns estados norte-americanos levaram mais de dois anos para aprovar regras simples sobre IA em candidaturas de emprego, precisamente para evitar discriminação. Enquanto as comissões reúnem, um algoritmo define limites de crédito, oportunidades de carreira e prémios de seguro. Sem controlo efectivo.
A distância não está apenas na velocidade, mas também na lógica. A legislação pensa em categorias estáveis: riscos bem definidos, sectores fixos, utilizações previsíveis. A IA é o oposto disso. Os modelos saltam da geração de imagens para a medicina, de um chatbot para uma campanha política. Uma actualização feita de um dia para o outro pode transformar uma brincadeira inofensiva numa ferramenta de manipulação. Se o direito continuar a conduzir sempre pelo espelho retrovisor, vai tropeçar constantemente nos abismos mais recentes.
Como tornar a regulação da IA mais inteligente - e mais rápida
Uma das soluções que cada vez mais especialistas defendem passa por abandonar a ilusão da lei perfeita e apostar em quadros normativos mais móveis. Em vez de aprovarem, de dois em dois anos, um megadiploma que já nasce desactualizado, alguns países estão a recorrer a regras modulares, fáceis de substituir como blocos de construção. Os padrões técnicos ficam a cargo de entidades especializadas ou de organismos de normalização, que conseguem reagir muito mais depressa. Algo como um canal de actualizações para o direito.
Outra peça importante são os ambientes de teste supervisionados. Em vez de lançar um sistema novo directamente para produção, as organizações podem experimentá-lo em contextos limitados, com critérios claros, monitorização apertada e objectivos definidos à partida. Isto é especialmente útil em áreas como a saúde, as finanças ou a administração pública, onde um erro não custa apenas dinheiro: pode afectar direitos, segurança e confiança institucional.
Também faz diferença exigir auditorias independentes e regras mínimas de documentação logo na fase de desenvolvimento. Se os modelos forem avaliados por terceiros, e não apenas pelos próprios criadores, torna-se mais difícil esconder falhas de funcionamento, enviesamentos ou usos indevidos. E, para quem compra tecnologia, sobretudo o Estado, a contratação pública pode ser um instrumento decisivo: se os concursos exigirem transparência, rastreabilidade e critérios de segurança, o mercado adapta-se mais depressa do que qualquer discurso político.
Quem trabalha com IA - seja em empresas, na administração pública ou nos meios de comunicação - precisa, além disso, de uma prática ética própria. Não chega um código bonito, impresso em papel de qualidade e esquecido numa gaveta. São precisas rotinas concretas: quem verifica os dados de treino, quem decide se um modelo pode ser usado em áreas sensíveis, quem o desliga quando algo corre mal. Se formos honestos, quase ninguém faz isto todos os dias. Muitas organizações experimentam com entusiasmo, mas às cegas. E depois espantam-se quando aparecem resultados discriminatórios ou dados confidenciais acabam dentro de janelas de instruções.
A regulação que quer realmente produzir efeitos precisa de pessoas que a vivam - e não apenas de juristas que a validem no papel. Uma investigadora experiente em IA resumiu-o assim numa conversa:
“Subestimamos sistematicamente a criatividade com que as pessoas desvirtuam a tecnologia - e a lentidão com que as instituições reagem a isso. Se continuarmos a regular apenas os perigos que já vimos, vamos perder sempre.”
Na prática, isto traduz-se em três frentes:
- Regras flexíveis em vez de artigos rígidos - fixar princípios-base e actualizar os detalhes técnicos com regularidade.
- Prática de IA transparente no dia a dia - documentação, processos de revisão e proibições internas que sejam realmente cumpridas.
- Pressão pública e literacia mediática - cidadãos que fazem perguntas e empresas obrigadas a explicar como os seus modelos tomam decisões.
Entre fascínio e perda de controlo
No fim, continua a existir uma tensão que não se resolve de forma romântica. A IA promete produtividade, criatividade e até avanços médicos que, há cinco anos, pareciam pura ficção científica. Ao mesmo tempo, os mesmos modelos abrem portas a deepfakes em massa, desinformação feita à medida e uma pressão subtil de vigilância no local de trabalho. Vivemos com uma ferramenta que, em simultâneo, nos alivia e nos pode retirar autonomia.
Talvez a perspectiva mais honesta esteja algures entre a euforia e o pânico: a regulação da IA vai estar sempre um pouco atrasada. As leis nunca irão antecipar todos os riscos. Ainda assim, é precisamente este trabalho lento e muitas vezes frustrante que determina se teremos de lidar com danos irreversíveis. A forma como, enquanto sociedade, falamos sobre a quantidade de incerteza que estamos dispostos a aceitar também define o espaço de manobra dos programadores. Quem se cala deixa o campo livre aos que acima de tudo adoram velocidade.
A cena do ministério em Berlim repete-se neste momento em dezenas de países: pessoas que recorrem à IA para escrever regras sobre IA. Talvez isso não seja uma contradição, mas um convite. Um convite para não esperarmos apenas pela próxima grande proposta legislativa e começarmos, no nosso próprio contexto, a fazer perguntas, a impor limites e a exigir outro ritmo. Quanto risco estamos dispostos a entregar à tecnologia antes de a compreendermos realmente?
| Ponto central | Detalhe | Valor acrescentado para o leitor |
|---|---|---|
| As leis avançam mais devagar do que a inovação em IA | Processos complexos e negociações longas, enquanto os modelos de IA evoluem em poucos meses | Percebe por que razão a regulação clássica deixa lacunas de segurança |
| Quadros flexíveis em vez de artigos rígidos | Leis modulares, padrões técnicos externalizados e actualizações mais rápidas | Identifica quais as abordagens políticas que podem oferecer mais protecção |
| Responsabilidade no dia a dia dos utilizadores | Rotinas éticas internas, processos de verificação e uso consciente das ferramentas de IA | Consegue retirar medidas práticas para si ou para a sua empresa |
Perguntas frequentes
- Pergunta 1: Porque é que as leis sobre IA costumam chegar tarde?
- Pergunta 2: Que riscos podem surgir quando a regulação é demasiado lenta?
- Pergunta 3: O Regulamento Europeu da IA basta para nos proteger?
- Pergunta 4: O que podem fazer as empresas antes de as leis entrarem em vigor?
- Pergunta 5: Que papel temos nós, enquanto cidadãos, nesta discussão?
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário