Saltar para o conteúdo

Especialista alerta que o mundo pode não ter tempo para se preparar para os riscos da IA.

Cientista em bata branca aponta para gráfico científico num ecrã de portátil numa sala iluminada.

À porta de um laboratório com paredes de vidro nos arredores de Londres, o futuro soa estranhamente banal. As máquinas de venda automática zumbem. Os cartões magnéticos apitam. Um investigador de sweat-shirt leva, debaixo de um braço, um portátil e, no outro, uma sandes de supermercado. Lá dentro, porém, está a ganhar forma outro tipo de ruído: linhas de código a correr em bastidores de unidades gráficas, modelos a treinar com linguagem humana, imagens, estratégias e padrões. Os géneros de modelos que poderão, em breve, ultrapassar os próprios criadores.

No corredor, ninguém entra em pânico. As pessoas trocam piadas na fila do café, queixam-se da impressora e comparam planos para o fim de semana. E, no entanto, como observa em voz baixa um dos principais investigadores em segurança da IA, o mundo “pode já não ter tempo” para se preparar para o que aí vem.

O mais inquietante é que tão pouca gente fora destes edifícios sabe sequer que perguntas fazer.

Segurança da IA de fronteira: “estamos a avançar mais depressa do que o nosso manual de segurança consegue acompanhar”

Numa terça-feira cinzenta ao início da tarde, o aviso cai como um peso numa sala de conferências apertada. Um investigador de referência em segurança da IA - do género cujo trabalho molda resumos de políticas e reuniões à porta fechada em Washington e Bruxelas - ergue os olhos de um diapositivo cheio de curvas. O gráfico mostra as capacidades da IA a subir a pique. A linha da regulação e das ferramentas de segurança fica muito atrás.

“Talvez já não haja tempo para nos prepararmos para toda a gama de riscos”, diz, deixando o silêncio prolongar-se. O diapositivo não grita. Limita-se a expor uma distância que, ano após ano, se transforma num abismo.

Para perceber o que querem dizer, não é preciso recorrer à ficção científica. Basta um exemplo simples. Em 2019, os grandes modelos de linguagem ainda eram demonstrações de nicho. Em 2022, já escreviam correios electrónicos, textos escolares e código básico. Em 2024, sistemas de fronteira conseguiam desenhar moléculas, depurar programas complexos, redigir documentos com aparência jurídica e imitar um estilo de escrita após apenas alguns parágrafos.

Cada salto apanhou o público de surpresa. As escolas correram atrás do prejuízo. As empresas apressaram-se a reescrever políticas. Os governos produziram documentos de discussão enquanto as equipas de produto lançavam novas funcionalidades todos os meses. A velocidade parecia menos um plano e mais uma sequência de saltos por cima de uma fissura cada vez maior.

A tese do investigador é brutalmente simples: os sistemas de segurança crescem em linha reta, a cultura e a lei avançam devagar, mas as capacidades da IA disparam. O desalinhamento não se resume a uma “superinteligência rebelde”; inclui também milhares de falhas pequenas, confusas e aparentemente banais à escala. Uma ferramenta hospitalar subtilmente enviesada contra um grupo minoritário. Um modelo que ajuda um agente isolado a aperfeiçoar uma ideia de bioengenharia. Um sistema autónomo de negociação que optimiza o lucro de maneiras que ninguém nota até o prejuízo já estar feito.

Quando se juntam esses riscos a um mundo já pressionado por tensões geopolíticas, stress climático e extremismo em linha, a questão do calendário deixa de ser abstracta e passa a parecer uma contagem decrescente.

Porque é que o “não há tempo” parece estar mais perto do que pensamos

Há um tipo muito específico de desconforto que aparece quando se fala com pessoas que constroem estes sistemas sem se revelar o nome. Orgulham-se do que estão a criar - e receiam o que possa escapar por entre as fissuras. Um engenheiro descreve o acto de lançar um novo modelo como “soltar um animal selvagem com uma coleira de GPS e esperar que a cerca aguente”.

Num quadro branco, alguém escreveu: “O que acontece quando isto consegue agir, e não apenas falar?” Ninguém o apagou. Fica ali, meio piada, meio sinal de alarme.

Já tivemos pequenos vislumbres do que acontece quando o mundo não está preparado. Os algoritmos de recomendação empurraram a política para extremos novos mais depressa do que as leis ou os hábitos mediáticos conseguiram acompanhar. As ferramentas de falsificação sintética ultrapassaram a capacidade dos tribunais para responder a imagens não consentidas. Os mercados de criptoativos incharam e rebentaram enquanto os reguladores tentavam perceber, sequer, o que estavam a observar.

Não é que a IA vá copiar essas histórias à letra. É que o mesmo padrão continua a repetir-se: primeiro a conveniência e a novidade, os travões só depois. E, por vezes, o “depois” nunca chega verdadeiramente.

O investigador de referência que avisa que talvez já não haja tempo não está a imaginar um único momento de “apocalipse da IA”. Está a visualizar ondas sobrepostas de risco: campanhas de fraude por correio eletrónico a escala industrial, descoberta automatizada de vulnerabilidades em programas, ferramentas de design biológico potenciadas por IA, assistentes conversacionais persuasivos capazes de explorar os medos das pessoas com precisão perturbadora.

Se sistemas muito capazes chegarem mais cedo do que o previsto - digamos, dentro de cinco a dez anos, e não de trinta - o nosso conjunto actual de conselhos de ética, compromissos voluntários e reguladores com poucas pessoas parecerá um monte de sacos de areia perante uma maré crescente. O verdadeiro receio não é apenas o que a IA consegue fazer. É o que os humanos farão com a IA quando as regras forem fracas e os incentivos forem fortes.

O que preparar, na prática, significa mesmo

Quando os políticos falam em preparação, o som costuma ser o de um slogan vago. Em laboratórios e equipas de segurança, é mais concreto. Há equipas de teste adversarial que tentam, activamente, fazer os modelos falharem, incentivando-os a revelar capacidades perigosas. Há investigadores de alinhamento a construir formas de a IA seguir valores humanos, e não apenas instruções humanas. Há equipas de avaliação a fazer testes de resistência para ver o que um sistema faz em casos-limite.

Num ecrã grande, correm cenário atrás de cenário: geração de código para programas maliciosos, respostas a perguntas sobre protocolos de laboratório, conselhos para contornar supervisão. Não estão a tentar espalhar pânico. Estão a tentar mapear a beira do precipício antes de lá chegarmos.

Fora desses laboratórios, preparar-se pode ser tão simples como alterar a forma como tomamos decisões sobre a IA. As empresas podem impor linhas vermelhas claras para os locais onde a IA nunca deve ser usada - por exemplo, em diagnósticos médicos finais ou em decisões jurídicas de grande impacto - sem supervisão humana robusta. As escolas podem deixar de fingir que a IA não existe e, em vez disso, ensinar a colaborar com ela, a questioná-la e a detectar quando está a inventar coisas.

Sejamos honestos: ninguém faz isso mesmo todos os dias. A maioria das pessoas copia e cola um pedido, lê por alto a resposta e segue em frente. Isso é humano. E é precisamente assim que os danos subtis passam despercebidos até se tornarem normais.

Nos meios de investigação, cresce também a pressão para aquilo a que um deles chama “heroísmo aborrecido”: construir ferramentas aborrecidas, como registos de auditoria, sistemas de reporte de incidentes e registos de modelos, antes da crise. Não faz sucesso nas redes sociais, mas importa.

Outro aspecto que raramente entra na conversa pública é a necessidade de transparência na cadeia de decisão. Se uma organização não consegue explicar quem aprovou um modelo, com que testes, em que contexto e com que limites, então também não consegue responder de forma credível quando algo corre mal. E, à medida que a IA se espalha por serviços essenciais, essa rastreabilidade deixa de ser um luxo técnico e passa a ser uma condição básica de confiança.

“O cenário assustador não é um robô maléfico a mandar no mundo”

“O cenário assustador não é um robô maléfico a mandar no mundo”, disse-me uma cientista sénior de segurança. “É haver milhares de sistemas poderosos integrados em infra-estruturas críticas, todos optimizados para objectivos de curto prazo, sem que ninguém perceba realmente o comportamento combinado deles.”

  • Os governos precisam de testes independentes dos modelos de fronteira, e não apenas das afirmações das empresas.
  • As empresas tecnológicas precisam de deveres legais quando lançam IA de alto risco, e não apenas de promessas de relações públicas.
  • Os cidadãos precisam de literacia básica em IA, tal como em tempos aprendemos segurança rodoviária ou higiene alimentar.

Viver com a contagem decrescente - sem ficar paralisado

A nível pessoal, toda esta conversa sobre “não há tempo” pode facilmente provocar uma de duas reacções: negação ou paralisia. Ou encolhe-se os ombros e diz-se: “Há anos que nos andam a avisar sobre riscos tecnológicos”, ou então mergulha-se em debates nocturnos sobre risco existencial e sente-se um nó gelado no estômago. Nenhuma das reacções ajuda muito.

Numa noite chuvosa em Berlim, observei um grupo de jovens fundadores e activistas a discutir isto sobre tigelas de massa barata. Um defendia que a única resposta racional era uma regulação global urgente. Outro resmungava que os governos avançam demasiado devagar e, por isso, estamos condenados. Um terceiro só queria saber o que dizer à irmã mais nova, que estuda na universidade.

Todos nós já vivemos aquele momento em que uma nova tecnologia chega às nossas mãos antes de termos etiqueta, normas ou regras para a lidar. A primeira vez que os telemóveis inteligentes entraram nas salas de aula. A primeira vez que uma rede social transformou mexericos privados em drama público. A primeira vez que um vídeo falsificado apareceu no seu feed e o obrigou a olhar duas vezes.

A IA, sobretudo na fronteira, é essa história em aceleração máxima. O verdadeiro peso emocional de “talvez já não haja tempo” não pretende esmagar ninguém. Pretende sacudir. Empurrar-nos para fora da suposição preguiçosa de que, algures, os adultos encarregados já trataram de tudo. Porque, muitas vezes, não há adultos. Somos apenas nós, a aprender em público.

Falemos com franqueza por um momento: se está a ler isto no telemóvel entre duas notificações, já vive dentro de uma enorme experiência de IA. Os motores de recomendação escolhem o que vê. Os filtros de spam escolhem o que não vê. Os sistemas do futuro vão moldar empregos, eleições e talvez até decisões de guerra.

Por isso, a verdadeira pergunta que este investigador faz não é tanto sobre calendários abstractos, mas sobre agência. Até que ponto estamos dispostos a delegar este futuro a meia dúzia de laboratórios, investidores e equipas de segurança?

E quanto estamos dispostos a trazer para a luz do dia, de forma confusa, política e disputada, enquanto ainda há tempo para discutir o assunto?

Tabela-resumo

Ponto-chave Detalhe Interesse para o leitor
Aceleração das capacidades Os modelos avançam mais depressa do que as leis, as normas e as ferramentas de segurança Perceber porque é que os avisos sobre a falta de tempo surgem em todo o lado
Riscos concretos, e não apenas ficção científica Fraude por correio electrónico, bio-design, enviesamento sistémico, detecção de falhas em programas Relacionar a IA com ameaças tangíveis na vida quotidiana e profissional
Preparação distribuída Testes independentes, travões fortes, cultura de “higiene da IA” para todos Saber o que governos, empresas e indivíduos podem fazer já

Perguntas frequentes

  • Isto é sobre robôs assassinos a tomar conta do mundo?
    Não propriamente. A maioria dos investigadores preocupados com os calendários da IA fala de riscos sistémicos: desinformação à escala, infra-estruturas críticas a depender de sistemas opacos e modelos a ajudar agentes maliciosos a fazer mais danos com maior eficiência.

  • O que significa, na prática, “talvez já não haja tempo”?
    Significa que as capacidades da IA podem atingir níveis perigosos antes de os nossos testes de segurança, a regulação e a coordenação internacional estarem maduras o suficiente para os gerir de forma fiável.

  • Para quando estão os especialistas a olhar?
    Há enorme incerteza, mas muitos investigadores sérios tratam hoje os próximos 5 a 15 anos como uma janela em que podem surgir sistemas muito poderosos, e não como um futuro longínquo de daqui a um século.

  • A segurança da IA não é só uma desculpa para travar a inovação?
    Algumas pessoas usam-na dessa forma, mas a maioria dos investigadores de segurança trabalha dentro dos mesmos laboratórios que constroem estes modelos. O objectivo é evitar cenários em que uma única falha apaga os benefícios para toda a gente.

  • O que pode fazer uma pessoa comum?
    Aprender noções básicas de literacia em IA, apoiar uma regulação transparente, questionar onde a IA é usada nos serviços de que depende e pressionar o local de trabalho ou a escola para adoptarem regras claras e públicas sobre o uso da IA, em vez de entrarem às cegas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário