O silêncio na sala de audiências era tão denso que se distinguia o zumbido das luzes fluorescentes. No ecrã por detrás do juiz, brilhava um gráfico de barras multicolorido - como um boletim meteorológico aplicado ao futuro de alguém. À mesa da defesa, Marcus Hill, trabalhador de armazém de 32 anos, fixava a imagem onde uma “pontuação de risco” o classificava como “alto risco de reincidência”.
O procurador não elevou a voz. Limitou-se a indicar o resultado do algoritmo com a serenidade de quem lê um termómetro. No júri, alguns mexeram-se nas cadeiras. As expressões pareciam dizer: um computador não mente.
Marcus inclinou-se para o advogado e murmurou: “Confiei mais no sistema do que em mim.”
Falava do sistema de justiça. Dos advogados. Do juiz. E da caixa negra que, discretamente, já o tinha marcado como perigoso antes de alguém o encarar nos olhos.
Quando chegou o veredito, a máquina já tinha ganho.
Quando um algoritmo entra num tribunal: a pontuação de risco como prova invisível
Marcus ouviu falar da tal pontuação pela primeira vez numa reunião apressada, numa sala de interrogatório cinzenta. A defensora oficiosa empurrou-lhe um papel: um relatório arrumadinho, cheio de números, categorias e um destaque vermelho que praticamente gritava “Não confiar”.
Dias antes, na cadeia do condado, tinham-lhe feito perguntas que ele mal compreendeu: infância, amizades, discussões antigas, multas de trânsito antigas. Um funcionário entediado registou as respostas num tablet, quase sem levantar os olhos. Aquele questionário curto, supostamente banal, seguiu-o em silêncio até ao julgamento.
Quando alguém percebeu o peso que aquilo tinha, já estava entranhado na narrativa do processo.
O que aconteceu a Marcus não é um episódio de ficção científica. É uma composição de casos reais que, ao longo da última década, abalaram tribunais nos EUA, à medida que ferramentas como o COMPAS, o PSA e outros algoritmos de avaliação de risco se foram espalhando.
Numa investigação muito citada da ProPublica, jornalistas analisaram milhares destas pontuações na Flórida. A conclusão foi dura: arguidos negros eram classificados como “alto risco” a quase o dobro da taxa de arguidos brancos - mesmo quando não voltavam a cometer crimes. E, pelo contrário, arguidos brancos que mais tarde reincidiam surgiam frequentemente com o rótulo de “baixo risco”.
Um modelo treinado em dados do passado - saturados de desigualdades humanas - aprendeu, com confiança clínica, a repetir os nossos piores padrões. E alguns tribunais começaram a tratar o que ele devolve como se fossem radiografias da alma.
Quem defende estes algoritmos diz que são matemática neutra, preferível ao humor do juiz ou ao instinto do procurador. Falam de eficiência, uniformidade e decisões “baseadas em evidência”. Em teoria, soa a avanço: menos palpites, mais dados.
Mas a matemática limita-se a espelhar o mundo de onde aprendeu. Se a polícia patrulha mais certos bairros, esses bairros geram mais detenções. Mais detenções viram mais “dados de criminalidade”, que o modelo interpreta como risco superior. O circuito fecha-se.
Ou seja: o software não prevê apenas comportamento. Prevê, sobretudo, onde o sistema já olha com mais intensidade. E depois transforma esse viés em algo com aparência científica.
Por dentro do julgamento do viés algorítmico que abalou a “justiça inteligente”
O processo que acabou por pôr tudo isto em causa começou de forma discreta: um assalto a uma casa nos subúrbios e uma descrição de testemunha pouco segura. Não havia ADN, nem impressões digitais claras, nem imagens nítidas - apenas um vídeo granulado que podia ser de metade da vizinhança. A lista de suspeitos assentava mais em intuição do que em prova.
A polícia foi buscar o nome de Marcus a um relatório antigo. Passou-o pelo mesmo software que o departamento tinha adoptado com grande publicidade numa conferência sobre “policiamento inteligente”. A pontuação de risco apareceu elevada. Em paralelo, um modelo preditivo assinalou a zona dele como “hotspot”.
A partir desse instante, as outras pistas perderam prioridade. O computador tinha apontado um homem; o resto do enredo ajustou-se a essa escolha.
No julgamento, o algoritmo não depôs - mas quase. O procurador referiu o “perfil de risco validado” de Marcus três vezes perante o júri. Um relatório pré-julgamento descreveu-o como “preocupação contínua para a segurança pública”, numa formulação praticamente copiada do manual do software.
O advogado tentou contrariar: quem criou a ferramenta? Como pondera cada resposta? Qual é, de facto, a taxa de erro? A empresa invocou segredo comercial. O juiz autorizou a utilização da pontuação, mas impediu perguntas sobre o funcionamento interno.
O júri não viu uma caixa negra. Viu um número com aparência de certeza. E a certeza tem um peso particular num espaço construído para lidar com a dúvida.
Académicos de direito começaram a chamar-lhe o “julgamento do viés algorítmico” ainda antes do último recurso. Organizações de direitos civis apresentaram posições formais. Cientistas de dados deslocaram-se para explicar, sem jargão, que estas ferramentas podem falhar gravemente em casos individuais - mesmo quando, em grande escala, parecem “precisas”.
Mostraram gráficos: dois arguidos, historial semelhante, contexto parecido. Um recebe “baixo risco”, o outro “alto risco”. A diferença mais visível? Raça e código postal. Sob contra-interrogatório, um perito resumiu: “Se isto fosse um teste médico, já teria sido retirado do mercado.”
Ali, o tribunal não estava apenas a avaliar Marcus. Estava, sem o dizer, a decidir o futuro da IA na justiça. E por isso cada frase parecia mais pesada, cada silêncio mais tenso, cada estatística um possível ponto de viragem.
Um parêntesis necessário: Europa, RGPD e a nova regulação da IA
Embora este caso se situe nos EUA, na Europa - e em Portugal - o debate cruza-se com direitos já consagrados, como a transparência e o acesso a explicações em decisões automatizadas, no âmbito do RGPD. Na prática, muitas organizações tentam contornar o tema com linguagem vaga (“assistido por IA”, “ferramenta de apoio”), o que torna ainda mais importante exigir clareza sobre o peso real que o sistema teve na decisão.
Além disso, com a regulação europeia da IA a avançar, cresce a expectativa de auditorias, avaliações de impacto e obrigações reforçadas para sistemas usados em contextos de alto risco, incluindo justiça e segurança. Isto não resolve, por si só, o problema do viés algorítmico - mas cria um terreno mais fértil para contestação, responsabilização e prova técnica.
Como questionar a máquina sem precisar de um doutoramento
Se isto lhe parece distante, não é. A IA já influencia quem recebe um empréstimo, quem consegue arrendar casa, quem avança para entrevista, quem obtém um apoio social. Talvez nunca veja o código, mas sente a decisão quando chega um e-mail a dizer “vamos avançar com outros candidatos”.
Quando suspeitar que uma decisão foi influenciada por um sistema algorítmico, há um gesto simples e insistente: fazer três perguntas difíceis de ignorar.
- Quem desenhou este sistema?
- Com que dados foi treinado?
- Posso ver - ou contestar - os factores usados sobre mim?
As respostas podem vir incompletas, confusas ou tarde. Ainda assim, perguntar altera a relação de forças: deixa de ser apenas um registo num modelo e passa a ser uma pessoa a exigir uma conversa humana.
Muitos de nós, perante algo etiquetado como “com IA”, encolhemos um pouco. Partimos do princípio de que o sistema sabe mais. E, sejamos francos, quase ninguém lê políticas de privacidade de 30 páginas ou anexos técnicos.
O erro mais comum não é a falta de conhecimento; é a rendição. Aceitamos uma rejeição, uma pontuação, uma classificação como se fosse meteorologia: natural, fixa, fora de discussão.
Não precisa de desmontar redes neuronais para resistir. Pode pedir explicações. Pode perguntar o que teria de mudar para obter outro resultado. Pode falar com um advogado, um representante sindical, uma organização de direitos digitais. A questão não é tornar-se programador. A questão é não deixar que a máquina tenha a última palavra - em silêncio.
“Confiei mais no sistema do que em mim”, disse Marcus a um jornalista durante o recurso. “Achei que, se um computador dizia aquilo, então eu devia mesmo ser essa pessoa. É essa parte que ainda me assusta.”
Repare quando uma pontuação é tratada como destino
Se um número ou rótulo surge como verdade final, é um sinal de alerta. Pergunte se o juízo humano pode, de facto, sobrepor-se a ele.Exija transparência, mesmo que venha aos pedaços
Pode não conseguir o algoritmo completo, mas frequentemente consegue critérios, políticas e vias de recurso em linguagem clara.Guarde um rasto documental simples
Arquive e-mails, cartas e capturas de ecrã. Mais tarde, podem ser decisivos para contestar uma decisão ou integrar uma acção colectiva.Procure aliados cedo
De gabinetes de apoio jurídico a organizações de responsabilização tecnológica, há equipas cuja missão é exactamente travar estas lutas.
O veredito silencioso que todos estamos a escrever sobre a IA na justiça
O recurso no caso de Marcus não virou o tabuleiro de um dia para o outro. O tribunal reconheceu fragilidades no algoritmo, mas não foi ao ponto de proibir a sua utilização. Em vez de derrubar o sistema, limitou-se a empurrá-lo: mais divulgação, mais prudência, mais formação.
Muita gente ficou indignada. Ainda assim, por baixo da superfície, algo mudou. Pela primeira vez, a vida de um arguido comum obrigou o país a encarar a engrenagem por detrás da toga e do martelo.
Há aqui uma verdade directa: a IA na justiça não é apenas código - é poder. Quem decide o que é “risco”? De quem é o passado tratado como sombra permanente e de quem é visto como desvio da juventude?
Quando um algoritmo erra num feed, passamos à frente. Quando erra num tribunal, a vida de alguém encolhe para uma cela. As consequências são brutalmente diferentes, mesmo que o ecrã pareça o mesmo.
Vamos continuar a construir estes sistemas. A questão em aberto é se também construímos formas de dizer “não”, “mostre-me” ou “tente de novo” antes de uma previsão endurecer em sentença.
Talvez esse seja o verdadeiro julgamento em curso - silencioso - em tribunais, câmaras municipais, departamentos de recursos humanos e laboratórios tecnológicos. Não um caso mediático único, mas mil momentos pequenos em que alguém ousa perguntar: “Quem disse à máquina que isto era verdade?”
Da próxima vez que ouvir que uma decisão foi tomada “pelo sistema”, pare um segundo. Por trás dessa expressão há sempre uma cadeia de escolhas, pessoas, pressupostos e incentivos. Os algoritmos não caem do céu. São escritos, vendidos, defendidos - e questionados - por nós.
E se um homem inocente pode ser preso por IA, então todos temos interesse em decidir como deve ser a justiça quando o algoritmo entra na sala.
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| Os algoritmos reflectem o viés existente | Ferramentas de risco aprendem com dados históricos, muitas vezes marcados por desigualdade racial e social | Ajuda a encarar resultados de IA como ecos de relações de poder passadas, não como verdade neutra |
| As pontuações moldam decisões no mundo real | Rótulos de risco influenciam discretamente juízes, polícia e empregadores | Incentiva a questionar e contestar escolhas afectadas por IA na sua própria vida |
| Pessoas comuns conseguem reagir | Perguntar sobre dados, critérios e recursos abre fissuras na narrativa da “caixa negra” | Dá-lhe margem prática para exigir sistemas mais justos e transparentes |
FAQ:
Pergunta 1: O que é exactamente “viés algorítmico” num caso judicial?
Resposta 1: É quando o software usado para avaliar risco ou sugerir penas produz resultados sistematicamente injustos para certos grupos, muitas vezes porque foi treinado com dados históricos enviesados.Pergunta 2: Um arguido consegue mesmo contestar uma pontuação de risco de IA?
Resposta 2: Sim, embora seja difícil. A defesa pode questionar o funcionamento da ferramenta, as taxas de erro e se é suficientemente fiável para ser usada como prova num caso individual.Pergunta 3: Os juízes estão, de facto, a apoiar-se nestas ferramentas?
Resposta 3: Em muitos estados e países, sim. São usadas para decisões sobre caução, condenação e liberdade condicional, muitas vezes como “apenas um factor” - que, ainda assim, pode ter um peso enorme.Pergunta 4: Proibir algoritmos resolve o problema?
Resposta 4: Não, por si só. Juízes humanos também têm vieses. O objectivo real é desenhar sistemas - humanos e de máquina - que sejam transparentes, responsabilizáveis e abertos à contestação.Pergunta 5: O que pode fazer uma pessoa comum perante isto?
Resposta 5: Pode apoiar organizações de responsabilização tecnológica, fazer perguntas difíceis quando a IA é usada contra si e votar em responsáveis políticos que tratem a tecnologia na justiça como uma questão de direitos civis - e não como uma demonstração de gadgets.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário