Usar IA numa sexta‑feira à tarde pode ser uma má ideia, segundo um analista, por um motivo simples: tudo o que os modelos de inteligência artificial devolvem precisa de verificação. E, no final da semana, há uma maior probabilidade de as pessoas saltarem esse passo.
A questão coloca-se de forma directa: deverão as empresas impedir o uso das suas ferramentas de IA na sexta‑feira à tarde? De acordo com uma notícia do The Register, essa é uma das propostas avançadas por Dennis Xu, analista da Gartner, numa apresentação com o título “Atenuar os 5 principais riscos de segurança do Microsoft 365 Copilot”. Embora a sessão fosse focada no produto da Microsoft, a lógica estende-se a organizações que trabalham com soluções como ChatGPT, Gemini ou Claude.
A IA generativa pode trazer ganhos consideráveis de produtividade, mas isso não elimina a necessidade de confirmar o que foi produzido - seja um resumo, um e‑mail, um relatório ou um excerto de código. Numa sexta‑feira à tarde, com mais cansaço acumulado e maior pressa para fechar tarefas, aumenta o risco de aceitar resultados sem validação. Por isso, uma medida sugerida para reduzir o problema seria um bloqueio (ou restrição) de utilização em todas as sextas‑feiras à tarde.
Porque é que a verificação é indispensável (mesmo com IA generativa)
Apesar de estarem cada vez mais capazes, os modelos de inteligência artificial continuam a cometer erros. Isto significa que a verificação tem de ser sistemática e não opcional - incluindo em cenários de codificação, onde uma resposta plausível pode esconder falhas lógicas, vulnerabilidades ou dependências incorrectas.
Numa investigação publicada em março, a Anthropic referiu que este tipo de limitações ainda trava a adopção generalizada da IA em algumas profissões, mesmo quando a tecnologia, em teoria, consegue automatizar determinadas tarefas. Segundo a publicação, algumas actividades “teoricamente possíveis podem não ser implementadas devido às limitações dos modelos. Outras podem demorar a generalizar-se por restrições legais, requisitos de software específicos, etapas de verificação humana ou outros obstáculos”.
Microsoft 365 Copilot, Gartner e o risco de “fim de semana”: uma medida extrema?
A proposta de restringir o Microsoft 365 Copilot (e, por extensão, outras ferramentas como ChatGPT, Gemini e Claude) na sexta‑feira à tarde não é uma crítica ao valor da tecnologia, mas sim ao contexto humano em que é usada. O risco não está apenas no modelo: está na probabilidade de alguém copiar/colar uma resposta, enviar um documento, ou aplicar uma alteração sem revisão quando a atenção está mais baixa.
Em vez de um “banimento” total, algumas organizações podem optar por regras graduais: por exemplo, permitir uso para rascunhos e ideação, mas exigir uma validação adicional antes de qualquer conteúdo ser enviado externamente, publicado, ou integrado em produção.
Boas práticas alternativas para reduzir erros e riscos de segurança
Para além de limitar o uso à sexta‑feira à tarde, há medidas práticas que ajudam a manter os benefícios da IA generativa sem perder controlo operacional:
- Revisão obrigatória por pares para conteúdos críticos (comunicações externas, decisões sensíveis, alterações de código).
- Checklists de verificação (fontes, números, nomes, datas, permissões, conformidade e confidencialidade).
- Políticas claras de dados: o que pode (e não pode) ser partilhado nos prompts, especialmente em ambientes com informação confidencial.
- Registo e auditoria de utilização quando a ferramenta é usada em contexto corporativo, para facilitar rastreabilidade e aprendizagem.
- Formação focada em limitações: alucinações, omissões, viés, erros de contexto e extrapolações indevidas.
Um ponto adicional: criar “janelas de trabalho” para tarefas de alto risco
Uma abordagem complementar é separar, no calendário, tarefas de alto impacto das tarefas de baixo risco. Alterações sensíveis de codificação, decisões que envolvam dados pessoais ou documentos contratuais podem ser concentradas em períodos do dia (e dias da semana) em que a equipa está mais disponível para validar, discutir e testar. Assim, reduz-se a tentação de “despachar” com base em respostas de IA quando a probabilidade de falha humana aumenta.
Em paralelo, vale a pena definir o que é “verificação” na prática: não é apenas ler por alto, mas testar, confirmar com fontes, reproduzir resultados e garantir que o output da inteligência artificial cumpre requisitos técnicos, legais e de segurança.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário