Há um ano, a ideia parecia coisa de um futuro distante; hoje é rotina: colaboradores pedem ao ChatGPT para rascunhar e-mails, apresentações e contratos. Ao mesmo tempo, cresce a inquietação nas direcções. A razão é simples: quase ninguém consegue dizer, com total certeza, que dados acabam dentro do sistema - e quem poderá ter acesso a eles mais tarde. Por isso, empresas por toda a Europa estão a lançar, a grande velocidade, programas de formação para uma utilização segura de ferramentas de IA.
Porque é que as chefias passaram a temer o ChatGPT no escritório
Em muitas organizações, a adopção de ferramentas de IA não aconteceu por um plano oficial, mas “pela porta do lado”: alguém experimenta o ChatGPT em casa, comenta com a equipa, todos ficam impressionados - e, num instante, metade do escritório começa a produzir relatórios, propostas e publicações para redes sociais com um registo gratuito.
De repente, as lideranças percebem que o activo mais valioso da empresa - os seus dados - pode estar a ser enviado, sem controlo, para serviços externos.
Formadores que trabalham com equipas em diferentes sectores descrevem cenas recorrentes, como:
- Colaboradores a colarem rascunhos de contratos com nomes completos no ChatGPT para “afinar” formulações jurídicas.
- Departamentos de RH a pedirem à IA para estruturar cartas de candidatura e análises de currículos, incluindo dados sensíveis do percurso profissional.
- Equipas comerciais a alimentarem o sistema com estatísticas internas de facturação, análises da concorrência e listas de clientes para melhorar pitch decks.
O ponto crítico: muita gente usa versões gratuitas sem ler como o fornecedor trata o conteúdo introduzido. É precisamente aqui que entra a nova vaga de formações de IA.
Pressão em vez de preparação: empresas em corrida à formação em IA
Quem dá formação em inteligência artificial fala de uma procura como raramente viu. Há entidades especializadas que referem períodos com centenas de sessões por mês. O leque vai desde formações intensivas de meio dia para toda a empresa até programas de várias semanas dirigidos a chefias e áreas técnicas.
Um dado chama a atenção: não são apenas grandes grupos com departamentos digitais robustos a aderirem. Muitas médias empresas, com estruturas administrativas enxutas, estão a entrar com força. E faz sentido: frequentemente não têm equipa jurídica interna, contam com poucos recursos de cibersegurança e não conseguem suportar projectos digitais longos. Para elas, o ChatGPT surge como uma espécie de “ferramenta multiusos” capaz de prometer, de um dia para o outro:
- Pré-redacção de contratos
- Escrita de anúncios de emprego e perfis de função
- Automatização de análises em Excel
- Geração de textos de marketing e propostas comerciais
Ao mesmo tempo, cresce a consciência de que, sem regras claras e formação, o aparente salto de produtividade pode transformar-se num problema de segurança e de responsabilidade legal.
Erros típicos no uso de ferramentas de IA (ChatGPT) no trabalho
Formadores que acompanham equipas em vários sectores voltam sempre aos mesmos padrões. As ideias erradas mais comuns no dia a dia de escritório incluem:
- “O que eu escrevo só é visto pela máquina.”
Muitos assumem que ninguém, além do seu ecrã, pode ver o que é introduzido. A possibilidade de o fornecedor armazenar, analisar ou usar os dados para melhoria do modelo é, muitas vezes, desconhecida. - “Basta anonimizar: tiro os nomes.”
É frequente remover nomes completos, mas manter títulos de projectos, códigos internos ou detalhes muito específicos do negócio - o que torna a informação facilmente identificável. - “A versão gratuita é só mais limitada, mas é segura.”
A atenção costuma estar nas funcionalidades, não na protecção de dados. Os modelos de licenciamento e tratamento de informação podem variar muito entre versões gratuitas e versões empresariais. - “Se a resposta parece credível, então está certa.”
Com prazos apertados, aumenta a tentação de copiar resultados sem validação. Erros, imprecisões ou fontes inventadas só são detectados tarde - quando são.
Muitas empresas só descobrem, através das formações, que já têm um problema de “TI sombra” associado a ferramentas de IA.
Do improviso à estratégia: como as empresas organizam a utilização de IA
A vaga actual de formações de IA costuma ser apenas o primeiro passo. Quem leva o tema a sério chega depressa a perguntas estruturais: que ferramenta é permitida para que fins? Que dados podem ir para onde? Quem responde por um erro?
Em muitas organizações, repete-se um padrão em três fases:
| Fase | Situação típica |
|---|---|
| 1. Crescimento descontrolado | Colaboradores usam qualquer ferramenta de IA, muitas vezes em versões gratuitas, sem coordenação central. |
| 2. Momento de choque | Uma chefia descobre que dados sensíveis foram parar a serviços externos, ou o departamento jurídico/compliance dá o alerta. |
| 3. Estrutura | A empresa define regras, adquire licenças empresariais e forma as equipas de forma sistemática. |
É sobretudo na fase 3 que formadores externos se tornam decisivos. Explicam, a quem não é técnico, como funcionam os modelos de linguagem, quais são os limites e que tipos de dados nunca devem ser inseridos em sistemas abertos. Em paralelo, mostram - de forma prática - como integrar a IA nos processos sem comprometer o RGPD e as políticas internas.
Uma medida que tem ganho tração é a criação de uma política interna de IA simples e accionável: exemplos de “pode/não pode”, classificação de dados, regras para copiar/colar informação e um canal claro para dúvidas. Sem esse guia, cada equipa inventa as suas próprias práticas - e o risco volta a aumentar.
O que uma boa formação em inteligência artificial realmente ensina
Uma formação sólida vai muito além de “como escrever prompts”. Muitos clientes chegam à sala à procura de “truques” para obter melhores textos do ChatGPT. No entanto, após o primeiro módulo de privacidade e risco, a conversa muda quase sempre de tom.
Componentes típicos de formações profissionais incluem:
- Compreender classes de dados: o que é confidencial, o que é dado pessoal, o que é informação altamente restrita?
- Conhecer o ecossistema de ferramentas: diferenças entre uso público no navegador, licenças empresariais e modelos executados localmente (on‑premises).
- Riscos legais: direitos de autor, responsabilidade por conteúdos incorrectos, tratamento de dados de clientes e colaboradores.
- Controlo de qualidade: como validar respostas, cruzar informação, testar e documentar decisões.
- Fluxos de trabalho práticos: casos de uso concretos para vendas, RH, controlo de gestão, marketing ou equipas técnicas.
Uma formação bem desenhada não trava a adopção - acelera, mas com segurança, regras e limites claros.
Além disso, muitas empresas começam a avaliar onde os dados são processados e armazenados (por exemplo, opções de residência de dados na UE), bem como integrações com gestão de identidades e registos de auditoria. Estes aspectos, embora menos “visíveis” para o utilizador final, podem ser determinantes para reduzir risco operacional e facilitar a conformidade.
Porque é que, sem formação, as empresas podem “perder o comboio”
Quem investe cedo em formação em IA não está apenas a tentar reduzir risco: quer ganhos reais de produtividade. Quando os colaboradores aprendem a escrever prompts claros, a estruturar informação e a rever criticamente os resultados, muitos processos ficam mais leves e rápidos.
Exemplos práticos frequentemente observados em empresas:
- Gestores de projecto pedem resumos automáticos de actas e a conversão em listas de tarefas.
- Equipas jurídicas usam IA para um primeiro rastreio de riscos em documentos extensos antes de uma análise aprofundada.
- RH cria, a partir de poucos pontos-chave, anúncios de emprego completos em várias versões.
- Equipas de desenvolvimento utilizam IA para análise de código e documentação.
A diferença está na abordagem: empresas que tentam proibir a IA de forma rígida tendem a empurrar o uso para a clandestinidade. Já organizações que criam directrizes e oferecem formação abrem espaço para experimentar - com rede de segurança.
Como os colaboradores se podem proteger no dia a dia
Mesmo sem um grande programa interno, há medidas simples que aumentam muito a segurança no uso de ferramentas de IA. Três regras práticas ajudam de imediato:
- Não introduzir informação que não se estaria disposto a publicar num fórum público.
- Pseudonimizar conteúdos sensíveis antes de usar a ferramenta e, em caso de dúvida, falar com a equipa de TI, segurança ou protecção de dados.
- Nunca copiar resultados sem verificação: reler, testar, confirmar factos e, quando necessário, pedir revisão a um especialista.
Também é útil desfazer a confusão de termos: “IA”, “inteligência artificial”, “modelo de linguagem”, “chatbot” - no uso quotidiano, muitas vezes referem tecnologias muito próximas. Modelos de linguagem como o ChatGPT são treinados para prever a palavra seguinte mais provável. Não “sabem” no sentido humano; geram texto estatisticamente plausível. Com este princípio entendido, torna-se mais fácil avaliar a fiabilidade das respostas.
O que se segue para as empresas na Europa (e em Portugal)
Com novas regras europeias para a inteligência artificial, exigências internas de compliance e a chegada constante de novas ferramentas, o tema não vai desaparecer. Muitos especialistas antecipam que, em poucos anos, a literacia em IA será tão básica como trabalhar com e‑mail ou suites de produtividade.
Para as empresas, a implicação é clara: quem investir agora em regras objectivas, software adequado e formações de IA orientadas à prática ganha vantagem. Quem ignorar a IA - ou apostar apenas em proibições - arrisca ser ultrapassado por colaboradores e clientes, que já usam estas ferramentas no dia a dia, com ou sem aprovação formal.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário