Saltar para o conteúdo

"Os meus colegas colocam tudo no ChatGPT": Empresas correm a fazer formações rápidas em IA

Grupo de jovens a discutir projeto junto a laptop numa sala de reuniões iluminada por janela.

O que há um ano soava a futuro distante é, hoje, rotina em muitas empresas: colaboradores pedem ao ChatGPT para rascunhar e-mails, apresentações e até contratos. Em paralelo, cresce a inquietação nas direcções. A razão é simples: pouca gente consegue explicar com rigor que dados entram no sistema, onde ficam guardados e quem poderá aceder-lhes mais tarde. Por isso, por toda a Europa - e cada vez mais em Portugal - multiplicam-se programas de formação em IA para uso seguro de ferramentas de IA no trabalho.

Porque é que os chefes, de repente, têm receio do ChatGPT no escritório

Em muitas organizações, a entrada das ferramentas de IA aconteceu quase sem dar por isso: alguém experimenta o ChatGPT em contexto pessoal, comenta com a equipa, o entusiasmo pega - e, num instante, uma parte do escritório já escreve relatórios, propostas e publicações para redes sociais com uma conta gratuita.

De repente, a liderança percebe que o activo mais valioso da empresa - os seus dados - pode estar a ser partilhado sem controlo com serviços externos.

Formadores descrevem situações recorrentes, como:

  • Colaboradores que copiam rascunhos de contratos com nomes completos e detalhes identificáveis para “polir” linguagem jurídica no ChatGPT.
  • Equipas de RH que usam IA para estruturar cartas de motivação e análises de CV, incluindo dados sensíveis de carreira e identificação.
  • Departamentos comerciais que inserem estatísticas internas de vendas, análises de concorrência e listas de clientes para melhorar apresentações e pitch decks.

O ponto crítico está, muitas vezes, na ignorância das regras: muita gente usa versões gratuitas sem ler como o fornecedor trata os conteúdos introduzidos. É exactamente aqui que a nova vaga de formação em inteligência artificial começa a fazer diferença.

Pressão em vez de preparação: empresas em “modo formação” com IA e ChatGPT

Formadores especializados em inteligência artificial falam de um pico de procura pouco comum. Há consultoras e agências focadas em formação em IA que referem, em certos períodos, centenas de sessões por mês. A oferta vai desde workshops de meio dia para equipas inteiras até programas de várias semanas dirigidos a direcções e áreas técnicas.

Um aspecto chama a atenção: não são apenas grandes grupos com departamentos digitais robustos a investir. Muitas PME - com estruturas administrativas mais leves - entram de forma particularmente intensa. Nestas empresas, é frequente não existir departamento jurídico interno, haver pouca capacidade de cibersegurança e faltar tempo para projectos digitais longos. O ChatGPT surge, então, como uma espécie de canivete suíço que promete resolver tudo:

  • pré-redacção de contratos
  • escrita de anúncios de emprego e perfis de função
  • automatização de análises em Excel e relatórios
  • criação de textos de marketing e propostas comerciais

Ao mesmo tempo, cresce a consciência: sem regras claras e formação em IA, o ganho aparente de produtividade pode transformar-se num risco de segurança e num problema de responsabilidade.

Erros típicos que os colaboradores cometem ao usar ferramentas de IA

Quem faz formação transversal a vários sectores volta a encontrar os mesmos padrões. As ideias erradas mais frequentes no dia a dia são:

  • “O que eu escrevo só é visto pela máquina.”
    Muitos assumem que apenas o ecrã do utilizador “vê” os dados. O facto de alguns fornecedores poderem guardar, analisar ou usar inputs para melhoria do modelo é desconhecido para grande parte das pessoas.

  • “Se eu tirar os nomes, já fica anónimo.”
    Retiram-se nomes próprios, mas mantêm-se títulos de projectos, códigos internos, referências a clientes ou detalhes sectoriais. Na prática, o conteúdo continua muitas vezes facilmente identificável.

  • “A versão gratuita é só mais limitada - mas é segura.”
    O foco vai para funcionalidades, não para privacidade. E as diferenças entre modelos de licenciamento e tratamento de dados podem ser grandes entre versões gratuitas e versões empresariais.

  • “Se a resposta parecer credível, então deve estar certa.”
    Em contexto de prazos apertados, há tendência para copiar resultados sem validação. Erros, omissões ou fontes inventadas podem só ser detectados tarde - ou nunca.

Muitas empresas só descobrem, durante a formação, que já têm um problema de “shadow IT” com ferramentas de IA.

Do caos à estratégia: como as empresas organizam o uso de IA (ChatGPT incluído)

Para muitas organizações, a formação é apenas o primeiro passo. Quando o tema é levado a sério, surgem perguntas estruturais: que ferramenta é permitida para que finalidade? Que tipos de dados podem ser usados e em que condições? Quem responde por um erro, uma fuga de informação ou um conteúdo impróprio?

Em muitos casos, o trajecto segue três fases:

Fase Situação típica
1. Crescimento descontrolado Colaboradores usam várias ferramentas de IA, muitas vezes em versões gratuitas, sem coordenação central.
2. Momento de choque Um responsável percebe que dados sensíveis foram parar a serviços externos, ou a área jurídica/privacidade alerta para o risco.
3. Estrutura A empresa define regras, adquire licenças empresariais e forma as equipas de forma sistemática.

Na fase 3, formadores externos costumam ter um papel decisivo: explicam, a não especialistas, como funcionam os modelos de linguagem, onde estão os limites e que dados não devem, em caso algum, entrar em sistemas abertos. Em paralelo, mostram como integrar IA em fluxos de trabalho reais sem “rebentar” com a protecção de dados.

Um passo que muitas empresas em Portugal estão também a adicionar é a governação de IA: criar políticas internas simples (o que é permitido/proibido), definir responsáveis (TI, Segurança, DPO/Encarregado de Protecção de Dados, Jurídico) e estabelecer um processo de validação para novos casos de uso. Esta camada de governação evita decisões avulsas e reduz o risco de cada equipa “inventar” a sua própria regra.

O que uma boa formação em IA realmente ensina

Uma formação sólida vai muito além de “como escrever prompts”. Formadores relatam que muitos clientes começam por pedir truques para obter textos melhores do ChatGPT - mas, após o primeiro módulo de privacidade e risco, a prioridade muda rapidamente.

Blocos comuns em programas profissionais de formação em IA:

  • Compreender classes de dados: o que é confidencial, o que é dado pessoal, o que é informação restrita/segredo comercial.
  • Conhecer o ecossistema de ferramentas: diferenças entre uso público no browser, versões empresariais e modelos executados localmente (on‑premises).
  • Riscos legais: direitos de autor, responsabilidade por conteúdos errados, e regras para dados de clientes e colaboradores.
  • Controlo de qualidade: como validar respostas, confirmar factos, registar fontes e documentar decisões.
  • Workflows práticos: casos concretos para vendas, RH, controlo de gestão, marketing, áreas técnicas e operações.

Uma formação bem feita não trava a inovação: acelera - mas numa estrada com guardrails.

Além disso, é cada vez mais frequente incluir um módulo de contratação e avaliação de fornecedores: onde ficam os dados, se há retenção, se existe opção de não utilização para treino, que registos ficam, e como garantir condições compatíveis com RGPD e políticas internas. Esta dimensão, muitas vezes ignorada, é a diferença entre “usar IA” e “usar IA com segurança”.

Porque é que, sem formação, as empresas podem ficar para trás

Quem aposta cedo em formação em inteligência artificial nem sempre o faz apenas para reduzir risco. O objectivo costuma ser também produtividade mensurável. Ensinar colaboradores a estruturar pedidos, organizar informação e rever criticamente resultados pode encurtar tarefas e reduzir retrabalho.

Exemplos que formadores encontram com frequência:

  • Gestores de projecto que pedem resumos automáticos de actas e a conversão em listas de tarefas.
  • Equipas jurídicas que usam IA para uma triagem inicial de riscos em documentos longos antes de aprofundarem.
  • Departamentos de RH que geram anúncios de emprego completos a partir de poucos pontos, em várias versões.
  • Equipas de desenvolvimento que recorrem à IA para análise de código e documentação.

A atitude é determinante: organizações que proíbem IA de forma absoluta tendem a empurrar o uso para a clandestinidade. Já empresas que criam directrizes claras e investem em formação em IA abrem espaço para experimentar - com rede de segurança.

Como os colaboradores se podem proteger no dia a dia

Mesmo sem um grande programa interno, há práticas simples que tornam o uso de ferramentas de IA mais responsável:

  • Não introduzir informação que não se publicaria num fórum aberto.
  • Pseudonimizar conteúdos sensíveis antes de usar e, em caso de dúvida, consultar TI ou a área de privacidade/protecção de dados.
  • Nunca aceitar resultados de IA sem revisão: reler, testar, validar e, quando necessário, pedir a um especialista para confirmar.

Ajuda também clarificar conceitos: “IA”, “inteligência artificial”, “modelo de linguagem”, “chatbot” - no contexto empresarial, frequentemente referem tecnologias muito próximas. Modelos de linguagem como o ChatGPT foram treinados para prever a palavra seguinte mais provável; não “sabem” no sentido humano, geram texto estatisticamente plausível. Perceber este princípio torna mais fácil avaliar respostas e reconhecer limites.

O que vem a seguir para as empresas em Portugal

Com o reforço de regras europeias para inteligência artificial, requisitos internos de compliance e a chegada constante de novas ferramentas, este tema não vai desaparecer. Muitos especialistas antecipam que a competência em IA se tornará, em poucos anos, tão básica como usar e-mail ou software de produtividade.

Para as empresas, a implicação é clara: investir agora em políticas objectivas, software adequado e formação em IA orientada à prática cria vantagem competitiva. Quem ignora o tema - ou se limita a proibir - arrisca-se a ser ultrapassado por colaboradores e clientes que já usam estas ferramentas no quotidiano, com ou sem aprovação formal.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário