Saltar para o conteúdo

ChatGPT no escritório: Como as empresas arriscam os seus dados ao utilizar a versão gratuita

Homem concentrado a consultar informação confidencial no ecrã do computador portátil numa sala de escritório.

Enquanto muitas administrações ainda debatem estratégias, há já equipas a usar o ChatGPT e outras ferramentas de IA no trabalho diário. É rápido, prático e impressionante - mas também pode ser um risco sério para segredos comerciais e dados de clientes. Por isso, cada vez mais empresas estão a tentar pôr ordem no uso destas ferramentas, criar formação e definir regras claras para a inteligência artificial.

O fenómeno apanhou muita gente desprevenida. Em poucos meses, a IA passou de curiosidade a ferramenta de rotina, muitas vezes sem controlo central. O resultado é simples: os colaboradores ganham produtividade, mas a empresa pode ficar exposta a fugas de informação, problemas de conformidade e decisões tomadas com base em respostas erradas.

O boom da formação em IA nas empresas

Quer se trate de uma PME ou de um grande grupo, em poucos meses surgiu um verdadeiro mercado para formações em IA, ao ponto de formadores e consultoras já trabalharem no limite da capacidade. Há agências a relatar várias sessões por semana, por vezes três formações num só dia. Procura-se de tudo: desde cursos de iniciação até sessões muito específicas para departamentos jurídicos, equipas comerciais ou RH.

As pequenas e médias empresas mostram-se especialmente dinâmicas. Muitas não têm uma grande estrutura interna para centralizar decisões. Ao mesmo tempo, a pressão para aumentar a produtividade e libertar tempo às equipas é real. A IA acaba por funcionar como uma espécie de canivete suíço digital: redigir contratos, escrever anúncios de emprego, automatizar análises em Excel, melhorar apresentações.

Muitas empresas estão, ao mesmo tempo, fascinadas com a IA, sobrecarregadas com o tema - e atrasadas na resposta.

Os grandes grupos avançam mais devagar, mas de forma mais organizada. Primeiro testam com grupos-piloto, depois criam orientações internas, envolvem os responsáveis de proteção de dados e tentam estabelecer padrões comuns para todas as unidades. A ideia é clara: a IA é um tema estratégico que veio para ficar.

Perigo silencioso: a versão gratuita no uso diário

Enquanto a gestão de topo ainda planeia avaliações, muitas equipas já tomaram a iniciativa. Os colaboradores abrem simplesmente a versão gratuita do ChatGPT no navegador e começam a trabalhar. Um colega envia um rascunho de contrato, outro cola dados de clientes, e há ainda quem peça à IA para reescrever uma mensagem interna delicada.

A maioria não tem intenção de fazer mal - quer poupar tempo, evitar erros e escrever melhor. Mas falha num ponto essencial: tudo o que é introduzido num modelo público de IA deixa de estar sob controlo da empresa.

  • Propostas confidenciais e preços saem do ambiente informático da empresa.
  • Dados sensíveis de RH são copiados para serviços sediados nos EUA.
  • Estratégias e ideias de produto entram em sistemas de terceiros.

Muitos departamentos de TI descobrem, com surpresa, que já existe uma espécie de ecossistema paralelo de uso informal de IA dentro da empresa. Alguns responsáveis de segurança já repetem frases como: “Os meus colegas usam a versão gratuita do ChatGPT e nem percebem os dados que estão a entregar.”

Proteção de dados, segredos comerciais, responsabilidade: onde está o problema

Os riscos são vários e atingem as empresas em mais do que uma frente ao mesmo tempo. Há sobretudo três áreas que preocupam juristas e especialistas em proteção de dados.

1. Proteção de dados de clientes

Quando nomes, endereços de e-mail, contratos ou informações médicas são inseridos numa ferramenta de IA, entra-se num terreno minado do ponto de vista da proteção de dados. Sem contrato de subcontratação, sem base legal clara e sem informação transparente às pessoas envolvidas, uma violação do RGPD pode tornar-se rapidamente realidade - com as respetivas coimas.

O ponto mais sensível é que os colaboradores muitas vezes não sabem se a ferramenta usa os dados para treino ou se os armazena em servidores fora da União Europeia. O chatbot prático no navegador pode, assim, transformar-se numa exportação de dados sem controlo.

2. Perda de segredos comerciais

Cálculos internos, roadmaps de produto, código-fonte, dados de investigação - tudo isto ajuda a tornar uma empresa única. Se essas informações entrarem em modelos de acesso livre, podem reaparecer mais tarde, em forma agregada, ou sair para o exterior através de falhas de segurança.

Mesmo quando um fornecedor garante que não usa as entradas para treino, continua a existir risco: configurações erradas, ataques informáticos, fluxos de dados pouco claros dentro de uma plataforma grande. Quem age de forma descuidada pode, no limite, pôr em causa o próprio modelo de negócio.

3. Responsabilidade e respostas erradas

As ferramentas de IA transmitem confiança e devolvem respostas aparentemente limpas. Mas também alucinam fontes, inventam decisões judiciais ou misturam factos. Se os colaboradores confiarem demasiado nelas, o custo pode ser elevado: aconselhamento jurídico incorreto, análises financeiras erradas, textos médicos ambíguos ou instruções técnicas perigosas.

A maior ilusão é achar que a IA está sempre certa - só porque escreve de forma fluente.

Quem trabalha com IA em contexto profissional precisa, por isso, de um mínimo de literacia prática: como confirmar respostas? Que tarefas são adequadas e quais devem ser evitadas? Quando é obrigatório pedir validação a um especialista?

Porque é que as empresas estão agora a investir em formação em IA

Apesar de todos os riscos, muitos gestores veem sobretudo uma oportunidade na tecnologia. Esperam equipas mais produtivas, menos trabalho rotineiro e mais tempo para aconselhamento, criatividade e contacto com clientes. Num contexto de falta de mão-de-obra, uma IA bem introduzida pode até ajudar a colmatar falhas.

Hoje em dia, nas formações raramente se fala apenas em “como escrever um prompt”. O que interessa são cenários concretos do dia a dia de cada área:

  • Como pode a equipa comercial criar propostas mais depressa, sem revelar margens confidenciais?
  • Como pode o RH preparar anúncios de emprego e conversas de avaliação sem violar direitos de personalidade?
  • Como pode o departamento jurídico usar IA para pesquisa sem acabar responsabilizado por citações erradas?

Muitos formadores dizem que, assim que entram em cena exemplos reais da empresa, o ambiente muda. A desconfiança inicial dá lugar à curiosidade - e o uso descontrolado, sem regras, dá lugar a uma abordagem mais estruturada e transparente.

Da cultura de proibição às linhas orientadoras

Algumas empresas reagem instintivamente com proibições. Bloqueiam o ChatGPT e serviços semelhantes na rede corporativa, enviam e-mails internos com avisos e ameaçam com consequências disciplinares. A curto prazo, isso pode travar a fuga de dados; a longo prazo, dificilmente muda a realidade.

Na maioria dos casos, resulta melhor outra abordagem: linhas orientadoras claras em vez de uma proibição total. Isso inclui, por exemplo:

  • Uma política de utilização de serviços de IA escrita de forma simples e clara.
  • Ferramentas aprovadas, com condições de proteção de dados verificadas.
  • Formação interna que mostre, em simultâneo, vantagens e riscos.
  • Pontos de contacto na TI, no jurídico e na proteção de dados para esclarecimento de dúvidas.

Muitas empresas apostam também em soluções próprias e internas de IA. Nestes casos, os modelos correm nos servidores da empresa ou em fornecedores cloud rigorosamente avaliados. Assim, os dados sensíveis ficam mais protegidos, enquanto os colaboradores mantêm uma experiência semelhante à das ferramentas públicas.

Como reconhecer boas formações em IA

O mercado de formações é confuso. Há fornecedores que prometem ganhos de produtividade “revolucionários”, mas depois entregam apenas apresentações genéricas, sem ligação à prática. Quem compra deve analisar com atenção.

Critério Como reconhecer
Ligação à prática Trabalho com exemplos reais da empresa, e não apenas com slides
Foco na proteção de dados Orientações concretas sobre tipos de dados, prazo de conservação e limites legais
Conhecimento do setor O formador conhece processos típicos e a terminologia da área
Continuidade Materiais, guias e contactos para a fase após a formação

Quem tiver estes pontos em conta evita a típica “formação em PowerPoint”, depois da qual ninguém sabe o que deve mudar no dia seguinte.

Como os colaboradores podem trabalhar em segurança com o ChatGPT & Co.

Talvez o fator mais importante esteja nas próprias pessoas. Com algumas regras básicas, é possível reduzir bastante o risco no dia a dia.

  • Não copiar dados reais de clientes, informações de saúde ou listas salariais para ferramentas públicas de IA.
  • Anonimizar ou alterar fortemente trechos sensíveis de texto.
  • Verificar sempre os resultados e não os usar sem confirmação.
  • Em caso de dúvida, falar antes com a TI ou com o encarregado da proteção de dados.

Ao mesmo tempo, a IA pode melhorar de forma visível a qualidade do trabalho: e-mails mais bem estruturados, planos de projeto mais claros, análises feitas mais depressa. As equipas que usam a ferramenta corretamente costumam ganhar mais tempo para o essencial.

Porque ficar à espera é a opção mais arriscada

Enquanto uma parte das empresas acelera, outra espera que a tendência passe. Na prática, isso raramente resulta: os colaboradores já conhecem ferramentas de IA da vida privada e levam essa experiência para o escritório.

Se a entidade empregadora não definir regras, formação e estratégia, acaba por deixar o controlo entregue ao acaso. Nesse cenário, cada pessoa decide por si até que ponto partilha dados confidenciais e o quanto confia nas respostas da IA.

A longo prazo, o padrão será este: as empresas que investirem cedo em competências, linhas de orientação claras e soluções seguras poderão usar a IA de forma produtiva - em vez de andarem depois a remediar fugas de dados, riscos jurídicos e perdas de produtividade.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário