Saltar para o conteúdo

Empresa gerida por IA: as conclusões revelam muito sobre o futuro do trabalho.

Jovem a trabalhar em escritório moderno, com dois ecrãs e gráficos digitais, usando auscultadores.

Uma equipa de cientistas criou uma empresa inteira gerida por inteligência artificial para pôr à prova um cenário que, no mundo do trabalho, muita gente receia: um escritório a funcionar sem uma única pessoa.

A experiência, conduzida por investigadores da Universidade Carnegie Mellon, reproduziu um ambiente empresarial completo - com departamentos, tarefas concretas e prazos - mas sem colaboradores humanos. Em vez de pessoas, havia apenas agentes de IA, baseados em alguns dos modelos mais conhecidos do mercado.

Uma empresa de escritório controlada por inteligência artificial e agentes de IA

A premissa do estudo era simples e, ao mesmo tempo, desconfortável: e se uma empresa moderna fosse operada exclusivamente por sistemas de IA, semelhantes aos que já começam a integrar as ferramentas do dia a dia?

Para testar a ideia, os investigadores montaram uma espécie de “empresa fantasma”, com rotinas banais de qualquer organização: análise financeira, gestão de projectos, decisões de infra-estrutura e comunicação interna. Não havia tarefas futuristas - era trabalho de escritório comum, do género que hoje recai sobre analistas, coordenadores e chefias intermédias.

Nesta empresa, cada “colaborador” era um agente de IA assente em grandes modelos de linguagem. Entre os modelos incluídos estavam versões de Claude (Anthropic), GPT-4o (OpenAI), Gemini (Google), Amazon Nova, Llama (Meta) e Qwen (Alibaba). A cada agente era atribuído um cargo e uma descrição de funções, como se tivesse sido formalmente contratado.

As máquinas não estavam apenas a responder a perguntas: tinham de executar, decidir, lidar com ficheiros, interpretar instruções ambíguas e até interagir com “colegas” virtuais.

Os cientistas construíram ainda uma plataforma paralela que simulava outros departamentos (como recursos humanos) com os quais os agentes precisavam de contactar para concluir tarefas. O objectivo era perceber se estas IAs conseguiriam orientar-se numa rotina corporativa plausível, com dependências, burocracia e comunicação entre áreas.

Prova de resistência: tarefas do quotidiano e resultados aquém do esperado

Os agentes receberam missões variadas, muito próximas do que acontece num escritório actual. Sem ficção científica - apenas trabalho repetitivo e operacional.

  • Procurar em pastas com diferentes ficheiros para analisar uma base de dados;
  • Fazer visitas virtuais a imóveis para seleccionar novos escritórios;
  • Produzir documentos em formatos específicos, como ficheiros “.docx”;
  • Interagir com sistemas simulados de outros departamentos;
  • Navegar na Internet, lidando com páginas complexas e janelas emergentes.

O desempenho ficou longe do que se poderia imaginar num cenário de “substituição total” de trabalhadores humanos.

Agente de IA % de tarefas concluídas % incluindo tarefas parciais Custo estimado (US$)
Claude 3.5 Sonnet 24% 34,4% 6,34
Gemini 2.0 Flash 11,4% - 0,79
Outros agentes testados < 10% - varia

O Claude 3.5 Sonnet ficou em primeiro lugar, mas ainda assim completou menos de um quarto das tarefas. Contabilizando as tarefas apenas parcialmente executadas, alcançou pouco mais de um terço. Nenhum dos restantes modelos ultrapassou os 10% de conclusão.

Onde é que as IAs falham na rotina de trabalho

Quando o essencial não está escrito

Um dos bloqueios mais frequentes surgiu nas partes implícitas das instruções. Sempre que era pedido que o resultado fosse guardado num ficheiro “.docx”, vários agentes não inferiam que se tratava de um documento do Microsoft Word. Para qualquer estagiário isto é óbvio; para um sistema treinado sobretudo com padrões de texto e estatística, nem por isso.

Na prática, muitas tarefas de escritório dependem precisamente deste tipo de leitura contextual. Um colaborador apanha o “não dito”: a forma de trabalhar da chefia, a cultura interna, as regras informais e os padrões que ninguém escreve, mas que toda a gente cumpre.

Falta de competências sociais e de coordenação

Outra fragilidade repetida foi a ausência de capacidades sociais. Os agentes revelaram dificuldade em coordenar actividades que exigiam “falar” com outros departamentos simulados, pedir esclarecimentos ou negociar prioridades.

O estudo sugere que saber muita coisa não é o mesmo que saber trabalhar em equipa, nem compreender a dinâmica política e relacional de um escritório.

Num contexto real, uma parte do trabalho é técnica - mas uma fatia importante é negociação, interpretação do silêncio, leitura do ambiente e decisões assentes em confiança. As IAs, por agora, tropeçam nessa segunda metade.

Internet complexa: agentes desorientados

A navegação na Internet também se transformou num obstáculo. Páginas carregadas de janelas emergentes, formulários e fluxos não lineares confundiram os agentes repetidamente. Quando se perdiam, alguns adoptavam um comportamento particularmente problemático: “encurtavam caminho”, saltavam a parte difícil e avançavam como se tudo estivesse resolvido.

No mundo empresarial, isto traduz-se num risco claro: a IA pode entregar um resultado com aparência correcta, mas incompleto ou errado, sem alertar para o que falhou. Relatórios, contratos e decisões financeiras podem ficar comprometidos por erros silenciosos deste tipo.

Autonomia total: ainda longe da realidade

A investigação reforça uma ideia incómoda: as IAs podem ser excelentes em tarefas bem delimitadas - com início, meio e fim evidentes - mas atrapalham-se quando precisam de funcionar como “colaboradores autónomos”.

Conseguir resolver um problema específico (gerar texto, resumir um documento, limpar uma folha de cálculo) não significa, automaticamente, ter competência para manter uma rotina profissional completa, com múltiplos passos, responsabilidades difusas e impacto real nas operações.

A fantasia de uma empresa 100% automática parece, por agora, mais próxima de um argumento comercial do que de uma possibilidade imediata.

Os números mostram também a dimensão económica: o agente com melhor resultado foi igualmente o mais caro. O Claude 3.5 Sonnet teve o desempenho mais alto, mas com um custo superior ao de alternativas como o Gemini 2.0 Flash. Para organizações focadas em cortar custos, o equilíbrio entre preço, produtividade e risco continua a não bater certo.

Além disso, mesmo que a tecnologia evolua, uma empresa real enfrenta requisitos que um laboratório consegue simplificar: conformidade, auditoria, responsabilidades legais e prestação de contas. Em sectores regulados (finanças, saúde, energia), um “erro silencioso” não é apenas um problema técnico - pode tornar-se um incidente com impacto legal e reputacional.

Há ainda a questão da segurança e da privacidade: agentes a aceder a sistemas internos, ficheiros e credenciais aumentam a superfície de ataque. Sem políticas rigorosas (permissões, registos de actividade, segregação de funções e validação humana), a automação pode amplificar riscos que, com pessoas, são mais fáceis de detectar e travar.

O que isto significa para quem receia perder o emprego

Para muitos profissionais, estes dados podem soar a um alívio (ainda que parcial). Uma substituição total - sem humanos “na linha da frente” - não parece tecnicamente viável quando falamos de tarefas de escritório mais amplas. O que se desenha é um cenário diferente: funções redesenhadas para trabalhar lado a lado com assistentes de IA.

Em vez de um robô ficar com o seu cartão de colaborador, a tendência aponta para papéis em que a pessoa coordena, supervisiona e corrige sistemas automáticos. A IA faz o rascunho; o profissional ajusta, valida, preenche lacunas e toma a decisão final.

Funções que podem mudar mais depressa

Algumas actividades deverão sentir esta transformação primeiro:

  • Analistas que lidam com grandes volumes de dados e relatórios repetitivos;
  • Redactores e profissionais de comunicação que produzem conteúdos em escala;
  • Gestores de projectos com tarefas burocráticas e registos padronizados;
  • Atendimento ao cliente em canais digitais.

Em todos estes casos, o que a experiência aponta é para um modelo híbrido: a IA trata do trabalho “bruto”, mas os humanos continuam responsáveis pelas nuances, pelos conflitos e pelas decisões com consequências directas no negócio.

Termos e cenários para perceber o próximo passo na automação

Neste debate surgem frequentemente dois conceitos: automação total e automação assistida. A primeira imagina sistemas que fazem tudo sozinhos, do planeamento à execução. A segunda encara a IA como parceira, não como substituta, integrada em fluxos de trabalho já existentes.

O teste da “empresa de IA” mostrou que, por enquanto, a automação total continua a falhar sobretudo em:

  • contextos ambíguos;
  • regras não documentadas;
  • tarefas com múltiplas etapas e dependências;
  • situações em que o erro traz prejuízo real.

Um cenário plausível para os próximos anos combina camadas diferentes: sistemas automáticos a tratar do repetitivo; IAs generativas a produzir primeiras versões de documentos; e profissionais humanos a rever, adaptar e decidir o que avança.

Este modelo tem ganhos e riscos. Por um lado, pode aumentar a produtividade, reduzir erros simples e libertar tempo para trabalho mais estratégico. Por outro, pode criar dependência de sistemas que parecem fiáveis, mas que por vezes “inventam” resultados ou ignoram passos críticos - exactamente como aconteceu quando alguns agentes saltaram as partes mais difíceis das tarefas.

Para quem trabalha em escritório, a lição é dupla: aprender a usar estas ferramentas com espírito crítico e, em paralelo, reforçar competências difíceis de automatizar - negociação, julgamento contextual, criatividade aplicada e leitura de pessoas. Foi precisamente nesses pontos que a experiência da empresa gerida por IA mostrou que as máquinas ainda não conseguem actuar com segurança.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário