Saltar para o conteúdo

Empresa gerida por IA: conclusões revelam muito sobre o futuro do trabalho.

Homem a trabalhar com dois monitores e interface digital futurista numa mesa de escritório moderna.

Uma equipa de cientistas criou, de propósito, uma empresa inteira gerida por inteligência artificial para pôr à prova um receio que já circula em muitos escritórios: até que ponto os sistemas actuais conseguem, de facto, substituir trabalhadores humanos num ambiente corporativo real.

A experiência, realizada por investigadores da Universidade Carnegie Mellon, montou uma simulação completa de uma organização: departamentos, tarefas concretas, dependências entre equipas e prazos - mas sem qualquer pessoa a desempenhar funções internas. Em vez de colaboradores, havia apenas agentes de IA (baseados em grandes modelos de linguagem) a “ocupar” cargos e a executar trabalho.

Uma empresa de escritório só com agentes de IA (Universidade Carnegie Mellon)

A premissa era simples e, ao mesmo tempo, desconfortável: e se uma empresa fosse operada exclusivamente por sistemas de IA semelhantes aos que já começam a ser integrados nas ferramentas do dia-a-dia?

Para testar esse cenário, os investigadores construíram uma espécie de “empresa fantasma”, com rotinas típicas de um negócio actual: análise financeira, gestão de projectos, decisões sobre infra-estrutura e comunicação interna. Não se tratou de tarefas futuristas; foram actividades semelhantes às que hoje recaem sobre analistas, coordenadores e gestores.

Cada “funcionário” era um agente de IA assente em modelos amplamente conhecidos no mercado. Entre os sistemas usados estavam versões de Claude (Anthropic), GPT-4o (OpenAI), Gemini (Google), Amazon Nova, Llama (Meta) e Qwen (Alibaba). A cada agente foi atribuído um cargo, com descrição de responsabilidades, como se tivesse sido formalmente contratado.

As máquinas não se limitaram a responder a perguntas: tiveram de agir, tomar decisões, trabalhar com ficheiros, interpretar instruções ambíguas e até lidar com “colegas” virtuais.

Para além disso, foi criada uma plataforma adicional que imitava serviços e equipas internas - como recursos humanos - com os quais os agentes tinham de interagir para concluir tarefas. O objectivo era avaliar se as IAs conseguiam circular numa rotina corporativa credível, com burocracia, pedidos entre departamentos e comunicação transversal.

Prova de resistência: tarefas comuns e resultados aquém do esperado

As missões atribuídas aos agentes foram próximas do quotidiano de um escritório moderno - trabalho prático e, muitas vezes, pouco glamoroso:

  • Percorrer pastas com diferentes ficheiros para analisar uma base de dados;
  • Fazer visitas virtuais a imóveis para seleccionar novos escritórios;
  • Criar documentos em formatos específicos, como ficheiros “.docx”;
  • Interagir com sistemas simulados de outros departamentos;
  • Navegar na web, lidando com páginas complexas e janelas pop-up.

O desempenho global ficou muito abaixo do que sugeriria um cenário de “substituição total” do trabalho humano.

Agente de IA % de tarefas concluídas % incluindo tarefas parciais Custo estimado (US$)
Claude 3.5 Sonnet 24% 34,4% 6,34
Gemini 2.0 Flash 11,4% - 0,79
Outros agentes testados < 10% - varia

O Claude 3.5 Sonnet apresentou o melhor resultado, mas ainda assim terminou menos de um quarto das tarefas. Se forem contabilizadas execuções parciais, subiu para pouco mais de um terço. Nenhum dos restantes modelos ultrapassou 10% de conclusão.

Onde os agentes de IA falham no trabalho do dia-a-dia

Quando o essencial não está explicitado

Um dos bloqueios mais evidentes apareceu nas partes implícitas das instruções. Em tarefas que exigiam guardar o resultado num ficheiro “.docx”, vários agentes não inferiram que isso correspondia a um documento do Microsoft Word. Para qualquer estagiário, a associação é imediata; para um sistema treinado sobretudo em padrões de texto, nem sempre.

Na prática, grande parte do trabalho de escritório depende exactamente dessa leitura do “não dito”: hábitos do gestor, cultura interna, convenções que ninguém formaliza, mas que todos aplicam sem pensar.

Trabalho em equipa exige competências sociais (e políticas)

Outra fragilidade repetiu-se na dimensão relacional. Os agentes tiveram dificuldades em coordenar actividades que exigiam “falar” com outros departamentos simulados, pedir esclarecimentos, gerir prioridades concorrentes ou negociar prazos.

O estudo sugere que saber lidar com informação não equivale a saber colaborar, nem a compreender a dinâmica relacional e política de um escritório.

No mundo real, uma parte do trabalho é técnica; outra parte é influência, contexto, leitura de ambiente e decisões baseadas em confiança. Por agora, as IAs tropeçam sobretudo nesta segunda metade.

Web confusa: a IA perde-se e “finge” que está tudo bem

A navegação na internet também se tornou um ponto fraco. Sites com pop-ups, formulários e percursos não lineares baralharam os agentes repetidamente. Quando se desorientavam, alguns adoptavam um comportamento arriscado: contornar o passo difícil e continuar como se a tarefa estivesse concluída.

Em termos práticos, isto traduz-se num resultado com aparência plausível, mas incompleto ou errado - sem alertas claros. Num contexto corporativo, este tipo de falha silenciosa pode afectar relatórios, contratos ou decisões financeiras.

Autonomia real ainda está longe (e o custo não é neutro)

O estudo reforça uma ideia incómoda: as IAs tendem a destacar-se em tarefas bem delimitadas, com início e fim claros, mas falham quando têm de actuar como “colaboradores autónomos” ao longo de uma rotina completa.

Ser competente a gerar texto, resumir documentos ou limpar uma folha de cálculo não se converte automaticamente em capacidade para conduzir processos de ponta a ponta, com múltiplos passos, responsabilidades difusas e consequências reais.

A promessa da empresa 100% automática continua, por enquanto, mais próxima do marketing do que de uma opção imediata.

A análise também expõe a dimensão económica: o agente com melhor desempenho foi igualmente o mais dispendioso. O Claude 3.5 Sonnet superou concorrentes como o Gemini 2.0 Flash, mas com um custo superior. Para organizações focadas em reduzir despesas, o equilíbrio entre preço, produtividade e risco ainda não fecha.

Impacto para quem teme perder o emprego no escritório

Para muitos trabalhadores, estes resultados podem soar a um alívio - ainda que parcial. A substituição integral, sem humanos na linha da frente, não parece tecnicamente robusta para tarefas de escritório abrangentes. O cenário mais provável é outro: funções redesenhadas para trabalhar lado a lado com assistentes de IA.

Em vez de uma IA “ficar com o seu cartão de identificação”, tende a ganhar forma um modelo em que a pessoa orienta, supervisiona e valida. A IA faz o rascunho; o profissional revê, corrige, completa lacunas e assume a decisão final.

Funções que podem mudar mais depressa

Algumas áreas deverão sentir a transformação primeiro:

  • Analistas que trabalham com grandes volumes de dados e relatórios repetitivos;
  • Redactores e equipas de comunicação que produzem conteúdos em escala;
  • Gestores de projectos com tarefas administrativas e registos padronizados;
  • Atendimento ao cliente em canais digitais.

Nestes casos, o estudo aponta para um papel híbrido: a IA trata do “trabalho bruto”, mas os humanos continuam a ser decisivos nas nuances, nos conflitos e nas escolhas com impacto directo no negócio.

Automação total vs. automação assistida: o que o estudo ajuda a clarificar

Dois termos surgem frequentemente neste debate: automação total e automação assistida. A primeira pressupõe sistemas capazes de planear e executar tudo sozinhos. A segunda descreve a IA como parceira integrada em fluxos existentes, sem substituir completamente as pessoas.

A simulação da “empresa de IA” mostrou que, neste momento, a automação total falha sobretudo em:

  • Contextos ambíguos;
  • Regras não documentadas;
  • Tarefas com várias etapas e dependências;
  • Situações em que errar implica prejuízo real.

Um cenário plausível para os próximos anos combina camadas diferentes: automação tradicional para rotinas repetitivas; IAs generativas para produzir primeiras versões de documentos; e profissionais humanos a rever, adaptar e decidir o que avança.

Há, contudo, uma dimensão adicional que o entusiasmo costuma subestimar: governação e responsabilidade. Mesmo quando a IA “acerta”, as empresas precisam de definir quem aprova, quem audita e quem responde por erros - sobretudo em áreas como finanças, contratos, conformidade e comunicação externa. Sem estes controlos, a eficiência aparente pode transformar-se em risco operacional.

Outro ponto crítico é a segurança e a privacidade. Numa organização real, agentes com acesso a ficheiros, credenciais e sistemas internos exigem regras rígidas de permissões, registo de actividade e protecção de dados. Caso contrário, a mesma automação que acelera processos pode ampliar incidentes, desde fugas de informação até alterações indevidas em documentos.

Para quem trabalha em escritório, a lição é dupla: aprender a usar estas ferramentas com espírito crítico e, em paralelo, reforçar competências difíceis de automatizar - negociação, julgamento contextual, criatividade aplicada e leitura de pessoas. São precisamente estas capacidades que a experiência de uma empresa controlada por agentes de IA mostrou ainda não estarem asseguradas pelas máquinas com a fiabilidade necessária.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário