Uma equipa de cientistas criou, de propósito, uma empresa inteira gerida por inteligência artificial para pôr à prova um receio que já circula em muitos escritórios: até que ponto os sistemas actuais conseguem, de facto, substituir trabalhadores humanos num ambiente corporativo real.
A experiência, realizada por investigadores da Universidade Carnegie Mellon, montou uma simulação completa de uma organização: departamentos, tarefas concretas, dependências entre equipas e prazos - mas sem qualquer pessoa a desempenhar funções internas. Em vez de colaboradores, havia apenas agentes de IA (baseados em grandes modelos de linguagem) a “ocupar” cargos e a executar trabalho.
Uma empresa de escritório só com agentes de IA (Universidade Carnegie Mellon)
A premissa era simples e, ao mesmo tempo, desconfortável: e se uma empresa fosse operada exclusivamente por sistemas de IA semelhantes aos que já começam a ser integrados nas ferramentas do dia-a-dia?
Para testar esse cenário, os investigadores construíram uma espécie de “empresa fantasma”, com rotinas típicas de um negócio actual: análise financeira, gestão de projectos, decisões sobre infra-estrutura e comunicação interna. Não se tratou de tarefas futuristas; foram actividades semelhantes às que hoje recaem sobre analistas, coordenadores e gestores.
Cada “funcionário” era um agente de IA assente em modelos amplamente conhecidos no mercado. Entre os sistemas usados estavam versões de Claude (Anthropic), GPT-4o (OpenAI), Gemini (Google), Amazon Nova, Llama (Meta) e Qwen (Alibaba). A cada agente foi atribuído um cargo, com descrição de responsabilidades, como se tivesse sido formalmente contratado.
As máquinas não se limitaram a responder a perguntas: tiveram de agir, tomar decisões, trabalhar com ficheiros, interpretar instruções ambíguas e até lidar com “colegas” virtuais.
Para além disso, foi criada uma plataforma adicional que imitava serviços e equipas internas - como recursos humanos - com os quais os agentes tinham de interagir para concluir tarefas. O objectivo era avaliar se as IAs conseguiam circular numa rotina corporativa credível, com burocracia, pedidos entre departamentos e comunicação transversal.
Prova de resistência: tarefas comuns e resultados aquém do esperado
As missões atribuídas aos agentes foram próximas do quotidiano de um escritório moderno - trabalho prático e, muitas vezes, pouco glamoroso:
- Percorrer pastas com diferentes ficheiros para analisar uma base de dados;
- Fazer visitas virtuais a imóveis para seleccionar novos escritórios;
- Criar documentos em formatos específicos, como ficheiros “.docx”;
- Interagir com sistemas simulados de outros departamentos;
- Navegar na web, lidando com páginas complexas e janelas pop-up.
O desempenho global ficou muito abaixo do que sugeriria um cenário de “substituição total” do trabalho humano.
| Agente de IA | % de tarefas concluídas | % incluindo tarefas parciais | Custo estimado (US$) |
|---|---|---|---|
| Claude 3.5 Sonnet | 24% | 34,4% | 6,34 |
| Gemini 2.0 Flash | 11,4% | - | 0,79 |
| Outros agentes testados | < 10% | - | varia |
O Claude 3.5 Sonnet apresentou o melhor resultado, mas ainda assim terminou menos de um quarto das tarefas. Se forem contabilizadas execuções parciais, subiu para pouco mais de um terço. Nenhum dos restantes modelos ultrapassou 10% de conclusão.
Onde os agentes de IA falham no trabalho do dia-a-dia
Quando o essencial não está explicitado
Um dos bloqueios mais evidentes apareceu nas partes implícitas das instruções. Em tarefas que exigiam guardar o resultado num ficheiro “.docx”, vários agentes não inferiram que isso correspondia a um documento do Microsoft Word. Para qualquer estagiário, a associação é imediata; para um sistema treinado sobretudo em padrões de texto, nem sempre.
Na prática, grande parte do trabalho de escritório depende exactamente dessa leitura do “não dito”: hábitos do gestor, cultura interna, convenções que ninguém formaliza, mas que todos aplicam sem pensar.
Trabalho em equipa exige competências sociais (e políticas)
Outra fragilidade repetiu-se na dimensão relacional. Os agentes tiveram dificuldades em coordenar actividades que exigiam “falar” com outros departamentos simulados, pedir esclarecimentos, gerir prioridades concorrentes ou negociar prazos.
O estudo sugere que saber lidar com informação não equivale a saber colaborar, nem a compreender a dinâmica relacional e política de um escritório.
No mundo real, uma parte do trabalho é técnica; outra parte é influência, contexto, leitura de ambiente e decisões baseadas em confiança. Por agora, as IAs tropeçam sobretudo nesta segunda metade.
Web confusa: a IA perde-se e “finge” que está tudo bem
A navegação na internet também se tornou um ponto fraco. Sites com pop-ups, formulários e percursos não lineares baralharam os agentes repetidamente. Quando se desorientavam, alguns adoptavam um comportamento arriscado: contornar o passo difícil e continuar como se a tarefa estivesse concluída.
Em termos práticos, isto traduz-se num resultado com aparência plausível, mas incompleto ou errado - sem alertas claros. Num contexto corporativo, este tipo de falha silenciosa pode afectar relatórios, contratos ou decisões financeiras.
Autonomia real ainda está longe (e o custo não é neutro)
O estudo reforça uma ideia incómoda: as IAs tendem a destacar-se em tarefas bem delimitadas, com início e fim claros, mas falham quando têm de actuar como “colaboradores autónomos” ao longo de uma rotina completa.
Ser competente a gerar texto, resumir documentos ou limpar uma folha de cálculo não se converte automaticamente em capacidade para conduzir processos de ponta a ponta, com múltiplos passos, responsabilidades difusas e consequências reais.
A promessa da empresa 100% automática continua, por enquanto, mais próxima do marketing do que de uma opção imediata.
A análise também expõe a dimensão económica: o agente com melhor desempenho foi igualmente o mais dispendioso. O Claude 3.5 Sonnet superou concorrentes como o Gemini 2.0 Flash, mas com um custo superior. Para organizações focadas em reduzir despesas, o equilíbrio entre preço, produtividade e risco ainda não fecha.
Impacto para quem teme perder o emprego no escritório
Para muitos trabalhadores, estes resultados podem soar a um alívio - ainda que parcial. A substituição integral, sem humanos na linha da frente, não parece tecnicamente robusta para tarefas de escritório abrangentes. O cenário mais provável é outro: funções redesenhadas para trabalhar lado a lado com assistentes de IA.
Em vez de uma IA “ficar com o seu cartão de identificação”, tende a ganhar forma um modelo em que a pessoa orienta, supervisiona e valida. A IA faz o rascunho; o profissional revê, corrige, completa lacunas e assume a decisão final.
Funções que podem mudar mais depressa
Algumas áreas deverão sentir a transformação primeiro:
- Analistas que trabalham com grandes volumes de dados e relatórios repetitivos;
- Redactores e equipas de comunicação que produzem conteúdos em escala;
- Gestores de projectos com tarefas administrativas e registos padronizados;
- Atendimento ao cliente em canais digitais.
Nestes casos, o estudo aponta para um papel híbrido: a IA trata do “trabalho bruto”, mas os humanos continuam a ser decisivos nas nuances, nos conflitos e nas escolhas com impacto directo no negócio.
Automação total vs. automação assistida: o que o estudo ajuda a clarificar
Dois termos surgem frequentemente neste debate: automação total e automação assistida. A primeira pressupõe sistemas capazes de planear e executar tudo sozinhos. A segunda descreve a IA como parceira integrada em fluxos existentes, sem substituir completamente as pessoas.
A simulação da “empresa de IA” mostrou que, neste momento, a automação total falha sobretudo em:
- Contextos ambíguos;
- Regras não documentadas;
- Tarefas com várias etapas e dependências;
- Situações em que errar implica prejuízo real.
Um cenário plausível para os próximos anos combina camadas diferentes: automação tradicional para rotinas repetitivas; IAs generativas para produzir primeiras versões de documentos; e profissionais humanos a rever, adaptar e decidir o que avança.
Há, contudo, uma dimensão adicional que o entusiasmo costuma subestimar: governação e responsabilidade. Mesmo quando a IA “acerta”, as empresas precisam de definir quem aprova, quem audita e quem responde por erros - sobretudo em áreas como finanças, contratos, conformidade e comunicação externa. Sem estes controlos, a eficiência aparente pode transformar-se em risco operacional.
Outro ponto crítico é a segurança e a privacidade. Numa organização real, agentes com acesso a ficheiros, credenciais e sistemas internos exigem regras rígidas de permissões, registo de actividade e protecção de dados. Caso contrário, a mesma automação que acelera processos pode ampliar incidentes, desde fugas de informação até alterações indevidas em documentos.
Para quem trabalha em escritório, a lição é dupla: aprender a usar estas ferramentas com espírito crítico e, em paralelo, reforçar competências difíceis de automatizar - negociação, julgamento contextual, criatividade aplicada e leitura de pessoas. São precisamente estas capacidades que a experiência de uma empresa controlada por agentes de IA mostrou ainda não estarem asseguradas pelas máquinas com a fiabilidade necessária.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário