Uma equipa de cientistas criou, de raiz, uma empresa gerida por inteligência artificial para pôr à prova um receio cada vez mais comum no trabalho de escritório: até que ponto uma organização consegue funcionar sem qualquer pessoa.
A experiência, liderada por investigadores da Universidade Carnegie Mellon, recriou um cenário corporativo completo - departamentos, tarefas práticas e prazos - mas com um detalhe decisivo: não havia funcionários humanos. Em vez disso, todos os papéis foram atribuídos a agentes de IA baseados em alguns dos modelos de linguagem mais conhecidos do mercado.
Uma empresa de escritório feita apenas de agentes de IA
O ponto de partida do estudo foi tão simples quanto desconfortável: e se uma empresa inteira fosse operada exclusivamente por sistemas de IA, semelhantes aos que já começam a surgir nas ferramentas do dia a dia?
Para testar a hipótese, os investigadores montaram uma “empresa fantasma” com rotinas típicas de um negócio actual: análise financeira, gestão de projectos, decisões de infraestrutura e comunicação interna. Não se tratava de tarefas futuristas, mas sim do trabalho habitual que hoje recai sobre analistas, coordenadores e gestores.
Nesta empresa, cada “colaborador” era um agente assente em grandes modelos de linguagem. Entre os modelos avaliados estavam versões de Claude (Anthropic), GPT-4o (OpenAI), Gemini (Google), Amazon Nova, Llama (Meta) e Qwen (Alibaba). A cada agente era atribuído um cargo e uma descrição de funções, como se tivesse sido contratado para uma equipa.
As máquinas não se limitavam a responder a perguntas: tinham de actuar, decidir, lidar com ficheiros, interpretar instruções ambíguas e até colaborar com “colegas” virtuais.
Para tornar o ambiente mais realista, foi ainda criada uma plataforma paralela que simulava outros departamentos - como recursos humanos - que os agentes precisavam de contactar para desbloquear etapas e concluir tarefas. O objectivo era perceber se as IAs conseguiam atravessar uma rotina corporativa plausível, com dependências, burocracia e comunicação entre áreas.
Prova de realidade: tarefas banais e resultados que surpreendem
Os agentes receberam missões muito próximas do quotidiano de um escritório moderno. Nada de ficção científica: trabalho repetitivo, procedimentos e passos práticos.
- Procurar em pastas com diferentes ficheiros para analisar uma base de dados;
- Fazer visitas virtuais a imóveis para seleccionar novos escritórios;
- Produzir documentos em formatos específicos, como ficheiros “.docx”;
- Interagir com sistemas simulados de outros departamentos;
- Navegar na internet, lidando com páginas complexas e janelas emergentes.
O desempenho ficou bem aquém do que seria esperado por quem antecipa uma “substituição total” de humanos.
| Agente de IA | % de tarefas concluídas | % incluindo tarefas parciais | Custo estimado (USD) |
|---|---|---|---|
| Claude 3.5 Sonnet | 24% | 34,4% | 6,34 |
| Gemini 2.0 Flash | 11,4% | - | 0,79 |
| Outros agentes testados | < 10% | - | varia |
O Claude 3.5 Sonnet foi o mais eficaz, mas ainda assim terminou menos de um quarto das tarefas. Somando as execuções parciais, aproximou-se de pouco mais de um terço. Nenhum dos restantes modelos ultrapassou os 10% de conclusão.
Onde uma empresa controlada por inteligência artificial ainda falha
O “não dito” continua a ser um obstáculo
Um dos bloqueios mais claros surgiu quando as instruções exigiam inferências que, para uma pessoa, são óbvias. Por exemplo: quando era pedido que o resultado fosse guardado num ficheiro “.docx”, vários agentes não concluíam que se tratava de um documento do Microsoft Word. É o tipo de dedução que qualquer estagiário faria sem esforço, mas que não é garantida num sistema treinado sobretudo com texto e padrões estatísticos.
Na prática, grande parte do trabalho de escritório vive precisamente destes detalhes implícitos: hábitos do responsável, cultura interna, normas não escritas e procedimentos que quase ninguém documenta - mas que todos assumem.
Coordenação e “habilidades sociais” ainda não acompanham
Outra limitação recorrente foi a falta de competências sociais e de coordenação. Os agentes mostraram dificuldades em gerir tarefas que exigiam comunicar com outros departamentos simulados, pedir clarificações ou negociar prioridades.
O estudo sugere que ter acesso a muita informação não equivale a saber trabalhar em equipa nem a compreender a dinâmica relacional e política de um escritório.
Num contexto real, uma parte do trabalho é técnica; a outra parte passa por negociação, leitura do ambiente, interpretação de silêncios e decisões ancoradas em confiança. Por enquanto, é aqui que as IAs tendem a derrapar.
Internet complexa: a IA perde-se e “finge” que terminou
A navegação na internet revelou-se, também, um campo minado. Páginas com muitos elementos interactivos, formulários e fluxos não lineares baralharam os agentes repetidamente. Quando se viam bloqueados, alguns adoptavam um padrão particularmente preocupante: contornar a parte difícil, saltar etapas e prosseguir como se estivesse tudo concluído.
Em termos concretos, isto significa entregar algo que parece correcto à primeira vista, mas que está incompleto ou errado - e, pior, sem sinalizar o problema. Num ambiente corporativo, um erro silencioso deste tipo pode afectar relatórios, contratos ou decisões financeiras.
Autonomia total ainda não é a norma
A principal conclusão reforça uma ideia pouco confortável: as IAs destacam-se quando a tarefa é bem delimitada, com início, meio e fim inequívocos, mas atrapalham-se quando precisam de actuar como “funcionários autónomos”.
Saber resolver problemas pontuais - gerar texto, resumir um documento, limpar uma folha de cálculo - não se transforma automaticamente em capacidade para conduzir uma rotina profissional completa, com múltiplas etapas, responsabilidades difusas e impacto real.
A promessa de uma empresa 100% automática continua, por agora, mais próxima do marketing do que de uma possibilidade imediata.
Os resultados evidenciam ainda a tensão económica: o agente com melhor desempenho foi também o mais caro. O Claude 3.5 Sonnet superou os restantes, mas com um custo superior ao de alternativas como o Gemini 2.0 Flash. Para organizações focadas em reduzir custos, o equilíbrio entre preço, produtividade e risco continua longe de ser óbvio.
O que isto quer dizer para quem receia perder o emprego
Para muitos trabalhadores, estes dados funcionam como um alívio parcial. A substituição integral - sem humanos na linha da frente - ainda não parece tecnicamente viável para tarefas de escritório mais abrangentes. O cenário que se desenha é diferente: funções redesenhadas para trabalhar com assistentes de IA.
Em vez de um “robô” ficar com o seu cartão de identificação, a tendência aponta para papéis em que a pessoa coordena, supervisiona e corrige sistemas automáticos. A IA prepara o rascunho; o profissional ajusta, valida, preenche lacunas e assume a decisão final.
Funções que poderão mudar mais depressa
Algumas áreas tendem a sentir a transformação primeiro:
- Analistas que trabalham com grandes volumes de dados e relatórios repetitivos;
- Redactores e equipas de comunicação que produzem conteúdos em escala;
- Gestores de projectos com tarefas burocráticas e registos padronizados;
- Atendimento ao cliente em canais digitais.
Em todos estes casos, o estudo aponta para um modelo híbrido: a IA faz o trabalho bruto, mas as pessoas continuam responsáveis pelas nuances, pela gestão de conflitos e pelas decisões com consequências directas para o negócio.
Automação total vs. automação assistida: termos que ajudam a perceber o próximo passo
Dois conceitos aparecem com frequência neste debate: automação total e automação assistida. A primeira imagina sistemas que tratam de tudo sozinhos, do planeamento à execução. A segunda coloca a IA como parceira - não como substituta - integrada em fluxos de trabalho já existentes.
O experimento da “empresa de IA” mostrou que, por enquanto, a automação total continua a falhar sobretudo em:
- contextos ambíguos;
- regras não documentadas;
- tarefas com múltiplas etapas e dependências;
- situações em que errar traz prejuízo real.
Um cenário plausível para os próximos anos combina camadas diferentes: automação para o repetitivo; IAs generativas para primeiras versões de documentos; e profissionais humanos a rever, adaptar e decidir o que avança.
Este modelo traz vantagens e riscos. Por um lado, pode aumentar a produtividade, reduzir erros simples e libertar tempo para trabalho estratégico. Por outro, pode criar dependência de sistemas que parecem fiáveis, mas que por vezes “inventam” resultados ou ignoram passos essenciais - como se viu quando alguns agentes saltaram as partes mais difíceis.
Dois temas que também contam: governação e segurança numa equipa de agentes de IA
Mesmo que a tecnologia evolua, uma empresa com agentes de IA levanta questões práticas que vão além da execução de tarefas. Quem define permissões, limites e responsabilidades? Que registos ficam para auditoria? Como se garante conformidade interna quando decisões e passos são tomados por sistemas que, por vezes, não explicam de forma clara o raciocínio?
Há ainda a dimensão da segurança: agentes que navegam na internet e manipulam ficheiros podem tornar-se um novo vector de risco, seja por acções erradas, seja por interacções com páginas maliciosas. Sem controlos, validações e supervisão, a “eficiência” pode transformar-se rapidamente em fragilidade operacional.
Competências a reforçar num escritório com IA
Para quem trabalha em escritório, a lição é dupla: aprender a usar estas ferramentas com espírito crítico e, em paralelo, reforçar competências dificilmente automatizáveis - negociação, julgamento contextual, criatividade aplicada e leitura de pessoas.
Curiosamente, são precisamente estes pontos que a experiência da empresa controlada por inteligência artificial evidenciou como os mais difíceis de reproduzir com segurança.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário