Erros de IA em relatórios expõem novo risco corporativo: o “Workslop”
O uso crescente da inteligência artificial em relatórios e processos corporativos vem trazendo não apenas ganhos de produtividade, mas também um novo tipo de problema: o conteúdo malfeito por IA. Dois casos recentes ilustram esse fenômeno — um envolvendo a gigante de consultoria Deloitte, e outro, o crescente alerta sobre o chamado “AI workslop”.
Deloitte reembolsa governo australiano após relatório com erros gerados por IA
A Deloitte concordou em devolver parte do pagamento de um contrato com o governo da Austrália após um relatório técnico conter erros graves causados pelo uso de inteligência artificial. O documento, solicitado pelo Departamento de Emprego e Relações de Trabalho (DEWR), fazia uma revisão do sistema de verificação de conformidade do governo australiano — responsável por administrar benefícios sociais.
Segundo o Business Insider, o projeto, avaliado em 440 mil dólares australianos (cerca de R$ 1,55 milhão), foi concluído em junho de 2025. Mas a versão final, publicada em julho, incluía referências acadêmicas a autores inexistentes e até uma decisão judicial inventada. As falhas foram apontadas pelo pesquisador Chris Rudge, especialista em políticas sociais, o que levou o governo a solicitar correções.
A nova versão do relatório, publicada em outubro, removeu mais de uma dúzia de notas de rodapé inexistentes e corrigiu toda a bibliografia. Nela, a Deloitte revelou que utilizou “uma ferramenta baseada em modelo de linguagem de grande porte de IA generativa (Azure OpenAI GPT-4o)”, informação que não havia sido divulgada anteriormente.
Apesar dos erros, o governo australiano afirmou que as correções não alteraram as conclusões principais do relatório. Mesmo assim, o caso reacendeu o debate sobre a falta de transparência no uso de IA em documentos oficiais e a responsabilidade por erros gerados por sistemas automatizados.
O que é o “AI Workslop” — e como ele ameaça a produtividade
O episódio da Deloitte é apenas um exemplo de um fenômeno mais amplo, já identificado por pesquisadores e empresas: o chamado “AI workslop”, termo usado para descrever trabalhos malfeitos produzidos com auxílio de inteligência artificial.
Um estudo da Harvard Business Review resume o problema: ferramentas de IA permitem criar relatórios, apresentações e resumos sofisticados em poucos minutos, mas muitas vezes o conteúdo gerado é incompleto, impreciso ou superficial. O resultado? O esforço de correção e interpretação recai sobre quem recebe o material, e não sobre quem o criou.
Nos Estados Unidos, 40% dos profissionais corporativos afirmam ter recebido trabalhos malfeitos feitos com IA no último mês, segundo pesquisa do BetterUp Labs e do Stanford Social Media Lab. Cada colaborador gasta em média duas horas corrigindo esses erros — o que equivale a US$ 9 milhões por ano em custos de retrabalho para uma empresa com 10 mil funcionários.
Além da perda de tempo, o “workslop” prejudica relacionamentos profissionais. Colegas passam a enxergar os autores desses trabalhos como menos competentes ou confiáveis, comprometendo a reputação e a colaboração dentro das equipes.
Por que isso acontece?
De acordo com o MIT Media Lab, 95% das empresas ainda não conseguem medir o retorno real sobre o investimento em IA. Em muitos casos, as ferramentas são implementadas de forma apressada, sem metas claras ou processos de validação. O resultado é o oposto da eficiência prometida.
Para o especialista em produtividade Ryan Zhang, fundador da Notta, o problema não está na tecnologia, mas em seu uso: “A IA é poderosa quando aplicada a tarefas específicas, com objetivos bem definidos. Quando usada sem critério, ela multiplica erros em vez de resolver problemas.”
Já Hommer Zhao, CEO da WellPCB, lembra que a IA é uma “faca de dois gumes”: “Ela pode otimizar processos, mas precisa ser usada com cuidado. Sem supervisão humana, o risco de erros cresce exponencialmente.”
5 dicas para evitar o “workslop” com IA
- Comece devagar: teste a IA em tarefas pequenas e de baixo risco.
- Defina metas claras: saiba exatamente o que deseja alcançar com a automação.
- Integre gradualmente: aplique IA apenas onde o impacto pode ser imediato e mensurável.
- Monitore e ajuste: avalie resultados constantemente e refine o processo.
- Mantenha o toque humano: revisão, contexto e criatividade continuam insubstituíveis.
Liderança consciente é essencial
Especialistas alertam que cabe à liderança definir diretrizes e expectativas sobre o uso responsável da IA. Segundo Jamie Aitken, vice-presidente da Betterworks, “os líderes precisam definir claramente como a IA deve ser usada para reduzir, e não aumentar, o retrabalho”.
O executivo Bryan Robinson complementa: “A IA pode acelerar tanto a excelência quanto a mediocridade. Tudo depende de como ela é aplicada e supervisionada.”
Conclusão
Casos como o da Deloitte mostram que, mesmo entre grandes corporações, o uso descuidado da inteligência artificial pode gerar consequências financeiras e reputacionais sérias. À medida que a IA se torna onipresente, o desafio das empresas será equilibrar inovação e responsabilidade — garantindo que a tecnologia sirva como aliada da qualidade, e não como atalho para o erro.