Creíamos que la inteligencia artificial iba a catapultar la productividad en nuestras organizaciones. Sin embargo, informes como el ‘Total Economic Impact’ de Forrester para IBM, que prometían un ahorro significativo del tiempo en gestión de incidencias, han ignorado una verdad crucial: la calidad del resultado final. En lugar de ello, estamos enfrentando una explosión de «workslop»: entregables generados por IA que parecen correctos, pero son superficiales, imprecisos o completamente erróneos.
Costes ocultos de la productividad aparente
Un revelador estudio de BetterUp Labs y Stanford Social Media Lab destaca que el 40 % de los empleados en Estados Unidos ha recibido contenido defectuoso generado por IA solo en el último mes. Este problema equivale a un 15,4 % de todo el trabajo que se debe revisar, generando un costo promedio de 186 dólares por empleado. En una empresa de 10,000 personas, esto suma hasta 9 millones de dólares al año. Además, cada trabajador invierte casi dos horas diarias para corregir errores, fomentando incluso un nicho profesional dedicado únicamente a rescatar este «workslop».
Erosión de la confianza y fricción interna
Los entregables defectuosos no solo generan costos, sino que también afectan la moral de los empleados. Un impresionante 53 % de los trabajadores reporta sentirse molesto, mientras que un 38 % se siente confuso al recibir estos trabajos. Según Forbes, la mitad de los empleados perciben a quienes envían «workslop» como menos creativos y fiables. En equipos inmersos en la transformación digital, esta erosión de la confianza puede ralentizar la colaboración y afectar negativamente la cultura organizacional.
Cuándo funciona la IA… y cuándo no
El informe GenAI Divide del MIT sostiene que un 70 % de los trabajadores prefiere utilizar IA para comunicaciones rápidas y análisis sencillos. Incluso Google confiesa que un 25 % de su código proviene de herramientas generativas; sin embargo, el tiempo ahorrado se reinvierte en revisiones. Para complicadas tareas que necesitan memoria histórica, adaptación continua y juicio crítico, un abrumador 90 % prefiere el talento humano. Estudios de Carnegie Mellon y Duke revelan que la IA falla en un 70 % de las asignaciones sin supervisión estricta.
Estrategias para un uso sensato
- Definir protocolos de revisión: Establecer roles y criterios claros para filtrar y corregir material generado por IA.
- Asignar la IA a tareas rutinarias: Reservar el trabajo creativo, estratégico o de alto riesgo a profesionales.
- Capacitar en habilidades del futuro: Formar equipos en pensamiento crítico, detección de sesgos y verificación de datos.
- Medir calidad, no solo velocidad: Integrar métricas de precisión y valor real en los cuadros de mando.
- Fomentar un liderazgo ágil: Adaptar procesos y flujos de trabajo según el aprendizaje continuo del equipo y la tecnología.
El éxito en cualquier estrategia tecnológica no reside solo en adoptar herramientas de IA, sino en diseñar engranajes claros donde la máquina asista sin suplantar el juicio humano. Solo de esta forma podremos transformar la promesa de la innovación empresarial en resultados tangibles y sostenibles.
¿Estamos listos para equilibrar velocidad y precisión en nuestra próxima etapa de transformación digital?
Fuentes:
- Rubén Andrés, Xataka (14 Oct. 2025): “Pensábamos que el trabajo generado por la IA…”
- BetterUp Labs & Stanford Social Media Lab, “AI-Generated Content Study”, 2025
- “The Hidden Costs of AI-Generated Content”, Harvard Business Review, 2024
- “GenAI Divide Report”, MIT, 2025
- Estudio conjunto Carnegie Mellon – Universidad de Duke, 2025
- Sarah Perez, Forbes, “How AI-Generated Work Is Changing Team Dynamics”, mayo 2025
- The Wall Street Journal, “Employees Waste Hours Correcting AI Mistakes”, mayo 2025


