Cuanto más tardemos en aceptarlo, más irrelevante será lo que hoy llamamos formación profesional

Minimizar el cambio es, en este momento, más peligroso que exagerarlo.

Muchos creen que este cambio es uno más. Pero no lo es.

Hace unos días, después de una presentación sobre transformación curricular en tiempos de inteligencia artificial, varios colegas se me acercaron con un gesto ya familiar. Algunos con preocupación genuina, otros con una mezcla de escepticismo y fastidio. Uno me dijo: “Esto genera alarma. Ha habido muchos cambios tecnológicos y no han sido así. ¿Por qué tratar este como si fuera diferente?” Otro comentó que deberíamos centrarnos en reforzar lo que nos hace humanos, en vez de hablar tanto de lo que la IA va a reemplazar.

Y lo entiendo. Decir que el rol profesional como lo conocemos está siendo desmantelado por sistemas autónomos no es una noticia fácil de transmitir a estudiantes, ni mucho menos a quienes llevan años enseñando ese modelo. Pero justo eso es lo que me motivó a escribir esto.

Porque si seguimos diseñando carreras pensando en el mercado laboral de hoy, estamos cometiendo un error estructural. El estudiante que hoy empieza la universidad egresará en cinco años. Y ese mercado, en muchos sectores, ya no tendrá espacio para las habilidades blandas y duras que le estamos enseñando. No por falta de demanda, sino porque habrán dejado de ser diferenciadoras o incluso necesarias.

Este texto no nació como una advertencia tecnológica. Nació como un intento de proteger a quienes más van a pagar el precio de no ver venir el cambio: los estudiantes.

Lo paradójico es que muchos de los argumentos en contra de estas ideas vienen justamente de docentes que tienen un interés genuino en cuidar la formación de sus alumnos. Pero esa resistencia, en lugar de proteger al estudiante, termina defendiendo un modelo que ya no será sostenible frente a la velocidad del cambio.

No es solo otra tecnología: es una transformación estructural

Minimizar el cambio es, hoy, más peligroso que exagerarlo. La IA no es una nueva herramienta como Excel o PowerPoint. Estamos ante sistemas que ya deciden, diagnostican, codifican, redactan, asesoran. Y pronto gobernarán procesos complejos sin intervención humana constante.

Durante la misma conversación, un profesor escéptico comentó: “A mí también me hablaron del fin de los contadores cuando llegó el software contable, y aquí estamos”. Cuando conozca cuántos egresados fueron contratados este año sin conocimientos en automatización, se podría sorprender. Porque hoy, la mayoría de contadores ya no hacen contabilidad: validan lo que hace el sistema.

Durante la conversación, una profesora compartió un caso revelador. Había recibido el encargo de actualizar y reclutar nuevos perfiles para un cliente del sector logístico que operaba grúas industriales de gran escala. El puesto requería que una sola persona realizara el trabajo que antes hacían cinco, pero con una condición inusual: el candidato debía ser capaz de interactuar fluidamente con sistemas de inteligencia artificial y robots autónomos. Ningún operador tradicional de grúas cumplía con ese perfil. Tras explorar alternativas, descubrió que el perfil más adecuado no provenía del mundo técnico, sino del universo gamer. Finalmente, contrató a un jugador de videojuegos, cuya familiaridad con entornos virtuales y control de sistemas complejos resultó ser la combinación perfecta para el nuevo rol.

Decir que “siempre nos hemos adaptado” suena tranquilizador, pero ignora dos factores nuevos: la velocidad exponencial y el alcance transversal. Esta vez no hay una sola industria transformada. Son todas. Y no hay décadas para reaccionar. Hay, con suerte, unos pocos años.

Durante el inesperado debate mencioné una cifra que había quedado en mi memoria: el informe del WEF 2020 proyectaba que se perderían 85 millones de empleos, pero se crearían 97 millones. Era un escenario optimista, con un saldo positivo. Sin embargo, en 2023 el Foro Económico Mundial corrigió ese cálculo: la estimación bajó a 83 millones de empleos perdidos y solo 69 millones creados hacia 2027, lo que implicaba un saldo negativo. Ahora, el informe 2025 vuelve a modificar el panorama: se proyecta la creación de 170 millones de empleos nuevos hacia 2030, pero también la pérdida de 92 millones. Aunque el saldo vuelve a ser positivo, el verdadero problema es quién ocupará esos puestos.

El mismo informe advierte que 59 de cada 100 trabajadores necesitarán capacitación antes de 2030 para adaptarse al nuevo mercado laboral. De esos 59, solo 29 podrán mantenerse en sus roles actuales con reentrenamiento, 19 podrán ser reasignados a nuevos roles dentro de la misma organización, y 11 no recibirán la capacitación necesaria, lo que pone en riesgo su empleabilidad. Esto no solo revela una brecha de competencias, sino también una limitación de las organizaciones para gestionar la transición a tiempo. La cantidad de empleos ya no es el indicador principal: lo crítico es cuántas personas estarán listas para asumirlos.

La simulación de lo humano también se automatiza

Las tareas que hoy enseñamos —informes, análisis, gestión de procesos, planificación rutinaria— ya están siendo automatizadas. Y muchas habilidades blandas —como la comunicación asertiva o el liderazgo interpersonal— están siendo replicadas funcionalmente por la IA. No porque la IA sienta, sino porque puede simularlas de forma creíble, eficiente y sin desgaste emocional.

Algunos profesores manifestaron que finalmente todo es entrenado y dirigido por humanos y los humanos no permitirán que algunas tareas sean hechas por máquinas.

Durante años asumimos que las máquinas harían cálculos y los humanos aportarían lo emocional. Pero eso ya no basta. Las máquinas no sienten, pero lo simulan muy bien. Y en el mundo del trabajo, muchas veces eso es suficiente.

Lo que la IA no puede: juicio, estructura y legitimidad

Hoy se vuelve urgente enseñar habilidades personales más profundas: juicio moral autónomo, pensamiento estructural, visión ética aplicada. No para competir con la IA, sino para llenar el vacío que la automatización no puede resolver: la legitimidad.

Uno de los grandes cambios invisibles es cómo se toman las decisiones. La IA ya no solo ejecuta: decide. Clasifica, prioriza, recomienda, evalúa. Y lo hace con una lógica que puede ser eficiente, pero no siempre justa o explicable.

El juicio moral autónomo es la capacidad de intervenir en esas decisiones, no por intuición, sino por estructura ética. No basta con seguir la política. Hay que decidir cuándo no aplicarla.

Un nuevo liderazgo: de imponer procesos a diseñar sistemas confiables

El nuevo líder no dirige personas ni impone procesos. Diseña marcos de decisión donde humanos e IA interactúan de forma confiable. Su autoridad no proviene del carisma, sino de la coherencia del sistema que deja funcionando.

Supón que una IA, entrenada para asignar recursos escasos en una organización de salud pública, recomienda priorizar la contratación de médicos jóvenes en zonas rurales, argumentando que tienen menos riesgo de retiro anticipado, mayor productividad esperada y menor costo por año de servicio.

Desde la lógica del sistema, la decisión es óptima.

Pero el gestor humano observa que los médicos mayores —aunque menos eficientes en algunos indicadores— tienen vínculos comunitarios más sólidos, generan confianza entre poblaciones con bajo acceso a salud y funcionan como agentes de cohesión en contextos vulnerables.

La IA no está “equivocada”. Pero la decisión legítima no es puramente técnica. El líder debe optar por intervenir para aplicar un criterio cultural que no pudo estimarse en el modelo de optimización vigente y actualizar los nuevos parámetros para que el sistema automatizado tome en cuenta estas variables culturales en el futuro.

Eso permite generar un entorno donde la confianza no depende de quién lidera, sino de cómo están diseñadas las decisiones.

Y eso no lo puede hacer un sistema solo. Se necesita pensamiento sistémico, claridad de propósito y responsabilidad ética explícita.

Las relaciones también cambian: interacciones híbridas

Ya no es suficiente saber trabajar en equipo o comunicarse bien. En los nuevos entornos híbridos, donde humanos e inteligencias artificiales interactúan de forma constante, las relaciones dejan de ser lineales y previsibles. Operamos dentro de sistemas complejos, donde nadie comprende el todo, pero todos dependen de él, y donde las decisiones no emanan de una figura de autoridad, sino del diseño del sistema, sus algoritmos y los flujos de información que los alimentan.

En este contexto, las habilidades interpersonales más valoradas ya no serán las que nos hacen agradables o empáticos en el sentido convencional. Serán aquellas que permiten sostener cohesión simbólica sin jerarquías visibles: mantener alineamiento, claridad y sentido compartido en equipos sin una cabeza evidente, pero con una fuerte interdependencia operativa. También serán claves las capacidades para negociar entre agentes humanos y no humanos, lo que implica comprender cómo «razona» un sistema automatizado, traducir sus decisiones para distintos públicos y mediar tensiones entre la lógica algorítmica y la experiencia humana.

Además, será indispensable saber construir acuerdos en medio de la ambigüedad, cuando no hay reglas fijas ni responsabilidades claramente asignadas. Esto exige habilidades para facilitar conversaciones complejas, tomar decisiones en territorios sin precedentes y sostener la legitimidad sin depender del control formal. Y quizás lo más desafiante: mantener propósito compartido cuando no hay una narrativa unificada ni control total del proceso, lo que implica liderar desde el diseño de sentido, no desde la imposición de voluntad.

Este nuevo tipo de liderazgo no se basa en el carisma ni en el mando, sino en la capacidad de diseñar entornos de colaboración funcional entre humanos e IA, en sistemas distribuidos, adaptativos y en permanente transformación.

También cambian las habilidades duras

Muchas de las habilidades duras que hoy estructuran la formación profesional quedarán obsoletas. Ya no será necesario saber hacer en el sentido operativo, sino entender por qué se hace, para qué se hace y cómo diseñar sistemas que lo hagan bien. La ejecución manual será reemplazada por automatización. El valor estará en la arquitectura, no en la operación.

En gestión, por ejemplo, no bastará con dominar herramientas: cada vez serán menos necesarias. Lo que se requerirá es comprender la lógica de automatización, interpretar datos en su contexto algorítmico, evaluar sesgos sistémicos, diseñar flujos de decisión y gobernar tecnologías con criterios éticos.

Esto transformará la arquitectura del aprendizaje. Se reducirán las horas dedicadas a la ejecución técnica tradicional y se ampliará el foco en pensamiento sistémico, fundamentos de inteligencia artificial aplicada, gobernanza tecnológica y ética algorítmica. El pregrado tenderá a ser más corto. La formación continua será la nueva norma.

El nuevo liderazgo: menos puestos, más exigencia

Muchas gerencias operativas desaparecerán. No porque el liderazgo deje de ser necesario, sino porque será completamente rediseñado. Menos cargos jerárquicos, más exigencia estratégica para quienes permanezcan.

El liderazgo dejará de ser una posición jerárquica para convertirse en una función sistémica. No bastará con decidir. Habrá que garantizar que el sistema decida bien, incluso en ausencia de supervisión humana directa. Eso exigirá visión, diseño y rendición de cuentas a nivel estructural, no solo personal.

Corea no es la excepción: es la advertencia

Algunos citan a Corea del Sur como prueba de que la automatización no destruye empleo. Pero omiten el contexto. Corea rediseñó su sistema a tiempo. Según la OCDE, el 22 % de sus empleos están en alto riesgo de automatización y otro 35 % cambiará profundamente.

Por eso invierte masivamente en reconversión: programas como K-Digital Training y K-MOOC enseñan análisis de datos, ética algorítmica, gobernanza tecnológica. No refuerzan las competencias de siempre: las reemplazan.

Conclusión: enseñar hoy no es reciclar el pasado, es diseñar el futuro

Al finalizar el conversatorio, una intervención especialmente interesante invitó a revisar los planteamientos de Yuval Harari sobre inteligencia artificial.

Harari no la describe simplemente como una nueva «herramienta», sino como un «agente» con capacidad de aprender, tomar decisiones y moldear el comportamiento humano sin necesidad de conciencia ni emociones. En sus palabras, lo que hace a la IA tan disruptiva no es que pueda reemplazar músculos o cálculos, sino que puede emular habilidades cognitivas humanas clave —como el lenguaje, el juicio y la creación de narrativas— sin ser humana.

La advertencia es clara: por primera vez, enfrentamos una tecnología que puede competir con nosotros en el terreno que antes creíamos exclusivamente humano: el de tomar decisiones sobre otros humanos. Este profesor recomendó reunirse continuamente para redefinir acciones conforme vaya evolucionando la tecnología. Totalmente de acuerdo.

Si mi intervención permitió que estas voces sean oídas con más atención por sus colegas, habré cumplido mi misión.

La docencia no puede refugiarse en la experiencia pasada. Hoy no basta con formar personas que lideren personas. Necesitamos formar personas que diseñen sistemas confiables, que decidan con legitimidad y que integren humanos e IA con propósito común.

No se trata de aferrarse a “lo humano” como tabla de salvación frente al avance tecnológico. Se trata de redefinir con lucidez qué parte de lo humano seguirá siendo imprescindible en los entornos que ya están emergiendo.

Y cuanto más tardemos en aceptarlo, más irrelevante será lo que hoy llamamos formación profesional.

Tal vez no podamos transformar todo el sistema de golpe. Pero sí podemos empezar por una pregunta sencilla y urgente: ¿lo que enseñamos hoy seguirá siendo útil en cinco años?Formularla ya es un acto de responsabilidad. Escucharla, una muestra de respeto hacia quienes más dependen de nuestras decisiones: los estudiantes.

Escrito por Juan Miguel Galeas

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll to Top