Por: Econ. Alberto Guerrero
Coordinador de Servicio al Afiliado CIG
Un estudio de PwC (2025) alerta que el 42 % del personal administrativo en América Latina ya usa herramientas de inteligencia artificial como parte de su jornada laboral, pero apenas el 11 % ha recibido capacitación formal. ¿Qué pasa cuando quienes están en la primera línea operativa adoptan IA sin entender su lógica? Lo que parecía una puerta al futuro puede convertirse en una trampa sutil que automatiza errores, perpetúa sesgos y reduce el pensamiento crítico.
Lo interesante es que estas herramientas no fallan por sí solas, fallan cuando las usamos mal. En muchas oficinas, la escena es común: alguien prueba por primera vez ChatGPT para redactar un correo, generar una minuta o resumir una reunión. El resultado suele ser “aceptable”, lo que crea una peligrosa ilusión de eficiencia. Se empieza a confiar ciegamente en lo que entrega la IA, sin filtros ni criterio. Como intentar armar un mueble con instrucciones borrosas, el resultado final puede parecer sólido… hasta que se sienta el primer cliente o directivo.
El Massachusetts Institute of Technology (MIT) lo confirma: en un experimento con profesionales de gestión documental, los errores más comunes no vinieron de la IA, sino del usuario. Al introducir “fricciones útiles” (como alertas para verificar contenido o botones de revisión obligatoria), la precisión de los documentos aumentó sin que el tiempo de entrega se viera afectado (MIT Sloan, 2024).
Este fenómeno tiene nombre: sesgo de automatización. Consiste en aceptar automáticamente lo que dice un sistema “inteligente”, incluso si contradice información evidente. No es solo un problema tecnológico, es un problema cultural. Cuando un asistente administrativo deja de cuestionar porque “la IA lo redactó”, hemos dejado de pensar. Es como seguir una receta sin probar la comida: puede verse bien, pero estar completamente mal sazonada.
Un segundo error común es el uso de prompts genéricos. Frases como “hazme un resumen” o “escribe un acta profesional” activan al modelo, pero sin darle contexto ni intención. El resultado suele ser vago, insípido, a veces incorrecto. Y aquí aparece un dato crítico: hasta el 46 % de las referencias generadas por IA son falsas, inventadas o descontextualizadas (Nature Human Behaviour, 2023). Las famosas “alucinaciones” de los modelos de lenguaje no son errores anecdóticos, sino limitaciones estructurales que requieren de supervisión humana.
Harvard Business Review (2025) investigó este fenómeno en áreas administrativas y descubrió algo preocupante: cuando las empresas implementan IA sin acompañamiento, se produce lo que llaman “penalización de competencia”. Es decir, los trabajadores que más dependen de la IA, pero menos entienden su funcionamiento, cometen hasta un 32 % más errores en procesos rutinarios.
Esto nos lleva a una analogía inevitable. Como las crías de tortuga que, atraídas por luces artificiales, caminan hacia la ciudad en lugar del mar, muchos trabajadores siguen la luz brillante de un asistente virtual sin saber si van en la dirección correcta. No por ingenuidad, sino por falta de entrenamiento.
El caso de una municipalidad en Colombia ilustra esto con claridad. Entusiasmados con la eficiencia de la IA, empezaron a utilizarla para redactar actas y oficios administrativos. Al principio, el equipo celebró la rapidez de los resultados. Pero en pocas semanas, los documentos comenzaron a mostrar errores de fondo: omisiones clave, lenguaje inadecuado y referencias inexistentes. ¿La causa? Nadie revisaba. El resultado fue la necesidad de corregir más de 100 archivos ya distribuidos. Solo al implementar mecanismos de revisión obligatoria —inspirados en las recomendaciones del MIT— lograron revertir la tendencia y recuperar la confianza en sus procesos internos.
A pesar de todo esto, el mensaje no es de alarma. La inteligencia artificial sí es una herramienta transformadora. De hecho, estudios recientes muestran que el uso estratégico de IA puede liberar hasta un 40 % del tiempo administrativo para tareas de mayor valor agregado, como análisis, mejora de procesos o atención al cliente. Pero para lograrlo, la IA no puede ser una excusa para dejar de pensar.
Una IA bien usada no es quien reemplaza a los humanos, sino quien los amplifica. No es piloto automático: es una bicicleta eléctrica. Puede impulsarte, sí. Pero tú eliges la dirección, la velocidad, y cuándo frenar. Y eso requiere no solo saber usar la herramienta, sino saber cuándo no usarla.
Si estás leyendo esto y ya has usado alguna IA para tu trabajo, hazte tres preguntas antes de confiar en su resultado:
1. ¿Lo revisé con mis propios criterios?
2. ¿Le di suficiente contexto?
3. ¿Podría explicarle a un colega por qué esto es correcto?
Si alguna respuesta es “no”, entonces aún estás en tu primera vez con la IA. Y eso está bien. Lo importante es que no sea la última… ni la peor.
Fuentes utilizadas
- MIT Sloan Review (2024). “Nudge Users to Catch Generative AI Errors”. https://sloanreview.mit.edu/article/nudge-users-to-catch-generative-ai-errors
- Harvard Business Review (2025). “The Hidden Penalty of Using AI at Work”. https://hbr.org/2025/08/research-the-hidden-penalty-of-using-ai-at-work
- Nature Human Behaviour (2023). “The Hallucination Problem in Large Language Models”. https://www.nature.com/articles/s41562-023-01657-z