La delegación silenciosa del criterio en la era de la inteligencia artificial
La inteligencia artificial no elimina nuestra capacidad de decisión. Pero sí modifica las condiciones en las que decidimos. Y en ese cambio, ocurre algo clave: desaparece la fricción. La fricción de pensar, dudar, contrastar, no siempre es cómoda, pero cumple una función esencial: construir criterio. Cuando esa fricción se reduce constantemente, ganamos eficiencia. Pero podemos perder algo más difícil de medir: la capacidad de sostener una decisión propia.
Hay algo que ya cambió en la forma en que tomamos decisiones. No ocurrió de forma abrupta. No fue una sustitución evidente. Fue un desplazamiento progresivo. Primero empezamos a usar sistemas de inteligencia artificial como apoyo. Luego como referencia. Y en muchos casos, hoy, como punto de partida.
La diferencia parece menor, pero no lo es. Porque cuando una decisión ya no comienza en nosotros, sino en una sugerencia externa, lo que cambia no es solo el proceso. Cambia el lugar desde donde decidimos.
De hecho, la mayoría de las conversaciones sobre inteligencia artificial se enfocan en sus capacidades: qué puede hacer, qué tan precisa es, cuánto optimiza procesos. Pero hay una dimensión menos visible: ¿qué está pasando con nuestro criterio cuando la usamos?
No es evidente porque todo sigue funcionando. Las respuestas son mejores, las decisiones son instantáneas y los resultados, en muchos casos, más eficientes. Y sin embargo, algo comenzó a desplazarse.
Cómo comienza la delegación: En general, no inicia con decisiones críticas. Empieza en lo cotidiano: aceptar una respuesta sin cuestionarla, reformular menos y validar más, sentir que ya está bien así más rápido, preferir sugerencias antes que decidir desde cero. Cada uno de estos gestos, por separado, parece irrelevante. Pero en conjunto, dibujan un patrón: una reducción progresiva del esfuerzo de decidir.
Nicholas Carr, en su ensayo ¿»Is Google Making Us Stupid?» (The Atlantic, 2008), advertía cómo las tecnologías digitales han reconfigurado nuestra mente, haciendo difícil la concentración profunda: «Mi mente se distrae después de dos o tres páginas… siento que arrastro mi cerebro errante de vuelta al texto». La IA acelera esto, eliminando la fricción cognitiva esencial para criterio propio. En «The Shallows» (2010), Carr argumenta que internet fomenta el pensamiento superficial, erosionando la reflexión.
Por su parte,Tristan Harris, cofundador del Center for Humane Technology y exdiseñador de Google, enfatizó que desplegamos «la tecnología más poderosa e incontrolable sin freno», redefiniendo el rol humano de decidir a validar. Harris critica a los líderes tecnológicos que «pretenden dominar la inteligencia para dominar todo.»
El problema no es la tecnología: La inteligencia artificial no elimina nuestra capacidad de decisión. Pero sí modifica las condiciones en las que decidimos. Y en ese cambio, ocurre algo clave: desaparece la fricción. La fricción de pensar, dudar, contrastar, no siempre es cómoda, pero cumple una función esencial: construir criterio. Cuando esa fricción se reduce constantemente, ganamos eficiencia. Pero podemos perder algo más difícil de medir: la capacidad de sostener una decisión propia.
Daniel Kahneman, Nobel de Economía 2002 y padre de la economía del comportamiento, afirma que la IA aprenderá más rápido que humanos, superando en decisiones empresariales pronto. En «Noise: A Flaw in Human Judgment» (2021), con Olivier Sibony y Cass Sunstein, detalla sesgos y «ruido» en juicios, proponiendo «higiene decisoria» para reducirlos, pero advierte sobre la delegación ciega.
También, Frank Martela, filósofo de la Universidad Aalto, en estudio de 2025 en AI and Ethics, concluye que IA generativa cumple tres condiciones del libre albedrío: intención orientada a objetivos, decisión autónoma y control de acciones. «La IA no tiene brújula moral a menos que se le programe una», urge Martela, planteando implicancias morales y jurídicas.
De decidir a validar: En este contexto, aparece un cambio sutil pero profundo: dejamos de decidir y empezamos a validar. Es decir, la decisión no se origina en nosotros, se nos presenta y nuestra función pasa a ser aceptarla o ajustarla. Esto no implica un problema inmediato. Pero sí redefine el rol humano en el proceso.
Un informe del Pew Research Center (2025) revela que 3 de cada 4 estadounidenses aceptan IA en tareas diarias como horarios o análisis, pero rechazan en personales como pareja o religión. Solo 25% ve beneficios «altos»; la mayoría teme que debilite la creatividad y las relaciones. La UNESCO, en su Recomendación sobre Ética de la IA (2021, actualizada), exige auditabilidad, trazabilidad y transparencia para evitar conflictos con derechos humanos.
Una transición estructural: Lo que vivimos no es solo una mejora tecnológica. Es una transición en la estructura de la decisión. Y como toda transición estructural, no se manifiesta primero en lo grande. Se manifiesta en lo cotidiano. En pequeñas delegaciones que, acumuladas, terminan definiendo cómo pensamos, cómo elegimos y cómo actuamos.
En profesiones como periodismo o educación, editores delegan resúmenes a IA, reduciendo el esfuerzo creativo. El Foro Económico Mundial (2023) subraya la necesidad de equilibrar la automatización con las habilidades críticas como pensamiento analítico. Kahneman nota preferencia por líderes «asertivos e instintivos», pero IA podría superar eso sin sesgos humanos.
Dimensión
Decisión Humana Pura
Decisión con IA Delegada
Tiempo
Lento, reflexivo
Rápido, eficiente
Sesgos
Alto «ruido»
Algorítmicos amplificados
Responsabilidad
Clara, personal
Difusa, simbólica
Creatividad
Alta, original
Baja, validatoria
La pregunta que queda abierta: la pregunta que me hago es ¿qué está pasando con nuestra capacidad de decidir al usar la AI?. Porque en esta transición, la diferencia va a estar en algo más difícil de observar: la capacidad de desarrollar y conservar criterio.
En conclusión, no se trata de dejar de usar IA. Sería irreal. Se trata de no dejar de observarnos mientras la usamos. Porque lo que se delega sin conciencia no solo facilita decisiones, también puede empezar a definirlas. Cultivar fricción intencional —cuestionar outputs, contrastar fuentes, decidir sin prompts— es clave. Expertos como Carr proponen desconexión; Harris, regulación; Martela, brújula moral; Kahneman, higiene decisoria. Yo recomiendo diseñar condiciones conscientes de decisión: saber cuándo usar IA, cuándo cuestionarla y cuándo decidir sin ella. No como intuición, sino como práctica deliberada.
Porque lo que hoy entrenamos en lo cotidiano, será lo que nos permitirá sostener criterio cuando la inteligencia artificial no solo nos asista… sino nos iguale o incluso nos supere.
Dra. Mireya Rodriguez
Experta en gobernanza ética, transformación digital y CEO de Vortex AI Solutions