«Critico, luego pienso»: IA y pensamiento crítico en educación
Mentes libres en tiempos automatizados
La intersección entre IA y pensamiento crítico se ha convertido en un tema central en el debate educativo actual. La IA irrumpe en aulas y hogares con promesas de personalizar el aprendizaje y facilitar el acceso al conocimiento. Sin embargo, pero también plantea inquietudes profundas sobre cómo afecta a la capacidad de pensar críticamente de las nuevas generaciones.
No es la primera vez que una tecnología suscita alarma en cuanto a su impacto cognitivo. Desde la Antigüedad, se temió que avances como la escritura, la imprenta o incluso las calculadoras debilitaran las facultades mentales humanas. Estas preocupaciones no carecen de fundamento; mal utilizadas, las herramientas tecnológicas pueden mermar habilidades intelectuales que deberían cultivarse y preservarse.
En pleno siglo XXI, con estudiantes que crecen rodeados de dispositivos inteligentes y asistentes digitales, surge el imperativo de reflexionar sobre cómo la IA influye en el desarrollo del pensamiento crítico. En un foro reciente de la UNESCO, expertos coincidieron en que la IA ha de ser una herramienta para fortalecer el pensamiento crítico y la interacción humana, nunca un reemplazo de estas dimensiones profundamente humanas.
IA y desarrollo del pensamiento crítico en estudiantes
La adopción acelerada de herramientas de IA en educación ha generado beneficios evidentes, como el acceso inmediato a información y la automatización de tareas repetitivas. Sin embargo, también impone desafíos fundamentales: uno de los más urgentes es garantizar que los estudiantes sigan desarrollando un pensamiento crítico sólido en una era de respuestas instantáneas.
Vivimos rodeados de información y respuestas a un solo clic. Por eso, formar alumnos capaces de analizar, cuestionar y reflexionar se vuelve una tarea urgente. Estudios internacionales revelan brechas preocupantes en este ámbito. Por ejemplo, solo el 29% de los universitarios se sienten preparados para aplicar el pensamiento crítico en situaciones reales y apenas un 15% de los alumnos de 15 años en países de la OCDE alcanza niveles altos de resolución de problemas y pensamiento crítico. Estos datos sugieren que nuestras escuelas y universidades aún tienen pendiente la tarea de enseñar a pensar de manera sistemática.
Figura: Porcentaje de adolescentes de EE.UU. que han usado ChatGPT para ayudar en sus tareas escolares, comparando 2023 (13%) y 2024 (26%). El uso de herramientas de IA entre estudiantes se ha duplicado en solo un año, lo que ilustra la creciente dependencia de estas tecnologías en el aprendizaje.
¿Aliados o atajos cognitivos?
La popularización de sistemas de IA generativa como ChatGPT ejemplifica esta nueva realidad. Las encuestas muestran que más de una cuarta parte de los adolescentes ya utiliza chatbots para sus trabajos escolares. Si bien estos asistentes ofrecen apoyo inmediato, existe el riesgo de que los alumnos “deleguen” sus procesos de pensamiento en la máquina. Investigaciones recientes empiezan a documentar este efecto: una encuesta internacional halló que cuanto más confianza tiene una persona en la capacidad de una IA para realizar una tarea, más tiende a “soltar las riendas” de su pensamiento crítico.
En otras palabras, creer que “la IA es más lista que yo” o “lo hace mejor que yo” puede llevar a un uso acrítico de sus respuestas. En cambio, cuando los usuarios desconfían o reconocen sus limitaciones, activan más sus habilidades críticas, evaluando y mejorando las respuestas generadas. Este hallazgo indica que el impacto de la IA en el pensamiento del estudiante no es uniforme. El impacto depende en gran medida de cómo se utilice: de forma pasiva, como atajo cognitivo, o de forma activa, como herramienta sujeta a escrutinio.
Desde una perspectiva positiva, cabe señalar que la IA también puede convertirse en aliada del pensamiento crítico si se integra con intención pedagógica. Lejos de prohibir su uso, algunos educadores proponen aprovecharla para enseñar a pensar sobre el pensamiento. Por ejemplo, hacer que los alumnos analicen las respuestas de un chatbot, identifiquen sus posibles errores, sesgos o vacíos, y así ejerciten su criterio.
La UNESCO propone este enfoque: usar las nuevas aplicaciones de IA generativa para despertar una reflexión crítica en el alumnado. Se trata de ir detectando prejuicios y sesgos, tanto de los creadores como del propio modelo. Este análisis permite fortalecer el desarrollo del pensamiento crítico de los estudiantes y, al mismo tiempo, reforzar su formación humanística. Bajo esta luz, la IA se convierte en un objeto de experimentación reflexiva. Es una oportunidad para que los alumnos aprendan cómo cuestionar la información, contrastar fuentes y entender las limitaciones de la automatización del conocimiento.
Riesgos cognitivos y culturales de la sobredependencia de la IA
Apoyarse excesivamente en la IA conlleva riesgos cognitivos que numerosos expertos comienzan a documentar. Un estudio con cientos de participantes vinculados al ámbito académico y profesional detectó una correlación significativa entre alta dependencia de herramientas de IA y menores habilidades de pensamiento crítico, evidenciada por una caída notable en las puntuaciones de test de pensamiento crítico entre los usuarios más frecuentes de IA (r = -0,68, p < 0,001)
El mecanismo detrás de este fenómeno es la delegación cognitiva o cognitive offloading. Al saber que una máquina puede encargarse de cierta tarea mental, las personas reducen su esfuerzo intelectual y dejan de practicar sus “músculos” cognitivos. Con el tiempo, esta disminución de ejercicio mental puede llevar a una auténtica atrofia de capacidades (la evaluación crítica, la resolución de problemas o la atención sostenida).
De hecho, el mencionado estudio halló que quienes utilizan con mucha frecuencia la IA mostraban dificultades para evaluar información críticamente y resolver problemas de forma reflexiva, en comparación con quienes recurrían menos a estas herramientas. La dependencia habitual de la IA para recordar datos o tomar decisiones inquieta a muchos usuarios jóvenes, quienes reconocen que podrían estar perdiendo habilidades de pensamiento debido al uso constante de estos asistentes digitales.
Cansancio mental y sesgos de automatización
A nivel psicológico, esta sobredependencia puede inducir lo que se conoce como sesgo de automatización: la tendencia a confiar ciegamente en las soluciones propuestas por una máquina, asumiendo que siempre serán correctas. Esto mina la actitud crítica y la vigilancia cognitiva con que normalmente confrontaríamos una fuente de información. Como resultado, el estudiante acostumbrado a obtener respuestas inmediatas de la IA puede dejar de cuestionar la veracidad o precisión de esas respuestas, volviéndose un receptor pasivo del conocimiento.
A largo plazo, los investigadores advierten que esta dinámica podría desembocar en una “desprendizaje” (un unlearning) de la capacidad de resolver problemas de forma autónoma. Esto ocurre, sobre todo, en tareas cotidianas de baja exigencia donde es más tentador dejar todo en manos de la tecnología. Irónicamente, los más jóvenes —nativos digitales— podrían ser los más afectados. Un estudio sugiere que los usuarios de 17 a 25 años mostraban mayor dependencia de las IA y menores puntuaciones de pensamiento crítico que grupos de más edad. Esto sugiere que el contexto generacional y la exposición temprana a estas herramientas influyen notablemente.
Del sesgo automatizado al empobrecimiento cultural
Desde un plano cultural y antropológico, la sobredependencia de la IA plantea otros peligros sutiles pero de gran calado. Uno de ellos es la posible homogeneización del pensamiento. Las IA generativas suelen estar entrenadas con masivos conjuntos de datos globales, lo que tiende a reflejar patrones dominantes de información (principalmente en idioma inglés y desde perspectivas de regiones dominantes). Si estudiantes de todo el mundo emplean las mismas herramientas para obtener respuestas “prefabricadas”, podríamos asistir a una disminución de la diversidad de ideas y enfoques en las aulas.
De hecho, estudios sobre el uso de IA en tareas creativas encontraron que la asistencia de estas herramientas puede conducir a soluciones convergentes y menos variadas, reduciendo la riqueza de puntos de vista en contextos educativos. Esto es especialmente preocupante en términos antropológicos: la cultura de cada comunidad se nutre de sus propias narrativas, lenguajes y formas de razonar. Si las narrativas locales y las maneras autóctonas de resolver problemas quedan eclipsadas por las sugerencias estandarizadas de un algoritmo, se corre el riesgo de una pérdida de identidad cultural en los procesos de aprendizaje.
¿Un mundo con menos diversidad intelectual?
Otra arista cultural es el aplanamiento del conocimiento: cuando los estudiantes se acostumbran a aceptar respuestas de IA sin profundizar, pueden dejar de valorar los contextos históricos, éticos o sociales de ese conocimiento. La automatización del conocimiento amenaza con desplazar la capacidad de los pueblos para construir sus propias narrativas y modelos de entendimiento del mundo.
En términos prácticos, esto significa que si no se incentiva la reflexión crítica, las próximas generaciones podrían carecer de las herramientas intelectuales para cuestionar la información, discernir verdades de falsedades (vital en la era de la desinformación) y tomar decisiones autónomas. La agencia humana —es decir, la capacidad de decidir y pensar por uno mismo— podría verse mermada en favor de decisiones dictadas por sistemas algorítmicos opacos.
Como advierten analistas de la UNESCO, cuanto más poder de decisión delegamos en sistemas de IA no regulados, más se reduce la autonomía humana.Esto solo puede evitarse si diseñamos la tecnología deliberadamente para ampliar nuestra agencia, en lugar de suplantarla. Ignorar estos riesgos podría llevarnos a un futuro donde la uniformidad algorítmica y la comodidad cognitiva debiliten dos pilares esenciales del progreso humano:
la diversidad cultural y el pensamiento crítico independiente.
El valor educativo del pensamiento crítico
En la era de la automatización del conocimiento, podría parecer tentador relegar en las máquinas todo aquello que huela a esfuerzo intelectual. Después de todo, si una IA puede responder en segundos a preguntas factuales o incluso redactar ensayos básicos, ¿por qué invertir tiempo en habilidades humanas difíciles de medir?
La respuesta desde el mundo educativo es clara. Las habilidades humanas —y en particular el pensamiento crítico— son las que nos definen como aprendices y ciudadanos en sentido pleno, y las que nos permitirán aprovechar la IA sin perder nuestra esencia. Mientras más contenido y tareas pueda manejar la IA, más importante se vuelve aquello que no puede automatizarse fácilmente. La capacidad de contextualizar el conocimiento, de cuestionar sus implicaciones, de innovar y de tomar decisiones éticas informadas. En este sentido, el pensamiento crítico no pierde relevancia ante la IA, sino que la incrementa.
Pensar bien: el mayor valor diferencial
Los foros internacionales sobre el futuro del trabajo y la educación señalan que las competencias humanas superiores serán el valor diferencial en la economía y la sociedad dominadas por la tecnología.
- El Foro Económico Mundial, por ejemplo, ubica al pensamiento crítico (también descrito como pensamiento analítico) y la resolución de problemas en el tope de la lista de habilidades que más crecerán en demanda de aquí a 2025. Esto refleja que, incluso en un mundo donde la automatización gana terreno, las empresas y comunidades buscarán personas capaces de pensar por sí mismas, detectar problemas complejos y hallar soluciones creativas.
- La OCDE y otros organismos hablan de las habilidades del siglo XXI, entre las cuales destacan, junto al pensamiento crítico, la creatividad, la colaboración y la inteligencia emocional. Son capacidades intrínsecamente humanas que complementan —y no compiten con— la inteligencia artificial. De hecho, informes recientes enfatizan que si bien la IA puede hacerse cargo de muchas tareas, la ingenuidad humana, la empatía y el juicio ético permanecen irremplazables.
Entre el contenido y el criterio
En el ámbito educativo, esto se traduce en revalorizar el propósito de la escuela. Ya no es solo transmitir contenidos (que hoy abundan en línea), sino formar criterios. El conocimiento memorístico o procedimental puede delegarse en gran medida a las máquinas. Sin embargo el saber hacer preguntas, el saber conectar conceptos y el saber discernir información válida de la dudosa, son aprendizajes que cobran mayor peso.
La UNESCO, en su visión para la educación en la era de la IA, subraya que la autonomía y el pensamiento crítico del educando son bienes que debemos proteger.
“La educación es y debe seguir siendo un acto profundamente humano arraigado en la interacción social”, declara Stefania Giannini, subdirectora de Educación de la UNESCO.
Ni la mejor aplicación tecnológica puede sustituir el diálogo, la pregunta desafiante del profesor o la epifanía intelectual que surge de la reflexión personal. Preservar lo humano en la educación implica garantizar que la tecnología esté al servicio de nuestras metas formativas, y no al revés.
Por ello, UNESCO advierte contra un entusiasmo desmedido por introducir IA sin ton ni son en las aulas, No debemos confundir los medios con los fines. La meta no es llenar la escuela de aplicaciones novedosas aún no probadas. La meta es ayudar a las personas a desarrollar una comprensión más clara de cuándo, por quién y con qué fines es apropiado usar (o no usar) estas tecnologías.
En otras palabras: el pensamiento crítico es la brújula educativa. Gracias a él, estudiantes y docentes podrán navegar un mundo automatizado sin perder el rumbo ¿cómo? Sabiendo decidir qué debe hacer la máquina y qué es irrenunciablemente humano.
Educar para no delegar el pensamiento
La relación entre inteligencia artificial y pensamiento crítico en la educación es, en última instancia, un espejo de cómo concebimos el futuro de la coexistencia entre humanos y máquinas. Desde una visión antropológica, nos vemos obligados a definir qué rasgos queremos preservar y cultivar como esencialmente humanos en medio de la revolución tecnológica. El pensamiento crítico emerge, sin duda, como uno de esos rasgos imprescindibles: es la chispa que nos permite cuestionar el status quo, imaginar alternativas y mantener el control de nuestro destino intelectual. Si la IA representa la automatización del conocimiento, el pensamiento crítico representa la autonomía de la mente humana.
Como sociedad, afrontamos el reto de no caer en la complacencia de la respuesta fácil. La riqueza cultural y cognitiva de la humanidad se ha construido sobre la diversidad de ideas, el debate y la reflexión profunda. Una sobredosis de IA mal encauzada podría adormecer esas habilidades, pero estamos a tiempo de trazar un camino diferente. Se vislumbra un modelo educativo en el que los estudiantes aprenden a cabalgar junto a la IA, pero con las riendas firmemente en sus manos. Donde un alumno puede preguntar a un algoritmo, sí, pero luego se pregunta a sí mismo: “¿Estoy de acuerdo con esta respuesta? ¿Qué falta? ¿Qué consecuencias tiene?”. En ese diálogo constante entre la mente humana y la máquina, el pensamiento crítico actúa como árbitro y guía.
La UNESCO y otros líderes educativos nos recuerdan que debemos devolver la agencia al alumnado y recordarle que seguimos al mando de la tecnología. La IA no es un destino inevitable al que debamos adaptarnos pasivamente. La IA es una herramienta poderosa que podemos y debemos orientar según nuestros valores y objetivos. Formar a las nuevas generaciones en pensamiento crítico es dotarlas de un compás moral e intelectual en medio de la abundancia informativa y la automatización. Es inculcarles la convicción de que siempre conserven el rol de pilotos, no de simples pasajeros, en el viaje digital.
Conclusión
En conclusión, el pensamiento crítico en la era de la inteligencia artificial no es un lujo ni una reliquia. Es la piedra angular para una educación verdaderamente humana. Permite que la IA se convierta en lo que debe ser: un aliado que amplifica nuestras capacidades sin eclipsar nuestra humanidad pensante. Si logramos este equilibrio, habremos transformado un posible dilema en una sinergia fecunda.
Educar para un mundo con IA significa, en el fondo, educar para que lo humano siga protagonizando su propia historia. Con mente clara, creatividad vibrante y conciencia crítica, incluso —y especialmente— cuando compartimos el aula con inteligencias artificiales.