Pensar en voz alta | De la página en blanco a la página en negro
Durante mucho tiempo, escribir —pensar— empezaba siempre igual: con una página en blanco.
Ese momento inicial no era solo una dificultad técnica. Era parte del proceso. Obligaba a ordenar ideas, a tomar decisiones, a asumir la incertidumbre de no saber exactamente qué decir ni cómo decirlo.
La inteligencia artificial altera ese punto de partida. Ya no empezamos desde el vacío, sino desde la abundancia. Basta una instrucción mínima para obtener un texto completo, coherente, bien estructurado y, en apariencia, suficiente.
Pero ese desplazamiento no elimina el problema. Lo transforma. Mariana Ferrarelli lo ha formulado con precisión al hablar de la “página en negro”. No se trata de la ausencia de contenido, sino de su exceso. No de la dificultad para empezar, sino de la dificultad para discriminar, seleccionar y dar sentido.
Antes, la carga cognitiva se concentraba en la producción. Había que construir el texto. Ahora, se desplaza hacia la evaluación. Hay que decidir qué hacer con un texto ya producido. Y esa tarea no es necesariamente más sencilla.
El problema es que el texto generado por IA no suele ser claramente incorrecto. Es verosímil. Funciona. Tiene forma de respuesta válida. Y precisamente por eso exige más criterio, no menos. En este nuevo escenario, el riesgo no es el error evidente, sino la aceptación rápida de lo plausible.
La “página en negro” introduce así una forma distinta de saturación. No es solo que haya mucho contenido. Es que ese contenido compite por relevancia sin ofrecer jerarquías claras. Todo parece razonable, todo parece encajar. Y, sin embargo, no todo tiene el mismo valor.
Esto tiene consecuencias directas en cómo aprendemos y cómo trabajamos. Si parte del aprendizaje consiste en atravesar la dificultad de organizar ideas, de seleccionar información y de construir un argumento, la externalización de ese proceso hacia la IA no es neutra. Reduce la fricción cognitiva. Y con ello, puede debilitar la formación del criterio. No porque deje de ser necesario pensar, sino porque cambia cuándo y cómo se piensa.
La tentación es clara: si el resultado ya está ahí, ¿para qué recorrer el proceso? Pero es precisamente ese proceso el que construye la capacidad de distinguir entre lo accesorio y lo esencial, entre lo correcto y lo significativo, entre lo suficiente y lo valioso.
Por eso, el problema de fondo no es la herramienta. Es la forma en que la incorporamos. La “página en negro” no es un fallo de la inteligencia artificial. Es una señal de que hemos cambiado el lugar donde se sitúa la exigencia intelectual. Ya no está en producir, sino en decidir. Y esa decisión —qué aceptar, qué descartar, qué reformular— no puede automatizarse sin coste.
Pensar hoy exige, quizá más que antes, resistir la comodidad de lo ya escrito.
En este contexto, recomiendo la lectura de Magro, C. (2026, marzo 27). 6 paradojas de la IA. El texto propone una lectura crítica de la incorporación de la inteligencia artificial en educación, situándola no como una ruptura radical, sino como una reiteración de patrones históricos propios de la tecnología educativa. Se denuncia una adopción acrítica de marcos discursivos promovidos por las grandes empresas tecnológicas, que reproducen promesas recurrentes de eficiencia, automatización y democratización del conocimiento. En este sentido, el autor identifica una “amnesia” estructural del sistema educativo, que tiende a olvidar experiencias previas de integración tecnológica sin reflexión suficiente. En conjunto, el texto no cuestiona la utilidad de la IA, sino el modo en que se está integrando, destacando la necesidad de una mirada crítica que atienda a sus efectos estructurales sobre el aprendizaje, el conocimiento y las prácticas educativas.