Cuando la lucidez no da poder, sino incomodidad, el problema no está en los ojos, sino en el mundo que ha convertido su límite en norma.
VICHADA SÍ APRENDE
Aprender desde el territorio, para transformar la vida
- Quienes Somos
- MI PROFESOR DE MATEMÁTICAS
- MI PROFESOR DE FÍSICA
- ÁLBUM FOTOGRÁFICO DEL VICHADA
- UNA BIBLIOTECA PARA TODOS
- MATEMÁTICA GENERAL
- FÍSICA GENERAL
- QUÍMICA GENERAL
- BIBLIOTECA PARA DUMMIES
- Robin Hood
- CIENCIAS NATURALES
- EDUCACIÓN Y PSICOPEDAGOGÍA
- I.E. EDUARDO CARRANZA -facebook-
- VICHADA SÍ APRENDE -facebook-
4/11/26
El país de los ciegos: la tragedia de ver en un mundo que ha aprendido a no mirar
Cuando la lucidez no da poder, sino incomodidad, el problema no está en los ojos, sino en el mundo que ha convertido su límite en norma.
La inteligencia artificial no rompió la educación: dejó al descubierto lo que ya estaba roto
La llegada de la inteligencia artificial a las aulas no creó por sí sola la crisis educativa, pero sí la volvió imposible de esconder. Hoy, una máquina puede redactar tareas, resumir capítulos, responder preguntas y simular brillantez académica en pocos segundos. Frente a eso, la escuela tiene dos caminos: asustarse y prohibir, o revisar con honestidad qué estaba enseñando, qué estaba evaluando y qué significa realmente aprender en tiempos en que una respuesta correcta ya no es prueba suficiente de comprensión.
Durante mucho tiempo, la escuela vivió de una ilusión que parecía sólida. Se creyó que enseñar era entregar información, que aprender era repetirla con orden, y que evaluar consistía en medir qué tanto de ese contenido regresaba de manera aceptable en un examen, un cuaderno o un trabajo escrito. Ese modelo, con matices y diferencias según el contexto, logró sostenerse por décadas porque el acceso al conocimiento estaba relativamente concentrado: el libro, el profesor, el tablero, la biblioteca, el diccionario, el resumen fotocopiado. Incluso cuando apareció internet, la estructura profunda de la escuela no cambió demasiado. Lo digital entró muchas veces como adorno, no como transformación. Pero con la inteligencia artificial generativa ocurrió algo distinto. No llegó simplemente otra fuente de información. Llegó una herramienta capaz de producir respuestas completas, convincentes y, en muchos casos, suficientemente buenas como para engañar a una evaluación tradicional.
Ahí comenzó el temblor. No porque la inteligencia artificial sea un demonio pedagógico, sino porque mostró con crudeza algo que ya estaba ocurriendo: muchas actividades escolares no medían pensamiento, sino obediencia académica. Muchas tareas no exigían comprensión profunda, sino ensamblaje correcto. Muchos estudiantes no eran premiados por la calidad de sus preguntas, ni por la originalidad de sus ideas, ni por la solidez de sus argumentos, sino por la capacidad de ajustarse al formato esperado. Y cuando una máquina aprendió a hacerlo mejor y más rápido, el edificio entero empezó a crujir.
Por eso conviene decirlo con toda claridad: la inteligencia artificial no rompió la educación. Lo que hizo fue correr la cortina. Dejó ver que una parte importante del sistema escolar estaba apoyada en prácticas envejecidas, en evaluaciones superficiales y en una noción demasiado pobre del aprendizaje. Si una tarea puede ser resuelta por una herramienta automática sin que el profesor note la diferencia entre comprensión real y apariencia de comprensión, entonces el problema no está solo en la herramienta. Está, sobre todo, en el tipo de experiencia educativa que se estaba proponiendo.
El escándalo actual nace de una confusión antigua. Se confundió por demasiado tiempo el rendimiento con el saber. Un estudiante que entregaba a tiempo, que escribía con forma correcta, que repetía con limpieza las ideas del libro o del profesor, era considerado un buen estudiante. Y quizás lo era, en términos de adaptación escolar. Pero adaptarse a la escuela no siempre significa pensar. A veces significa obedecer bien. A veces significa aprender a detectar qué quiere escuchar la autoridad y devolverlo en el tono adecuado. A veces significa memorizar sin comprender, repetir sin elaborar, responder sin preguntarse nada. La escuela, en no pocos casos, premió más la prolijidad que la inteligencia, más la disciplina formal que el juicio crítico, más la respuesta cerrada que la curiosidad viva.
La inteligencia artificial entra justo en esa grieta. Como está diseñada para producir lenguaje plausible, puede realizar con notable eficacia muchas de las tareas que la escuela tradicional pide. Puede escribir un resumen, elaborar un ensayo básico, comparar conceptos, construir una introducción, corregir estilo, producir explicaciones ordenadas y hasta imitar cierta profundidad argumentativa. Si la actividad escolar consistía en eso, la herramienta tiene ventaja. No porque sea sabia, sino porque el umbral de exigencia era bajo. Y ahí es donde conviene hacer una pregunta incómoda: ¿cuántas veces la escuela llamó “aprendizaje” a una simple demostración de cumplimiento?
Esta pregunta no busca humillar al profesorado ni glorificar a la máquina. Busca abrir una conversación honesta. El problema no es que los estudiantes usen inteligencia artificial. El problema es que el sistema todavía no decide con suficiente claridad qué tipo de capacidades humanas quiere proteger, desarrollar y exigir en esta nueva época. Mientras eso no se resuelva, habrá confusión, miedo, castigos improvisados, prohibiciones débiles y una sensación constante de que el piso se mueve bajo los pies.
Sin embargo, la situación no debe leerse solo como amenaza. También puede ser una oportunidad extraordinaria. La inteligencia artificial obliga a la escuela a volver a las preguntas fundamentales. ¿Para qué enseñamos? ¿Qué vale la pena aprender cuando la información está disponible en segundos? ¿Qué diferencia existe entre saber algo y saber pensar con ello? ¿Qué papel le corresponde hoy al maestro? ¿Qué formas de evaluación siguen teniendo sentido? Estas no son preguntas técnicas. Son preguntas pedagógicas, filosóficas y éticas. Y quizá lo mejor que la inteligencia artificial ha hecho por la educación es forzar ese debate que se venía aplazando.
El oficio docente, en este contexto, no desaparece. Pero sí cambia. Pierde centralidad la figura del profesor como simple transmisor de contenidos, como repetidor autorizado de información que ahora cualquier estudiante puede consultar en múltiples fuentes. Gana importancia, en cambio, el profesor que diseña situaciones de aprendizaje, que plantea problemas significativos, que obliga a justificar, que escucha los razonamientos, que detecta vacíos, que acompaña procesos, que enseña a desconfiar de las respuestas demasiado cómodas. Dicho de otra manera: el docente deja de ser principalmente expositor y se vuelve cada vez más mediador del pensamiento.
Esto exige una transformación profesional seria. No basta con aprender a usar una plataforma o a escribir instrucciones para una herramienta. La incorporación de la inteligencia artificial en educación requiere criterio pedagógico. Un docente no necesita competir con la máquina en rapidez, ni en cantidad de información, ni en capacidad de redactar texto genérico. Lo que necesita es saber cuándo la herramienta puede ayudar, cuándo puede dañar, cuándo simplifica procesos útiles y cuándo, en cambio, reemplaza procesos formativos irrenunciables. Porque no toda automatización es pedagógicamente legítima. Hay atajos que ahorran tiempo. Y hay atajos que vacían el aprendizaje.
La clave está en distinguir entre delegar trabajo mecánico y delegar pensamiento. Que un estudiante use una herramienta para mejorar redacción, ordenar ideas o explorar ejemplos puede ser útil. Que la use para evitar el esfuerzo de comprender, relacionar, argumentar o tomar postura ya es otra cosa. La diferencia parece sutil, pero es enorme. No se trata de expulsar la inteligencia artificial del aula como si fuera una plaga, sino de impedir que se convierta en una prótesis mental permanente. La educación tiene la responsabilidad de formar personas capaces de usar herramientas sin entregarse a ellas.
Por eso el centro del debate no debería ser la detección del fraude, aunque ese asunto exista, sino el rediseño de la evaluación. Mientras la evaluación siga premiando productos terminados sin prestar atención al proceso, la inteligencia artificial tendrá el campo libre para disfrazar la ausencia de pensamiento. En cambio, cuando el aula valora el borrador, la reescritura, la discusión, la defensa oral, la explicación del camino seguido, la conexión con experiencias reales y el contraste entre varias perspectivas, cambia la naturaleza del trabajo escolar. La pregunta deja de ser “¿quién hizo este texto?” y pasa a ser “¿qué comprende realmente este estudiante sobre lo que presenta?”. Esa diferencia cambia todo.
Un texto impecable ya no puede ser el único criterio. Un ensayo bien escrito puede haber sido construido con ayuda intensa de una máquina. Pero una conversación profunda, una defensa argumentada, una interpretación situada, una comparación entre el texto y la experiencia, una pregunta original nacida del contexto, todo eso sigue revelando algo que ninguna automatización puede ofrecer por sí sola: la presencia del sujeto que piensa. La escuela del futuro inmediato tendrá que moverse hacia ahí, hacia formas de evaluación donde el estudiante no solo entregue un resultado, sino que dé cuenta de su proceso, de sus decisiones, de sus dudas y de sus razones.
Esta transformación no depende únicamente de la buena voluntad del docente individual. Sería injusto dejarlo solo frente a un cambio de esta magnitud. Las instituciones educativas necesitan construir acuerdos claros. Deben definir qué usos de la inteligencia artificial son aceptables, en qué actividades, con qué límites, con qué fines y bajo qué criterios de transparencia. No se trata de llenar el aula de reglamentos inútiles, sino de generar una cultura pedagógica coherente. Si en una institución cada profesor improvisa su propia relación con la inteligencia artificial, el mensaje que recibe el estudiante es confuso. Unos la tolerarán, otros la prohibirán, otros fingirán que no existe, y otros la adoptarán sin reflexión. El resultado será el caos.
Hace falta, entonces, liderazgo pedagógico. Hace falta conversación institucional. Hace falta formación docente sostenida, no talleres improvisados de moda. Hace falta reconocer que la inteligencia artificial no es un simple recurso tecnológico, sino un fenómeno cultural que está modificando la manera en que las personas leen, escriben, buscan, producen, dudan y aprenden. Ignorar eso sería tan torpe como rendirse ante ello.
También hay que hablar del riesgo más silencioso: la dependencia cognitiva. Cuando una persona se acostumbra a pedirle a una herramienta que piense por ella, empieza a atrofiarse una parte esencial de su vida intelectual. No de un día para otro, ni de manera espectacular, sino lentamente. Se reduce la paciencia para leer con detenimiento, se debilita la capacidad de sostener una pregunta difícil, se pierde tolerancia a la incertidumbre, se delega el esfuerzo de organizar ideas. Y pensar, en buena medida, exige precisamente lo contrario: demora, fricción, incomodidad, ensayo, error, revisión. El problema de fondo no es que una máquina ayude. El problema es que una persona renuncie a su oficio de entender.
Aquí la educación tiene una tarea profundamente humana. Debe enseñar que no toda respuesta rápida vale. Debe mostrar que la facilidad no siempre produce formación. Debe recordar que aprender no es solo obtener un resultado, sino transformarse en el proceso. Un estudiante que resuelve una tarea sin haber atravesado ninguna tensión cognitiva puede haber cumplido, pero no necesariamente ha aprendido. La inteligencia artificial hace más urgente esta distinción porque vuelve posible una simulación cada vez más perfecta del desempeño académico.
Ahora bien, esta discusión adquiere otra dimensión cuando se la piensa desde contextos sociales concretos. No todas las escuelas están en igualdad de condiciones. No todos los estudiantes acceden de la misma manera a las herramientas. No todos los docentes cuentan con formación ni con tiempo institucional para repensar sus prácticas. En territorios marcados por desigualdad, ruralidad, precariedad tecnológica o diversidad cultural, el debate no puede reducirse a la fascinación por la novedad. Tiene que preguntarse también por la justicia educativa. ¿La inteligencia artificial ampliará brechas o puede ayudar a reducir algunas? ¿Se convertirá en un privilegio de quienes ya parten con ventaja? ¿Podrá adaptarse a contextos locales o solo reproducirá miradas ajenas y sesgadas? ¿Servirá para fortalecer la autonomía o para imponer nuevas dependencias?
Estas preguntas son especialmente importantes en países como Colombia, donde la educación no puede pensarse de espaldas al territorio. No basta con traer discursos globales sobre innovación. Hay que mirar qué ocurre en las aulas reales, en las escuelas rurales, en las instituciones con sobrecarga laboral, en los entornos donde el acceso a internet es inestable o donde la diversidad lingüística y cultural exige respuestas contextualizadas. La inteligencia artificial puede ser útil, sí, pero solo si entra en diálogo con la vida concreta de las comunidades y no como un mandato tecnocrático que cae desde arriba. De lo contrario, en vez de democratizar el conocimiento, puede reforzar un modelo educativo todavía más dependiente, más homogéneo y más ajeno a la experiencia local.
En ese sentido, uno de los desafíos más grandes consiste en enseñar no solo a usar inteligencia artificial, sino a discutirla. Los estudiantes no deben ser meros consumidores de respuestas producidas por sistemas que no entienden. Deben aprender a interrogar la herramienta, a identificar sus límites, a reconocer sus sesgos, a verificar la información que ofrece, a comparar sus respuestas con otras fuentes y, sobre todo, a no confundirse: una respuesta bien redactada no es lo mismo que una respuesta verdadera, justa o pertinente. Esta alfabetización crítica será tan importante como aprender a leer y escribir en los términos clásicos, porque gran parte de la vida pública futura estará mediada por sistemas automáticos de producción de lenguaje e información.
Por eso el verdadero horizonte no es una escuela sin inteligencia artificial, ni una escuela entregada por completo a ella. El horizonte deseable es una escuela que recupere con fuerza el valor del pensamiento propio. Una escuela donde preguntar bien importe más que copiar rápido. Donde comprender valga más que repetir. Donde la palabra del estudiante no se mida solo por su forma, sino por la densidad de lo que logra decir. Donde el maestro no sea un vigilante angustiado, sino un acompañante exigente de procesos intelectuales y humanos. Donde la evaluación deje de ser una cacería de productos y se convierta en una exploración seria de la comprensión.
La educación tiene aquí una posibilidad de renacimiento. Lo que durante años fue una estructura centrada en la transmisión puede reorientarse hacia la construcción de criterio. Lo que antes se organizaba en torno al control puede abrirse más al diálogo. Lo que medía obediencia puede empezar a valorar autonomía. Lo que premiaba memoria aislada puede girar hacia interpretación, relación, creación y juicio ético. Nada de esto ocurrirá de manera automática. Requiere decisión institucional, formación, valentía pedagógica y una dosis importante de honestidad profesional. Pero es posible. Y, en realidad, es urgente.
Tal vez la mayor ironía de esta época sea que una máquina obligue a la escuela a volverse más humana. Más atenta a la voz singular del estudiante. Más comprometida con el pensamiento, y menos obsesionada con la simple entrega. Más interesada en la experiencia de aprender que en la estética de la respuesta. Más cuidadosa con los procesos que con los formatos. Más consciente de que el conocimiento no es un depósito de datos, sino una manera de habitar el mundo con inteligencia, sensibilidad y responsabilidad.
Quien mire este momento con pesimismo absoluto verá solo amenaza. Quien lo mire con ingenuidad tecnológica verá solo progreso. Ninguna de las dos miradas basta. La inteligencia artificial no salvará la educación por sí misma, pero tampoco la condenará necesariamente. Todo dependerá de la claridad pedagógica con que sea incorporada y del coraje que tenga la escuela para revisar sus propios hábitos. Porque el problema nunca fue solamente tecnológico. El problema era más hondo: durante demasiado tiempo se aceptó una educación que confundía saber con repetir, pensar con responder y aprender con cumplir.
Quizá ha llegado la hora de abandonar esas confusiones. Quizá la crisis actual no sea el final de la escuela, sino el final de ciertas comodidades escolares. Quizá no estemos presenciando la ruina de la educación, sino la ruina de una versión empobrecida de ella. Y eso, aunque incomode, puede ser una buena noticia.
Cierre
4/10/26
Efecto cobra
Efecto cobra: cuando una solución termina empeorando el problema
Hay ideas que nacen con la mejor intención, pero terminan produciendo el resultado contrario. A eso se le conoce como efecto cobra. Es una expresión muy útil para entender muchos errores en educación, política, economía e incluso en la vida diaria. En pocas palabras, el efecto cobra ocurre cuando se crea una regla, un premio o un castigo para resolver un problema, pero ese incentivo provoca conductas inesperadas que agravan la situación.
La imagen es sencilla: alguien ve un problema, diseña una solución rápida y cree que todo va a mejorar. Sin embargo, olvida algo fundamental: las personas no solo obedecen normas, también se adaptan a ellas, las interpretan, las aprovechan y, a veces, les dan la vuelta. Allí aparece el efecto cobra. No fracasa solo la medida; fracasa la manera de entender cómo funcionan los seres humanos.
Este concepto sirve para mirar con más cuidado muchas decisiones que parecen inteligentes sobre el papel, pero que en la práctica salen mal. Y lo más interesante es que no solo se aplica a gobiernos o grandes empresas. También aparece en colegios, familias, oficinas y comunidades.
En educación, por ejemplo, el efecto cobra aparece cuando se mide la calidad únicamente con cifras. Imaginemos una institución que exige a los docentes subir el porcentaje de aprobación porque cree que así mejora el rendimiento. La intención parece buena: menos estudiantes perdiendo, mejores resultados, mejores informes. Pero puede ocurrir algo distinto. Algunos docentes, presionados por mostrar números altos, bajan el nivel de exigencia, simplifican demasiado las evaluaciones o aprueban estudiantes sin que hayan aprendido lo necesario. El indicador mejora, pero el aprendizaje real empeora. El problema no desaparece: solo se disfraza.
Otro caso educativo se ve cuando se premia solo a quienes obtienen puntajes altos en pruebas estandarizadas. En apariencia, eso impulsa la excelencia. Pero también puede provocar que la enseñanza se reduzca a entrenar para el examen. Entonces los estudiantes aprenden a contestar preguntas, no a pensar; memorizan, pero no comprenden; responden, pero no transforman. El aula deja de ser un lugar de formación integral y se convierte en un centro de adiestramiento. El incentivo estaba dirigido al “buen resultado”, pero terminó empobreciendo el sentido de la educación.
También ocurre cuando se castiga duramente el error. Hay escuelas o familias que creen que el miedo garantiza disciplina y aprendizaje. Entonces el estudiante procura no equivocarse jamás. ¿Qué logra el sistema? Niños y jóvenes inseguros, poco creativos, temerosos de preguntar y reacios a intentar cosas nuevas. Se quería formar excelencia, pero se cultivó ansiedad. Se quiso producir responsabilidad, pero se sembró silencio. Ese también es un efecto cobra: una estrategia pensada para mejorar termina bloqueando el desarrollo.
En política, el fenómeno es todavía más visible. Un gobierno puede lanzar una medida para reducir un delito, por ejemplo imponiendo una meta numérica muy alta de capturas. Sobre el papel, eso parece firmeza y control. Pero si la presión institucional se concentra solo en mostrar resultados rápidos, algunos funcionarios pueden verse tentados a inflar cifras, perseguir a personas fáciles de capturar en lugar de estructuras realmente peligrosas, o producir “éxitos” aparentes que no resuelven el problema de fondo. La política se mide por estadísticas, no por justicia real. La obsesión por el número genera distorsión. La intención era mejorar la seguridad, pero el incentivo puede deformar la acción pública.
Algo parecido pasa cuando los gobiernos entregan subsidios o apoyos sin diseñar bien los criterios. Un programa social puede tener el propósito noble de ayudar a quienes más lo necesitan. Sin embargo, si el sistema castiga a quien mejora un poco su situación retirándole de inmediato toda ayuda, algunas personas pueden terminar prefiriendo mantenerse en la informalidad o no reportar ingresos para no perder el beneficio. No porque sean malas, sino porque el diseño del incentivo las empuja a ello. El problema no es la ayuda en sí, sino la manera en que está estructurada. Se quería aliviar la pobreza, pero se puede terminar atrapando a la gente en una dependencia mal diseñada.
En economía, el efecto cobra aparece con mucha frecuencia porque este campo está lleno de incentivos. Supongamos una empresa que decide pagar comisiones solo por cantidad de ventas. El objetivo es aumentar ingresos, y por eso premia a quien venda más. Parece razonable. Pero pronto ocurre algo: algunos vendedores empiezan a ofrecer productos a clientes que no los necesitan, ocultan información importante, prometen cosas imposibles o fuerzan cierres rápidos sin cuidar la relación a largo plazo. Durante un tiempo, las ventas suben. Después llegan las devoluciones, las quejas, la mala reputación y la pérdida de confianza. La empresa quería crecer, pero terminó dañando su imagen y debilitando su mercado.
Otro ejemplo económico es cuando una organización exige productividad extrema sin cuidar el bienestar de sus trabajadores. Se piensa que más presión dará más resultados. Sin embargo, el exceso de metas puede llevar al agotamiento, al ausentismo, al error constante y a la renuncia del personal más valioso. Se quería aumentar el rendimiento, pero se destruyó la energía humana que sostenía el trabajo. El sistema exprimió tanto el presente que arruinó el futuro.
Incluso en la vida cotidiana el efecto cobra es muy común. Un padre o una madre puede ofrecer dinero a un hijo por leer libros, pensando que así fomenta el hábito lector. Puede funcionar un tiempo. Pero también existe el riesgo de que el niño termine asociando la lectura solo con recompensa externa. Entonces lee para recibir algo, no por gusto, curiosidad o crecimiento. Cuando se acaba el premio, se acaba la lectura. La intención era sembrar amor por los libros, pero quizá se sembró dependencia del estímulo.
Lo mismo sucede cuando una persona decide ponerse una dieta extremadamente estricta para “controlarse mejor”. Durante unos días parece disciplinada, pero luego aparece ansiedad, culpa, desorden y atracones. La regla rígida, en vez de construir equilibrio, genera rebote. Se buscaba autocuidado, pero se creó una relación más conflictiva con la comida. El exceso de control produjo el descontrol que se quería evitar.
En las redes sociales también hay ejemplos claros. Una plataforma quiere aumentar la interacción, así que premia lo que genera más clics, más comentarios y más permanencia. Parece una decisión lógica de negocio. Pero el algoritmo termina favoreciendo contenido exagerado, polémico, superficial o engañoso, porque eso atrae atención más rápido que la información seria y equilibrada. La plataforma quería “más participación”, pero puede terminar promoviendo ruido, polarización y desinformación. Otra vez: el incentivo produce una consecuencia no prevista o no suficientemente pensada.
El efecto cobra enseña una lección muy importante: las personas responden más a los incentivos que a los discursos. No basta con que una norma tenga una intención noble. Tampoco basta con que un programa suene bien en un documento. Lo decisivo es preguntarse qué comportamientos reales puede estimular. Toda política, toda regla y toda estrategia debería pasar por una pregunta sencilla pero poderosa: ¿qué hará la gente para adaptarse a esto?
Esa pregunta cambia mucho las cosas. Obliga a mirar la realidad con menos ingenuidad. Obliga a reconocer que los seres humanos no funcionan como piezas de una máquina. Cada vez que se diseña una medida sin pensar en sus efectos secundarios, se abre la puerta al efecto cobra. Por eso las soluciones verdaderamente inteligentes no se limitan a castigar o premiar. También comprenden contextos, prevén trampas, escuchan a las personas y corrigen a tiempo.
En educación, esto significa que no se debe evaluar solo con números, sino también con procesos, comprensión, creatividad y crecimiento humano. En política, significa que una buena decisión no es la que luce fuerte en el discurso, sino la que mejora de verdad la vida colectiva. En economía, significa que la rentabilidad sin ética puede salir muy cara. Y en la vida cotidiana, significa que no toda solución rápida es una buena solución.
Tal vez por eso el efecto cobra sigue siendo una idea tan vigente. Nos recuerda que entre el problema y la solución hay algo decisivo: la conducta humana. Quien la ignora, diseña trampas sin querer. Quien la comprende, tiene más posibilidades de construir cambios reales.
En el fondo, el efecto cobra es una advertencia contra la simplicidad engañosa. Muchos problemas complejos no se resuelven con medidas apresuradas, castigos automáticos o premios mal pensados. Requieren inteligencia, observación, sensibilidad y capacidad de anticipar consecuencias. De lo contrario, la cura puede enfermar más que el mal original.
Dicho de manera más sencilla: el efecto cobra ocurre cuando se intenta arreglar algo, pero la forma de arreglarlo termina dañándolo más. Y eso, aunque suene irónico, pasa todos los días.





















