Ignacio Arriaga · 31/01/2026

¿Va a destruir la IA nuestra capacidad de aprender?

¿Va a destruir la IA nuestra capacidad de aprender?

Índice

A colación de una newsletter que escribí hace un par de semanas sobre el comportamiento de los nuevos gigantes tecnológicos acerca de la IA, recibí este correo electrónico de uno de mis profesores de la Universidad que reproduzco literalmente:

Buenas Iñaki,

Espero que todo te vaya bien. He leído el artículo, los suelo leer todos, y me ha gustado mucho ya que pone de relieve uno de los muchos problemas que están generando los LLMs. Al hilo de esta problemática te quería contar el destrozo que están ocasionando en las escuelas de informática donde su abuso está proliferando y ya es una plaga como la de la heroína de los 70 y 80.

La capacidad de desarrollo de cualquier actividad educativa es perfecta, y considerando que el objetivo de una escuela es construir los cimientos básicos, es lógico que estos sistemas lo hagan muy bien. Pero el problema para un estudiante es que se ha confundido el resultado con el proceso y si existe 'algo' que evita el proceso pues ya está.

Lo que llevo viendo en la escuela desde hace tres años es un deterioro de las capacidades de abstracción, codificación y en definitiva de programación muy alarmante en los estudiantes.

El abuso en etapas tempranas del aprendizaje de estas herramientas les está robando la capacidades de concentración y conocimiento, todo está en un prompt, y como una buena droga les crea un espejismo de conocimiento que no tienen.

Como muestra un botón, la asignatura de Sistemas Inteligentes por su práctica ha pasado de unos ratios de aprobados del 60% a unos de 15% y ya candidata a ser asignatura compensatoria. Y esto por que nos hemos visto obligados a evaluar el laboratorio con máquinas aisladas para evitar el uso de la IA y que modifiquen su propio código. Este año de 25 alumnos de los 16 más o menos han ido siguiendo todas las etapas del laboratorio tan solo 3 lo han superado. De estos tres no todo su código compilaba. Un desastre.

En fin , perdona la chapa, pero es que este tema me tiene preocupado por qué como dices en tu artículo todo esto bebe de fuentes 'humanas' y las están secando ... Incluso los manantiales que son los estudiantes.

Nada, felices año nuevo y un abrazo.

Primero, un disclaimer

Es probable que os estéis planteando que la persona que me mandó este correo electrónico sea un negacionista de la IA y una especie de ludita. Pero para vuestra información, ha sido profesor de Inteligencia Artificial desde hace 30 años y había programado redes neuronales antes de que la muchos de los que leemos esto hubiéramos nacido. Así que podéis descartar esa idea.

Cómo aprender cuando ya tienes todas las respuestas

A partir de ahora nos vamos a enfrentar a una generación que va a tener todas las posibles respuestas a las preguntas de sus profesores al alcance de la mano.

Una posible respuesta al email que pasó por mi cabeza es que quizás estén aprendiendo algo que no sea útil en el futuro. Pero realmente lo que se enseña a un ingeniero en la carrera es a aprender en el futuro. Y el aprendizaje lleva unido un cierto esfuerzo. Si ese esfuerzo desaparece, es muy difícil que se produzca ningún tipo de aprendizaje.

¿Estamos preparando a la gente para cosas a las que no se van a enfrentar en el futuro? Por supuesto, pero eso siempre ha sido así en la educación y no convierte la experiencia de aprender en algo fallido.

La educación actual es perfecta para el Chatbot

Un chatbot está pensado para darte una respuesta completa e instantánea a la pregunta qué estás haciendo. La idea es reducir al máximo el esfuerzo cognitivo de la persona que pregunta y el aprendizaje se crea precisamente por ese esfuerzo cognitivo.

El problema es doble, porque no solamente no aprendemos, sino que tenemos la ilusión de que estamos aprendiendo porque conseguimos nuestros objetivos. En este artículo hablan amplísimamente sobre el tema.

El problema es que la educación actual es, en muchos casos, transaccional , el objetivo es la nota y no tanto el aprendizaje. Cuando la educación tiene esa forma, no podemos quejarnos de que el estudiante utilice los chatbots: son la herramienta que se alinea perfectamente con su objetivo.

¿Cómo se podría evitar esto?

La primera idea que tenemos que tener clara es que la gente muy joven no toma muy buenas decisiones. Si dejásemos a un niño decidir por sí mismo qué quiere hacer todo el rato probablemente acabaría viendo TikTok 24 horas al día y matándose de una sobredosis de azúcar.

Por lo que pedir a la gente que está aprendiendo simplemente que no utilicen la IA porque es poco ético o va a afectar a su aprendizaje, no va a surtir efecto. De hecho ya hay estudios más o menos serios como este en los que se prueba que la IA sin control daña el proceso de aprendizaje. Pero, la realidad, es que un uso controlado de los LLM, puede ayudar (y mucho) al aprendizaje.

Un estudio reciente de Harvard publicado en Nature demuestra que un tutor de IA, diseñado para el aprendizaje, consigue que los estudiantes aprendan más del doble que con clases presenciales de aprendizaje activo y en menos tiempo. Los estudiantes también reportaron sentirse más motivados y comprometidos.

¿Cuál es la diferencia? ChatGPT está diseñado para ser útil: su objetivo es reducir tu esfuerzo cognitivo dándote la respuesta más completa posible. El tutor de Harvard estaba diseñado para enseñar: guiaba a los estudiantes paso a paso, gestionaba la carga cognitiva, daba feedback personalizado y –esto es crucial– no cantaba la respuesta a la primera.

El chatbot comercial y el tutor educativo usan la misma tecnología base, pero sus objetivos son opuestos. Uno elimina el esfuerzo; el otro lo dosifica de forma óptima.

Esto sugiere que la solución no pasa por prohibir la IA (buena suerte con eso), sino por diseñar herramientas que promuevan el aprendizaje en lugar de evitarlo. Un buen ejemplo sería este proyecto de Google que convierte los libros de texto en formatos interactivos. Aquí , Sergio San Juan (que sabe mucho más que yo sobre aprendizaje) cuenta como usar la IA para aprender siendo adultos.

En resumen

El problema de este tipo de tecnologías es que no podemos medir el impacto que va a tener su uso en una generación hasta pasados unos años. Hay distintas tendencias pero mucha gente está de acuerdo en que el uso intensivo de dispositivos móviles o tablets en niños, sobre todo si utilizan determinadas aplicaciones, es nefasto. Pero hemos tardado años en darnos cuenta y en que la alerta llegase a la población general.

Y convertir a una generación de jóvenes en adultos no funcionales porque han hecho demasiado uso de la IA es algo que no nos podemos permitir.

Si sabes lo que significa el número 83333, esta newsletter es para ti *

* Si no lo sabes pero te interesa el mundo del software: debes suscribirte y lo descubrirás inmediatamente.

Lo que dicen algunos de los suscriptores
  • 5 estrellas

    A mí me resulta imposible leerme todas las newsletters a las que estoy suscrito (que no son demasiadas) pero Disaaster es una de las pocas cuya lectura semanal es obligatoria para mí.

    Juan Pablo Tejela, Metricool

  • 5 estrellas

    Ignacio Arriaga en su newsletter te va a contar las verdades del barquero, sin estruendo, a través de ejemplos concretos, explicando el cómo y el por qué.

    Eduardo Manchón, Mailtrack

  • 5 estrellas

    Disaaster es mi newsletter de referencia en el mundo del SaaS. Contenidos muy directos y aplicables, todos los aspectos relacionados con crear y hacer crecer productos digitales y SaaS, desde la experiencia y sentido crítico del gran Ignacio Arriaga.

    Juan Carlos Cortizo, Product Hackers

  • 5 estrellas

    Si te dedicas a crear productos con software en esta newsletter encontrarás contenido super valioso y bien explicado, directo y al grano

    Jose Florido, Freepik