¿Qué impacto tendrá la inteligencia artificial en la educación?

¿Qué impacto tendrá la inteligencia artificial en la educación?

The growing popularity of artificial intelligence (AI) software, capable of generating images, sound and even text in a matter of seconds, is opening up a debate on technological transformation. In this February 2023 image, a teacher in A Coruña, Spain, gives a lesson in a classroom where technology, for the time being without artificial intelligence, is ubiquitous.

(José Álvarez Díaz)

La creciente popularidad de los programas de inteligencia artificial (IA), que en los últimos meses se han ido mostrando cada vez más capaces de generar, en pocos segundos, imágenes, vídeos, música, código de programación informática e incluso textos de todo tipo, con resultados que en muchas ocasiones aparentan tener coherencia y sentido –y en muchas otras no–, está dando lugar a un reguero de fascinación y de inquietud, sobre todo entre los artistas y creadores, en todo el mundo.

Lo que hacen las IA actuales es a veces tan espectacular y convincente que cuesta no sentir que tiene que ser obra de una entidad consciente, que entiende lo que se le pide y comprende lo que elabora para respondernos. Desde luego no es así, pero para el público general de pronto parece que estemos ante el estallido de una tecnología revolucionaria, llena de posibilidades, promesas y también peligros que podrían transformar el mundo.

Puede que ocurra algún día, aunque ese momento está más lejos de lo que esta expectación repentina hace imaginar. Lo que ha ocurrido en los últimos meses, sobre todo, es que la tecnología actual, bastante extendida y conocida por todos los investigadores, quienes hasta ahora experimentaban con ella de puertas adentro, de pronto ha empezado a salir a la luz, no sólo para presentarla en sociedad, despertar interés y atraer inversores, sino para que sus programas interactúen con la gente y puedan “entrenarse” con millones de peticiones y usuarios a la vez, una cantidad masiva de actividad y de información que ninguna empresa podría haber conseguido para sus IA de otra manera.

Desde el año pasado, generadores de imágenes a partir de comandos escritos, como Midjourney, Stable Difussion o Dall·E, ya estaban empezando a abrir los ojos de miles de nuevos usuarios y curiosos en todo el planeta, aunque el debate ha alcanzado una intensidad mucho mayor con la apertura al público, en diciembre, de un programa similar para la creación de textos: el llamado ChatGPT de la empresa OpenAI. Los resultados que ofrece en pocos segundos pueden resultar tan coherentes que, en muchas ocasiones, parecen escritos por una persona.

Tal vez esté irrumpiendo en la sociedad para quedarse, aunque en sí misma no supone una novedad tan transformadora como podría parecer.

A sus 94 años, el propio Noam Chomsky, padre de la lingüística contemporánea, que ha vivido de cerca la historia entera de la IA hasta hoy, advirtió en enero de que, en realidad, ChatGPT tiene una limitación irresoluble, porque da el mismo valor a la información que tiene sentido en el mundo real y a la que no lo tiene, ya que no puede distinguirla ni comprenderla. Por eso no aporta a la Humanidad ningún avance significativo, dijo, ni científico ni en ingeniería informática, “tal vez sí para que un alumno haga trampas en un examen o similar”.

Y en efecto, de un día para otro, las viejas picardías de estudiante, como copiar párrafos enteros de la Wikipedia, se quedan obsoletas ante una tecnología que, apenas sin esfuerzo, hace ese mismo trabajo de manera más creativa, convincente y en cuestión de segundos. ¿Están preparados nuestros educadores para integrar la existencia de la IA en nuestras aulas y en nuestras vidas?

Los peligros de la IA para la educación

Por lo pronto, la aparición de esta tecnología tal y como está hoy “creo que no va a ser muy disruptiva”, y de hecho, “si ChatGPT lo introdujeran mañana en los colegios, probablemente haría perder mucho tiempo, sin ninguna ventaja comparativa sobre estudiar con un buen libro”, indica a Equal Times el investigador español José F. Morales, que conoce el asunto de primera mano, en su doble vertiente de profesor de Lógica computacional y de miembro del Departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid (UPM) y del Instituto IMDEA Software.

Las IA actuales “no son seres inteligentes, no están programadas para abstraer, razonar y entender lo que producen; lo que sí hacen es aprender de la estructura de los textos y de la información que ponemos a su alcance, de los patrones que se repiten, gracias a que tienen acceso a una cantidad de datos inimaginable, inasumible para un ser humano”, explica. “Sugerir que su funcionamiento es, de alguna manera, inteligente, es peligroso; dejar que la gente piense que algunas decisiones importantes se pueden apoyar en los resultados que dan este tipo de IA también es peligroso; y en educación, pretender que pueda ser un instrumento fiable para transmitir conocimientos es peligroso, porque si la información que te dan es correcta la mitad de las veces, también te pueden presentar información falsa de manera indistinguible, con argumentaciones igual de convincentes, la otra mitad”.

Por eso, subraya, son “herramientas creativas” que deberíamos entender como una especie de “asistente tonto”, capaz tanto de ayudarnos como de engañarnos sin saberlo: “como su uso del lenguaje y su argumentación es tan buena, uno puede pensar que está entendiendo lo que te dice, cuando en realidad es como un loro, que repite las cosas porque le suenan, pero no comprende lo que está diciendo”.

Sus respuestas pueden parecer incluso ingeniosas, pero están basadas en un mecanismo similar al del texto predictivo de cualquier motor de búsqueda, sólo que a escala más compleja y con una cantidad de información detrás inimaginable, que la IA imita sin contemplaciones.

Ahí está su otro gran peligro, apunta Morales: estas IA, con una capacidad de cómputo incomparablemente inferior a la de una persona (de hacer ecuaciones lógicas muy abstractas y complejas), responden por algo muy parecido a nuestra intuición, haciendo una especie de plagio encubierto, ya que toman como referencia, copian o imitan cantidades ingentes de datos que están disponibles en línea, pero de manera totalmente opaca, sin que veamos de dónde y de quién se los ha sacado, ni de qué manera reproduce de ellos todo lo que nos entregan.

Y aparte de las potenciales repercusiones legales que esto supone, y de que su funcionamiento no se apoya en la lógica (al contrario que otras IA no basadas en redes neuronales, que llevan muchos años estudiándose pero que no han dado lugar aún a aplicaciones útiles para el público general), también conllevan un peligro más: “su manera de responder, al final, es muy monótona, y hay que tener cuidado de que no acaben uniformizando y matando la creatividad”, avisa el experto. Y lo mismo ocurre en las aulas: “copiar no es malo, es necesario para aprender”, asegura; “lo malo es copiar y no decir de dónde”.

Para Morales, “si un alumno lograra aprender con ChatGPT en vez de con un libro, pues enhorabuena, pero por ahora los libros son mucho más fiables y enriquecedores como fuente de conocimiento”. Además, “cualquier país puede permitirse publicar sus propios libros de texto, pero en el mundo sólo dos o tres empresas tienen capacidad de entrenar ChatGPT, lo que se hace con miles y miles de textos, que ellos mismos seleccionan y etiquetan”, y es esa información, inevitablemente limitada y mediada, la que daría lugar “al ‘conocimiento válido y correcto’, que acabaría convirtiéndose en un modelo petrificado, porque no se puede cambiar lo que la IA haya aprendido sin rehacer el entrenamiento”.

En definitiva, se pregunta, “incluso si la tecnología fuera beneficiosa en las aulas, incluso si ChatGPT razonara, ¿en manos de quién dejamos a los alumnos? ¿Estamos dispuestos como sociedad a delegar tantísimo?”.

“No hay que olvidar que, hasta que la tecnología nos permita entrenar nuestras propias IA, deberíamos ser muy cautos sobre a quién se delega la gestión del conocimiento y evitar los errores cometidos con las redes sociales”, añade.

Con todo, la IA ya está aquí, y muchos educadores van a encontrarse con el pie cambiado ante sus implicaciones más inmediatas.

Que no cunda el pánico

“Que no cunda el pánico, aunque los cambios serán necesarios”, propone a Equal Times Rose Luckin, investigadora del Laboratorio del Conocimiento del University College de Londres (UCL) y profesora de Diseño Centrado en el Alumno de su Instituto de Educación. “Algunos sistemas educativos están mejor preparados que otros a la hora de capacitar a los alumnos para convivir y, de hecho, beneficiarse de vivir y trabajar con la IA”, explica Luckin, una de las principales especialistas en el impacto de esta tecnología en la enseñanza.

En ese sentido, “los sistemas que se centran en el aprendizaje de datos concretos y en evaluar la capacidad de los estudiantes para procesar información, recordarla y reproducirla, no están preparándolos bien para un futuro puesto de trabajo donde ese tipo de habilidades estarán a cargo de sistemas de IA”. Y al contrario, allí donde la prioridad sea “ayudar a los alumnos a desarrollar una comprensión sofisticada de sí mismos como estudiantes y de lo que es el conocimiento, de dónde viene, cómo hacer juicios de valor sobre la validez de una prueba y cómo tener criterio sobre qué creer o no, y lo más importante de todo, cómo ser bueno en el propio aprendizaje, se estará dotando a los estudiantes de las capacidades necesarias para prosperar en un mundo donde convivirán con muchos tipos de IA”.

Hasta ahora, reconoce, “no sé de ninguna institución en particular que esté llevando bien esta situación. Pienso que es algo que irá saliendo a la luz en las próximas semanas y meses, pero una cosa es segura: los sistemas e instituciones educativas deben aprovechar esta oportunidad y verla como un incentivo positivo para un cambio muy necesario”.

Sus recomendaciones pasan por aprovechar las posibilidades que ofrece esta tecnología para hacer el aprendizaje más divertido y eficaz, basado en un “uso con sabiduría” de la IA para completar las tareas más rutinarias y en fomentar la curiosidad y la exploración con herramientas como ChatGPT o Dall·E, para tener “viajes de aprendizaje personalizados”.

Aunque, sobre todo, anima a evitar errores como “no ser capaces de reconocer que esta es una tecnología que cambia las reglas del juego” y que no tiene vuelta atrás.

“El genio ya no puede regresar a la lámpara, y es estupendo que ChatGPT esté despertando al mundo de la educación a las implicaciones de la IA en la formación”, ya que pronto “estará integrada en todas nuestras tecnologías de comunicación, desde los procesadores de texto a las redes sociales y los motores de búsqueda”. Por ello, “tenemos que preparar a la gente para que la utilice bien”, apunta Luckin, así como evitar la tentación de ignorar esta realidad en la educación o de “ver la tecnología como una herramienta para hacer trampas”.

“Lo que tenemos que enseñar a los alumnos es a ser ciudadanos digitales e involucrarlos en ideas relacionadas con la seguridad digital”, nos dice por su parte Martin Henry, coordinador de investigaciones de la Internacional de la Educación (EI, en inglés), la agrupación mundial de sindicatos de profesores. “Estamos ajustándonos a una tecnología que no hemos visto antes, y el impacto que vaya a tener dependerá de cómo la manejemos, y de si las decisiones las siguen tomando los seres humanos”.

Henry, como Morales, ve un peligro inmenso en delegar nuestros procesos de decisiones a la inteligencia artificial, porque, según cómo se programe o de qué datos se nutra, “podemos tener un algoritmo racista, o que esté basado en datos erróneos, o que tienda a puntuar mejor a los alumnos de escuelas privadas que a los de clase trabajadora”, como ocurrió hace pocos años en Inglaterra. Después de todo, concluye, “un algoritmo hace lo que le pides, y si lo que le pides está mal, entonces tenemos un problema. Yo creo que deberíamos estar atentos a todo eso”.

El debate, para los educadores, parece abocado a la necesidad de adaptarse a los tiempos, y en eso coincide también el finlandés Pasi Sahlberg, antiguo director general del Ministerio de Educación de su país y actual profesor de Educación en la Universidad Southern Cross, en Lismore (Australia), quien es uno de los más reconocidos especialistas mundiales en política educativa. “Hasta donde sé”, comentó recientemente a Equal Times, “todo el mundo está intentando decidir qué hacer con la tecnología, mientras la IA y la realidad virtual (VR) empiezan a encontrar su sitio lentamente en la escuela convencional”.

De hecho, “todavía estamos debatiendo si los móviles deberían estar prohibidos en clase, pero pronto, creo que más pronto de lo que pensamos, esos aparatos estarán integrados en la ropa o en nosotros mismos, lo que hará esas prohibiciones imposibles. El desafío lo tendremos más bien en renovar las escuelas para encajar en ese nuevo futuro”. En ese sentido, sentencia, “aprender a vivir una vida segura, responsable y sana con toda esa tecnología entre nosotros es, tal vez, la habilidad para el siglo XXI más importante que hay”.

This article has been translated from Spanish.