Egoitz de la Iglesia es investigador y profesor de la Facultad de Humanidades y Ciencias de la Educación de Mondragon Unibertsitatea donde imparte la microcredencial Educación e inteligencia artificial: de la alfabetización básica a la tecnoética. Esta especialización, que comenzó a impartirse en AsFabrik esta primavera, se centra en integrar la IA en la enseñanza desde un enfoque ético.

La Inteligencia Artificial está llamada a transformar la enseñanza.

—Desde nuestro marco teórico no estamos muy de acuerdo con que la Inteligencia Artificial (IA) vaya a transformar la educación. Si algo va a transformar la educación serán las personas que trabajan en educación y la IA es una herramienta muy válida para ayudar en ese proceso. Como toda herramienta disruptiva, la IA plantea una serie de retos y oportunidades.

Empecemos por las oportunidades.

—Suele haber discursos muy catastrofistas respecto a la IA, pero plantea una serie de oportunidades a la hora de trabajar con el alumno de forma más personalizada. Ahora, por fin, estamos hablando de procesos educativos y del rol del profesorado. El problema es que se ha planteado a posteriori la reflexión sobre el proceso de digitalización de las aulas. La IA ha expuesto muchas formas de trabajar que ya estaban en entredicho por ciertas corrientes pedagógicas pero que cada persona en su aula podía disimular. La IA ha puesto en entredicho ciertas actividades que, se ha demostrado, pueden resultar un tanto absurdas. En el momento en que una máquina puede hacer algo no tiene mucho sentido que las personas sigan haciendo eso de la misma manera cuando deberían estar haciendo otras cosas. La mayor oportunidad es la de renovar el sistema educativo y mejorar los procesos de enseñanza-aprendizaje.

¿Qué me dice de los riesgos?

—Hay riesgos que todo el mundo conoce como el tema de los derechos de autor, el plagio, etc. pero tampoco creemos que sean los más acuciantes. El verdadero reto es cómo conseguir implementar una tecnología de una manera crítica, consciente, ética y pedagógicamente pertinente.

¿Qué ofrece la IA al alumnado?

—La ventaja de herramientas como ChatGPT o Gemini dependen del contexto de enseñanza-aprendizaje que diseñemos. No creo que tengan una ventaja per se, sino que es un buen diseño pedagógico el que va a asegurar que una IA generativa concreta tenga una ventaja. Lo mismo que esa misma IA puede tener una desventaja en el mismo uso, en otro contexto. Tiene ventajas en cuanto a que cada persona puede demandar de esa herramienta un tipo de respuestas que se adecúen mejor a su forma de trabajar, de entender y de pensar. Y es que la IA no da respuestas estándar sino que, según cómo interactúes tú con la máquina, ésta reacciona o responde de una manera o de otra. En ese sentido es interesante porque al alumnado le puede aportar ciertas estrategias o cierto apoyo extra al que le van a dar el profesor, la familia o un compañero de clase.

¿Y al profesorado?

—Pues depende de si el profesor o la profesora tiene realmente un conocimiento de la tecnología, lo que nosotros llamamos una alfabetización, si tiene unos criterios tecnopedagógicos y si la utiliza de manera adecuada. Si tiene esa conciencia crítica de qué usos son los adecuados, le puede facilitar muchos procesos, como apoyo para plantear esquemas o tener nuevos enfoques. Para esto es una herramienta sumamente útil, desde tu condición de experto o experta en un tema. Yo, por ejemplo, preparando esta entrevista tuve una conversación con una de estas inteligencias artificiales generativas donde la máquina me hacía preguntas como si fuera una periodista y yo respondía. Para este tipo de situaciones es una herramienta muy útil, siempre y cuando la estés utilizando sobre algo que conoces. El peligro viene cuando la utilizas sin saber tú más que la máquina, porque entonces ahí puede llevar a errores.

Egoitz de la Iglesia NTM

Se me ocurren varios riesgos: la brecha digital, el plagio, el ‘cortapega’ la deshumanización del proceso de la enseñanza, sesgos del algoritmo, la falta de pensamiento crítico...

—Estoy de acuerdo en que todos esos son problemas que se podrían más o menos solucionar con un buen uso de la IA en clase, porque cuando utilizas esta herramienta como única fuente de información o de trabajo te lleva a la pasividad, a no tener que pensar. Pero la reflexión que nosotros planteamos es, vale, si como profesor estoy planteando actividades a mis alumnos que las puede hacer una máquina es lógico –entre comillas– que utilicen la máquina. Lo que tengo que hacer es rediseñar mis procesos de enseñanza-aprendizaje para que sea algo que suponga un reto, tanto para la máquina, como para mi alumnado. Que vean que el uso de la máquina no es suficiente para dar la respuesta. Sin embargo, hay algo que me preocupa más que el plagio y que está muy unido al tema de los sesgos y de la brecha digital.

¿El qué?

—Es el tema de que todas estas tecnologías están en manos de grandes corporaciones. Que son ellas las que controlan el desarrollo y la evolución de estas tecnologías y que, como siempre, la responsabilidad sobre el mal uso recae en los usuarios ya sean padres, madres, el propio alumnado o el profesorado. Y parece que estas grandes corporaciones pueden hacer lo que quieran, sacarlo al mercado, independientemente de los problemas que conlleve. Somos la sociedad los responsables de ese posible mal uso y de los efectos negativos que tiene una tecnología que, en principio, no hemos pedido, que se nos da y, en cierta manera se nos impone, y que trae consigo una serie de repercusiones sobre las que nadie se responsabiliza.

“Si algo va a transformar la educación serán las personas que trabajan en educación y la IA es muy válida”

El nombre de la microcrecencial que imparte es ‘Educación en inteligencia artificial: de la alfabetización básica a la tecnoética’. Este título sugiere un problema, y es que existe un gran desconcocimiento de la herramienta pese a que la Administración se lleva años hablando de la digitalización como sinónimo de calidad y mejora.

—Completamente de acuerdo. Vendemos que el uso de la tecnología por sí misma ya es innovación y ya es mejora y eso es una falacia muy grande. Por eso lo que planteamos es un cambio de conciencia, generar un marco.

Como sabe en el año 2022, Dinamarca prohibió el uso de las escuelas los productos de Google, como Google Workspace, porque el uso que hace el gigante norteamericano de los datos de los usuarios va en contra de la ley de protección de datos europea. En marzo de 2024, la Autoridad Vasca de Protección de Datos apercibió al Departamento de Educación por lo mismo. ¿La IA protege la privacidad?

—El problema es básicamente el mismo, por eso digo que la IA ha traído a colación problemas que ya teníamos. Empezamos a utilizar las herramientas de Google acríticamente sin saber que estamos introduciendo datos, información biodata del alumnado y cediéndolo a una multinacional. Y con la IA pasa exactamente lo mismo. Por eso la ley europea de regulación de la IA prohibe el uso de la IA para la evaluación. Lo denomina un uso de alto riesgo y por tanto está prohibido.

¿Está prohibido evaluar con IA?

—Sí, la IA está prohibida para temas que supongan calificación porque se trata de información privada de un alumno. Y si el día de mañana se accede a ese big data podría decidir si se le permite estudiar una carrera o se le concede una subvención. Es marcar ya de por vida a esa persona.

¿Pero esto se cumple?

—Son leyes que sí tienen su sanción pero el seguimiento es muy complicado. Es una legislación que salió el año pasado y su aplicación total, si no me equivoco, es para el 2026. Pero para entonces todo esto habrá cambiado. Es un poco lo que comentábamos antes, los límites a estas multinacionales hay que ponerlos de antemano, antes de que se les permita implementar una tecnología porque después es imposible seguir el ritmo.

“El verdadero reto es implementar una IA de una manera crítica, consciente, ética y pertinente”

¿Cómo sería una integración adecuada de la IA en clase?

—Para que sea adecuada lo primero el profesor o la profesora tiene que conocer la tecnología y ser consciente de ella y luego es muy importante que sea pedagógicamente pertinente, es decir, que aporte un extra esa tecnología que otra no podría aportar. Y que luego también que sea coherente con el sistema de valores del centro en cuestión.

¿Y si no se dan esas condiciones?

—Si tú introduces una tecnología y no estás preparado para utilizarla bien y encima es contradictoria con los valores del centro, realmente lo que estás enseñando va en contra de lo que deberías de enseñar. La IA plantea una serie de retos pero no tenemos que caer ni en el tecno-optimismo ni en el tecno-negacionismo, es importante encontrar la vía media que nos permita hacer un uso justo, sostenible, igualitario de esta tecnología porque realmente puede ofrecer mucho. Pero al mismo tiempo, tenemos que empoderarnos como usuarias frente a estas corporaciones y quizás exigir unos mínimos, sobre todo cuando estamos hablando del acceso a esta tecnología por parte de cualquier menor, con todo lo que puede conllevar. Nuestra propuesta es alfabetizarnos tener una conciencia crítica desde una perspectiva social y humanitaria de esta tecnología y de su uso.