Idea

En clase, la IA debe quedarse en su sitio

Las aplicaciones de la inteligencia artificial en la educación tendrían que ser objeto de evaluaciones independientes y utilizarse bajo supervisión. Solo entonces, señala Ben Williamson, las escuelas serán capaces de mantener su misión de desarrollar el espíritu crítico y formar a los ciudadanos del mañana.
Artificial intelligence must be kept in check at school

Ben Williamson
Profesor titular y coordinador del Centro de Investigación en Educación Digital de la Universidad de Edimburgo, en Reino Unido, Ben Williamson ha publicado Big Data in Education: The Digital Future of Learning, Policy and Practice (2017), y Digitalisation of Education in the Era of Algorithms, Automation and Artificial Intelligence, que saldrá de la imprenta en 2024.

Actualmente se está llevando a cabo un experimento mundial sobre el uso de la inteligencia artificial en las escuelas. Tras el lanzamiento del ChatGPT, a finales de 2022, seguido rápidamente por otros “grandes modelos lingüísticos”, la prensa se entusiasma por estas tecnologías, al tiempo que alerta acerca de su posible repercusión en la enseñanza. En respuesta al desembarco de la IA generativa en los colegios, la Subdirectora General de Educación de la UNESCO, Stefania Giannini, recientemente afirmó: “La rapidez con la que las tecnologías de IA generativa se están incorporando a los sistemas educativos en ausencia de controles, normas o regulación es alarmante”.  

Su evaluación es categórica: “Habida cuenta de su función de protección y de estímulo al desarrollo y el aprendizaje, la educación tiene que prestar especial atención a los peligros vinculados a la IA, tanto de los conocidos como de otros que apenas empezamos a entrever. Sin embargo, a menudo, hacemos caso omiso de esos riesgos”.

Lo cierto es que esos peligros todavía no se han evaluado suficientemente. La comunidad educativa necesita asesoramiento para comprenderlos mejor y las escuelas necesitan más protección ante los daños que podrían causar estas nuevas tecnologías.

La mecanización de la enseñanza

Los riesgos y los efectos negativos de la IA son conocidos, empezando por los prejuicios y la discriminación que puden derivarse del adiestramiento de los sistemas a partir del conjunto de datos históricos. Bastarían esas deficiencias para poner en tela de juicio las declaraciones altisonantes sobre la IA, pero, además, su aplicación en la escuela plantea problemas aún más específicos.

Uno de ellos se refiere al rol de los docentes. Los más optimistas suelen afirmar que la IA generativa jamás remplazará a los docentes por autómatas. Sostienen que la IA les permitirá ganar tiempo, reducirá la carga de trabajo y asumirá una serie de tareas rutinarias. Pero, en realidad, la mecanización de la enseñanza exige un volumen adicional de trabajo y los maestros tendrán que adaptar sus enfoques pedagógicos para trabajar con las tecnologías automatizadas. Quizá los robots no lleguen a ocupar su lugar, pero la IA podría robotizar algunas de sus tareas, como la planificación de las clases, la preparación del material, la evaluación y la supervisión de los alumnos.

Tal y como muestra la autora estadounidense Audrey Watters en su libro Teaching Machines, la idea de que la automatización puede racionalizar la enseñanza, “personalizar” el aprendizaje y permitir que los docentes ganen tiempo es un concepto antiguo. Según ella, más que basada en una perspectiva pedagógica, la enseñanza mecánica es una fantasía industrial que busca una escolarización supereficaz. 

Contenidos engañosos

De hecho, algunas de las utilizaciones más espectaculares de la IA en las clases se apoyan en concepciones estrechas de aprendizaje. Los científicos y los dirigentes empresariales a menudo hacen alusión a un estudio de la década de 1960 que demuestra que la tutoría individual produce mejores resultados que la enseñanza en grupo. Este “efecto de éxito” destacado en el estudio refuerza la idea de una enseñanza individualizada impartida por “robots-tutores” automáticos. El problema de este enfoque, es que se basa en una visión limitada del objetivo de la educación, que la reduce a un medio para mejorar los resultados cuantificables del alumno.

La IA pasa por alto desafíos como forjar un pensamiento crítico o formar ciudadanos comprometidos

Esta visión pasa por alto otras dimensiones más amplias de la educación, cuyo objetivo es también forjar un pensamiento crítico independiente, impulsar el desarrollo personal del estudiante y formar a ciudadanos comprometidos con la sociedad. La enseñanza mecánica, que busca mejorar los índices de aprendizaje individual, no responde a esos objetivos ni a los valores de la instrucción pública.

Además, las modalidades de aprendizaje mecánico que la IA puede proporcionar no son tan fiables como se anuncian. Las aplicaciones del tipo ChatGPT o Google Bard tienen tendencia a producir contenidos objetivamente inexactos. Desde un punto de vista técnico, se limitan a predecir la palabra siguiente en una secuencia y a generar automáticamente contenidos en respuesta a la petición del usuario. Aunque en términos técnicos son impresionantes, esos programas pueden elaborar contenidos falsos o engañosos.  

El crítico de tecnología Matthew Kirschenbaum ha imaginado lo que sería un escenario de “textapocalypsis”, si la web se inundase de informaciones falsas. El uso de esas tecnologías podría contaminar el material pedagógico o, como mínimo, exigir a los profesores un enorme gasto de tiempo para verificar y corregir la exactitud de los datos.

Servicios de pago

La IA también podría utilizarse para censurar el contenido educativo. Hace poco, en un distrito escolar de Estados Unidos, el ChatGPT se usó para identificar los libros que debían retirarse de la biblioteca para poder respetar las nuevas leyes conservadoras sobre los contenidos educativos. En vez de constituir una pasarela neutra hacia el saber y la comprensión, la IA generativa puede contribuir también a la aplicación de políticas sociales reaccionarias y retrógradas, y a limitar el acceso a documentos culturales diversificados.

A todo lo anterior es preciso añadir que la integración de la IA en las escuelas está menos motivada por objetivos docentes que por las perspectivas y los intereses económicos del sector tecnológico. Aunque las tecnologías son muy costosas, la IA en la educación se considera una inversión muy rentable. Se supone que las escuelas, los padres y los mismos alumnos han de pagar para acceder a las aplicaciones, lo que aumenta el valor comercial de las empresas del sector educativo que han concluido acuerdos con un gran operador.

Los colegios y los distritos escolares terminarán pagando los servicios a través de contratos que permitirán a los proveedores de IA compensar los gastos de explotación. En definitiva, los fondos públicos destinados a la educación serán sustraídos a las escuelas para garantizar la rentabilidad de las empresas. 

Al mismo tiempo, las escuelas corren el riesgo de crear un grado de dependencia de las empresas tecnológicas y perder así su autonomía, lo que se traduciría en una enseñanza pública tributaria de sistemas técnicos privados que no tendrían que rendir cuentas a nadie. La IA es, además, una consumidora voraz de recursos energéticos y su utilización en escuelas de todo el mundo contribuiría probablemente a acelerar la degradación del medio ambiente. 

Medidas de protección

El empleo de la inteligencia artificial en la educación plantea, por lo tanto, una serie de cuestiones cruciales que los docentes y los responsables de esos sistemas tienen que enfrentar. Las escuelas del mundo entero necesitan asesoramiento y consejos fundamentados sobre cómo interactuar con la IA, basados en objetivos pedagógicos claramente definidos y en una evaluación de los riesgos. Las organizaciones internacionales ya han realizado esfuerzos considerables para elaborar cuadros éticos y reglamentarios vinculados a la IA y, del mismo modo, es esencial tratar de proteger el sistema educativo.

Las escuelas del mundo entero necesitan consejos fundamentados sobre cómo interactuar con la IA

Además de los instrumentos regulatorios, los organismos nacionales y los funcionarios deberían también concebir nuevas modalidades de supervisión de la IA en el contexto educativo. En el Reino Unido, la Digital Futures Commission ha propuesto recientemente un programa de certificación de tecnologías educativas que exigiría que las empresas demuestren claramente su valor pedagógico y apliquen medidas sólidas para proteger a los estudiantes antes de que puedan intervenir en las escuelas.

Con la llegada de la IA, las organizaciones capaces de realizar auditorías algorítmicas  independientes, es decir, evaluaciones de los efectos que podrían tener los sistemas automatizados, podrían impedir la instalación de la IA en las escuelas sin controles previos. La puesta en marcha de esos sistemas de protección necesitará una voluntad política y una presión exterior por parte de organizaciones internacionales influyentes. Ante el desarrollo descontrolado de la IA, la evaluación y la certificación independientes podrían ser el mejor medio de evitar que las escuelas se conviertan en lugares de experimentación tecnológica permanente. 

Una guía para regular la IA en la educación

Establecer un límite de edad a los 13 años para el uso de la inteligencia artificial en las aulas, adoptar normas de protección de datos y privacidad, y ofrecer formación específica a los profesores son solo algunas de las propuestas contenidas en la primera Orientación para la IA Generativa en la Educación y la Investigación, publicadas por la UNESCO en septiembre de 2023. 

Ante el rápido crecimiento de los sistemas de IA generativa, la Organización pide a los gobiernos que regulen su uso en las escuelas, con el fin de garantizar un enfoque centrado en el ser humano al usar la AI generativa en educación.

El documento detalla las técnicas utilizadas por la IA generativa y sus implicaciones en el sector educativo. Indica a los gobiernos las etapas principales a seguir para su reglamentación y el establecimiento de los marcos políticos necesarios para su uso ético en las escuelas.

También previene sobre los riesgos de agravar la brecha digital y pide a los responsables políticos que aborden esta cuestión. Los modelos actuales de ChatGPT se entrenan, en efecto, con datos de usuarios en línea que reflejan los valores y normas sociales dominantes en el Norte global.

El público descubrió la IA generativa en noviembre de 2022 con el lanzamiento de ChatGPT, que se ha convertido en la aplicación de crecimiento más rápido de la historia. Capaces de generar texto, imágenes, vídeo, música y códigos de programación, las herramientas de IA generativa tendrán un enorme impacto en la educación y la investigación. En junio de 2023, la UNESCO advirtió que la IA se estaba desplegando con demasiada rapidez en las escuelas y que existía una preocupante falta de control, normas y reglamentos.  

Sin embargo, el sector educativo sigue sin estar suficientemente preparado para la integración ética y pedagógica de estas herramientas en rápida evolución. Según una reciente encuesta mundial de la UNESCO realizada en más de 450 escuelas y universidades, menos del 10% dispone de políticas institucionales y/o de orientaciones formales sobre el uso de aplicaciones generativas de la IA, debido en gran parte a la ausencia de normativas nacionales.