Идеи

ИИ в школах необходимо взять под контроль

Использование искусственного интеллекта в обучении допустимо только при строгом контроле и после независимой оценки, считает автор книг о технологиях в образовании Бен Уильямсон. По его мнению, лишь так школы смогут сохранить свою главную функцию — развивать критическое мышление и воспитывать граждан будущего.
Artificial intelligence must be kept in check at school

Бен Уильямсон
Доцент и один из директоров Центра исследований в области цифрового образования Эдинбургского университета (Великобритания), автор книг Big Data in Education: The Digital Future of Learning, Policy and Practice («Большие данные в образовании: цифровое будущее обучения, политики и практики», 2017) и Digitalisation of Education in the Era of Algorithms, Automation and Artificial Intelligence («Цифровизация образования в эру алгоритмов, автоматизации и искусственного интеллекта»), которая выйдет в 2024 г.

В настоящее время школы становятся участницами глобального эксперимента по применению искусственного интеллекта (ИИ). После выхода ChatGPT в конце 2022 года и последовавших вскоре других так называемых «больших языковых моделей» средства массовой информации буквально захлестнула волна как восторженных, так и обеспокоенных откликов о потенциальном влиянии ИИ на сферу образования. Отметив, что в школах начали использоваться программы на основе «генеративного ИИ», заместитель Генерального директора ЮНЕСКО по вопросам образования Стефания Джаннини заявила, что «скорость, с которой технологии генеративного ИИ внедряются в систему образования в отсутствие должного контроля, правил или правовых норм, просто поразительна».

Ее оценка однозначна. «Система образования, учитывая ее функцию по охране развития и обучения и по содействию им, должна проявлять особую бдительность в отношении связанных с ИИ рисков, причем как известных, так и тех, о которых мы только начинаем догадываться, — пишет Стефания Джаннини. — Увы, слишком часто они игнорируются».

Однако на данный момент эти риски изучены мало. В этой связи необходимо оказать образовательному сообществу помощь в их понимании и принять меры по защите школ от возможных пагубных последствий внедрения таких технологий.

Механизация обучения

Многие опасности и недостатки использования ИИ уже известны, такие, например, как предрассудки и дискриминация в результате обучения нейросетей на наборах устаревших данных. Уже одного этого должно быть достаточно, чтобы поставить преувеличенные заявления о пользе ИИ под сомнение. Помимо этого, применение ИИ в обучении поднимает и ряд специфических проблем.

Первая из них касается роли учителя. Технооптимисты зачастую утверждают, что ИИ не заменит собой преподавателей, но позволит им сэкономить время, сократит объем работы и возьмет на себя часть рутинных задач. Однако на практике механизация обучения лишь увеличит нагрузку на педагогов, поскольку им придется адаптировать свои методы работы к автоматизированным технологиям. И даже если учителей не заменят роботы, то ИИ может уподобить роботам их самих, если будет составлять для них планы уроков, готовить материал, обеспечивать обратную связь с учащимися и оценивать выполненные ими задания.

Как продемонстрировала американская писательница Одри Уотерс в своей книге Teaching Machines («Обучающие машины»), мысль, что автоматизация может оптимизировать работу учителей, освободить их от части дел и сделать обучение более «индивидуальным», родилась еще около века тому назад. Однако, по ее мнению, механизация обучения — это просто фантазия техноиндустрии о сверхэффективной школе, не имеющая под собой образовательной концепции.

Недостоверный контент

Следует также отметить, что во многих наиболее впечатляющих примерах применения ИИ на уроках обучение понимается в узком смысле. Специалисты по ИИ и руководители компаний часто ссылаются на исследование 1960-х годов, показывающее, что при индивидуальных занятиях успеваемость выше, чем при групповом обучении. Выводы этого исследования используются в качестве аргумента в поддержку идеи индивидуального обучения с помощью автоматизированных «роботов-репетиторов». Однако эта идея опирается на весьма ограниченное видение цели образования, которая сводится к улучшению измеряемых достижений учащихся.

ИИ не берет в расчет такие задачи образования, как формирование критического мышления и воспитание ответственных граждан

В этом видении в расчет не берутся более широкие задачи образования, такие как формирование независимого критического мышления, содействие личностному развитию учащихся и воспитание ответственных граждан. Механический подход, направленный на повышение результатов индивидуального обучения, не способствует реализации этих задач и ценностных ориентиров государственного образования.

Кроме того, формы механического обучения, ставшие возможными благодаря ИИ, отнюдь не столь надежны, как утверждают их сторонники. Такие приложения, как ChatGPT и Google Bard, могут генерировать контент, содержащий фактические ошибки. С технической точки зрения такого рода программы лишь предсказывают следующее слово в последовательности и автоматически генерируют текст в ответ на запрос пользователя. Это, бесспорно, внушительное техническое достижение, однако оно может приводить к созданию неверных или вводящих в заблуждение материалов.

В одной из своих статей технокритик Мэтью Киршенбаум красочно изобразил «текстпокалипсис», который может ждать нас в случае переполнения интернет-пространства ложной информацией. Использование технологий искусственного интеллекта может нанести ущерб качеству учебных материалов или как минимум потребовать от учителей трудоемких и отнимающих много времени усилий по их проверке и внесению необходимых поправок.

Платные услуги

ИИ также может применяться для цензуры образовательного контента. Так, недавно в одном из школьных округов США программа ChatGPT использовалась для выявления книг, не соответствующих новым консервативным законам о содержании учебных материалов, с целью их последующего удаления из библиотеки. Таким образом, генеративный ИИ не только не является нейтральным проводником к знаниям и пониманию, но и может способствовать проведению реакционной и регрессивной социальной политики и ограничению доступа к разнообразным произведениям культуры.

Стоит также добавить, что двигателем гонки за внедрение ИИ в школьное обучение являются не столько объективные образовательные цели, сколько взгляды и финансовые интересы индустрии ИИ. Хотя интеллектуальные технологии чрезвычайно дорогостоящи, их применение в образовании считается очень прибыльным. Ожидается, что за возможность пользоваться приложениями на базе ИИ школы или даже сами учащиеся и их родители будут платить, что повышает рыночную стоимость образовательных компаний, заключивших договор с крупным оператором ИИ.

В результате школы и школьные округа будут платить за услуги в рамках договоров, позволяющих провайдеру ИИ компенсировать свои операционные расходы. В конечном счете бюджетные средства, предназначенные для нужд образования, вместо этого будут обеспечивать прибыль техногигантов.

В то же время школы могут попасть в зависимость от технологических компаний и утратить автономию, вследствие чего государственное образование будет вынуждено подстраиваться под не подлежащие никакому контролю частные технические системы. Кроме того, нейросети потребляют огромное количество энергии, и их повсеместное применение в образовательных учреждениях с большой вероятностью усугубит деградацию окружающей среды.

Меры защиты

Как мы видим, внедрение ИИ в образование ставит перед преподавателями и формирующими политику в этой сфере лицами целый ряд серьезных проблем. Школам во всем мире необходимо предоставить обоснованные рекомендации и советы по использованию ИИ, которое должно осуществляться в соответствии с четко сформулированными образовательными целями и только после оценки рисков. Международные организации уже провели большую работу по выработке связанных с ИИ этических и правовых норм. Сфера образования должна быть защищена аналогичным образом.

Школам необходимо предоставить обоснованные рекомендации по использованию ИИ

Наряду с нормативной базой национальные органы и должностные лица должны рассмотреть целесообразность учреждения новых форм контроля над ИИ в образовании. В Соединенном Королевстве в рамках проекта Digital Futures Commission недавно была предложена программа сертификации образовательных технологий, предусматривающая, что к применению в школах могут быть допущены только те разработки, по которым компании предоставят убедительные доказательства их педагогической пользы и надежные гарантии безопасности для детей.

Учреждение организаций, которые могли бы проводить независимый «алгоритмический аудит» — то есть оценку потенциального ущерба от автоматизированных систем, — позволило бы предотвратить бесконтрольное использование ИИ в школах. Такие меры предосторожности потребуют политической воли и внешнего давления со стороны авторитетных международных организаций. В условиях беспрепятственного развития ИИ независимая оценка и сертификация представляются наилучшим способом защиты школ от превращения их в места беспрерывного проведения технологических экспериментов.

Регулирование ИИ в образовании: новое руководство ЮНЕСКО

Введение возрастного ценза в 13 лет на работу с программами искусственного интеллекта (ИИ) в школах, установление норм в области защиты данных и конфиденциальности и организация специальной подготовки для учителей — вот лишь некоторые из рекомендаций первого Глобального руководства по использованию генеративного ИИ в образовании и научных исследованиях, опубликованного ЮНЕСКО в сентябре 2023 года. 

В связи с увеличением на рынке систем генеративного ИИ Организация призывает правительства стран к регулированию их применения в учебных заведениях, с тем чтобы оно было ориентировано в первую очередь на интересы человека.

В руководстве описаны технологии, лежащие в основе генеративного ИИ, и последствия их внедрения в сферу образования. В нем также предлагаются основные шаги, которые страны должны предпринять для создания нормативной и политической базы, касающейся этики применения ИИ в школах. 

Авторы руководства предупреждают о риске усугубления цифрового неравенства и призывают к решению этой проблемы. Так, в настоящее время модели ChatGPT обучаются на данных интернет-пользователей, которые отражают главным образом ценности и социальные нормы стран Северного полушария. 

Широкой публике генеративный ИИ стал известен в ноябре 2022 года после выхода приложения ChatGPT, побившего все рекорды по росту числа пользователей. Поскольку они способны генерировать текст, изображения, видео- и музыкальные материалы, а также программный код, системы генеративного ИИ будут оказывать огромное влияние на область образования и исследований. В июне 2023 года ЮНЕСКО уже привлекала внимание общественности к слишком быстрому внедрению таких систем в школах и к тревожащему отсутствию должного контроля, правил и норм их использования. 

Между тем сфера образования по-прежнему недостаточно подготовлена к грамотной с этической и педагогической точек зрения интеграции этих стремительно развивающихся технологий. Согласно недавнему опросу ЮНЕСКО, проведенному в более чем 450 школах и университетах разных стран, лишь менее 10 % из них имели четкую стратегию и/или официальные указания по использованию приложений генеративного ИИ, преимущественно ввиду отсутствия регулирования на национальном уровне. 

Школа в эпоху искусственного интеллекта
Курьер ЮНЕСКО
октябрь-декабрь 2023 г.
UNESCO
0000387029
订阅《信使》

Подписаться на "Курьер ЮНЕСКО"