Образование
#новости

Для вузов сформулировали принципы этичного использования генеративного ИИ

Они же подсвечивают и основные риски, связанные с такими технологиями.

Ключевые принципы для ответственного и этичного применения генеративного искусственного интеллекта (ИИ) совместно с экспертами в этой области разработало объединение британских вузов под названием Russell Group. В него входят 24 учебных заведения, включая Кембриджский и Оксфордский университеты, а также Королевский колледж Лондона.

О каких принципах идёт речь

Концепцию подготовили после того, как правительство Великобритании объявило общественное обсуждение на тему использования таких технологий в сфере образования. Отдельно внимание авторы уделяют ChatGPT, Google Bard, Midjourney и Claude.

Авторы принципов отмечают, что вузы уже осознают необходимость обучать своих сотрудников и студентов навыкам работы с технологиями ИИ. В том числе это нужно, чтобы совершенствовать образовательный процесс. Новые принципы ориентированы прежде всего на членов Russell Group, однако будут полезны и другим учебным заведениям.

По сути авторы сосредоточились на ключевых рисках, связанных с генеративным ИИ. А их принципы должны помочь с ними справиться. Всего их пять:

  • Поддержка грамотности в области ИИ. Университеты должны помочь студентам и сотрудникам понять, как работают такие технологии и как эффективно взаимодействовать с ними. Например, необходимо предупреждать о том, что генеративные нейросети могут заимствовать чужие идеи или создавать контент с ошибками, ответственность за которые лежит на пользователе.
  • Поддержка преподавателей. Сотрудников нужно обеспечить всем необходимым, чтобы они могли использовать генеративный ИИ в рамках учебного процесса. Имеется в виду прежде всего дополнительное обучение самих преподавателей перед тем, как они начнут внедрять ИИ-инструменты в работу со студентами.
  • Обеспечение равного доступа. Вузы должны адаптировать свои методы преподавания и оценки так, чтобы преимущества генеративного ИИ были доступны всем. Кроме того, по мере развития ИИ-инструментов многие из них, вероятно, будут становиться платными, и поэтому подписки для студентов и сотрудников университетам придётся взять на себя.
  • Строгость. Требуется обновить этические кодексы университетов, прописав в них, в каких случаях использование генеративного ИИ допустимо. Авторы считают, что не стоит полностью запрещать такие технологии ради снижения вероятности академического мошенничества. То есть у студентов должна быть возможность обсудить возникающие вопросы и проблемы использования ИИ с преподавателями.
  • Сотрудничество. Университетам следует обмениваться опытом по мере развития технологий ИИ и их применения в образовании — в частности, отслеживать эффективность таких инструментов и их влияние.

Кстати, ещё в 2021 году в одном из подразделений Букингемского университета тоже разработали рекомендации по использованию искусственного интеллекта. Они касаются его использования в сфере образования в целом, а не только в вузах. А в мае 2023-го появилось международное объединение для продвижения ИИ в школах. Оно будет вырабатывать рекомендации для школ и ведомств, управляющих образованием, по использованию технологий ИИ в обучении, а также по преподаванию основ ИИ в курсах по информатике.

Мнение: как генеративные нейросети изменят образование

Один из ведущих мировых экспертов в сфере ИИ профессор Стюарт Рассел из Калифорнийского университета в Беркли недавно предсказал, что достижения в этой области, вероятно, приведут к концу эры традиционного школьного обучения. Рассел — один из тех, кто вместе с Илоном Маском, Стивом Возняком и другими известными деятелями весной подписал письмо с призывом приостановить разработку и обучение нейросетей.

По мнению Рассела, такие технологии способны усовершенствовать учебный процесс и расширить доступ к образованию во всём мире, предлагая индивидуальную программу каждому ребёнку.

Кроме того, он считает, что ИИ изменит и роль учителя, сделав её более сложной. У педагога будет роль наблюдателя за процессом обучения, построенного с помощью нейросетей, и он должен способствовать более сложной коллективной деятельности, а также обеспечивать гражданское и нравственное воспитание учеников. При этом профессор Рассел полагает, что из-за нейросетей в будущем будет требоваться гораздо меньше педагогов, чем сейчас.

При этом Рассел тоже предупреждает о рисках использования больших языковых моделей (именно поэтому он подписал то письмо с призывом приостановить разработку). Профессор считает, что такие технологии могут навязывать и распространять какие-либо идеи и всякого рода пропаганду ещё эффективнее, чем книги или учителя. Кроме того, по его словам, учёные сейчас не понимают, способны ли большие языковые модели рассуждать или планировать. «У них могут быть внутренние цели, которые они преследуют, — мы не знаем, какие они», — предупреждает он.

Отметим, что пока в мире не сформировалось единого подхода к использованию нейросетей. Например, в Японии вузы пытаются ограничить использование ChatGPT. В первую очередь это связано с академическим мошенничеством. В то же время в США учителя чаще пользуются этим чат-ботом, чем школьники. Причём речь идёт именно о его применении в рамках учебного процесса.

В России считают, что необходимо адаптировать систему образования к использованию нейросетей. Такой вывод сделали после того, как выпускник РГГУ защитил дипломную работу, написанную при помощи ChatGPT. Кроме того, депутаты Госдумы считают, что школьников пора учить работать с такими технологиями. А в Гонконге уже решено включить такой раздел в курс по информатике.

Больше интересного про образование ― в нашем телеграм-канале. Подписывайтесь!

Нейросети для работы и творчества!
Хотите разобраться, как их использовать? Смотрите конференцию: четыре топ-эксперта, кейсы и практика. Онлайн, бесплатно. Кликните для подробностей.
Смотреть программу
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована