Образование EdTech
#новости

Принята международная декларация по безопасному применению искусственного интеллекта

Её авторы указывают на риски, связанные с технологиями, которые уже применяются в повседневной жизни, в частности в сфере образования.

В Великобритании на первом международном саммите по безопасному использованию искусственного интеллекта приняли Декларацию Блетчли. Название документ получил благодаря месту, в котором прошёл саммит, — речь о Блетчли-парке.

Что это за документ

В декларации подчёркивается, что искусственный интеллект (ИИ) открывает огромные возможности и уже используется в повседневной жизни — в сфере образования, здравоохранения, транспортных перевозок и так далее. Однако с этими технологиями связаны и риски, причём главная проблема в том, что они не до конца изучены, — то есть пока неясно, как ИИ может навредить, например, при его неправильном использовании. Эти риски нужно изучить и устранить.

Авторы документа также указывают, что риски, связанные с ИИ, носят глобальный характер, поэтому устранять их следует посредством международного сотрудничества. Декларацию подписали представители ЕС, а также 28 отдельных стран, в числе которых США, Канада, Китай, Сингапур, Япония, Южная Корея, Израиль, Индия и Объединённые Арабские Эмираты.

Стороны договорились выявлять описанные выше риски, вырабатывать политику в отношении них, а также развивать соответствующие возможности в госсекторе и проводить научные исследования в этой сфере. Помимо этого, они уже планируют провести новую встречу в 2024 году.

Как уточняет NBC News, декларацию подписали в рамках первого международного саммита по безопасности ИИ. Он был посвящён так называемому передовому ИИ (англ. Frontier AI), который, как предполагается, может представлять угрозу для человечества. Под передовым ИИ понимаются самые мощные системы, которые созданы крупнейшими технологическими компаниями, доводящими свои разработки до предела возможностей. И как раз они таят в себе ещё неизвестные опасности. В основе этих систем лежат базовые модели и алгоритмы, которые используются в чат-ботах, таких как ChatGPT.

Что эксперты говорят об этике ИИ в сфере образования

По сообщению PIE News, не так давно участники конференции, организованной изданием Edtech Insiders, обсудили новые технологии в сфере образования. Они сошлись во мнении, что теперь инвесторы ожидают увидеть использование ИИ в новых решениях и воспринимают это не как бонус, а скорее как обязательную составляющую хорошей современной технологии. Предполагается, что нужно активно использовать ИИ, чтобы делать продукты более эффективными.

При этом некоторые специалисты в сфере образования уже говорят о том, что и в этой области пора подумать об этике использования ИИ. Например, e-learning-консультант Стелла Ли ранее отметила, что образовательным компаниям стоило бы подумать, в частности, о проблеме предвзятости данных, которые может использовать алгоритм ИИ. Например, по её словам, при использовании системы рекомендаций контента создаётся «петля положительной обратной связи». Это значит, что система рекомендует человеку контент по той теме, которую он чаще просматривает, — то есть по его интересам. Однако в сфере образования людям нужно открывать совершенно новые для себя темы, и фильтр учебного контента только по интересам мешает развиваться, расширять кругозор.

Декларация Блетчли — не первая попытка разобраться в этической стороне использования ИИ в сфере образования. Например, в 2023 году объединение британских вузов под названием Russell Group сформулировало для вузов принципы этичного использования генеративного ИИ, а в 2021-м одно из подразделений Букингемского университета разработало рекомендации по использованию искусственного интеллекта в сфере образования в целом.

Больше интересного про образование ― в нашем телеграм-канале. Подписывайтесь!

Проверьте свой английский. Бесплатно ➞
Нескучные задания: small talk, поиск выдуманных слов — и не только. Подробный фидбэк от преподавателя + персональный план по повышению уровня.
Пройти тест
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована