Почему в EdTech-сообществе пора начать говорить об этике
Несколько идей насчёт очень большой, сложной, но важной темы.
Фото: djurga для Skillbox Media
Кирилл Прудников
Руководитель программ педагогических практик Skillbox. Преподаватель курсов по педагогическому дизайну в МПГУ и МВШСЭН («Шанинка»).
Кирилл Прудников в декабре вскользь поделился мнением о том, что в связи с происходящим на наших глазах стремительным развитием искусственного интеллекта представителям EdTech-индустрии пора серьёзно поднимать вопросы этики. Мы попросили его в режиме живой рефлексии подробнее порассуждать на эту тему — и вот что услышали.
О том, почему этика — вопрос не абстрактный, а прикладной и насущный
Мы работаем с образованием, а образование формирует ценностный ряд. Вопросы этики — очень практические. Они о том, как мы используем данные в аналитике, искусственный интеллект и вообще технологии в обучении для того, чтобы изменять деятельность людей. Ведь обучение — это изменение деятельности через опыт. То, как мы с помощью ставших доступными сейчас технологий меняем поведение человека, очень важно. Мне кажется, бизнес должен задумываться об этих вопросах. В том числе о том, какие ценности мы формируем у учащихся.
Технологии — это масштабирование или удешевление процесса обучения. Благодаря технологиям всё больше людей получают доступ к обучению. Но вера в то, что каждое новое технологическое улучшение неизбежно делает мир лучше, вера в прогресс закончилась ещё до наступления постмодернизма. Нужно аккуратнее относиться к тому, что мы применяем.
Об этике в контексте формирования ценностей во время онлайн-обучения
На первый взгляд кажется, что мы в EdTech обучаем только прикладным навыкам. Но помимо этого в процессе добавляются ещё некие ценности. Я считаю, что мы должны учитывать это при проектировании образовательных программ. И что нам внутри EdTech-сообщества пора начать думать и обсуждать, какие ценности мы взращиваем и все ли из них этичны.
Нужно как-то усиливать либо менять образовательный продукт, если мы понимаем, что какие-то из формируемых ценностей сомнительны. Через онлайн-курсы в какой-то момент пройдут миллионы людей. У них сформируются профессиональные практические компетенции, но кроме этого — что-то ещё, какие-то качества. Что это будет? Найти ответ на этот вопрос очень важно, так как эти качества будут влиять на нас и общество в целом. Ведь мы будем жить среди этих людей, работать с ними.
Моя гипотеза: люди, которые учились в асинхронном формате и сдали, условно, 60 «домашек», чтобы получить профессию, очень трудолюбивы. То есть через эту систему обучения как минимум воспитывается ценность позитивного, продуктивного труда. Мы, может быть, о ней не думаем, но она формируется.
Наверное, благодаря специфике асинхронного онлайн-обучения сформируются самостоятельность и самоорганизованность. А ещё, вероятно, автономность — мы же общаемся во время обучения удалённо, в основном через чат. Вот автономность — это хорошо или плохо? Не снижает ли она эмоциональный интеллект, эмпатичность? Не ведёт ли к потере чувствительности, когда слова и действия, которые человек не позволил бы себе при личной встрече, он вполне может выразить онлайн?
О зацикленности на достижении образовательного результата
Многие образовательные проекты стремятся неизбежно довести учащегося до цели обучения, повысить процент доходимости на курсе. Потому что мы предоставляем образовательную услугу и считаем её качественной, если человек достиг карьерных изменений, ради которых пошёл учиться, — например, сменил профессию или получил навыки для развития на текущем месте, повысил свой доход.
Имея очень много данных о пользовательском поведении, анализируя их, при развитии технологий мы получаем возможность вычислять триггеры, которые на ранних этапах могут подсказывать нам, что какой-то пользователь теряет вовлечённость и высока вероятность, что он бросит обучение.
Допустим, в этом случае можно предложить ему такие материалы и задания, которые его удержат, поднимут мотивацию. Вопрос: кто должен принимать решение, нужно ли это делать, то есть надо ли упорно доводить пользователя до конца? Сам пользователь? Провайдер обучения? Или некий искусственный интеллект? А вдруг у человека в процессе обучения интерес и цель поменяются?
Наверное, должна быть какая-то регуляция в начале обучения не только относительно того, каких результатов пользователь хочет достичь, но и относительно того, можем ли мы его на этом намеченном треке удерживать.
Хорошо бы, чтобы пользователь мог ещё на старте сказать, условно: «Ребята, несмотря ни на что, доводите меня до конца обучения, даже если я очень ленюсь». Или наоборот: «Не надо меня никуда вести, я хочу отключить все искусственные алгоритмы и учиться самостоятельно, без них». Либо какой-то средний вариант может быть.
Об этике настойчивого доведения пользователя до конца обучения
Бывает такой парадокс: та цель, которую человек перед собой ставит и достигает, делает его несчастным. Стоит ли тогда нам через образовательный продукт человека доводить до этой цели? Например, цель — повысить свой доход благодаря обучению. Но ведь у человека есть и другие потребности, кроме денег. Можно начать зарабатывать больше, но почувствовать себя в новой профессии глубоко несчастным.
Приведу такую метафору. Представьте, что мы учим человека копать колодец. В процессе он находит старинную монетку, та его очень заинтересовывает, и он бросает копать колодец и уходит изучать археологию. С точки зрения обязательного достижения первоначальной цели это нежелательное последствие, ведь мы не доучили его копать колодец.
Мы, как проектировщики обучения, потерпели неудачу. Поэтому в этой концепции мы должны отвлечь человека от монетки и археологии, вернуть к колодцу. Хотя на самом деле человек из-за этого что-то важное для него упустит — новое знание, может быть, даже истинное призвание.
Какая может быть реальная ситуация в контексте онлайн-обучения на курсах? Допустим, пользователь хочет стать методистом, но, изучая во время очередного занятия путь студента в программе, заинтересовывается продуктовым подходом, метриками и хочет стать уже не методистом, а продуктологом.
Да, конечно, если студент прямо изъявляет такое желание, мы ему даём возможность поменять курс. Но дадут ли ему технологии возможность увлечься чем-то иным, свернуть с дистанции, если они неумолимо ведут его к определённой цели? Я говорю о таком будущем в стиле «Чёрного зеркала», когда поведение пользователя контролируют алгоритмы машины, и в этом процессе нет человека, который скажет, что да, конечно, можно заменить курс.
О том, что обучение становится тоннельным
С развитием технологий обучение становится более тоннельным, потому что мы не даём пользователю пойти каким-то параллельным образовательным треком.
Все увлекаются продуктовым подходом: вот, давайте сделаем исследования и будем знать про пользователей всё, сможем точнее откалибровать образовательный продукт под их запросы. Но мне кажется, что у продуктового подхода есть определённые ограничения.
Одной из основных продуктовых метрик является время, проведённое на платформе, в LMS: чем больше, тем лучше, тем пользователь вовлечённее. Представим, что ради этого на платформе всё откалибровано под его интересы. Что произойдёт? У нас есть примеры с умными лентами социальных сетей, которые настроены таким образом, чтобы показывать нам контент, похожий на тот, который нам уже нравился или который нравится людям, похожим на нас.
Так же может случиться и с образованием: если предлагать пользователям только тот контент, который, скорее всего, вызовет у них позитивную реакцию, то они не будут сталкиваться с чем-то сложным для себя, с тем, что требует усилия для понимания, с тем, что, может быть, даже вызовет отторжение в первый момент.
То есть человек будет воспитываться в состоянии только позитивной аффирмации, с очень узкой картиной мира и восприятия действительности. Когда человек взаимодействует лишь с тем, что ему нравится, это его максимально ограничивает, получается тоннельность мышления, восприятия, взаимодействия с другими людьми. Мы сделаем человека однобоким. А потом он окажется, например, на работе в реальном мире, то есть в окружении людей с очень разными мнениями, и будет к этому не готов.
То есть это всё тоже про формирование ценностей.
Об этике обучения «машинами»
Когда-нибудь искусственный интеллект достигнет такого уровня, что мы не будем понимать, с кем мы общаемся, например, в чате — с машиной или с человеком. Это хорошо или плохо? Что произойдёт, когда машина будет полностью всё знать про то, как мы работаем, как мы обучаемся, какая методика или технология наиболее эффективна для нас, и будет подсовывать нам тот контент, те ситуации и тот опыт, которые нас точно доведут до цели?
Если мы при этом даже не будем понимать, что с нами происходит, то мы перестанем быть субъектами обучения, а станем объектами обучения для машины. Это кажется очень опасным.
Нам всем стоит не гнаться за вечной эффективностью, потому что за «эффективностью» часто скрывается оправдание равнодушия или отсутствия эмпатии, ведь в предельном своём выражении она предполагает достижение целей любой ценой. И не хвастать тем, как мы замечательно внедряем алгоритмы, механизмы и неотличимые от людей чат-боты, которые обучают людей.
Применяя искусственный интеллект в погоне за оптимизацией и эффективностью, нельзя забывать, что мы всё-таки имеем дело с машиной, и то, что она принимает решения о том, как учить человека, может иметь очень необычные последствия. Нам надо задуматься и проговорить, какова роль машины в обучении человека.
О том, что со всем этим делать
Нужно начинать думать и обсуждать в сообществе, какого выпускника сейчас формирует EdTech, какие ценности мы закладываем в сугубо практические программы.
Я думаю, сначала мы должны договориться в сообществе, что такое качественное обучение. Это понятие включает требования к процессу и результату. И когда мы построим понимание качественного обучения, нам нужно будет обсудить, насколько эта модель этична.
Первый вопрос тут — про неизбежность достижения образовательного результата. Если мы знаем, как человек учится, и можем подбирать определённые образовательные модели, которые точнее приведут его к образовательному результату, то есть обеспечим непременное его достижение, это морально или аморально?
В какой момент человек должен принимать решение о том, как он сам регулирует это достижение результата? Должен ли он, условно, где-то поставить «галочку» о том, что если будет терять мотивацию, то согласен на то, чтобы машина его «дожимала» для завершения обучения?
Второй большой вопрос — этично ли то, что мы доверяем искусственному интеллекту (по сути, машине) процесс обучения человека? Где место проектировщика образования в этой модели?
Третье — нужно признать, что мы в EdTech не только практическим навыкам обучаем, но и всё-таки задаём некую ценностную рамку. Этот набор ценностей нужно как-то определить, договориться о нём всем участникам рынка, разобрать его с той точки зрения, что вот «это — ОК», а «это — не ОК».
И тут одно вытекает из другого — этичность набора ценностей связана с этичностью применения технологий. Представим, что практическим навыкам людей учит машина, в которую «не загрузили» никакие ценности. То есть она эти ценности как-то «сама определяет» или просто абсолютно бесценностна.
Возвращаясь к метафоре с колодцем и монеткой: когда машина заметит, что человек нашёл монетку и заинтересовался ею, она её отберёт и даст ему опять лопату. И будет права, потому что с её позиции ценность только одна — научить тому, что первоначально стояло в качестве цели, то есть копать яму. А ценностей любознательности, открытия чего-то нового, приключения, человекоцентричности в неё не заложено.