Преподаватель одной из старших школ Нью-Йорка Джек Бушар высказался о том, что внимание к навыкам работы с искусственным интеллектом — попытка свести работу педагогов только к утилитарным аспектам образования, в колонке для EdWeek.
В своей колонке Бушар цитирует руководство для учителей по этичному использованию ИИ (такие документы для школ принимают разные штаты США): «Учащиеся, хорошо разбирающиеся в инструментах ИИ… будут лучше подготовлены к успешной работе в будущем». Нет ничего плохого в том, считает педагог, чтобы думать о будущих карьерных успехах нынешних школьников и стараться дать им практические навыки. Но задача образования не только в этом, ведь жизнь человека не исчерпывается тем, что он приносит кому-то пользу:
«Я с гордостью преподаю бесполезный предмет — английский язык. <…> Немногие из моих учеников смогут зарабатывать на жизнь, став профессиональными писателями, так же как не все, изучающие математику и естественные науки, станут математиками или учёными. Однако письмо — шанс познакомиться с самим собой… Мы должны воспитывать в учениках растущие личности».
По мнению Джека Бушара, о «бесполезных» аспектах обучения и человечности стали забывать — и у этого есть конкретные виновники.
Как считает эксперт, сегодня американское образование (заметим, что не только американское) в первую очередь готовит детей к работе и жизни в мире, сформированном изобретениями компаний из Кремниевой долины, то есть технологических, в первую очередь интернет-гигантов. Но что насчёт первой обязанности учителей — поддерживать развитие человечности в детях, их качеств и умов? Джек Бушар отмечает, что IT-компании — например, те, которые занимаются социальными сетями, — не разделяют эту обязанность, они по своей природе заинтересованы в детях и подростках как потребителях. И технологическим гигантам важно, чтобы пользователи как можно больше времени проводили в приложениях.
Учитель приводит пример: несколько лет назад Meta* провела исследование, которое показало, что социальные сети негативно влияют на психическое здоровье подростков, особенно девушек, которые проводили много времени в «Инстаграме»*. Эти результаты так сильно противоречили интересам компании, что их не обнародовали: исследование просочилось в Сеть лишь благодаря информаторам. И хотя в Meta* постарались преуменьшить значение выводов, отрицать суть исследования в компании не стали.
На взгляд преподавателя, генеративный ИИ не окажет такого же влияния на психику молодых людей, как смартфоны и социальные сети. Но он меняет представление о том, что значит создавать. Разработчикам новых инструментов важно убедить общественность в том, что их разработки эффективны для творчества. Преподавателям же следует задаться вопросом, способствуют ли новые инструменты развитию учеников.
«Учителя и школы — не лакеи Кремниевой долины. Наша задача в том, чтобы задаться вопросом, служит ли генеративный ИИ человечности наших студентов. Если ответ отрицательный, тогда мы говорим „нет“ технологии», — заявляет Бушар.
В конце колонки автор напоминает: развитие ИИ не означает, что учителям нужно отказаться от своей обычной деятельности и просто готовить детей к работе в мире машин. Ведь жизнь нынешних школьников в этом непонятном новом мире не будет ограничена работой — им нужно будет разбираться в себе и искать истину, как и раньше.
Ранее опрос среди американских учителей показал, что 59% опрошенных американских педагогов не используют в работе ChatGPT и другие инструменты на основе генеративного искусственного интеллекта. Чаще всего педагоги не осваивают инструменты ИИ, потому что у них другие профессиональные приоритеты, — такую причину отметили 46%. 30% сообщили, что не видят способа эффективно встроить ИИ-инструменты в учебный процесс, а 19% — что вообще не считают их применимыми для преподавания своего предмета.
* Решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности».
Больше интересного про образование ― в нашем телеграм-канале. Подписывайтесь!
Читать также: