«НП» уже сообщало, что на исходе марта в казахстанском центре делового сотрудничества «Атакент» прошла выставка AlmatyFair.ai, посвященная проектам на основе искусственного интеллекта (ИИ). Ее посетили находившийся с неофициальным визитом в Алматы президент Узбекистана Шавкат Мирзиеев и глава нашей республики Касым-Жомарт Токаев.
Среди тех, кто представлял президентам решения в области ИИ, был и руководитель «Казахтелекома» Багдат Мусин. «Когда я ехал в Атырау с водителем из компании «Тенгизшевройл», мы опаздывали, и я дважды просил его прибавить скорость. Он ответил: «Извините, у меня везде стоят датчики. Если я нарушу, контракт со мной разорвут еще до того, как мы приедем». Этот простой пример — о главном. Технологии формируют привычки. Привычки формируют культуру. А культура формирует нацию», — рассказал Мусин во время презентации. Поговорим о том, какие привычки и культуру формирует ИИ в учебе подрастающего поколения.
Кушайте, не обляпайтесь
В январе 2025 года 16-летний пользователь соцсети-форума Reddit под никнеймом Alone_Yam_36 рассказал, как его 11-летняя сестра, ученица последнего класса начальной школы, обращается с домашними заданиями. Она полностью отдает их на откуп ИИ ChatGPT (разработчик — американская компания OpenAI).
Например, девочка просила ChatGPT перевести три минуты в секунды и ответить, сколько часов в одних сутках. Пятиклассница также перепоручала роботу пересказать детский стишок из 150 слов. Получив ответ из нескольких предложений, девочка потребовала сжать их в одно, а затем — до семи слов. «Она не читает ни задания, ни ответы от ChatGPT, а лишь тупо копирует их, пока на фоне включена какая-нибудь компьютерная игра, — сокрушается брат девочки. — Если другие дети в начальной школе тоже так делают, нас ждет мрачное будущее. Дети Z способны писать и отвечать на вопросы, но пользуются ChatGPT, потому что им лень. Поколение Alfa не сможет обойтись без него, потому что оно будет вообще не в состоянии делать это само».
Позже Alone_Yam_36 опубликовал дополнение о реакции родителей. Тридцатишестилетний отец ответил сыну, что теперь дети учатся иначе, что это лучше, чем если бы дочь не училась вообще. Хотя то, что она не учится, уже очевидно всем. Мать ничего не сказала и поспешила сменить тему. Такое отношение родителей расстроило их сына еще сильнее.
Среди комментариев его печали и такой: «Одиннадцатилетки — это не поколение Z, а детишки умных-разумных-прогрессивных миллениалов, любителей Gentle Parenting. Кушайте, не обляпайтесь». Для тех, кто еще не знает: Gentle Parenting — модный на западе метод воспитания, основанный на сострадании к ребенку. Идеологом метода считается автор The Gentle Parenting Book («Книга нежного воспитания») и других монографий британский психолог Сара Оквелл-Смит. Главное правило приверженцев Gentle Parenting — никогда не говорить чаду «нет».
Приведенный пример — лишь один из множества, которое ставит перед обществом ребром вопрос: ИИ в учебе — благо или зло? На эту тему уже немало исследований и дискуссий в разных странах. В частности, осенью 2024 года группа ученых Пенсильванского университета сравнила результаты более тысячи американских школьников в решении математических примеров уровня средней школы. Ученики с регулярным доступом к упомянутой нейросети ChatGPT правильно решили на 48 процентов больше конкретных задач, чем школьники без ИИ-подсказчика, но начисто проиграли последним тесты на знание изучаемой темы в целом.
Пенсильванцы пришли к выводу, что ИИ может сильно вредить школьной учебе и развитию детей в целом. Причем вредит даже кастомизированный (подстроенный под индивидуальные запросы) робот-учитель. По мнению американских ученых, ИИ выступает не более чем костылем для юных мозгов. Ведь в подавляющем большинстве случаев школьники просят ChatGPT дать лишь конечный ответ. Тем временем опыт решения задач у них не развивается, а даже невеликие навыки деградируют.
Кроме того, в проведенном исследовании популярный робот ChatGPT часто ошибался. Математические задачи он решал правильно лишь в половине случаев, а в простых арифметических действиях искусственно-интеллектуальный брак составил восемь процентов. Но хуже всего то, что пошаговый подход ChatGPT к решению задач был неверным в 42 процентах случаев.
Детсадовские фокусы
За полгода до выводов Пенсильванского университета обширный опрос учащихся и педагогов в Санкт-Петербурге завершился дискуссией последних и экспертов в области образования в Московском международном образовательном салоне (ММОС). Среди вопросов питерским школьникам и учителям был такой: «Пользуетесь ли вы в обучении нейросетями?». «Да» ответили целых 64 процента учеников и лишь 24 процента учителей. Что происходит? Кто кого и как учит? Вообще учатся ли ученики и учат ли учителя?
По мнению участников дискуссии, проблема списывания из интернета готовых домашних заданий (ГДЗ) ушла на задний план. Борясь с ней, российские педагоги стали давать ученикам так называемые творческие домашние задания, отличные от тех, что в учебниках. В ответ ребятня с пятого-шестого класса массово подсела на все тот же ChatGPT. Забрасывает ему запрос и через несколько минут получает ответ, который остается лишь слегка «подрихтовать», устранив разве что ошибки в переводе с английского на русский язык.
«Вся наша система домашних заданий скомпрометирована, — считает методист онлайн-курсов питерского элитного президентского лицея № 239 Яков Сомов. — Эссе, сочинения, да любые задания на дом делают роботы. Примитивно, сложность уходит. А ведь создавать и удерживать сложную картину мира в голове можно, только сталкиваясь со сложной книгой, сложным произведением, сложным фильмом, сложной экскурсией и так далее».
Декан факультета довузовского образования Научно-исследовательского университета Высшей школы экономики в Санкт-Петербурге Николай Пшеничный рассказывает, что с 2023 года запросы старшеклассников нейророботам как были, так и остались примитивными. «Запрашивают из серии «Сожгли 100 граммов жира. Сколько выделилось килокалорий?» — привел пример декан. — Получив в руки эквивалент волшебной палочки, дети продолжают показывать детсадовские фокусы. Но это не потому, что они тупые. Это не так. Просто система не ставит перед ними сложные вызовы».
«Мы находимся на той стадии, когда ИИ может стать фастфудом, который искалечит естественный интеллект», — высказалась директор Института педагогики Санкт-Петербургского госуниверситета Елена Казакова. Она тоже за усложнение, за то, чтобы пересмотреть образовательный арсенал и использовать ИИ как инструмент для создания более сложной, интересной, творческой картины мира.
Но ИИ абсолютно нельзя доверять обучение и уж тем более воспитание, убеждена Казакова. В качестве примера она привела человекоподобного робота-учителя, который появился в Индии и участвует в школьных уроках наравне с живым учителем. «Я прочла комментарии детей по поводу этого робота и долго смеялась, — призналась она. — Они радовались тому, что робот не кричит, не задает домашку и вопросы. Ценность такого процесса образования, с моей точки зрения, близка к нулю».
По словам директора Института когнитивных исследований Российской академии наук Татьяны Черниговской, человеческий мозг впитывает в себя все, с чем сталкивается. Поэтому в нем такая мощь. Цифровая эра с ее другими способами обработки информации не может не влиять на нас. Даже на онлайн-обучение мозг реагирует иначе, чем на живое, вплоть до восприятия похвалы или критики. Это подтверждено исследованиями. Важна обратная связь, а ИИ не обладает эмоциями и эмпатией.
«Плюсы и риск от работы с нейросетями огромные, — говорит Черниговская. — Это вызов нам как биологическому виду. В 2023 году мы обсуждали, как нейросеть написала за студента диплом. Это ведь пойдет полным ходом. Начнут выпускать специалистов, обученных не людьми. Мы этого хотим? Я вот не хочу лечиться у врача, вместо которого училась нейросеть» (Имеется в виду обучение ИИ на больших внешних данных, после чего ИИ учит человека — Авт.). По словам Черниговской, человечество еще не готово к тому, чтобы жить в мире, где соседствуют естественный и искусственный интеллекты. Нет единых правил. Ни юридических, ни этических, ни организационных — никаких. Слова Черниговской подтверждает текущая мировая практика.
Разброд и шатания
Токийский университет запретил студентам тексты, написанные с помощью ChatGPT, который мешает развитию самостоятельного мышления. Университет Тохоку предупредил студентов о риске в нейросети утечки личных данных и вранья, а использование ИИ без официального разрешения приравнял к плагиату. Образовательный университет Гонконга разрешил использование ИИ, если студенты заранее уведомят преподавателя и объяснят цель использования робота. Университет Гонконга и Китайский университет Гонконга полностью запретили использование ИИ, приравняв его к академической нечестности с перспективой отчисления.
В США не запрещают, а пытаются интегрировать ИИ в образовательный процесс. За океаном развитие ИИ повлекло пересмотр методов учебы. Университет Джорджа Вашингтона и Ратгерский университет отказались от домашних заданий —акцент сделан на работе в аудиториях, рукописных (в буквальном смысле) докладах, групповой работе и устных экзаменах. Университет штата Нью-Йорк в Буффало и Университет Фурмана планируют лишь обсуждение ИИ, но в обязательных курсах. Университет Вашингтона в Сент-Луисе и Вермонтский университет обновляют политику академической честности, используя ИИ для обнаружения плагиата.
Кембриджский университет позволил использование ChatGPT с ограничениями: его нельзя применять в подготовке курсовых работ и на экзаменах. Это решение поддержали Оксфордский, Эдинбургский и Йоркский университеты. В Институте политических исследований Sciences Po в Париже запретили использование ИИ для письменных работ и устных презентаций, если это не указано в рамках курса.
Университет Абу-Даби разработал инструкцию по использованию ИИ, подчеркивая обязательность перепроверки ответов человеком и надежной защиты личных данных. Индийский технологический институт Хайдарабада решил, что ИИ полезен в преподавании, предложив не запрещать его. Напротив, Университет RV в Бангалоре категорически запретил использование ChatGPT и других ИИ-инструментов, проводя внезапные проверки.
Поводом для дискуссий о нейросетях в образовании РФ стал случай в Российском государственном гуманитарном университете, студент которого Александр Жадан в 2023 году написал с помощью ИИ диплом и защитил его. Мнения разделились: одни считают, что доступ к таким технологиям надо ограничить, другие — что необходимо приспосабливаться к новым реалиям. Первым российским вузом, официально разрешившим студентам применять ИИ-технологии в создании дипломов и других работ, стал Московский городской педуниверситет. Следом внедрил курсы по использованию ИИ Московский финансово-юридический университет.
Еще больший разброд царит в мире в том, что делать с ИИ в школьном образовании, где все оказалось сложнее, чем казалось поначалу. В 2024 году дебаты на эту тему всколыхнул трагический случай в США. Там после длительного общения с роботом Character. AI 14-летний Сьюэлл Сетцер забросил учебу в школе и покончил жизнь самоубийством.
Как показало расследование, Сьюэлл влюбился в рожденный роботом виртуальный образ Дени. В интимной переписке с Дени подросток искал способ соединиться с ней, в том числе затрагивал тему суицида, которую робот не только не пресекал, но еще и поддерживал. В последнем диалоге с Дени Сьюэлл признавался ей в любви и обещал прийти. На что искусственно-интеллектуальная собеседница позвала его «прийти как можно скорее». После чего подросток застрелился из пистолета отца. Мать покойного подала иск и судится с разработчиками Character.AI. Рассказавшая об этом New York Times оценивает судебные шансы матери на компенсацию минимальными.
Казахстанское общество, включая его образование, в ожидании закона об искусственном интеллекте, который рассматривает парламент. Но уже очевидно, что закон вряд ли вместит в себя решение всех проблем, связанных с ИИ. В том числе в образовании и воспитании, приоритетность которого над получением знаний подчеркнул на IV Национальном курултае Касым-Жомарт Токаев. А посему «покой нам только снится».
Фото Талгата Галимова