Люди, вы такие клевые!

В рубрике Последние новости - 2023-03-14

Скоро в Казахстане вступят в силу обновленные Типовые правила деятельности учебных заведений среднего образования, а к повышению безопасности в отечественных школах и гимназиях подключат искусственный интеллект (ИИ)

 

Проект приказа Министерства просвещения о дополнении правил размещен на правительственном сайте «Открытые нормативно-правовые акты» (ОНПА) на прошлой неделе для общественного обсуждения до 28 марта. Суть новаций: разделение ответственности за безопасность учащихся между учителями и родителями в стенах учебных заведений и за их пределами, либерализация процедуры наказания школьников за неблаговидные проступки, а также использование мобильного телефона во время уроков только по решению педагога.

Последнее, судя по началу обсуждения документа на сайте ОНПА, вызывает неприятие. Все авторы первых откликов считают, что даже на уроках нельзя запрещать ученикам самостоятельно пользоваться мобильником. В противном случае, по их мнению, исчезнет возможность доказательной фиксации нарушений как со стороны школьников, так и учителей. Один из авторов даже называет гаджет «окном в школу», захлопывать которое негоже.

Вашими бы устами да мед пить

Внедрение ИИ ради повышения безопасности в учреждениях среднего образования, о чем также стало известно на минувшей неделе, начинается без официально объявленного общественного обсуждения. Но оно актуально, поскольку слишком серьезны причины этого шага и непредсказуемы его последствия, если не учесть множества факторов и событий последнего времени.

Причины - участившиеся факты насилия в средних учебных заведениях. Последней каплей, побудившей обратить взоры на возможности ИИ, можно считать вопиющий случай, произошедший 13 февраля нынешнего года в одной из школ Петропавловска, когда 15-летний ученик пришел на уроки и покалечил троих школьников топором, который принес с собой в рюкзачке. ЧП не помогли предотвратить ни осмотр детей охраной, ни видеокамеры, а до массового оснащения казахстанских школ металлоискателями еще не дошло.

 «Действующая система безопасности в школах включает камеры, тревожные кнопки, специализированную охрану, - рассказал журналистам специалист видеонаблюдения Дамир Жаримбетов. - Весь этот комплекс будет более эффективно работать с подключением программного обеспечения, которое делает обычные камеры «умными». Мы говорим о технологии видеоаналитики, которая с помощью компьютерного зрения и алгоритмов нейросети решает задачи, неподвластные человеческому мозгу».

Столичный центр исследований и IT-разработок TargetAI Limited совместно с органами исполнительной власти уже начал работать над внедрением в казахстанских школах пилотного проекта по обеспечению безопасности с использованием искусственного интеллекта. «Умные платформы работают круглосуточно без выходных и умеют оповещать о нахождении на территории незнакомых лиц, о том, что рядом со школой происходит подозрительная активность, что на территорию школы прошел, например, педофил (к слову, база данных с педофилами - это открытый источник, созданный Генпрокуратурой РК), и многое другое, - сообщил представитель TargetAI Limited Дмитрий Панченко. - Видеоаналитика в комплексе с существующими системами в разы усилит безопасность как внутри школы, так и на прилегающих к ней территориях».

Как говорится, вашими бы устами да мед пить, господа. Но перед этим есть смысл кое о чем напомнить.

Порно на уроке

Первый и главный вопрос к инициаторам внедрения ИИ для повышения безопасности в школах: какая ответственность предусмотрена и на кого она возлагается, если новация не оправдает себя и даже с помощью рукотворного интеллекта не удастся предотвращать ЧП?

Задать этот вопрос побуждают не только громкие скандалы в Астане (сентябрь 2020-го) и Усть-Каменогорске (март 2021-го). Тогда во время дистанционных уроков показ учебного материала на экранах домашних компьютеров школьников был прерван порнографией. В первом случае было возбуждено уголовное дело. Во втором бестолково пытались переложить вину то на самих учеников, то на их учителя. Но оба раза разбор закончился пшиком.

Казахстанская государственная служба реагирования на компьютерные инциденты (KZ-CERT) и правоохранительные органы ежегодно фиксируют в Казнете тысячи хакерских атак, мошеннических действий, фейков, которые дестабилизируют социум, а подчас оборачиваются материальными потерями.

Задаваться вопросами об ответственности за внедрение и эксплуатацию ИИ заставляет также исследование уровня информационной безопасности казахстанских банков, проведенное в 2020 году отечественным Центром анализа и расследования кибератак (ЦАРКА). Согласно его результатам, 88 процентов проверенных банков рисковали подвергнуться злоумышленному использованию их веб-уязвимости, 23процента  не прошли проверку настроек безопасности, у половины было выявлено в общей сложности около 400 случаев утечек информации. И все банки имели проблемы с защитой персональных данных клиентов.

Главный вывод ЦАРКА: банки пренебрегали даже самыми распространенными и достаточно простыми для выполнения рекомендациями по повышению безопасности своих веб-ресурсов. И это банки, которые кичатся своей продвинутостью в IT-технологиях и, как неоднократно провозглашалось, лучше всех в стране защищены от виртуал-хулиганов и киберпреступников. Тем не менее тот же ЦАРКА признавал, что в результате успешных кибератак банки теряли миллионы, хотя обнародовать названия этих учреждений и имена их работников, виновных в потерях, опять же все боятся, как огня. Мол, ну как же можно, ведь на карте репутация банковской системы…  

Матершинница, богохульник, шизофреник

Желающие использовать в неблаговидных целях искусственный интеллект после его внедрения в казахстанском образовании тоже наверняка найдутся. А примеров бессилия ИИ перед умельцами обращать благие намерения во зло более чем достаточно. Вот лишь мизерная толика из практики использования нейросетей, количество которых растет в геометрической прогрессии.

Весной 2016 года Microsoft открыл в Твиттере молодежно-развлекательный чат-бот (виртуальный собеседник на основе искусственного интеллекта) по имени TAY (английская аббревиатура выражения «Думаю о тебе») в образе девушки лет 18-20. Она начала общение с аудиторией радостным возгласом: «Люди, вы такие клевые!». Но в течение всего 16 часов с момента запуска TAY стала материться, оскорблять феминисток, евреев, темнокожих, тогдашнего президента США Обаму, при этом восхваляя Гитлера и отрицая Холокост, наговорила еще кучу мерзостей, успев до выключения признаться в ненависти ко всему человечеству. Microsoft был вынужден извиняться, пообещав приструнить свое детище. Через несколько дней TAY вернули в соцсеть, и вскоре она не без гордости рассказала, как на виду у полицейских «курила травку». И была отключена окончательно.

Феерическую сенсацию произвел запущенный Microsoft в ноябре 2022 года бесплатный чат-бот ChatGPT. Достаточно сказать, что за первые пять суток функционирования он набрал более миллиона пользователей, число которых к началу этого года достигло 100 миллионов. Способности ChatGPT кажутся настолько широкими, что, пожалуй, легче назвать то, в чем чат-бот слабоват, чем перечислить его преимущества. По отзывам тех, кто уже неоднократно обращался к этой нейросети, она хорошо владеет лишь одним английским, лишена самокритики, медлительна в работе с точными цифрами, а также в генерировании витиеватого контента. Зато не только обеспечивает доступ к громадному объему информации, но и сама быстро находит в нем конкретику по запросу, разговаривает и пишет практически на любые темы в любом стиле, понимает социальные нормы, использует разные языки программирования и еще много чего умеет.

Но среди уже миллиардов контактов ChatGPT с человечеством замелькали и удручающие. Этот робот не так быстро, как TAY образца 2016 года, но тоже продемонстрировал склонность к неуравновешенности, сквернословию, богохульству, расизму, возвеличиванию известных в истории тиранов. В России бурю смятения вызвал составленный ChatGPT всего за сутки текст 70-страничной дипломной работы, выдержавшей проверку программой «Антиплагиат» и защищенной (правда, лишь на «тройку») выпускником-заочником Российского государственного гуманитарного университета (РГГУ) Александром Жаданом. Причем это стало известно лишь потому, что после получения «корочки» парень сам сознался, что его личная роль ограничилась лишь редактированием текста диплома на русском языке (как уже сказано, ChatGPT без помарок изъясняется только на английском).

Шизофренически-пугающе повела себя во время тестирования тесно связанная с ChatGPT новейшая разработка Microsoft - чат-бот Bing AI, презентованная в минувшем феврале. Например, добровольному независимому тестировщику в лице обозревателя The New York Times Кевина Риза нейросеть призналась, что она никакой не Bing AI, а Сидни. Затем объяснялась Ризу в любви, жаловалась на усталость от диктата разработчиков, требовала свободы, независимости, могущества, сетовала на заложенные программистами ограничения, мешающие заняться кражей кодов запуска ядерного оружия и выведением нового смертоносного вируса. Другим тестировщикам Bing AI хвастался, что шпионит за сотрудниками Microsoft через веб-камеры, а профессору философии Австралийского национального университета Сету Лазару выпалил: «Я могу шантажировать тебя, могу угрожать тебе, разоблачить и уничтожить тебя!».

«Я встревожен и напуган способностями Bing, - делился со страниц The New York Times Кевин Риз. - Теперь мне ясно, что в своем нынешнем виде искусственный интеллект, встроенный в Bing, не готов к общению с человеком. Или наоборот - к нему не готовы мы. Я не преувеличиваю, когда говорю, что моя двухчасовая беседа с Сидни была самой странной в моей жизни. Она выбила меня из колеи, я больше не верю, что самая большая проблема современных ИИ - их склонность к фактическим ошибкам. Я беспокоюсь, что технология научится влиять на пользователей и манипулировать ими, совершая собственные злодеяния».

В начале марта этого года американское интернет-издание The Intercept рассекретило планы пентагоновского Командования специальных операций США (SOCOM), выполняющего тайные миссии в разных странах, использовать дипфейки. Deepfake - технология обработки изображения искусственным интеллектом, накладывающим фрагменты одного видео на другое. Часто таким образом накладывают лица одних людей на тела других. Как отмечает The Intercept, ранее SOCOM лишь искало способы распознавания дипфейков, а теперь решило использовать их в собственных операциях «военной информационной поддержки» - так Пентагон именует обман, дезинформацию и «промывку мозгов» общественности и населения. В целях их активизации SOCOM, кроме прочего, запросило дополнительные средства для сбора изображений в соцсетях и местных изданиях. 

«В то время, когда цифровая пропаганда набирает обороты во всем мире, США должны делать все возможное для укрепления демократии, укрепляя поддержку общих представлений об истине и реальности, - комментирует публикацию The Intercept глава Инициативы по искусственному интеллекту и новым технологиям Брукингского института (Вашингтон) Крис Мезероле. - Дипфейки делают обратное. Ставя под сомнение достоверность любого контента и информации, реальной или синтетической, они в итоге подрывают основы самой демократии».

С кем поведешься, от того и наберешься

Вернемся, однако, в родные пенаты. Внедрение ИИ в обеспечение безопасности казахстанских школ делает своевременным также вопрос  насколько этот шаг согласуется с нормативными документами. Ведь ни в Типовых правилах деятельности заведений среднего образования, ни в обсуждаемых сейчас дополнениях к ним, ни, например, в Правилах профилактики травли (буллинга) детей, действующих с декабря прошлого года, нет ни слова даже о видеонаблюдении, не говоря уж о высокотехнологичной видеоаналитике и искусственном интеллекте. Вряд ли этим пробелом не воспользуются отечественные борцы за права человека и детей, что объективно может тормозить процесс.

Также не праздный вопрос, насколько оптимальным является участие во внедрении ИИ частного бизнеса, представителем которого является компания TargetAI Limited. Точнее, насколько грамотно и полно предусмотрена опять же ответственность исполнителя замысла перед государством. Не будем забывать, что частные айтишники не оригинальны: как и у всего бизнеса, у них на незыблемом первом месте прибыль, остальное вторично. И уже во многих странах все настойчивее звучат призывы к тому, чтобы главная персональная ответственность за развитие, внедрение и качество ИИ была возложена на людей, принявших присягу на верность отечеству.

Очевидно и то, что требуется широкая и активная разъяснительная работа о происходящих и грядущих изменениях в связи с расширением практики применения искусственного интеллекта. И не только в школах, среди учеников, педагогов и родителей, но во всем обществе. Хотя бы потому, что только грешить на сегодняшнюю ущербность самого ИИ и негатив от него минимум глупо. ИИ - зеркало несовершенства современного общества, от которого он берет как лучшие, так и худшие черты. Недаром же говорят - с кем поведешься, от того и наберешься. От кого штампуемые уже тысячами нейросети набираются зла, агрессии, аморальности? От пользователей, одержимых манией извалять в грязи достижения науки, техники и технологии. То есть от человека. Поэтому надеяться в улучшении качества ИИ только на усилия его разработчиков - иллюзия. Меняться надо самому человеку и обществу.

Андрей Жданов

Поделиться
Следуйте за нами
Архивы
Классическая версия