Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
articlePicture
Исследования

Пока Запад раскачивается, Восток действует

Уходящий июль наглядно показал контраст отношения Запада и Востока к проблеме утечки персональных данных граждан. Чтобы увидеть это, достаточно сопоставить три события

Почувствуйте разницу

В середине июля Европарламент принял закон, для краткости называемый «Акт ИИ»документ, который будет регулировать развитие систем искусственного интеллекта и защищать от них граждан. Европарламентарии с гордостью называют его первым подобным законом в мире. Но для того, чтобы он вступил в действие, предстоят еще многоступенчатые согласования между Европарламентом, Еврокомиссией и Евросоветом. Ожидают, что закон вступит в силу не ранее 2025 года.

Также в истекающем месяце и также в связи с неоднозначностью ИИ досрочно внесла изменения в действующий с 2003 года закон о защите личной информации (APPI, который официально положено пересматривать раз в три года, предыдущий раз — в 2021 году) Япония. Среди корректировок — легитимизация весеннего запрета вузов страны на использование ИИ при подготовке дипломов, а также отмена всех ограничений на применение положений APPI для граждан Японии за ее пределами.

А 14 июля Управление киберпространством Китая (CAC) объявило, что совместно с правоохранительными и контролирующими органами разработало национальные правила регулирования генеративного ИИ. Среди прочего они направлены на предотвращение трансграничной утечки персональных данных китайцев. Правила не распространяются на исследования искусственного интеллекта, но затрагивают все услуги, предлагаемые на его основе пользователям, то есть народу и бизнесу. В частности, правила обязывают компании, использующие ИИ для массовых услуг, получать на эту деятельности государственную лицензию, а также сообщать об инцидентах в этой сфере ее регулятору, то есть CAC. Кроме него контролировать выполнение правил будут еще шесть ведомств, в том числе Госкомитет по развитию и реформе и Министерство образования КНР.

И в Европе, и в Японии, и в Китае среди главных причин шагов в сторону госрегулирования ИИ — стремление к минимизации и предотвращению разглашения персональных данных. Но, как говорится, почувствуйте разницу: если в Европе названный закон заработает лишь в 2025 году, то Япония из-за опаски к ИИ досрочно усилила законодательную защиту личной информации, а Китай вообще обошелся подзаконными правилами, вступающими в силу 15 августа, практически через две недели.

Четвертый факт для размышления: установленное учеными из Стэнфордского и Калифорнийского университетов Матеем Захария, Линцзяо Чэнем и Джеймсом Цзоу резкое ухудшение качества новейшего, запущенного компанией OpenAI интеллектуального робота ChatGPT-4. Открыв широкий доступ (кстати, платный) к нему в начале июля, OpenAI объявила его самой продвинутой и функциональной ИИ-моделью. А Захария, Чэнь и Цзоу в научной работе «Как меняется поведение ChatGPT с течением времени» показывают, что с начала тестирования в марте до макушки лета 2023 года точность ChatGPT-4, например в определении простых чисел, рухнула с 97,6 до… 2,4 процента. Существенно упали и другие показатели широко разрекламированной модели. Вывод авторов исследования: ChatGPT-4 за четыре месяца буквально отупел.

На этом фоне июльские действия Японии и Китая для информационной защиты своих граждан выглядят не торопливостью, а оперативностью. 

Инструмент для педофилов

Американские (читай — ведущие) разработчики ИИ не отрицают опасностей, которые в себе таит ИИ, но аккуратно помалкивают об утечке конфиденциальной личной информации. «Мои худшие опасения заключаются в том, что мы — отрасль, технологии, индустрия — наносим значительный вред миру, — пафосно признавал в мае 2023 года на слушаниях в Конгрессе США Сэм Альтман, генеральный директор дочерней майкрософтовской компании OpenAI, которая разработала тот самый нашумевший чат-бот ChatGPT. — Мое особое беспокойство вызывает то, что ИИ может манипулировать мнением избирателей и распространять дезинформацию».

Умолчание здесь в том, что и манипулирование, и дезинформация, и в целом неблаговидное использование сведений становятся возможными как раз-таки благодаря нацеленности на добычу конфиденциальной информации, в том числе для… развития ИИ. Также июльский пример тому — иск, поданный в США на 3 миллиарда долларов к той же компании OpenAI за фактическое воровство персональных сведений. В жалобе от имени 16 граждан утверждается, что OpenAI скрытно собрала «огромное количество личных данных» из соцсетей, частной переписки и медицинских карт людей для обучения роботов ChatGPT и DALL-E на основе ИИ и решила «получать прибыль за счет пренебрежения конфиденциальностью, безопасностью и этикой», нарушив тем самым несколько американских законов.

Самое возмутительное, по мнению истцов, в том, что OpenAI извлекала из интернета фотографии детей, используя их для обучения DALL-E, печально известного генератора изображений. «DALL-E стал излюбленным инструментом педофилов, — говорится в иске. — За считаные секунды DALL-E может создавать реалистичные изображения детей, совершающих половые акты. Эта модель-генератор была обучена на миллиардах изображений, взятых без предварительного уведомления и согласия из интернета. Таким образом, изображения реальных детей являются исходным материалом для детской порнографии, созданной искусственным интеллектом».    

Кроме того, в ходе судебного слушания подтверждено, что ради обучения своих чат-ботов OpenAI использовала составляющие врачебную тайну сведения, почерпнутые из медицинских карт пациентов и разговоров с ними. Например, если человек советовался с ChatGPT о своем здоровье и делился с ним своими болячками, эти данные фиксировались и сохранялись на серверах OpenAI. В его распоряжении также оказывалось содержание медицинских карт пациентов, чему способствовало стремление больниц внедрить в свою практику ChatGPT.

Штрафануть бы государство, да накажем лишь себя

Чем и как охраняется личная конфиденциальная информация в Казахстане? В этом году исполняется десять лет Закону РК «О персональных данных и их защите», откорректированному в 2021 году. Однако в течение этого десятилетия утечка конфиденциальных сведений происходит в стране ежегодно. Лишь в 2018 — 2020 годах, согласно исследованию компании по оказанию услуг кибербезопасности InfoWatch, в 24 случаях в республике «утекло» в общей сложности более 11 миллионов единиц персональной и платежной информации. Самый масштабный инцидент — утечка персональных сведений 11 миллионов казахстанцев в свободный доступ из Центризбиркома РК в июле 2019 года после внеочередных президентских выборов.

По данным InfoWatch, доля утечек в результате вмешательства так называемых внешних злоумышленников составила лишь 27,3 процента. Соответственно, остальные 72,7 процента — на совести отечественного персонала. В том числе половина — по вине работников государственных органов и организаций. Основной канал слива конфиденциальной информации — интернет, на который пришлось более 80 процентов утечек.

«Информация — товар и оружие одновременно. Либо ты ее продаешь, либо покупаешь, либо ею убиваешь». (Олег Маркеев, роман «Угроза вторжения», 2000 год.)

Какую ответственность понесли виновники? «Не могу назвать ни одного резонансного судебного процесса по теме утечек персональных данных казахстанцев, — отмечает Арман Абдрасилов, управляющий партнер столичной компании по оказанию информационно-технологических услуг BRAIN TRUST, в прошлом руководивший национальным информационным холдингом «Зерде». — Не было такого, чтобы компания или организация, причастная к утечке, понесла ощутимую ответственность за это».

Между тем в мире уже есть обширная судебная практика наложения на виновников разглашения конфиденциальных сведений так называемых оборотных штрафов, достигающих 10 процентов годового денежного оборота нарушителя. Один из известных примеров — выплаченный штраф в размере 5 миллиардов долларов, наложенный судом в 2019 году за массовую утечку персональных данных на детище Марка Цукерберга Facebook.

В Казахстане, где законодательство предусматривает за разглашение персональных сведений даже уголовное наказание, на практике ответственность сводится лишь к административным штрафам. Самый крупный из них составляет тысячу МРП (сейчас — менее 3,5 миллиона тенге) только для субъектов бизнеса и негосударственных организаций наподобие разглашающих конфиденциальные сведения о своих владельцах КСК, ОСИ и прочей мелкоты. А ответственность госорганов — вообще вопрос открытый.

Кроме того, фактически главный в стране куратор решения проблемы — Комитет по информационной безопасности — подчинен Министерству цифрового развития, инноваций и аэрокосмической промышленности (МЦРИАП). «Одна из причин, по которой Комитет по информационной безопасности находится в структуре МЦРИАП РК, — его руководство понимает, что как только этот орган выйдет из-под контроля, он начнет конкурировать с министерством, — считает Аблрасилов. — То есть, зная все проблемные участки, начнет закрывать их и тем самым тормозить развитие. Поэтому сейчас, имея механизм воздействия на этот комитет, МЦРИАП сдерживает его от фактической атаки на себя».

Так или иначе, но очевидно, что в условиях нарастания цифровизации, в том числе проникновения в практические сферы ИИ, увеличивается и угроза персональным данным казахстанцев. В повышении адекватности их защиты вряд ли достоин подражания пример Европы. Если брать за точку отсчета ее первый многостранично-многословный «Скоординированный план по ИИ» образца 2018 года, то Старый Свет шел к принятому, но еще далекому от внедрения в практику «Акту ИИ» долгих пять лет. Восток в лице Японии и Китая действует куда энергичнее.

Андрей Жданов