Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Накануне фейковой эпохи
ПравоЗаконотворчество

Накануне фейковой эпохи

Озорство, нарушение чужих прав или преступление?

В интернете полно фейкового контента, созданного посредством искусственного интеллекта, который вводит людей в заблуждение. Например, к некоему видео «прикручивается» другая аудиодорожка. Скажем, известный врач на самом деле рассказывал о вреде курения, а в подделке он призывает обращаться в его клинику, обещая легкое исцеление от тяжелого заболевания. Развелось и так называемых музыкальных AI-каверов, то есть сгенерированных ИИ химер, когда некий текст наложен на музыку и голос известных артистов. Есть и вполне научные эксперименты (на что способен AI/ИИ), когда нейросетям ставится задача, например, написать стихи на определенную тему (дождь и память) в стиле русских поэтов серебряного века.  Что это: стеб, невинное озорство или нарушение чужих прав, за которое положена административная или даже уголовная ответственность?

Ответим сразу: если даже и положено наказание, то на деле призвать к ответу весьма затруднительно.

Вспомните эпизод из фильма «Тот самый Мюнхгаузен»: «Воспользовавшись своим внешним сходством… коварно овладев его походкой, голосом и даже отпечатками пальцев, подсудимый наивно надеется нас обмануть и заставить узнать в себе нашего дорогого барона».

Так что идея давняя. И, к слову, тогда как раз обвиняемого наказали, притом настоящего барона... 

Но, кроме шуток: именно с эволюцией искусственного интеллекта и получением к нему широкого доступа перечисленные выше фейки стали легко и массово исполнимы. Рубиконом стал прошлый 2024 год, когда производители софта начали предоставлять пользователям по всему миру множество AI-приложений. Вроде, например, Suno AI, посредством которого можно создавать музыкальные AI-каверы, завалившие Сеть. Впрочем, ранее «НП» писало об этом. В данных случаях речь идет о плагиате и авторском праве. Однако в других случаях вопрос стоит о нарушении других прав граждан. Если угодно, об ИИ-мошенничестве.

Кто кого обманул

Пока энтузиасты ИИ развлекались относительно невинными забавами, эпатируя публику поющей шансон группой Queen и львами в заснеженной сибирской тайге, мошенники изучали, как с помощью искусственного интеллекта залезть в чужой карман.

Все эти обучающиеся большие языковые модели, или нейросети, как еще их называют, то есть тот самый ИИ/AI, для мошенников не более чем новый воровской инструмент.

Криминальных возможностей он дает множество: вернемся к схеме, когда к видео «прикручивается» другая аудиодорожка. Проблема в том, что эти самые обучающиеся ИИ-приложения «обучились» уже настолько, что позволяют изложить нужные слова похожим голосом и с характерными интонациями, да еще и поменять мимику, чтобы она достоверно отображала артикуляцию.

Главное — клиенты «заглатывают наживку» и переводят мошенникам деньги по указанным реквизитам.

Возникает вопрос: а что дальше делать пострадавшему человеку в такой ситуации? Как найти и наказать мошенников? А заодно и у других отбить желание. 

Обратиться в полицию? Разумеется. Вот только велики ли шансы, что там усмотрят в случившемся гражданско-правовые отношения? Мол, нет оснований правоохранительным органам вмешиваться, поэтому обращайтесь в суд. И это не предположение. Такие случаи уже были. Так есть ли у казахстанцев, попавших в подобную ситуацию, шанс добиться расследования?

Существует базовое правило. Добиваться правды, если неизвестные нарушили ваши права, эффективнее не в гражданском суде, а при возбуждении правоохранительными органами уголовного дела. Вычислить нарушителей (как в данном случае, «создателей» подделки) и так проблематично, а уж частному лицу — тем более. Поэтому подавать гражданский иск следует уже в рамках уголовного судопроизводства, после того как виновных найдет государственная полицейская машина. А до этого у вас суд и исковое заявление не примет, поскольку неизвестен ответчик. К кому претензии?!

Повторимся, следование данному алгоритму — это, так сказать, базовый лайфхак. Но именно в случае с такими вот подделками посредством ИИ он и не работает. Почему?

Если коротко, проблема идентификации. Казалось бы, специально для подобных случаев в Уголовном кодексе существует статья 147 «Нарушение неприкосновенности частной жизни и законодательства РК о персональных данных и их защите». В частности, в ней есть часть 2: «Причинение существенного вреда правам и законным интересам лица в результате незаконных сбора и (или) обработки (за исключением распространения) иных персональных данных». И часть 4, охватывающая как раз распространение.

В данном кейсе имеют место и незаконная обработка персональных данных, и последующее распространение, и существенный вред. А именно, нарушение законных прав человека, к числу которых относится и защита его персональных данных. Государство гарантирует такую защиту, для обеспечения которой, собственно, и был принят Закон РК «О персональных данных и их защите». 

Вроде все сходится. Но есть проблема.

В отличие от гражданского суда, который обязан принять к рассмотрению любой иск, если тот формально составлен верно, правоохранительные органы при возбуждении уголовного дела сначала должны убедиться, а есть ли достаточные для того основания.

Согласно УПК, заявление физлица — лишь повод, который орган уголовного преследования обязан принять и зарегистрировать. Но повод, как известно, не причина. Согласно еще одной норме орган уголовного преследования обязан «принять все предусмотренные законом меры к установлению события уголовного правонарушения».

А для «установления события», помимо самого сообщения о преступлении, нужны какие-никакие дополнительные сведения. Если их нет (или полиция полагает, что нет), тогда и рождаются отказы с формулировками типа «здесь усматриваются гражданско-правовые отношения и нет оснований правоохранительным органам вмешиваться».

Что может помешать «установлению события» в данном случае? Да очень просто: как доказать, что на видео говорите не вы?! И внешность, и голос вполне похожи. Инспектор кому должен верить: заявителю или собственным глазам и ушам?

В общем, изучение подлинности ролика не входит в компетенцию органов на данном этапе. Да и едва ли это возможно. А кто может решить вопрос по существу? Правильно — суд. Вот, уважаемый, и обращайтесь с гражданским с иском о возмещении материального и морального вреда за нарушение прав (согласно статье 145 ГК человек имеет право на собственное изображение).

Однако напомним, что суд иск не примет, потому что неизвестен ответчик. И найти его частному лицу самостоятельно нет никакой возможности. Круг замкнулся.

Впрочем, и в УК, и в КОАП существует еще ответственность за распространение ложной информации. Если нанесен существенный вред правам и законным интересам граждан или государству, то это уже точно уголовный кейс. Но в том-то и дело, что вред должен быть нанесен гражданам, а не только лишь пострадавшему от обмана лицу. Это вообще статья, стоящая на страже именно общественного порядка. Если же один обманул другого, уголовщины в том нет. Разбирайтесь между собой в суде.

Правда, есть некоторые исключения. Так, можно обвинить изготовителей подделки в мошенничестве: поскольку последнее как раз и формулируется как хищение путем обмана. Но тут опять возникает вышеназванная проблема идентификации. Кто кого обманул? Как убедить полицию, что на видео не вы? Может быть, близкие и друзья, и даже старые знакомые и уловят в голосе фальшивые ноты, но инспектор, который вас первый раз видит... 

Короче, все — в суд!

Грядет эпоха ИИ-фейков

Подведем итоги. Действующее законодательство еще не успело выработать нормы, которые бы защитили людей от мошенничества с использованием ИИ. И справедливости ради скажем — не только казахстанское, но и во всем мире. Проблема ведь совершенно новая.

Впрочем, совсем недавно, 29 января 2025 года, проект такого закона — «Об искусственном интеллекте» — поступил на рассмотрение Мажилиса.

Напомним, почему вообще законопроект разработали. «Необходимость правового регулирования искусственного интеллекта и робототехники определяется в первую очередь решением вопроса распределения ответственности за вред, причиненный их действиями, а также решением проблемы определения принадлежности права интеллектуальной собственности на произведения, созданные с участием искусственного интеллекта», — сказано в пункте 4.13 Концепции правовой политики РК от 15.10.2021.

Эти проблемы худо-бедно пробуют решить. Статья 23 законопроекта регулирует право интеллектуальной собственности на произведения, созданные с использованием систем искусственного интеллекта. А статья 24 — вопросы возмещения вреда, который причинен системами ИИ.

Хотя регулируют они эти моменты, мягко говоря, не очень многословно. Буквально «в соответствии с законодательством РК об авторском праве и смежных правах» и Гражданским кодексом. При этом в данные документы никакие поправки, связанные именно с ИИ, не внесены. А это значит, что кейсы по перечисленным двум фундаментальным вопросам будут решаться с применением общих положений об интеллектуальной собственности и возмещении вреда. Тоже, конечно, какой-то подход. Однако он не предусматривает определения ответственности за такие правонарушения, о которых идет речь в рассматриваемых случаях. 

При этом очевидно, что в дальнейшем число кейсов, когда мошенники (а может, конкуренты или просто интернет-хулиганы) с помощью ИИ будут незаконно обрабатывать персональные данные людей и таким образом изготавливать фейки, многократно возрастет.

Очевидно, эту проблему, когда она станет массовой (да, собственно, уже становится), надо как-то решать. 

Читайте в свежем номере: