Казахстан с большой долей вероятности станет второй по счету страной на планете, где появится отдельный закон об искусственном интеллекте. Документ уже принят Мажилисом и отправлен для одобрения в Сенат, что можно считать формальностью. Напомним, первый в мире закон об искусственном интеллекте — Artificial Intelligence Act — был принят в ЕС и вступил в действие с 1 августа 2024 года. Таким образом, Казахстан обогнал Россию с Америкой, Китай с Японией, а также всех остальных.
Вопрос в том, насколько разработанный наскоро закон сможет регулировать необъятную, как Вселенная, сферу.
Мы не знаем, до какой степени разовьется ИИ в конечном счете. И даже не уверены, есть ли у этого процесса какое-то окончание. Но пока очевидно, что закон об ИИ должен регулировать как минимум три основных момента. Собственно, их проговорил главный инициатор развития ИИ и вообще главный в стране — Президент.
"В документе важно уделить равное внимание вопросам инноваций, ответственности и безопасности, — сказал глава государства на совещании по вопросам развития искусственного интеллекта 11 августа 2025 года. И добавил: — В октябре мы должны добиться конкретных результатов по данному вопросу".
Октябрь наступил, закон Мажилис принял. Не удивимся, что и дальнейшие необходимые процедуры документ пройдет оперативно. И через пару месяцев — стандартная практика — вступит в силу.
А теперь посмотрим на содержание закона. Сравним, что "заказывал" Президент и что в итоге вышло.
Кто виноват?
Итак, первое — безопасность. В законодательстве — не только в самом законе, но и в сопутствующих поправках — должно быть предусмотрено, какой вред может нанести ИИ и кто несет ответственность за ущерб, причиненный роботом и любым другим IT-продуктом с применением ИИ. Создатель, оператор (пользователь) или, может быть, сам носитель искусственного интеллекта?
А возможностей нанести такой вред множество. Первое, что приходит в голову, — дипфейки. Вспоминаем фильм "Тот самый Мюнхгаузен": "Воспользовавшись своим внешним сходством… коварно овладев его походкой, голосом и даже отпечатками пальцев, подсудимый наивно надеется нас обмануть и заставить узнать в себе нашего дорогого барона".
Так что идея давняя. Однако именно с эволюцией искусственного интеллекта и получением к нему широкого доступа такого рода подделки стали легко и массово исполнимы. Рубиконом стал 2024 год, когда производители софта начали предоставлять пользователям по всему миру множество AI-приложений. Например, Suno AI, посредством которой можно создавать музыкальные AI-каверы, завалившие Сеть.
А пока энтузиасты ИИ развлекались невинными забавами (относительно, конечно), эпатируя публику поющей шансон группой Queen и львами в заснеженной сибирской тайге, мошенники изучали, как с помощью искусственного интеллекта залезть в чужой карман.
Все эти обучающиеся большие языковые модели, или нейросети, как еще их называют, то есть тот самый ИИ/AI, для мошенников не более чем новый воровской инструмент.
Против этого ИИ-лома как не было приема, так и нет. Нужны дополнения в Уголовный кодекс, в нормы, касающиеся нарушения неприкосновенности персональных данных, мошенничества и распространения ложной информации (статья 147, 190 и 274 УК), когда это делается именно с помощью ИИ. Иначе сейчас складывается ситуация, когда пострадавший обращается с заявлением, что его изображение и голос "взломали", а в ответ следует вопрос от полиции: «Вы сами на себя жалуетесь?».
Как убедить полицию, что на видео не вы?
Однако таких сопутствующих дополнений в УК не предложено. О какой тогда защите безопасности — без уголовной или хотя бы административной ответственности — можно говорить?
Или другой момент. Существует риск невостребованности людей в связи с заменой их роботами и технологиями. Но Казахстан гарантирует своим гражданам социальное обеспечение и помощь. И значит, в Трудовой кодекс необходимо внести требования о защите работников в связи с внедрением технологий ИИ.
Почему это не сделано прямо сейчас? Почему вместе с Основным законом поправки не вносятся в отраслевые НПА?
Еще одна ситуация, которая пока выглядит экзотической, но лишь пока. Представим, что беспилотный автомобиль совершил ДТП, нанеся ущерб другим участникам дорожного движения. Вообще, по закону ответственность — административную или уголовную — несут виновные, которыми необязательно являются собственники авто. Но кто должен отвечать, если собственник (пассажир) невиновен, а за рулем находился робот?
Допустим, подобное произошло в Казахстане. По УК уголовной ответственности подлежат только физические лица (статья 15 УК).
Согласно КоАП (статья 28), административное взыскание могут также наложить на юрлицо. Но проблема в том, что робот де-юре — ни то, ни другое. Однако это пока.
Напомним, что в античном мире, да и много позже (в США, например, до 1865 года) часть людей, а именно, рабы, также не обладала правоспособностью. Сегодня рабство вне закона и воспринимается как дикий пережиток старины, анахронизм.
Почему не предположить, что такая же судьба ждет роботов? Чем, в конце концов, не физическое лицо?
Но, повторимся, пока ни в одной из юрисдикций мира люди не готовы к столь радикальным реформам и не признают за ИИ правоспособности. Однако кто-то ведь должен ответить?!
Сейчас вопрос об ответственности за вред решается между двумя лицами: производителем IT-продукта и тем, кто его приобрел и пользуется. Когда установлена "вина" автопилота, которым оснащена устроившая ДТП машина, то отвечать придется, скорее всего, автокомпании, ее создавшей и продавшей.
Но все зависит от договора между производителем и покупателем, в котором такая ответственность за действия робота-автопилота должна быть предусмотрена. Если такого пункта в договоре нет, то крайним окажется человек: тот, кто управлял машиной в режиме автопилота. Разумеется, продать автомобиль с автопилотом без такого условия в договоре весьма проблематично.
Однако главная проблема, что вопрос уголовной или административной ответственности не решен ни в УК, ни в КОАП. Кого "сажать", если виновата зарубежная компания, создавшая машину с ИИ-пилотом? И если, не дай бог, кто-то на машине с автопилотом попадет в ДТП на отечественном перекрестке, инспектор не сможет определить и наказать виновного из-за правового тумана. Потому-то, собственно, и требуются поправки.
Но в комплекте с рассматриваемым законом их опять-таки нет.
Кто автор?
В законе об ИИ и вообще в законодательстве должен быть также решен вопрос, кому принадлежат права интеллектуальной собственности на произведения, созданные с участием ИИ. Список претендентов примерно тот же, что и в упомянутом выше случае: создатель, оператор (пользователь) или, может быть, сам носитель искусственного интеллекта… Или, иначе говоря, никто.
Сейчас, пока не придумано новых особых правил, правом интеллектуальной собственности, созданной с применением ИИ, обладает тот, кто законным образом приобрел IT-продукт и пользуется им. В этом плане в мире (во всяком случае и в ЕС, и в США) применяются общие положения об интеллектуальной собственности, и правовые последствия пользования ИИ ничем не отличаются от пользования, скажем, Microsoft Word.
А именно, какой-нибудь Google или OpenAI разработали то, что называется LLM (large language model) — большую языковую модель с триллионом токенов (то есть смысловых единиц), притом самообучающуюся. То есть с каждым ее использованием она улучшается, совершенствует связи и оттачивает оттенки смыслов. С помощью этого чат-бота можно, в частности, создавать внятные тексты: журналистские статьи, научные диссертации и даже художественные рассказы. Надо лишь дать вводные.
Сейчас не будем отвлекаться на качество этих текстов (как и на водительское мастерство автопилотов). То тема отдельного разговора, а нас в данный момент интересует правовой аспект.
Так вот, само программное обеспечение на основании проприетарной лицензии находится в собственности разработчиков (или правообладателей). Но пользователи чат-ботов (а их сотни миллионов человек) имеют права ИС на те произведения, которые создали с помощью системы. Что логично: ведь для того они продуктом и пользуются.
Поэтому московский студент, написавший с помощью LLM ChatGPT дипломную работу, а затем во всеуслышание заявивший об этом (и защитивший — громкое было дело), такой же ее полноценный автор, как писатель, напечатавший рассказ в редакторе Word. Ни OpenAI, ни Microsoft не могут претендовать на авторство ни в коей мере.
И тем не менее нетрудно предположить, что споры будут, и чем дальше, тем больше. Нужна регуляторика. Что же в этом плане предлагает наш закон? Статья 23 регулирует право интеллектуальной собственности на произведения, созданные с использованием систем искусственного интеллекта.
Впрочем, регулирует она эти моменты, мягко говоря, не очень многословно. Буквально "в соответствии с законодательством РК об авторском праве и смежных правах" и Гражданским кодексом. При этом в данные документы никакие поправки, связанные именно с ИИ, не внесены.
А это значит, что кейсы по данному вопросу будут решаться с применением общих положений об интеллектуальной собственности и возмещении вреда. Сейчас поделки-подделки с помощью ИИ нарушают сразу два права.
Во-первых, это удар по репутации авторов, под которых они подделываются. Деловая репутация гражданина защищена в РК статьей 143 ГК. Во-вторых, незаконно использованы объекты авторского права. Хотя сгенерированная ИИ музыка (а также тексты, изображения и т.д.) пока, повторимся, законами напрямую не регулируется, повод для оспаривания есть. Этим нарушениям посвящена статья 198 УК.
Но плохие новости заключаются в том, что для подачи гражданского иска надо знать имя и адрес ответчика, а с этим проблемы. Те же музыкальные псевдокаверы выпускают многочисленные пользователи софта. Например, вышеупомянутая программа Suno AI включена в качестве плагина в ассистент Microsoft Copiot. Она стала доступна по всему миру с декабря 2023 года.
О "создателях" неизвестно ничего, кроме ников, да и то не всегда. Вычислить их, конечно, можно, но не частному лицу. Единственный способ — подать сначала заявление в правоохранительные органы, чтобы завели уголовное дело и нашли виновного, задействуя государственную полицейскую машину.
Напомним, однако, как нарушение авторских прав формулируется в упомянутой статье 198 УК: "Незаконное использование объектов авторского и (или) смежных прав, а равно приобретение, хранение, перемещение или изготовление контрафактных экземпляров объектов авторского права и (или) смежных прав в целях сбыта либо присвоение авторства или принуждение к соавторству".
В рассматриваемом случае для обвинения подойдет разве что незаконное использование объектов авторского права. Так, к исключительным правам автора согласно подпункту 10 пункта 2 статьи 16 Закона РК "Об авторском праве и смежных правах" относится право на переработку его произведений. Но в законе, принятом еще в 1996 году, разумеется, не говорится о том, можно ли считать генерацию ИИ на основе данных переработкой.
Не уточняется это и почти 30 лет спустя, хотя к принятию эпохального закона об ИИ можно было бы позаботиться.
Кто там?
Что касается третьей цели, достижению которой должен способствовать закон, — инновации с помощью ИИ, здесь будем кратки. Потому что сказать особенно нечего: соответствующих норм или нет, или те, что есть, прямо запрещают прогресс в этой сфере.
Перечислим только некоторые табу: запрет на использование сегментированных данных, без которых ИИ-медицина бессильна, на создание и выпуск в обращение автономных систем искусственного интеллекта (от беспилотного транспорта до заводов-автоматов) и т.д.
Вероятно, что тогда, когда впервые ставилась задача по закону об ИИ (еще в 2021 году), в первую очередь имелись в виду вопросы безопасности (что, конечно, тоже важно), а вот о плюсах искусственного интеллекта не думали. Полагали, что сам пробьет себе дорогу. В условиях международной конкуренции так не получится.
Казахстан — страна маленькая (20 миллионов жителей). Принимая решение о выходе на новый рынок, инвесторы, крупные цифровые компании (а ведь именно от них ожидается привнесение в страну самых передовых технологий), кроме потенциальной прибыльности оценивают, смогут ли они запустить свои сервисы, не изменяя их существенно под местные законы.
И если много но, а рынок невелик, проще не заходить на него вовсе.
Вот и все. При этом защиту населения от разного рода "ЖПТ-мошенничества", как показали выше, тоже не обеспечили. Короче, увязли в матрице.