Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Сам себе хозяин?
МирЗа бугром

Сам себе хозяин?

В Дании планируют принять закон о собственности на себя

Недавно по мировым пабликам прокатилась новость о том, что в Дании решили кардинально, на законодательном уровне, решить проблему, которая не в шутку волнует общественность — дипфейки. Власти этой страны предлагают признать лицо, голос и манеру поведения человека его личной интеллектуальной собственностью. То есть создать такой закон, когда человек не просто может предъявить претензии за использование его образа, а станет обладателем исключительных прав на цифровой портрет своего «я».

В чем проблема?

Уже из истории… Напомним, что это такое. Термин «дипфейк» образован от словосочетания «глубокое обучение» (deep learning) и слова «подделка» (fake).

Технологию «дипфейк» разработал в 2014 году тогда еще студент Стенфордского университета Иен Гудфеллоу. Он хотел наделить нейросеть даром воображения и создавать лица несуществующих людей. 

Позже стали разрабатывать специальные нейросети для создания дипфейков, и сейчас их великое множество. Развитие технологий шло своим чередом, появились разные прикольные фишки для развлечений (когда можно к лицу человека «прикрепить» маску зверя или птицы или, чтобы скрыть какие-то несовершенства внешности — маски в «Инстаграм», например). Масками часто пользуются инстамодели, которым всегда нужно выглядеть идеально, да и простые пользователи. Также прикольным казалось, когда на ваше лицо можно «наложить» лицо другого человека с фотографии. Изначально разработчики наверняка и не замысливали ничего плохого, криминального, ведь они должны экспериментировать. Но, как всегда, это палка о двух концах. Эксперименты выходят из-под контроля, и чем они могут обернуться — неизвестно. 

Совсем скоро технология начала жить своей жизнью. Логично, что стали появляться фейковые видео. Мошенники не спят, они тоже люди творческие и изобретательные. И этой технологией стали пользоваться в разных целях, часто корыстных. В 2017 году пользователь deepfakes выложил несколько видео с контентом 18+. На них одна из порноактрис была заснята за интимом якобы с голливудскими звездами. Они и стали первыми пострадавшими, которые понесли большие репутационные потери.

Подделкой лица дело не ограничилось. Далее стало возможным имитировать манеру поведения, голос, жестикуляцию. Уже не проблема создать видео, в котором, например, «известный чиновник» высшего ранга может «говорить» то, что заложено создателем видео. Это реклама финансовых пирамид, призыв на акции и митинги. «Председатель банка» может призывать делать вклады или брать «выгодные» кредиты. 

Технология «шалости» стала поистине глобальной проблемой. Она захватила весь мир. Ее называют одной из самых опасных технологий настоящего и будущего. Теперь каждый, и не только публичный, человек может столкнуться с проблемой, когда нужно будет доказывать, что «я — это не я». Даже если вы не зависаете в соцсетях и не размещаете постоянно в них свои фото и видео, которые потом можно использовать для генерации фейков, вы все-равно не можете ощущать себя в полной безопасности. Ведь многие фото все равно оцифрованы, и где-то их можно достать. Сейчас от проблемы дипфейка не защищен даже человек, живущий в глухой тайге, такой как, условно, Агафья Лыкова. Ведь достаточно один раз снять человека на видео, и материал для фантазии непорядочного создателя контента готов. 

Кибермошенничество такого плана способно подорвать репутацию не только отдельного человека, но организации или целой страны. Технология регулярно всплывает в скандальных новостях, страдают люди. Это серьезный инструмент в руках мошенников. Назрела необходимость борьбы с дезинформацией. Дипфейки стали подрывать доверие общества и могут его даже дестабилизировать. Пока человек докажет, что «он не верблюд», пройдет время, а «осадочек», как в известном анекдоте про вора, останется. А иногда уже и просто не отмыться. 

Недавно в одном из интервью Олжас Сатиев, президент Tsarka Group (Центр анализа и расследования кибератак) сказал: «Дипфейки входят в топ-3 мировых киберугроз. Противостоять этому уже тяжело. Мы технически пришли к тому, когда дипфейк сложно отличить от реального видео. Пока даже нет специалистов, или их единицы, которые могут помочь, например, в суде. Нет криминалистов, способных сделать правильный анализ. Ведь технология еще совсем молодая. Есть примеры у нас, в Казахстане. На сайте Правительства РК публикуют фото чиновников. И какая-то группировка из-за рубежа воспользовалась этими фото, сгенерировав видео, где человек якобы лежит с голой девушкой. Этими видео пытались потом воспользоваться для шантажа нескольких чиновников. К нам только было более 10 обращений, чтобы решить этот вопрос. Казахстан сейчас — островок стабильности. Мы стали киберполигоном для многих стран, которые ведут войну на нем. Сгенерировать видео против казахстанца на казахском или на русском языке могут на другом континенте. Работают целые ОПГ со своими контент-мейкерами, программистами и т.д.  Определить автора проблематично». 

А что касается биометрии? Мы ведь используем ее вовсю — когда заходим в офис, когда пользуемся банковскими продуктами. По словам Олжаса Сатиева, и ее подделывают, так как иногда достаточно 60 процентов совпадений, чтобы система вас пропустила. Но это уже недоработка системы в конкретном учреждении. 

Есть, конечно, определенные маркеры, о которых говорят немногочисленные пока специалисты в этой области, по которым можно определись дипфейк… Но, если бы все было так просто. Например, с экрана смартфона не всегда возможно определить — фейк это или нет. Он слишком маленький, а технология с помощью ИИ все время учится и совершенствуется. 

Кардинальное законодательство

Законодательство, направленное на борьбу или последствия использования дипфейков, существует в некоторых странах. Например, в ЕС нужно обязательно маркировать ИИ-сгенерированное изображение. Акцент ставится на прозрачности и публичных данных, а не на авторских правах. Во Франции закон запрещает публикацию дипфейков без согласия (штрафы до 45 000 евро и до года тюрьмы). В Великобритании незаконное распространение дипфейков для шантажа карается лишением свободы до двух лет. Также предусмотрена уголовная ответственность за распространение интимных изображений и клевету. В США законы в Калифорнии, Техасе и Вирджинии запрещают дипфейки без согласия при выборах, в порнографии. В Китае нужно маркировать ИИ-контент. 

В России в сентябре 2024 года в Государственную Думу внесли проект закона, который предлагает закрепить в Гражданском кодексе право граждан на голос как нематериальное личное благо, вводит запрет на использование изображения и синтезированного голоса без согласия человека (до 6 лет лишения свободы). Он еще на рассмотрении. 

В Казахстане депутат Екатерина Смышляева в мае 2025 года сообщила о введении штрафов за создание и распространение дипфейков. По ее словам, хороший анализ правоприменения говорит о том, что статья за дипфейки не всегда работает, поэтому эту норму разработчики законопроекта об ИИ еще обсуждают, но «предложение такое есть». То есть у нас в стране делаются только первые шаги в этом направлении. Сумма штрафов предусмотрена до 393 000 тенге. Также идет речь об уголовной ответственности. 

Что же предлагает Дания? В чем кардинальные отличия от других стран?  По словам разработчиков законопроекта, они качественные. Во Франции, например, дипфейк равно нарушение права на частную жизнь, честь и достоинство, а в Дании — это уже нарушение авторского права на личность.

Во Франции защищаемые формы дипфейков — интимные, клеветнические и манипулятивные, а в Дании предлагают наказывать за абсолютно любые, даже если они не наносят вреда, если используются образ, голос или движения без согласия. В общем, в Дании личность — это и есть автор. Это расширение понятия «интеллектуальная собственность». Человек равно правообладатель.

В Дании буквально хотят ввести концепцию цифрового образа человека. Он сам автор своего голоса и лица, и распоряжаться ими должен как своим личным, защищенным на законодательном уровне, интеллектуальным имуществом. 

Это радикальный сдвиг в регулировании дипфейков. Они стремятся к правовой охране личности как интеллектуальной собственности. Ключевое здесь — юридическая формулировка, а за ней уже следуют разные подход, последствия и механизм защиты. 

«В законопроекте мы посылаем недвусмысленный сигнал о том, что каждый имеет право на собственное тело, собственный голос и собственные черты лица, но, по-видимому, действующий закон не защищает людей от генеративного ИИ. Людей можно пропустить через цифровую копировальную машину и использовать в самых разных целях, и я не готов с этим мириться», — заявил министр культуры Дании Якоб Энгель-Шмидт.

Они хотят закрепить за гражданином цифровой образ с правом требовать удаления дипфейков и штрафами для платформ, которые будут их размещать. Платформы будут обязаны удалять такие материалы просто по запросу человека, для этого не нужно будет даже обращаться в суд. Так как человек сам по себе — интеллектуальная собственность. Также этот закон будет распространяться на цифровые копии артистических выступлений.

Есть, правда, исключения — для пародий, сатиры и комедийных роликов. Тем самым будут сохраняться свобода выражения и баланс с творческой свободой. Закон активно обсуждают, стартовали консультации, заявлен возможный запуск осенью 2025-го — в начале 2026 года. 

Говорят, что шансы на принятие закона велики. Идею уже одобрили многие партии, поддержали 90 процентов депутатов парламента. В Дании хотят использовать председательство в Совете ЕС для продвижения включения подобных норм в Европе. 

Правительство уже заручилось поддержкой международных экспертов. Законопроект на обсуждении, но реакция общества в большинстве случаев положительная. И, возможно, подобные меры захотят со временем рассмотреть и другие государства, раз пришло такое время. 

Фото из открытых источников

Читайте в свежем номере: