На прошедшей с 16 по 20 февраля Международной конференции AI Impact Summit в Нью-Дели сразу два авторитета в сфере IT-технологий призвали мировое сообщество к глобальному регулированию ИИ.
Соучредитель и генеральный директор британской лаборатории Google Deep Mind Демис Хассабис заявил, что быстрое и широкомасштабное развертывание систем ИИ чревато серьезным риском для безопасности всех видов, включая национальную и международную. Это требует срочного внимания и международного сотрудничества. Хассабис считает, что существующие корпоративные и государственные институты и органы могут не справиться с управлением будущими разработками и эксплуатацией ИИ.
Оратор назвал две основные угрозы. Первая — злоумышленники, использующие передовые технологии в преступных целях. Вторая — технические сбои, присущие все более автономным системам ИИ. На конференции Хассабис подчеркнул важность международных мероприятий как важнейших площадок для сплочения лиц, принимающих решения, вокруг технологий. «Необходимо наличие элементов международного сотрудничества или по крайней мере минимальных стандартов в отношении того, как следует внедрять эти технологии», — уверен он.
«По мере того, как системы ИИ становятся все более автономными, все более независимыми, они будут становиться все более полезными, все более похожими на агентов. Но они также будут иметь больший потенциал для риска и совершения действий, которые, возможно, не были предусмотрены при их проектировании», — уточнил Хассабис в интервью Bloomberg Television. Он также отметил глобальный охват технологии, добавив, что «она цифровая, а значит, вероятно, затронет каждого человека в мире и пересечет границы». Точнее было бы сказать, уже пересекла.
В свою очередь, глава компании Open AI Сэмюэль Альтман подчеркнул на конференции, что миру срочно необходимо выработать правила регулирования стремительно развивающихся технологий ИИ. Более того, мировому сообществу необходима специализированная интернациональная организация, координирующая и контролирующая усилия в сфере ИИ по аналогии с Международным агентством по атомной энергии (МАГАТЭ), считает Альтман. Он отметил, что такая структура нужна, чтобы оперативно реагировать на новые изменения и риск, связанные с ростом возможностей ИИ.
По словам главы Open AI, благодаря ИИ в открытом доступе неизбежно появятся, например, модели, которые могут генерировать новые цифровые патогены. Мир должен задуматься, как защищаться от этого, подчеркнул Альтман. «Демократизация ИИ — лучший способ обеспечить процветание человечества», — сказал глава OpenAI, отметив, что «концентрация этой технологии в одной компании или стране может привести к краху».
По мнению Альтмана, требуются меры защиты, как в случае с другими мощными технологиями, включая ядерные. Для координации этих усилий и требуется нечто вроде МАГАТЭ. При этом генеральный директор OpenAI отметил, что демократизация не отменяет актуальности срочных регулирующих мер и защитных механизмов.
Выступления Хассабиса и Альтмана прозвучали на фоне нарастающих призывов со стороны ученых-исследователей, общественности и правозащитников к более жестким и скоординированным международным мерам. В Индии и других азиатских странах, а также на Западе обе речи вызвали широкий резонанс, хотя они не содержат принципиальной новизны.
Год назад, в начале марта 2025-го, в американском издании Expert Vision вышла более обширная и предметная статья Superintelligence Strategy («Стратегия сверхразума»). Ее опубликовали тоже далеко не последние люди в IT-индустрии — бывший глава, а ныне «скромный» технический консультант Google Эрик Шмидт, директор Центра безопасности ИИ Дэн Хендрикс и основатель-гендиректор компании Scale AI Александр Ванг.
Они предостерегают США от повторения Манхэттенского (атомного) проекта для достижения превосходства в области ИИ. Такая попытка, по мнению Шмидта, Хендрикса и Ванга, спровоцирует упреждающие киберответы извне. Авторы статьи предупреждают, что любое государство, которое попытается первым создать AGI (супер-ИИ), будет представлять прямую угрозу для других стран.
И последние, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты. «Любая агрессивная попытка одностороннего доминирования в области ИИ приведет к превентивному саботажу со стороны конкурентов, который может быть реализован в виде шпионажа, кибератак, тайных операций для деградации обучения моделей и даже физических ударов по центрам управления и доступа к ИИ», — говорится в «Стратегии сверхразума».
Шмидт и его коллеги считают, что в области ИИ крупнейшие государства близки к взаимному гарантированному уничтожению (Mutual Assured Destruction, MAD) времен холодной войны. Авторы присваивают, по их мнению, благоприятному сценарию событий название «Гарантированная взаимная неисправность ИИ» (Mutual Assured AI Malfunction, MAIM), когда проекты AGI ограничены обоюдными равноценными угрозами.
ИИ все же может принести пользу, считают авторы и предлагают три стратегии. Первая — невмешательство государств и политиков в деятельность разработчиков ИИ.
Вторая — всемирный добровольный мораторий, призванный остановить дальнейшее развитие ИИ немедленно до его более тщательного теоретического изучения или после обнаружения способностей ИИ к взлому систем жизнеобеспечения и полностью автономной работе. И третья — всеобщая монополия за счет создания по образцу Европейской организации по ядерным исследованиям (ЦЕРН) международного консорциума, который возглавит глобальную разработку и контроль над ИИ.
Комментируют авторы и предложение американской Комиссии по обзору экономики и безопасности США и Китая (USCC) о государственном финансировании «Манхэттенского проекта» для создания суперинтеллекта на засекреченной американской территории. Шмидт и его коллеги предупреждают, что Китай непременно отреагирует на такой шаг, что обернется долгим дисбалансом сил и нестабильностью.
«Стратегия сверхразума» заслуживает гораздо большего внимания, чем, по сути, вторичные выступления Альтмана и Хассабиса в Нью-Дели. В первую очередь — из-за фигуры главного соавтора статьи Эрика Шмидта. Он менее публичная и во многие разы менее богатая персона (хотя и миллиардер), чем тот же Альтман, Марк Цукерберг (корпорация Meta), Ларри Пейдж и Сергей Брин, которым Шмидт на деньги ЦРУ помогал создавать Google, Илон Маск и многие другие воротилы IT-индустрии.
Но практически вся профессиональная карьера Шмидта, частного предпринимателя и консультанта правительства Барака Обамы, тесно связана с госорганами, военно-промышленным комплексом и спецслужбами США. Они не имеют дел с пустозвонами, хвастунами и рвачами. В свои 70 лет Шмидт с огромным опытом работы и давними связями в крупнейших американских IT-компаниях и госструктурах, рискнем предположить, остается более влиятельной фигурой, чем его упомянутые коллеги, которые существенно моложе.
Поэтому «Стратегия сверхразума» заслуживает внимания как государств, их спецслужб и частного бизнеса, так и международных организаций во главе с ООН.
