Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Похмельная сенсация
ИсследованияТехнология

Похмельная сенсация

ИИ-индустрия становится фактором мировой нестабильности

На IV Национальном курултае Касым-Жомарт Токаев в очередной раз высказался об актуальности расширения использования в различных отраслях Казахстана искусственного интеллекта (ИИ). «Но полностью полагаться на него нельзя», — подчеркнул глава государства.

Нарастание скепсиса 

Эйфория мирового общественного мнения в связи с перспективами ИИ сменилась похмельем — скепсисом относительно этого направления технологического прогресса. Оно не оказывает существенного влияния ни на производительность труда и экономический рост, ни на качество массовых товаров и услуг, образования, медицины, государственного и бизнес-управления, многих других сфер во всем мире.

Очередным подтверждением нарастания этого скепсиса стали обнародованные в середине марта результаты исследования едва ли не самой авторитетной международной научной организации в оценках ИИ — Ассоциации развития искусственного интеллекта (AAAI) во главе с Франческой Росси. Ассоциация изучала мировую ситуацию девять месяцев — с лета 2024-го до начала марта текущего года. Привлекла к этому из разных стран 25 опытных ученых, оценивших 17 направлений разработок и внедрения ИИ, и опросила 475 специалистов из академических и деловых кругов.   

Результаты далеки от оптимизма. Научная группа исследования выявила фундаментальные недостатки в современных моделях ИИ. Они лишены понимания физической реальности и причинно-следственных связей, логического мышления и структурированной памяти, чем обладает человек, не умеют непрерывно учиться и планировать долгосрочную перспективу.

Более трех четвертей исследователей считает, что масштабирование существующих систем так называемого машинного обучения (AI, условный ИИ) вряд ли приведет к созданию AGI (общий искусственный интеллект, ОИИ) — когнитивно-функционального интеллекта человеческого уровня. Возможность появления такого ОИИ оценили крайне маловероятной 76 процентов ученых и участников опроса. 

Что касается безопасности ИИ, то 82 процента и ученых, и опрошенных специалистов считают, что разработки частных компаний в этой сфере должно напрямую контролировать государство. При этом 30 процентов участников проекта AAAI выступают за приостановку разработок ИИ до наступления большей ясности в теоретических исследованиях на эту тему. В частности, они обращают внимание на отсутствие критериев определения, что же такое мощный AGI, и его тестирования. 

Смешное недоумение 

Реакции на результаты научного исследования AAAI со стороны лидеров-практиков разработки ИИ в лице OpenAI Сэма Альтмана, Meta Марка Цукерберга, Microsoft Сатьи Наделлы, Alphabet Сундара Пичаи, xAI (ее название от соцсети Х, бывшей Twitter) Илона Маска и других американских компаний пока нет. Судя по всему, они поглощены отражением нападения китайской технологии ИИ DeepSeek и ее модели R-1. В минувшем феврале они пошатнули монополию американцев в этой сфере и обрушили акции перечисленных лидеров.

Еще уступая моделям ИИ той же OpenAI по функциональности, R-1 DeepSeek выгодно отличается простотой и надежностью, а главное — бесплатностью для пользователей за счет в разы меньшей себестоимости в сравнении с американской. С марта разработки DeepSeek на волне китайского технологического патриотизма внедряются в КНР где только возможно. Вплоть до утюгов и прочей бытовой техники. В США R-1 пользуются уже миллионы физических и тысячи юридических лиц.

Американцы явно подрастерялись и демонстрируют дефицит креативности. Например, Альтман восхитился «родной» опенэйновской моделью ИИ, написавшей художественный роман. За что был осмеян сотнями комментаторов, оценивших искусственно-интеллектуальный опус примитивной графоманией.

Ничего, кроме иронии, не вызвало мартовское предложение OpenAI всем желающим своей модели ИИ уровня… доктора наук. По цене… 20 000 долларов в месяц! Столько не зарабатывают даже «звездные» люди — доктора наук. Наймите лучше кого-то из них, советует OpenAI смеющийся над заоблачной ценой разработчик ИИ Хиу Фам из масковской фирмы xAI. 

Вообще, паникой расценена слезная просьба Альтмана к правительству США запретить в Америке китайскую технологию DeepSeek, хотя ее уже взяли на вооружение Microsoft, Amazon и другие американские техногиганты. И уж совсем неприличной выглядит просьба Альтмана к Вашингтону разрешить нарушать авторское право ради более эффективного обучения моделей ИИ. 

Своеобразным комментарием в поддержку исследования AAAI вполне можно считать проведенное центром цифровой журналистики Тоw Колумбийского университета тестирование восьми американских моделей-поисковиков на основе ИИ. Они с треском провалили более 60 процентов (в среднем) запросов тестировщиков найти в интернете ту или иную информацию. В частности, все проверенные модели часто заводили тестировщиков на нерабочие или вообще несуществующие URL-адреса.

Буквально трагикомичным оказался результат ИИ-поисковика Grok 3 — той самой xAI-модели, которую в феврале 2025-го Илон Маск анонсировал как «самый умный искусственный интеллект в мире». Он провалил 94 процента тестовых запросов! Альтмановский робот ChatGPT Search лоханулся в 134 из 200 запросов (67 процентов брака). А модель Perplexity («Недоумение» или «Растерянность») одноименной и основанной выходцами из OpenAI, Google и Meta компании разочаровала Тоw в 37 процентах случаев. Самое смешное, что платные версии Perplexity Pro (20 долларов в месяц) и Grok 3-премиум (40 долларов в месяц) оказались хуже, чем их бесплатные аналоги. 

Ну чем не коммент, подтверждающий выводы AAAI?!

Стратегии сверхразума

Свой пятак вставили в мартовский переполох на американском IT-рынке бывший глава Google Эрик Шмидт, директор Центра безопасности ИИ Дэн Хендрикс и основатель-гендиректор компании Scale AI Александр Ванг. Они опубликовали статью «Стратегия сверхразума», в которой предостерегают президента и правительство США от реализации подобия Манхэттенского (атомного) проекта для достижения превосходства в области ИИ. Такая попытка, по мнению Шмидта, Хендрикса и Ванга, спровоцирует превентивные киберответы извне. 

Авторы статьи предупреждают, что любое государство, которое создаст AGI (супер-ИИ), будет представлять прямую угрозу для других стран. И они, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты. «Любая агрессивная попытка одностороннего доминирования в области ИИ приведет к превентивному саботажу со стороны конкурентов, который может быть реализован в виде шпионажа, кибератак, тайных операций для деградации обучения моделей и даже прямого физического удара по центрам управления и доступа к ИИ», — говорится в «Стратегии сверхразума».

Шмидт и его коллеги считают, что в области ИИ крупнейшие государства уже близки к доктрине взаимного гарантированного уничтожения (Mutual Assured Destruction, MAD) времен холодной войны. Авторы присваивают желательному развитию событий название «Гарантированное взаимное несрабатывание ИИ» (Mutual Assured AI Malfunction, MAIM), в котором проекты AGI ограничены обоюдоострыми угрозами. 

Но, как ядерные программы в свое время, ИИ все же может принести пользу, считают авторы и предлагают на выбор три стратегии. Первая — полное невмешательство государств и политиков в деятельность разработчиков ИИ. Вторая — всемирный добровольный мораторий, призванный остановить дальнейшее развитие ИИ либо немедленно, либо после обнаружения таких опасностей, как способность ИИ к взлому систем жизнеобеспечения или к полностью автономной работе. И третья — всеобщая монополия за счет создания международного консорциума на манер Европейской организации по ядерным исследованиям (ЦЕРН), который возглавит глобальную разработку ИИ.

Комментируя предложение американской Комиссии по обзору экономики и безопасности США и Китая (USCC) о госфинансировании своего рода «Манхэттенского проекта» по созданию суперинтеллекта в укромном уголке страны, авторы статьи предупреждают, что КНР обязательно отреагирует на такой шаг, что приведет к длительному дисбалансу сил и нестабильности с непредсказуемыми последствиями.

Ну здравствуй, биотехноинтеллект

При всей важности приведенной мартовской информации в сфере создания ИИ мы вынуждены поставить во главу событий месяца в отрасли новость из Барселоны. Там австралийская компания Cortical Labs официально представила первый в мире интеллект на основе синтетической биологии, функционирующий благодаря живым человеческим клеткам. Этот ИИ под названием CL1 объединяет нейроны человеческого мозга с технологиями на основе кремния для создания гибридных нейросетей. Это и есть сенсация на опохмелку во время похмелья-скепсиса после эйфории ожиданий от ИИ только из железок, композитов и алгоритмов. 

«Сегодняшний день стал вершиной шестилетней работы, которая вдохновляла команду Cortical Labs с начала пути», — сказал на презентации основатель и генеральный директор компании доктор Хон Венг Чонг. — Наша главная цель заключается в том, чтобы сделать эту технологию доступной для широкого круга исследователей, избавив их от необходимости в специализированном оборудовании и сложном программном обеспечении. CL1 — это воплощение этой миссии».

Событие знаменует собой начало нового этапа в развитии искусственного интеллекта. CL1 представляет собой принципиально новый тип вычислительного ИИ. Он, по словам авторов разработки, более гибкий, устойчивый и энергоэффективный по сравнению с современными ИИ-системами, представляя собой эволюционирующий органический компьютер. Технология получила название «Синтетический биологический интеллект» (SBI). Вывод CL1 на рынок запланирован на вторую половину 2025 года.

Событие вызвало тысячи комментариев, из которых приведем восторженный: «Я наткнулся на новость, от которой у меня буквально захватило дух. Биологический компьютер CL1 работает на настоящих человеческих нейронах! Да-да, вы не ослышались — живые клетки мозга теперь можно использовать как процессор! Через облачный сервис WaaS любой исследователь сможет получить доступ к этой технологии, даже не имея физического устройства. Это просто космос! Попробуйте осмыслить: они пытаются создать минимально жизнеспособный мозг (MVB) — это уже звучит как сюжет из фильма про будущее. Но это происходит прямо сейчас! Я просто в шоке от того, как быстро продвигаются технологии. Еще вчера мы говорили об искусственном интеллекте, а сегодня — о биологическом. Это будто шаг в совершенно новую эру».

Но есть и другие отзывы. По мнению члена Российского экологического движения Ильи Рыбальченко, создание биокомпьютеров на основе человеческих клеток чревато многими проблемами и опасностями. Рыбальченко считает, что «сверхразум» на основе нейронов без духовной составляющей ставит под вопрос, как такой интеллект будет действовать и как поведет себя человек в реальных ситуациях. Навскидку эколог предлагает гипотетическую дилемму. Человек покупает биокомп с фактически живым существом внутри. Включает комп и оживляет это живое существо. Что с ним произойдет, когда владелец, поработав на компе, выключит его? Рыбальченко ограничивается вопросом. 

Похоже, эколог не знаком с вышедшим в 1963 году научно-фантастическим бестселлером «Открытие себя» писателя Владимира Савченко. Автор максимально заострил заданный Рыбальченко вопрос и показал, к чему приводит необдуманное создание искусственного человека. Он переживает в этом процессе бесчисленное количество перекроек тела во имя его красоты и 19 смертей мозга. И первое, что делает после искусственного рождения этот великолепно сложенный и нареченный Адамом красавец, — бросается в ноги ученому-создателю с мольбой: «Не убивай меня в двадцатый раз!».

Читайте в свежем номере: