Первая половина марта оказалась богата на громкие заявления и события вокруг искусственного интеллекта (ИИ, искусинтел). Какой знак им поставить с точки зрения общественного блага, однозначному ответу не поддается.
Один пророчит, другой умалчивает, а третий не понимает
Накануне женского праздника 8 Марта высказались такие видные специалисты в области ИИ, как Бен Герцель, Сэм Альтман и Сергей Брин. Первый известен как автор десятков книг и термина artificial general intelligence (AGI) — «универсальный искусственный интеллект», который будет идентичен человеческому. Выступая на конференции Beneficial AGI Summit 2024 в Панама-Сити, Герцель заявил, что в течение восьми лет, возможно, даже в 2027 году, ИИ догонит человеческий, то есть станет AGI. Когда это произойдет, наступит момент сингулярности, которой одни ждут с нетерпением, а другие со страхом.
В интервью изданию The Advocate Сэм Альтман, глава одного из ведущих создателей ИИ компании Open AI, причислил к заблуждениям представление об искусинтеле как о неком существе. Альтман считает, что ИИ правильнее рассматривать инструментом, образцом которого якобы является совершенствуемый Open AI чат-бот Chat GPT. То есть эта инструментальность принципиально отличает ИИ от представления о нем как о живом существе. Но комментаторы интервью сразу обратили внимание на неоднозначность позиции специалиста, который говорит лишь о ChatGPT, не принимая во внимание другие, в том числе конкурирующие модели.
На сооснователя Google миллиардера Сергея Брина накатила волна откровения. Ей предшествовало согласие гендиректора компании Сундара Пичаи с тем, что выдаваемые гугловским чат-ботом Gemini изображения людей «совершенно неприемлемы», «оскорбили пользователей и показали предвзятость» искусинтела. В ответ Брин заявил, что разработчик «определенно напортачил» при тестировании названной модели ИИ. Больше того, Брин признался, что... не понимает, почему происходят серьезные сбои. Эта «исповедь» расценена как попытка Брина снять ответственность с себя. Он ушел с официальных должностей в Google в 2019 году, но на последующих презентациях Брина представляли главным разработчиком Gemini.
Нечеловеческая логика
Сотрудники высокотехнологичной VMware Рик Баттл и Тедж Голлапуди поделись наблюдениями о непредсказуемости реакции ИИ на запросы даже представителей зарождавшегося промптинжениринга — умения задавать искусинтелу такие вопросы, на которые бы он давал эффективный ответ. Исследователи установили, что даже пошаговое объяснение вопроса искусинтелу далеко не всегда оказывается полезным.
На качество ответа влияют сам вопрос, набор входных данных и многие другие параметры. Языковые ИИ понимают письменную речь и отвечают на вопросы текстом, из-за чего люди невольно очеловечивают нейросети. И это ведет к тому, что человек пытается объяснить запрос так, как он поставил бы задачу другому человеку.
Такой подход работает плохо. Напарники рассказали о составлении промптов самой языковой моделью ИИ. Большинство таких запросов выглядят нелогичными для человека, но дают лучший результат, чем метод подбора с помощью проб и ошибок. Исследователи считают, что профессия промпт-инженера утратила свою актуальность, не успев стать востребованной. Уже нынешние модели ИИ могут генерировать более правильные и эффективные запросы, чем люди.
Не порадуют продвинутую в IТ молодежь и результаты исследования аспирантов по психологическим наукам Университета Арканзаса Кента Хьюберта, Кима Авы и Дарьи Забелиной. Они показали более креативный подход ИИ в решении творческих задач, чем предполагалось ранее. В частности, в ходе тестирования нейросеть GPT-4 (Open AI) давала более оригинальные ответы в сравнении с людьми.
Еще одно событие обещает новую головную боль специалистам в области кибербезопасности. Сотрудники компании Cornell Tech Бен Насси, Стив Коэн, Рон Биттон и другие разработали «червя», названного Morris II в честь одноименной угрозы, вызвавшей хаос в интернете в 1988 году. Эксперименты специалистов показали, как новый «червь» может использоваться для атак на базе ИИ в целях кражи данных из электронных писем, нарушая меры безопасности в уже помянутых ChatGPT (Open AI) и Gemini (Google). Авторы подчеркивают, что генеративные ИИ-"черви" станут серьезной угрозой кибербезопасности.
Впору пригорюниться и защитникам авторских прав. Авторские права, согласно выводам фирмы Patronus AI, нарушают все большие языковые модели ИИ (LLM). Основанием для такого вердикта послужило тестирование GPT-4 (Open AI), Claude 2 (компания Anthropic), Llama 2 (Meta) и Mixtral (Mistral AI). Антилидером стал хваленый GPT-4, который в среднем на 44 процента запросов выдавал текст, защищенный авторским правом, а в ответ на просьбу продолжить общение в шести случаях из десяти вообще цитировал без малейших ссылок огромные отрывки из популярных произведений.
Результаты проверки актуальны на фоне обострения отношений между разработчиками моделей ИИ и издателями, авторами и юристами. Достаточно напомнить громкий судебный процесс между газетой The New York Times и Open AI. Многомиллиардный иск, поданный в декабре 2023 года, требует привлечь Microsoft и Open AI к ответственности за систематическое нарушение авторских прав издания при обучении моделей ИИ.
Ответная позиция Open AI достойна полного цитирования: «Поскольку авторское право сегодня распространяется практически на все виды человеческого выражения, включая сообщения в блогах, фотографии, сообщения на форумах, фрагменты программного кода и правительственные документы, было бы невозможно обучать сегодняшние ведущие модели ИИ без использования материалов, защищенных авторским правом».
Подтекст пассажа предельно прост: нарушали, нарушаем и будем нарушать авторские права, потому что иначе нам кирдык.
Обвинение: предатели! Оправдание: сам дурак!
Начало марта также ознаменовано очередными скандальными разборками между бывшим соучредителем Open AI Илоном Маском и нынешними рулевыми компании. Маск подал судебный иск, обвиняя бывших компаньонов в нарушении соглашения о некоммерческом характере деятельности и предательстве принципов служения обществу. Крен Open AI в коммерциализацию, утверждает Маск, противоречит первоначальной миссии компании по разработке искусственного интеллекта на благо человечества. Маск требует, чтобы Open AI вернулась к идеалам открытого кода, и добивается судебного запрета на использование технологии AGI для извлечения прибыли.
Выпуск GPT-4 в 2023 году действительно ознаменовал отход от принципов Open AI. Она провозгласила это важным этапом в развитии ИИ, но названная модель в отличие от предыдущих впервые является закрытой. Эта смена приоритетов, считает Маск, служит финансовым интересам Microsoft (с ним у Open AI партнерское соглашение) и подрывает первоначальный замысел компании как некоммерческой.
Приоритет денежной выгоды над этическими соображениями может иметь далеко идущие последствия для общественной безопасности и будущего технологий ИИ, предупреждает Маск. В ответ Open AI и Сэм Альтман разобиделись и выкатили на свет божий из архива переписку с Маском, когда тот еще был совладельцем компании, о перспективах ее коммерциализации, против чего он вроде бы не возражал.
Если отжать из этих разборок самопиарщину (скандал — лучший способ привлечь к себе повышенное внимание) и конкуренцию без правил (Маск тоже занимается ИИ), то в сухом остатке свары остаются «вы предатели!» и «сам дурак!».
Задолго до сегодняшних страстей
В IT-индустрии должны быть хорошо известны три закона робототехники, сформулированные еще в середине ХХ века американским писателем и философом Айзеком Азимовым. Они гласят, что ни при каких обстоятельствах робот, то есть ИИ, не должен нанести вред человеку. Казалось бы, просто, как все гениальное! Но с течением времени все оказалось сложнее.
Вот вам, читатель, тест. Представьте, что сверхинтеллект (AGI) отправлен в далекое прошлое, когда человечество еще не додумалось спасать новорожденных, лишившихся или не желающих утрачивать красоту бюста мам, за счет кормилиц — матерей других младенцев. Миссия AGI в этой древности — спасение находящихся в смертельной опасности матери и ее родного ребенка, но, по условиям задания, только одного из них.
У человека в таком экстриме всего два варианта. Прагматик поостережется как спасенной, но обезумевшей от утраты младенца матери, так и вырученного из беды ребенка, обреченного без материнского молока. И не пошевелит пальцем. А гуманист плюнет на условия задания и ринется спасать обоих, рискуя потерять не только их, но собственную жизнь. Вопрос: кого выберет AGI? На размышление — пять секунд, иначе погибнут и мать, и ребенок!
Похожую ситуацию смоделировал в рассказе «Дознание» 1968 года польский коллега Азимова Станислав Лем. Его герой Пиркс принимает командование космическим экипажем, объявленная цель которого — пролет через кольца Сатурна и запуск на его внутрикольцевой орбите спутника. Секретная и главная задача, о которой знают только организаторы полета и Пиркс, — выявление среди членов экипажа до мелочей человекоподобного робота и представление отчета о его пригодности в дальнем космосе.
Сделать это Пирксу позволяет опять же смертельный экстрим, обусловленный техническим сбоем, в условиях которого любой приказ командира чреват гибелью всего экипажа, кроме робота. И Пиркс под чудовищными гравитационными перегрузками бездействует. В итоге не выдерживает робот — один из пилотов. Старясь то ли спасти, то ли погубить людей, доказав свое преимущество над ними (автор не дает однозначного ответа), он пытается самовольно взять управление на себя, для чего ему надо встать. И в этот момент перегрузка убивает сначала его физическое тело, а затем и ИИ. Только в этот момент уже теряющий сознание Пиркс успевает отдать не обдуманный, а интуитивный приказ, спасающий экипаж.
Финал рассказа устами Пиркса: «...Я должен был вынуждать его к определенным действиям, и притом как бы вопреки его глубоким познаниям, вопреки его воле, а вместо этого я молчал. Так что в конечном итоге нас спасла, а его погубила моя нерешительность, моя вялая «порядочность» — та человеческая порядочность, которую он безгранично презирал».
Интуиция, нерешительность, порядочность — далеко не полный перечень качеств, которыми обладают люди, но не будет наделен даже AGI. К ним можно прибавить воображение, мечтательность, духовность, нравственность, жертвенность, застенчивость, страх, дерзость и другие качества вплоть до глупости. Кроме последней, которая всегда была и остается не в чести, остальные черты, делающие человека человеком, сегодня тоже утратили популярность — сказывается порабощение потребительством.
Это только на руку коммерсантам от искусинтела.
Эти ребята — головорезы
В начале уходящей недели стало известно, что Казахстан ведет переговоры с американским высокотехнологичным монстром Apple об открытии его конторы в республике. Согласно официальным объяснениям, этот вопрос возник после землетрясения 23 января текущего года в Алматы, когда население получило сообщение о подземной стихии на смартфоны с большим опозданием.
Надеемся, что выбор партнера в повышении безопасности соотечественников происходил не с бухты-барахты. Но при этом напомним, что в течение последних 1520 лет детище Стива Джобса и его наследника Тима Кука нередко именуют в западных СМИ «империей зла». Примеров за указанный период хоть отбавляй.
Среди них бесчеловечные условия труда персонала на предприятиях компании в Азии. Например, 15-часовой рабочий день в Китае с оплатой 14 долларов в месяц — это вдвое меньше, чем на ткацких предприятиях Ливерпуля и Манчестера в 1805 году. И 14 самоубийств за 2010 год в тайской компании Foxconn, где размещала заказы Apple, и привлечение к работе там же 13-летних детей, а также смерть работника после 34-часовой смены (об этом выдала в 2012 году расследование The New York Times). И незавидное положение в Apple разработчиков продукции, которым грозит полумиллионный штраф, если они, не дай бог, самостоятельно реализуют свои задумки. И много еще чего, мягко говоря, не красящего Apple, также разрабатывающего и внедряющего ИИ.
«Эти ребята вплоть до Тима Кука, — головорезы», — признавался в интервью изданию The Verge пожелавший остаться анонимным топ-менеджер одного из лидировавших на мировом рынке распространителей музыки. Если привлекается монстр с такой неформальной репутацией, то, выходит, что и у отечественной власти честь в партнерах не котируется. Скажи, кто твой партнер, и я скажу, кто ты.