В своем блоге компания Bot Hub прокомментировала условия, только согласие с которыми делает возможным использование моделей ИИ трех его ведущих разработчиков — американских компаний Anthropic, Microsoft и OpenAI. Наблюдения и выводы Bot Hub воспроизвел специализированный технологический сайт Habr.com.
Bot Hub сообщает, что Microsoft давно впихивает пользователям модель ИИ Copilot, «агрессивно продвигая ее как будущее профессиональной продуктивности». Но такие американские специализированные издания, как Tech Crunch, Tech Radar, PC Mag и другие, указывают, что в условиях использования (Terms of Service) Microsoft черным по белому написано: «Copilot предназначен исключительно для развлекательных целей». «Интернет, мягко говоря, захлебнулся от хохота, — комментирует Bot Hub. — К сожалению, все гораздо хуже, чем думают люди, потому что это касается не только Copilot, а последствия куда глубже, чем кажется на первый взгляд».
В разделе «Кодекс поведения» условий Microsoft сказано: «Copilot может допускать ошибки и работать не так, как задумано. Не полагайтесь на Copilot при принятии важных решений. Используйте Copilot на свой страх и риск». По сути, Copilot следует воспринимать не как рабочий инструмент, а как всего-навсего игрушку. Microsoft на этом не остановился.
В разделе условий Microsoft «Важные предупреждения и раскрытие информации» написано: «Вы соглашаетесь освободить нас от ответственности и оградить от претензий (включая наших аффилированных лиц, сотрудников и прочих агентов) в связи с любыми исками, убытками и расходами (включая оплату услуг адвокатов), возникающими из или связанными с вашим использованием Copilot, включая, без ограничений, использование, распространение или публикацию любых запросов, ответов или созданных материалов, а также нарушение вами настоящих условий или действующего законодательства».
Если перевести этот пассаж с юридического языка на общепонятный, то условие означает, что если вы используете Copilot не для развлечения, а как рабочий инструмент, то не имеете права предъявлять Microsoft претензии за любой ущерб, который Copilot может нанести вам лично или бизнесу, в котором вы работаете.
Microsoft не одинок в юридическом словоблудии. Anthropic — компания, позиционирующая себя «менее злым игроком» в мире ИИ, — занимается тем же самым, констатирует Bot Hub. И условия Anthropic гласят, что ее модели ИИ предназначены «только для некоммерческого использования» и что пользователи «соглашаются не использовать наши сервисы в каких-либо коммерческих или деловых целях, а также мы (и наши поставщики) не несем перед вами ответственности за упущенную выгоду, потерю бизнеса, перебои в деловой деятельности или упущенные деловые возможности».
В условиях OpenAI тоже нет прямого запрета на коммерческое использование моделей ИИ этой компании. Зато в них есть большой раздел, который буквально разжевывает, что доверять результатам ИИ нельзя. Дословно: «Результаты работы сервиса не всегда могут быть точными. Вы не должны полагаться на результаты наших сервисов как на единственный источник истины или фактической информации, а также как на замену профессиональной консультации». Далее: «Вы обязаны оценивать результаты на точность и уместность для вашего случая использования, включая при необходимости проверку человеком, прежде чем использовать или распространять результаты работы сервисов». Другими словами, ИИ нельзя использовать для автоматизации чего-либо профессионального, а его результаты всегда должен проверять человек.
OpenAI тоже полностью снимает с себя любую ответственность за действия своего ИИ. В условиях фирмы написано: «НИ МЫ, НИ НАШИ АФФИЛИРОВАННЫЕ ЛИЦА ИЛИ ЛИЦЕНЗИАРЫ НЕ НЕСЁМ ОТВЕТСТВЕННОСТИ ЗА КАКИЕ-ЛИБО КОСВЕННЫЕ, ПОБОЧНЫЕ, СПЕЦИАЛЬНЫЕ, ШТРАФНЫЕ ИЛИ ПОСЛЕДУЮЩИЕ УБЫТКИ, ВКЛЮЧАЯ УБЫТКИ ОТ ПОТЕРИ ПРИБЫЛИ, ДЕЛОВОЙ РЕПУТАЦИИ, ВОЗМОЖНОСТИ ИСПОЛЬЗОВАНИЯ, ДАННЫХ ИЛИ ИНЫЕ ПОТЕРИ, ДАЖЕ ЕСЛИ МЫ БЫЛИ ПРЕДУПРЕЖДЕНЫ О ВОЗМОЖНОСТИ ТАКИХ УБЫТКОВ». Именно так — полностью заглавными буквами — это условие фигурирует в документе OpenAI, что подчеркивает серьезность сказанного.
«ИИ позиционируется как инструмент продуктивности, способный дополнять или автоматизировать задачи и целые профессии, — отмечает блог Bot Hub. — Но если ИИ настолько неточен и опасен, что человеку приходится контролировать каждый его шаг, то каким, черт возьми, образом ИИ может повысить продуктивность?». Все три документа условий использования говорят, по сути, одно и то же: ИИ ненадежен, ему нельзя доверять.
Главный вывод Bot Hub: генеративный ИИ — тупиковый пузырь, а инвестиции в него и хайп вокруг него совершенно не отражают реальность. Вместо того чтобы остановить безумие, высокотехнологичные монстры активно защищают себя юридически, продолжая раздувать хайп и накачивать пузырь — все ради того, чтобы набить свои и без того бездонные карманы.
«Это история о жадности и обмане, — резюмирует блог компании Bot Hub. — И мы все знаем, чем она закончится».
