Газета Wall Street Journal опубликовала результаты изучения маркетинга и рекламы моделей искусственного интеллекта (ИИ) компаний Apple, Google, Microsoft и Samsung Национальным рекламным отделом США (National Advertising Division, NAD). Выводы NAD неутешительны для всех четырех техногигантов.
NAD начал активно проверять маркетинг и рекламу в сфере ИИ после того, как крупнейшие компании стали продвигать его для широкой публики. «Мы посчитали, что это важная область, на которой стоит сосредоточиться, потому что потребителям сложно самостоятельно оценить подобные заявления, — объяснила необходимость квалифицированного наблюдения юрист NAD Лора Процманн. — Лишь некоторые утверждения маркетологов подтвердились, а во многих рекламных материалах были выявлены явные преувеличения и недостоверные формулировки».
Например, в апреле текущего года NAD обнаружил, что на сайте Apple рекламировались как «доступные уже сейчас» еще не разработанные ИИ-функции для iPhone. Сейчас большинство этих функций действует, но на сайте Apple появилась пометка о том, что новые возможности цифрового помощника Siri в iPhone все еще находятся в разработке.
В прошлом году Google под давлением NAD удалила с YouTube видео, демонстрирующее ИИ-помощника Gemini, который бодро выполнял все — от распознавания рисунков до сочинения музыки, что соответствовало действительности лишь частично. Но до сих пор ролик остается в блоге компании. Как отмечает газета, по витиеватому объяснению представителя Google, «ролик не следует воспринимать как точное описание работы продукта».
По требованию NAD Microsoft удалила интернет-страницу, рекламирующую функцию Business Chat своего ИИ-помощника Copilot. Он, как утверждалось на странице, работает «бесперебойно со всеми вашими данными». Компания вынужденно уточнила: когда после десяти недель применения Copilot 75 процентов пользователей сообщили о росте его продуктивности, эти данные отражали лишь субъективное восприятие, а не объективные измерения.
Компании Samsung после проведенного NAD в прошедшем июле расследования пришлось отказаться от утверждений, что холодильник с ИИ-функциями «автоматически распознает содержимое, поэтому вы всегда знаете, что внутри». Выяснилось, что камера внутри холодильника Samsung распознает лишь 33 конкретных продукта питания.
Федеральная торговая комиссия США (Federal Trade Commission, FTC) тоже усилила изучение рекламы ИИ. В начале августа FTC объявила о подаче нескольких судебных исков против недобросовестных маркетологов и рекламщиков. В частности, компании Ascend Ecom, рекламировавшей онлайн-платформу с ИИ как способ получать доход в размере 10 000 долларов в месяц, могут быть назначены конфискация активов на сумму 25 000 000 долларов и пожизненный запрет на предоставление подобных услуг.
Wall Street Journal приводит мнение профессора маркетинга Джорджа Хейдорфера. Он считает, что по мере проникновения ИИ в самые разные отрасли потребителям следует ожидать всплеска недобросовестной рекламы. «Когда вы рекламируете ИИ как магию, вы неизбежно привлекаете пристальное внимание, — цитирует издание Хейдорфера. — Но преувеличения — это не просто хвастовство. Это утверждения о производительности, а их надо подкреплять чем-то большим, чем эффектный доклад, красивая фраза или картинка».
Wall Street Journal также напоминает о прошлогоднем исследовании Массачусетского технологического института (Massachusetts Institute of Technology, MIT). Кроме прочего, оно поставило под большой вопрос вообще всю рекламу ИИ как уникального и перспективного помощника человека. Если коротко, то MIT доказал, что ИИ… не понимает того, что он говорит или пишет.
Для проверки группа MIT разработала критерии, выходящие за рамки обычной проверки точности ответов ИИ. Одним из нестандартных тестов стало моделирование навигации по улицам Нью-Йорка. Модели ИИ показывали высокую точность, но лишь до момента, пока в их задачу не вводились переменные и близкие к реалиям данные. Например, о перекрытых из-за ремонтно-дорожных работ или по другим причинам улицах.
«Я был удивлен, как быстро ухудшилась производительность, — отмечал руководитель исследования Кейон Вафа. — Если закрыть всего процент улиц, то точность навигации от моделей ИИ падает с почти 100 до 67 процентов». «Мы часто видим, как эти модели делают что-то впечатляющее, и начинаем думать, что они понимают окружающий мир, — добавлял соавтор исследования MIT Ашеш Рамбачан. — Надеюсь, наше исследование заставит людей задуматься об этом критически».
MIT напоминал, что большие языковые модели ИИ (LLM) лишь предсказывают, какие слова, фото, видео поставить следующими в разговоре или письме, опираясь на огромные объемы обработанного текста и изображений. «Магия» ИИ — лишь сноровка в жонглировании словами и изобразительным рядом. Логики, понимания в этом процессе нет. Точность и производительность работы LLM резко снижаются там, где появляется множество переменных данных, как это постоянно происходит в реальной жизни.