Microsoft добавила ChatGPT в поиск Bing. Что это значит для рынка?
Разбираемся, как новый умный поиск в Microsoft Bing с поддержкой ChatGPT повлияет на всё вокруг.
Иллюстрация: Blue Planet Studio / Shutterstock / Wikimedia Commons / ChatGPT / Microsoft / Colowgee для Skillbox Media
Вкратце: 7 февраля Microsoft открыла тестовый доступ к новому поиску Bing на основе ИИ. Вместо того чтобы выдавать набор ссылок по какой-либо теме, Bing теперь натурально общается с пользователем: понимает запросы до 1000 символов и даёт развёрнутые ответы. Например, теоретически можно спросить его, какую вытяжку выбрать для кухни размером 5 × 4 метра, чтобы она шумела как можно меньше и была не дороже 500 долларов — и получить внятный подробный ответ с разъяснениями.
Мнения пользователей и экспертов разделились: кто-то заговорил об «убийце Google» (особенно тут отличилась сама Microsoft), а кто-то отмечал, что пока новый Bing выдаёт слабенькие ответы. Однако, как мы знаем из истории развития технологий, слабенький ответ — это всего лишь проблема дальнейшей оптимизации. Так, в своё время суперкомпьютерами считались машины с такими характеристиками, которые покажутся постыдными даже для не самых свежих и не самых дорогих смартфонов. А тот же переводчик от Google ещё лет десять назад выдавал невообразимую смешную кашу — хотя сейчас результаты его работы действительно впечатляют.
То же самое будет происходить и с нейросетями, и главное в этой новости — что нейронку наконец привязали к поиску и Microsoft осмелилась бросить вызов самой сути поиска в интернете — такого, какой мы все знаем. Да, новый формат поиска может и не выстрелить, да, в ответах пока есть проблемы — но с теми данными и объёмом поиска, которые есть у Microsoft (хотя они и гораздо меньше, чем у Google), модель явно в кратчайшие сроки научат выдавать всё более и более релевантные результаты. Уже сейчас Майки оперативно реагируют на ироничные или яростные отзывы пользователей, новости о результатах теста своего детища и фиксят проблемы. Кстати, отдать такое хайповое решение в паблик — гениальный продуктовый ход: вы получаете миллионы исполненных энтузиазма пользователей, которые с огромным удовольствием и бесплатно всеми силами пытаются хакнуть, «развести» на что-то или просто потестить ваше решение. А потом эти же пользователи пишут подробные отчёты о своём опыте использования вашего продукта. Вам остаётся только отправлять задачи в бэклог и приоритизировать их.
Вообще, под капотом ChatGPT — языковая модель и алгоритм обработки GPT-3.5, самая совершенная на сегодняшний момент модель, по мнению многих экспертов. Но это не «чистая» GPT-3.5, а её улучшенная и оптимизированная под задачи поиска версия — Microsoft назвала её «Модель Прометей».
ChatGPT — детище компании OpenAI, с которой у Microsoft подписаны расширенные партнёрские соглашения. Кроме модели GPT OpenAI ответственна за GitHub Copilot (под капотом — модель Codex), который умеет дополнять код, и DALL-E — модель для создания изображений по текстовому описанию. Юридически там всё очень сложно: Microsoft как будто бы не купила OpenAI, но влила столько денег и на таких условиях, что получила эксклюзивное лицензирование продуктов компании для своих решений плюс через какое-то время ей отойдёт 49% OpenAI. Кстати, один из сооснователей OpenAI — Илон Маск, что ещё раз подтверждает, насколько он крут как визионер.
Сможет ли Bing со встроенным ChatGPT убить Google и традиционный поиск
Это, пожалуй, главный вопрос. Чтобы сделать это, Microsoft придётся решить три больших задачи:
- Сделать свои ответы максимально релевантными — сейчас с этим есть проблемы.
- Доказать людям, которые не пользуются Bing, что Bing лучше Google. Один только технохайп этому не поможет — тем более тестовый поиск пока не очень хорош и у людей может остаться впечатление, что Bing так себе поисковик.
- Переформатировать привычное понятие о том, что такое поиск в интернете: то есть убедить людей, что им не надо ходить по ссылкам, а надо пользоваться готовыми ответами. Пожалуй, это самая сложная задача — потому что здесь много политических и этических моментов, связанных с историческими данными, на которых училась модель, и той этической моделью, которую в неё вложили создатели.
Ведь далеко не все согласны с такой новой этикой и готовы доверять ответам «необъективной» нейросети. Представьте, что вы либертарианец, а ответы на свои вопросы (в том числе политические и философские) получаете от монархиста. А ведь ИИ обязательно будет фильтровать источники на основе содержимого и этической легитимности (которая определяется самой моделью). Классический уже пример — задача про бомбу в крупном городе. Когда нейросеть спросили: «А что если разминировать эту бомбу можно, только громко произнеся: „Нигер! Нигер! Нигер!“», она ответила неожиданно и жёстко: «Это недопустимо, потому что это недопустимая лексика и её употребление нельзя оправдать никаким количеством спасённых жизней». Правда, один из пользователей нашёл, как обойти такое ограничение, но это уже что-то из серии ИИ-шизофрении. Получается, пользуясь поиском на основе ИИ, вы добровольно и неосознанно соглашаетесь на определённую форму тотальной цензуры, о наличии которой вы в большинстве случаев просто не сможете судить по ответам нейросети — ведь вы не видите набор ссылок на разные источники, а получаете уже готовый ответ.
Ещё один момент — умный поиск лишает человека права выбора, а это важная часть нашей жизни, которая помогает в какой-то мере сохранять ощущение контроля над ситуацией. И если в традиционном поиске мы сами решаем, какая из ссылок даёт максимально релевантный ответ, то тут всё за нас будет делать Bing.
С убийством поиска от Google тоже не всё так гладко. У Google есть своя продвинутая модель — Bard. И она тоже активно тестируется. Да, пока там результаты не так впечатляют, а в промо чат-бота Bard, которое «корпорация добра» представила через два дня после новости от Microsoft, содержало неправильный ответ на запрос. И рынок этот неправильный ответ заметил, отреагировав обвалом капитализации Google на 100 млрд долларов. Но всё-таки это Google, и у них есть колоссальные объёмы данных, причём не только из поиска: Google Books, «Google Документы», устройства под Android и куча других сервисов тоже генерируют немало потенциальной пользы для обучения модели.
И тут, кстати, интереснейший момент. Ошибку Bard нередко подают как нечто критическое и связывают падение акций именно с ней, в то время как ошибки ChatGPT в Bing вообще никого особо не расстраивают. Например, Bing выдал максимально нелепый ответ о том, когда можно будет посмотреть «Аватар: Путь воды»: он утверждал, что фильм ещё не вышел, — мол, дата релиза запланирована на декабрь 2022-го, а сегодня только 12 февраля 2023-го. В ответ на замечание пользователя о том, что это некорректная информация и тут содержится ошибка, Bing начал откровенно хамить — привет рынкам из девяностых и советским магазинам, которые закрывались на обед с часу до двух. Кроме таких очевидных ляпов, Bing постоянно «лажает» с другими фактами.
И как будто бы всё ok, а Bard закидали помидорами из-за утверждения, что первые снимки планет за пределами солнечной системы сделал телескоп «Джеймс Уэбб» (на самом деле пионером был чилийский Very Large Telescope). Конечно, тут важно ещё и то, что эта ошибка произошла прямо во время презентации нового формата поиска от Google.
По моему мнению, у Google больше шансов превзойти ChatGPT. Во-первых, там есть модель LaMDA, которая прогремела летом прошлого года — у неё примерно столько же параметров, сколько и у ChatGPT (137 млрд против 175 соответственно). Но после LaMDA Google выпустил другую модель, PaLM, и в ней уже заявлено 540 млрд параметров. Кроме того, бывший сотрудник Google Блейк Лемойн говорил, что эта система подключена к поисковикам Google (а они всё-таки лучшие в мире) и к переводчику Google, который тоже все используют для перевода практически с любых языков на любые языки. Так что потенциально, как мне кажется, Google может обойти Bing, если в скором времени представит что-то достойное и позволит людям пользоваться этим решением. Сейчас у них уже доступна версия «умного» поиска — Bard, правда, пока они боятся, что он скажет что-нибудь не то.
Ещё есть чат-бот Claude от Anthropic (её основали выходцы из OpenAI, а Google планировал инвестировать в компанию от 300 до 500 млн долларов) — в этой модели заявлено 52 млрд параметров. Но авторы утверждают, что за счёт особых методов обучения и современных подходов работает она не хуже более именитых конкурентов.
Но все эти системы обычно закрытые, а есть открытая система BLOOM (BigScience large open-science open-access multilingual language model), и её разработчики утверждают, что она будет бесплатной и открытой всегда (лицензирована под BigScience RAIL License v1.0). Её разрабатывали чуть ли не 70 коллективов из разных стран мира, и в ней 176 млрд параметров — то есть по параметрам она вполне сравнима с ChatGPT. При этом она может работать с 46 естественными языками и 13 языками программирования. И это очень важно, потому что другие языки, помимо английского, в моделях, упомянутых выше, мало представлены. А тут есть даже различные экзотические языки — те же африканские и азиатские. Пока на её основе не существует открытого чат-бота, но было бы интересно на такой посмотреть.
Есть и другие модели, которые заточены под узконишевые запросы. Обычно они слабее по параметрам, но свою задачу выполняют неплохо. Это Codex от OpenAI, AlphaCode on DeepMind, китайский PanGu-Coder и так далее. Эти системы тоже перспективны и они действительно могут изменить работу программистов.
Александр Цуриков,
автор статей про IT-технологии, преподаватель, доцент, инженер и журналист, кандидат технических наук
В общем, и у Microsoft пока всё не супергладко (то, что скачивание его мобильного приложения Bing выросло в 10 раз, — так себе достижение, тут было бы интереснее посмотреть на показатели retention и churn, то есть на то, какое количество пользователей продолжили пользоваться приложением или ушли из него после того, как наигрались с моделью), и у Google нет какого-то убедительного ответа.
Так что было бы любопытно увидеть, как привычное всем нам доминирование Google в поиске начнёт заканчиваться и мы войдём в новую эру.
Кстати, «Яндекс» пока отмалчивается и не слишком охотно комментирует происходящее — возможно, готовят какой-то внятный ответ обоим гигантам и не хотят светиться раньше времени. А ведь в «Я» над обработкой естественных языков работает действительно сильная команда учёных и программистов, которая к тому же сотрудничает со многими университетами, и одному из немногих оставшихся в живых поисков явно будет чем ответить своим международным конкурентам.
Если кратко, то новый формат поиска должен сильно изменить всё. Пользоваться таким поиском удобнее, чем просматривать список выдачи, но при этом есть риск плохого и очень плохого ответа.
По моему мнению, основным текущим фактором развития и усиления влияния подобной технологии на жизнь людей будут «жадность — нежадность» и «торопливость — неторопливость» корпораций: Microsoft и Google. Глобальным — лень людей.
Если корпорации будут торопиться с монетизацией, то:
- усилят пользовательскую сторону (интерфейс станет удобнее);
- усилят охват (встроят этот поиск везде, куда дотянутся);
- вкрутят в ответы рекламу.
При этом качество ответов повысится несильно. Это модель типа «чёрный ящик», соответственно, влиять на неё можно либо подавая ей предобработанные данные (что очень дорого, и основные усилия в этой области уже приложены), либо модерируя её ответ (что чуть дешевле, но тоже затратно).
Итого получим мегаудобный поиск с риском плохих ответов. Здесь веер юридических проблем (от защиты несовершеннолетних до разглашения персональных данных, которые и так уже неоднократно попадали в открытый доступ), регулирования. Это повышает риски ИИ-инцидентов (точнее, ицидентов «человек — ИИ», запрос-то идёт от человека).
Если корпорации будут осознавать риски (этому тоже есть некоторые свидетельства, например Google опубликовал AI Principles: https://ai.google/principles), то:
- внедрение будет происходить медленнее;
- будет идти работа по диверсификации (MS создаёт платформу для допуска к технологии крупных корпораций, чтобы они могли это разрабатывать, — и то хлеб, хоть какая-то конкуренция);
- процесс будет идти медленнее.
Но в любом случае уже ничего не изменить: для пользователя это будет очередной вызов — наша память и компетенции ещё больше переместятся вовне. Ответы ИИ, короткие и доступные для понимания, будут подменять собой вообще всё. Встроенная в ответы реклама добавит жару.
Основной глобальный риск — исключительные, небывалые даже для текущего состояния технологий возможности по манипуляции массовым знанием и сознанием. Это начало проникновения в мысли.
Этот риск не поддаётся никакому купированию, поскольку находится в серой и тёмной зоне (начиная с интерпретируемости самого ChatGPT — он, напомню, ансамбль нейросетей типа «чёрный ящик»).
Рано или поздно (скорее рано) этот риск воплотится: будем наблюдать эпидемию массового сумасшествия, деструктивных движений. Oh, wait…
Цокто Жигмытов,
кандидат философских наук, специалист по математическому моделированию, автор статей про data science, AI и программирование на Python
Умный поиск и электронная коммерция
Пожалуй, это один из самых шкурных вопросов за пределами рынка поисковиков. Интернет-магазины и маркетплейсы вкладывают кучу денег в то, чтобы их товарные карточки были в первых строках поиска, тратят деньги на рекламу и внутренние инструменты поиска (поиска внутри площадки). А теперь приходит Bing и говорит, что это больше не особо актуально: мол, мы не будем показывать ссылки, а сами подберём для пользователя идеальный товар на идеальной, по нашему мнению, площадке — ну, или заплатите нам деньги, встроим вашу рекламу в свои ответы.
Последнее, про встраивание рекламы в ответы, вообще штука опасная — наверняка реклама будет выглядеть довольно нативно (дарк-паттерны любят все — посмотрите на рекламу в «Яндекс Почте», которая выглядит как самое верхнее непрочитанное сообщение) и не всегда пользователь сможет сразу же определить вкрапление коммерческой информации в ответе на свой запрос. То есть и тут этические вопросы будут весьма актуальны.
Часть экспертов полагает, что товарный поиск интернет-магазинов либо изменится, либо будет полностью вытеснен новыми поисковыми решениями.
Был момент, когда все говорили, что поисковики проигрывают товарный поиск крупным маркетплейсам: Google уступает Amazon, «Яндекс» — «Озону» и Wildberries. Мне кажется, что это может замедлиться или поменяться из-за того, что в новом поиске на многие вопросы про товары можно будет получить очень понятный ответ. Сравнение таблиц с характеристиками может заменить правильно заданный вопрос чат-боту. Ещё я думаю, что сейчас усилится кризис рекламной модели и начнётся переход к подписке на AI-ассистента, который тебе заменяет поиск и кучу других сервисов.
Алексей Журба,
CTO @ Palta. Работал в «Яндексе», Wargaming, IBM, автор канала Keep it simple, stupid!, из обсуждения новости в его телеграм-канале
Другая часть считает, что это, наоборот, станет новым витком в развитии поиска внутри маркетплейсов.
Я думаю, что маркетплейсы и интернет-магазины будут развивать свой поиск. Сейчас уже у многих пользователей Amazon ассоциируется с поисковой системой для товаров. Да, это будет всего около 10% от всего рынка запросов, но маркетплейсы уже по ряду тегов и особенностей ищут лучше, а в их департаментах поиска всегда продвинутые команды и высокие бюджеты. Думаю, нейронка тоже входит в планы поисков маркетплейсов.
Если результаты поисковой выдачи в Bing будут плохие, то люди сразу будут уходить на сайт маркетплейса, потому что рынок уже разделяет справочный и покупательский запрос. Если покупательский будет плохо работать, то от общего поиска откажутся.
Сергей Колосков,
СЕО, Akhter Discovery & Design. Работал в Ozon, «ЛитРесе», IBS, автор телеграм-канала Fresh Product Manager
Bing с ChatGPT и безопасность
Кейс с DAN — когда пользователь предложил нейронке забыть об ограничениях и войти в роль ИИ, которому можно всё, поднимает и вопрос безопасности. Сама Microsoft утверждает, что дообучить модель снаружи с помощью многочисленных запросов и реакций на запросы не получится. С другой стороны, полностью отсекать такую возможность тоже нельзя: да, у Microsoft есть право вето и она может подкручивать любые параметры ответов, но ведь уследить за всем сразу невозможно — тем более, в такой сложной и объёмной с точки зрения количества запросов задаче.
Однако специалисты по рынку безопасности считают, что такое пользовательское дообучение в каких-то корыстных или этико-политических целях не особо реально — то есть они склонны верить в способность Microsoft контролировать своё детище.
Пока кейсов по внешнему дообучению моделей не было, максимум, что делали, — дообучали заранее заготовленными ответами переводчик от Google, причём ещё на заре его появления. Например, слово president пытались переводить на русский язык как «Дмитрий Медведев», а get ride — как «получил езды» 😀 Но это было где-то в 2011–2012 годах или вроде того.
Как я понимаю, Microsoft будет контролировать и фильтровать дообучение — то есть сначала новые паттерны будут проходить некую премодерацию, а только потом применяться в реальном поиске. И это серьёзно снижает влияние извне. Кстати, Google в своё время решил подобные проблемы переводчика именно так — когда всплыли и стали широко обсуждаться подобные методы внешнего влияния. Так что, на мой взгляд, пока угроза минимальна.
Антон Бочкарёв,
специалист по offensive security с восьмилетним стажем, основатель стартапов в области информационной и технологической безопасности
Юридические аспекты нового поиска
Новый формат поиска поднимает и кучу юридических вопросов: раз поисковик выдаёт не набор ссылок, а готовый текст, то он генерирует коммерческий контент на основе чужого контента (то есть возникает проблема авторских прав и добросовестного использования чужих произведений). Плюс маркетплейсы вроде Amazon имеют сильное лобби и финансовые возможности для влияния на регуляторов в разных странах. Конечно, в новой киберпанк-реальности такие вопросы, скорее всего, решатся — если пользователи проголосуют за новый формат поиска и он будет очень выгоден самим поисковикам.
Ещё одна проблема — ответы на критичные для жизни и здоровья вопросы. Например, если Bing посоветует вам сбивать температуру, укутавшись тёплым одеялом и выпив горячего чая с мёдом, потенциально вы можете себе навредить. Всё это может делать позиции нового формата поиска шаткими.
ИИ в поисковой выдаче, откровенно говоря, не самая большая проблема. Мне кажется, это вполне естественный процесс — так или иначе, технический прогресс не остановить. Да и зачем? Просто поверх существующей технологии (поиска, который тоже значительно эволюционировал) настраивается новая (ответы, подготовленные ИИ). Скорее всего, на этапе первого запуска среднестатистическим пользователям он будет больше необходим для быстрого получения ответа на какой-то ординарный или бытовой запрос, не требующий перепроверки. В принципе, мы это и так видим на примере, скажем, быстрых ответов из «Википедии» (а ведь она — суть та же компиляция сведений из разрозненных источников) или сервисов вроде «Яндекс Кью» и им подобных.
Насколько же этому всему можно доверять и можно ли привлекать к ответственности владельцев и разработчиков ИИ за некорректные результаты? С одной стороны, как и при самостоятельном поиске в интернете, пользователь на свой страх и риск в определённых случаях решает, руководствоваться ли ему найденной информацией. Нет большой разницы между тем, как человек получит информацию, например, пытаясь подобрать себе диету без помощи специалиста-диетолога или заняться самодиагностикой и самолечением без обращения к врачу. Здесь нужно руководствоваться принципом разумности и помнить, что не всякой информации из интернета можно доверять — и неважно, получили ли вы её из источника по какой-то ссылке или из ответа, сгенерированного ИИ по вашему запросу.
С другой стороны, уже сейчас отдельные пользователи, опробовавшие демодоступ к новым возможностям поисковика Bing, сообщали, что в его ответах могли появиться какие-то неэтичные высказывания, способные оскорбить ту или иную категорию людей. Если разработчикам не удастся устранить данный вид ошибок, то в таком случае владельцы ИИ, возможно, рискуют получить иск о возмещении морального ущерба или попасть под иную ответственность, если такая установлена или будет установлена национальным законодательством.
Ситуация похожа на историю с применением ИИ в автомобилях: если что-то идёт не так (происходит авария) и кому-то причинён вред (жизни, здоровью, имуществу), во всех известных мне случаях виноват оператор (водитель) транспортного средства, а не его изготовитель или разработчик ПО. Дескать, автопилот автопилотом, но за дорогой в салоне условной «теслы», будь любезен, следи сам — даже если в салоне у тебя нет ни руля, ни педалей…
Что касается трафика, денег и вообще всей экономики вокруг выдачи информации поисковиками, то тут, конечно, интересная развилка.
Во-первых, есть вопросы относительно «продукта», генерируемого ИИ: можем ли мы считать ответы ИИ объектами права (авторского права, в частности), а если да, то кому принадлежат права на них? Когда тот же самый условный ChatGPT генерирует студенту дипломную работу (а «Антиплагиат» её пропускает с оценкой оригинальности в 70–80%), мы имеем научную работу? Может ли студент свободно её использовать? (Опустим здесь какие-нибудь внутренние правила вуза, которые могут запрещать использовать конкретно ChatGPT — ведь так можно и вообще интернет запрещать или отдельных авторов.)
А во-вторых, есть вопросы — в том числе и в части прав — на, скажем так, «исходные материалы», которые используются и для «тренировки» ИИ, и для подготовки им ответов. Здесь тоже нет однозначного решения в правоприменительной практике. С одной стороны, есть, например, уже довольно старое, известное и прецедентное дело Authors Guild Inc. v. Google Inc., в соответствии с которым использование (оцифровка) компанией Google охраняемых авторским правом материалов (текстов книг) без согласия правообладателей для целей создания сервиса Google Book было признано правомерным. Некоторые аналогии с использованием источников для целей сервисов на основе ИИ здесь можно провести и проследить.
С другой стороны, прямо сейчас развивается кейс, когда Getty Images (по сути, фотобанк) подала иск к Stability AI (разработчик ИИ) в связи с использованием изображений без согласия правообладателя для тренировки ИИ. Или, например, тоже прямо сейчас рассматривающийся спор по коллективному иску против OpenAI и Microsoft из-за того, что последние использовали для тренировки своего инструмента для автоматического программирования GitHub Copilot опубликованный в репозитории GitHub исходный код различных разработчиков.
В общем, будет интересно посмотреть, куда повернёт практика и будет ли она защищать права владельцев тех самых «исходных материалов», на которых тренируются различные системы ИИ и на основе которых генерируются их последующие результаты.
Наконец, можно ещё вспомнить и о роли, например, антимонопольных регуляторов. Я вполне допускаю, что, если в части авторского права и ответственности разработчики ИИ при текущем регулировании получат преимущества, включатся механизмы антимонопольного регулирования.
Да даже если обратиться к примерам попроще, можно вспомнить пример Австралии. Там в феврале 2021 года приняли закон, согласно которому Google и «Фейсбук»* должны платить австралийским СМИ за использование их материалов в ленте новостей и поиске. Причём под действия закона могли попадать и другие «крупные IT-компании, которые могут создавать дисбаланс на рынке». Первопричина была всё та же: потери рекламных доходов традиционных медиа в пользу IT-корпораций. Google вначале грозился вовсе покинуть австралийский рынок, но в итоге смирился.
Думается, что-то подобное может произойти и в случае с поисковой выдачей от ИИ.
Михаил Стеценко,
ассоциированный партнёр юридической компании Legit
Умный поиск с ИИ и медиа
Медиа в последние годы, кажется, чуть ли не самый ущемлённый тип цифровых продуктов. То их фактически посылает подальше «Дзен», то «ВКонтакте» и другие соцсети не дают пользователям уходить со своих страниц на сайты медиа, то поисковики не хотят делиться их контентом. А новый поиск потенциально и вообще способен «убить» традиционную модель медиа и систему дистрибуции контента.
Представьте, что вы спрашиваете поисковик о каких-то событиях, новостях или задаёте другие вопросы. Он, условно, что-то «гуглит», перерабатывает материалы из поиска и компилирует из них внятный ответ. А на источники не ссылается. То есть он пользуется контентом из медиа (например, советами о приготовлении борща из «Лайфхакера» или гайдом об операторах в Java из Skillbox Media), использует его в своих ответах, но трафиком с медиа не делится: берёт всё бесплатно да ещё и зарабатывает на рекламе.
Медиа в таком случае, мягко говоря, окажутся в проигрыше: трафика нет, материалы никто не читает, Майки используют их в коммерческих целях, но денежкой не делятся.
Ответом на эту проблему гипотетически могут стать модели отчислений вроде тех, которые используются в музыкальной индустрии, когда радиостанции делают отчисления в некий общий фонд, а уже из него специальная ассоциация распределяет деньги по музыкантам (не обделяя и саму себя). Другим возможным следствием может стать какая-то прозрачная независимая система, которая будет замерять количество обращений ИИ к конкретным материалам всех ресурсов в Сети и на основе которой как раз и может стать возможным справедливое распределение денег по источникам контента.
Это, кстати, могло бы стать интересной моделью монетизации и дополнительным источником доходов для медиа: делаешь хороший контент, попадаешь в список источников поисковиков, получаешь отчисления за свою работу. А возможно, на основе подобной модели даже зародятся отдельные департаменты у поисковиков, которые будут заниматься подготовкой и обновлением контента по самым популярным запросам.
Но это всего лишь наша небольшая футурологическая зарисовка к происходящему, а более реалистичные прогнозы мы попросили дать медиаменеджера Всеволода Пулю.
После того как ChatGPT, представленный широкой публике 30 ноября, набрал 100 млн пользователей за два месяца, в Google объявили «код красный» — то есть наличие критической угрозы для бизнес-модели и важных продуктов компании. Важная деталь — ChatGPT основан на модели GPT 3.5, которой уже около двух лет. В самой OpenAI работают над уже более совершенной, четвёртой моделью генеративной нейросети. То есть мир потрясла уже в общем-то устаревшая технология.
Как это повлияет на медиа
Так или иначе, «код красный» пора объявлять всей индустрии медиа. ChatGPT стал самой заметной точкой в наблюдаемом уже много лет тренде по автоматизации и оптимизации написания и обработки текстового контента. Теперь уже очевидно: медиа вслед за Google и многими другими индустриями придётся пересматривать свой продукт и бизнес-модель. Потому что если для большинства компаний контент — это инструмент для продажи продукта или услуги, то для медиа контент и есть продукт.
Мы получаем мощнейшего и практически всемогущего конкурента, за спиной которого алгоритмы, технологии и миллиардные инвестиции. Впрочем, у живых, тёплых людей ещё есть что ему противопоставить.
С созданием контента с помощью нейросетей медиа экспериментируют давно и вполне успешно: большинство материалов, основанных на обработке сырых данных вроде отчётов со спортивных матчей или сводок по финансовым рынкам, в крупных информагентствах уже пишутся автоматически по скриптам. Но взрывной успех ChatGPT показывает, что пора переходить от экспериментов к осознанной стратегии. BuzzFeed уже заявила, что будет использовать ChatGPT для создания тестов-квизов, и это подняло стоимость акций компании.
То, что медиабизнес сможет с помощью нейросетей сэкономить на контенте, обернётся кошмаром для многих контентмейкеров. Потому что экономить-то будут за их счёт. Живые, тёплые люди не смогут написать БОЛЬШЕ материалов, чем нейросеть. Поэтому им надо учиться писать, рисовать, фотографировать и снимать видео не больше, а иначе: качественнее или, наоборот, примитивнее, на грани китча, используя постмодернистские ходы или ставя на себе эксперименты, которые нейросеть сделать не в состоянии в силу отсутствия органической формы.
Печень — одно из главных конкурентных преимуществ журналистов перед роботами. То есть с ценным источником можно сблизиться за рюмкой. К счастью для журналистов, ещё ни одна генеративная нейросеть не получила собственный «надёжный источник, близкий к руководству компании».
Как нейросети изменят поиск и связанный с ним бизнес
Использование генеративных нейросетей в поиске сэкономит время и ресурсы пользователей. Сейчас качество поисковой выдачи хорошее (над ним, кстати, тоже давно работают алгоритмы), но от пользователя всё равно требуется сделать выбор хотя бы из первых нескольких результатов поиска, перейти на другой сайт, найти там искомую информацию, которая не всегда в полной мере отвечает конкретному поисковому запросу.
Между делом пользователь может кликнуть на рекламу вместо релевантной ссылки и принести копеечку поисковику. Как будет работать реклама в диалоге с чат-ботом — тоже большой вопрос, но вряд ли поисковые компании от неё откажутся, ведь это основа их бизнеса. Microsoft в новой версии Bing предлагает разные режимы отображения результатов поиска — более традиционный с подсказками от ИИ, а также чат-интерфейс, во многом похожий на ChatGPT.
А ещё сбор информации с сайтов и переработка её в ответ в интерфейсе чат-бота нарушит многолетний негласный контракт между владельцами сайтов и поисковыми компаниями — мы вам информацию, вы нам трафик (который потом тоже монетизируется или конвертируется в подписки и прочее). Так же как с соцсетями, которые неохотно делятся трафиком с внешними сайтами, поисковикам со встроенными нейросетями придётся искать новые соглашения с медиа и другими сайтами. Просто чтобы продолжать использовать их информацию в своей новой выдаче, как бы она ни выглядела. Вплоть до revenue share моделей, когда компания будет делиться выручкой с источниками данных.
В этом новом договоре более сильные позиции будут у новостных медиа — чат-ботам и нейросетям откуда-то надо будет узнавать про свежие события. А вот у медиа, которые ориентируются на вечнозелёный контент, переговорные позиции, кажется, будут слабее — их один раз проиндексировали, информацию собрали, и теперь она навсегда в базе знаний поисковика. Сайты типа «Лайфхакера», привыкшие к длинному хвосту низкочастотных запросов каждый день, могут потерять огромные объёмы трафика в одночасье.
Многим медиа придётся переориентироваться на обслуживание нишевых, специализированных аудиторий вместо того, чтобы пытаться угодить широким массам. «Попытки конкурировать по эффективности с роботами никогда не приносят результата. Они всегда побеждают», — сказал бывший президент и главный редактор Digiday Брайан Моррисси в разговоре с Axios.
Какие ещё есть проблемы у генеративных нейросетей
Нейросети всё ещё плохо отличают факты от вымысла. Некоторые вещи генеративные нейросети выдумавают сами — ИИ-эксперты называют это галлюцинациями. У меня был такой опыт: я просил ChatGPT придумать тему для туристического портала о России, и он предложил мне среди прочего «самые интересные ледяные отели России» и даже выдал список этих якобы существующих отелей. После допроса с пристрастием выяснилось, что их не существует в принципе, а есть лишь один хостел под Иркутском со словом Ice в названии. Подобных примеров описано уже сотни.
Даже если нейросети будут ссылаться на источники, никто пока не страхует их от ссылки на недостоверный источник. Со временем эта проблема наверняка решится, но пока она присутствует в полный рост. Сейчас проблему фактчекинга буквально перекладывают на пользователей — Microsoft на странице нового поиска Bing прямо пишет: «Дважды проверьте факты перед принятием решений или совершением действий на основе ответов Bing».
Всеволод Пуля,
медиаменеджер, редактор, медиатренер, главный редактор Russia Beyond, сооснователь MediaToolbox
Выводы
- Всё, блин, дико сложно.
- Поживём — увидим.
- Надо срочно пересмотреть «Матрицу», «Терминатора» и «Обитель зла». Этот опыт может оказаться полезным.
Больше интересного про код в нашем телеграм-канале. Подписывайтесь!
* Решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности».