20 мая 2025 года Google провёл конференцию Google I/O для разработчиков, которая была посвящена искусственному интеллекту. Компания показала обновлённый поиск, новые генеративные модели и другие AI-инструменты. Рассказываем о главных анонсах.
Содержание
- Gemini 2.5 Flash и Gemini 2.5 Pro с режимом Deep Think
- AI Mode, Deep Search и нейрошопинг
- Google Beam и Meet
- Gemini Live, Search Live и Project Astra
- Android XR, Project Mahan и Project Aura
- Flow
- Впечатления от презентации
Gemini 2.5 Flash и Gemini 2.5 Pro с режимом Deep Think
Gemini 2.5 Pro и Gemini 2.5 Flash — новые генеративные модели, на которых Google теперь строит большинство своих технологий. Gemini 2.5 Pro рассчитана на сложные задачи и работу с большими объёмами данных, а Gemini 2.5 Flash — это облегчённая версия, которая оптимизирована для быстрых ответов в большинстве повседневных сценариев.
Также у Pro-версии появится режим Deep Think. В нём нейросеть сможет разбивать задачу на этапы, последовательно прорабатывать каждый шаг, проверять промежуточные результаты и только после этого формировать итоговый ответ. Такой подход имитирует человеческое мышление. Он пригодится при проведении научных исследований, проектировании систем и других задачах, где важны логика и точность.
AI Mode, Deep Search и нейрошопинг
AI Mode — это новый режим поиска на базе модели Gemini 2.5 Pro. С его помощью вы можете задавать более длинные запросы, которые модель анализирует глубже, чем обычный поиск. AI Mode учитывает персональный контекст каждого пользователя и способен взаимодействовать с другими сервисами Google. Например, если подключить свою почту, то при планировании поездки система самостоятельно подберёт жильё или развлечения, опираясь на данные о вашем билете из Gmail. Вкладка AI Mode уже доступна пользователям в США, а в остальных странах она появится позже в 2025 году.
Отдельно развивается система углублённого поиска Deep Search. Она умеет формировать отчёты, автоматически отправлять уточняющие запросы и анализировать полученные данные. Например, если вы хотите изучить влияние кофе на здоровье, то Deep Search соберёт научные статьи, медицинские рекомендации и статистику, чтобы представить комплексный обзор с разными точками зрения и ссылками на источники. Публичное тестирование режима Deep Search запланировано на лето 2025 года.
Видео: Google
Кроме того, в поиске появится функция виртуальной примерки одежды, которая основана на технологиях компьютерного зрения. Вы сможете загрузить свою фотографию в полный рост, после чего нейросеть проанализирует фигуру, позу и пропорции вашего тела.
На основе собранных данных ИИ создаст реалистичную 3D-модель и покажет, как выбранная одежда будет выглядеть с разных ракурсов. Далее вы сможете сразу оформить покупку или указать желаемую цену — система отследит скидки и уведомит, когда цена снизится. При желании она сможет даже оформить покупку за вас.
Видео: Cybernews
Google Beam и Meet
Beam — новая система видеосвязи, основанная на технологии Project Starline. Ожидается, что первое устройство с этой системой выпустит HP до конца 2025 года. Оно будет оснащено шестью камерами, которые будут объединять два видеопотока в объёмное трёхмерное изображение собеседника. По словам Google, качество картинки получится максимально реалистичным: система сможет точно передавать мимику и жесты, а также обеспечит поддержку мгновенного перевода речи с сохранением голоса говорящего.
Устройства с системой Beam ориентированы на корпоративных пользователей, а для широкой аудитории Google обновил Meet. Теперь сервис поддерживает синхронный перевод речи. Например, если один участник говорит по-английски, остальные могут слышать перевод на испанский в реальном времени. Пока функция работает только между английским и испанским, но в будущем появится поддержка других языков.
Видео: Google
Gemini Live, Search Live и Project Astra
Gemini Live — голосовой ИИ-ассистент, который работает через камеру вашего смартфона. Достаточно показать ему объект, чтобы получить ответ. А в расширенном режиме Search Live ассистент даёт контекстные подсказки: например, если навести камеру на сломанный принтер, то он проанализирует поломку и подскажет, что делать.
Project Astra — ещё один ИИ-ассистент, который с вашего разрешения может сам инициировать диалог, если заметит что-то важное. Например, во время учёбы он может распознать ошибку в тетради и указать на неё. Как и в случае с Gemini Live, вы можете навести камеру смартфона на конспект, назвать номер задачи и попросить объяснение.
Видео: Google
Android XR, Project Mahan и Project Aura
Android XR — новая платформа для AR/VR-гарнитур и умных очков со встроенным ИИ Gemini. На презентации Google представила два первых устройства для этой платформы — гарнитуру Project Mahan и прототип компактных очков Project Aura.
Оба гаджета работают автономно и оснащены камерой, микрофонами и встроенным в линзу дисплеем. С их помощью можно просматривать уведомления, прокладывать маршруты, переводить речь и получать комментарии об окружающей обстановке. Например, при взгляде на вывеску кофейни можно сразу увидеть отзывы, меню и кнопку для заказа. Сроки выхода и стоимость устройств пока не объявлены.
Видео: Android
Flow
Flow — новый ИИ-инструмент для генерации коротких видео, который объединяет возможности нейросетей Veo, Imagen и Gemini. Всё работает просто: вы загружаете нужные фото, добавляете текстовое описание — и получаете полноценный видеоклип.
Например, можно загрузить фотографию чашки кофе и написать: «Покажи процесс приготовления латте с молочной пенкой». Flow сгенерирует ролик, в котором бариста готовит кофе, а камера плавно показывает процесс во всех деталях. После этого вы можете изменить стиль, добавить эффекты и на своё усмотрение отредактировать сцену.
Видео: Google
Впечатления от презентации
Мы рассмотрели далеко не все новинки конференции. Чувствуется, что Google делает серьёзную ставку на искусственный интеллект и активно конкурирует с OpenAI — особенно в области инструментов для разработчиков. Чуть позже мы подготовим обзор и подробнее расскажем о новом помощнике Jules, который Google предлагает использовать для исправления багов и написания тестов. Кроме того, мы планируем протестировать Stitch и создать с его помощью красивый пользовательский интерфейс.
Конечно, некоторые анонсы вызывают опасения — особенно те, где Gemini запрашивает доступ к личным данным. Но при этом многие нововведения действительно кажутся полезными. Например, Gemini Live уже сейчас может помочь людям с нарушениями зрения лучше ориентироваться в пространстве, озвучивая всё, что происходит вокруг.
В целом радует, что на рынке ИИ сохраняется здоровая конкуренция. Нам остаётся надеяться, что заявленные функции будут работать так же хорошо, как на презентации.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!