Скидки до 60% и розыгрыш MacBook 0 дней 00 :00 :00 Выбрать курс
Код
#новости

Google I/O 2025: итоги конференции

Множество анонсов и неприличное количество ИИ.

20 мая 2025 года Google провёл конференцию Google I/O для разработчиков, которая была посвящена искусственному интеллекту. Компания показала обновлённый поиск, новые генеративные модели и другие AI-инструменты. Рассказываем о главных анонсах.

Содержание


Gemini 2.5 Flash и Gemini 2.5 Pro с режимом Deep Think

Gemini 2.5 Pro и Gemini 2.5 Flash — новые генеративные модели, на которых Google теперь строит большинство своих технологий. Gemini 2.5 Pro рассчитана на сложные задачи и работу с большими объёмами данных, а Gemini 2.5 Flash — это облегчённая версия, которая оптимизирована для быстрых ответов в большинстве повседневных сценариев.

Также у Pro-версии появится режим Deep Think. В нём нейросеть сможет разбивать задачу на этапы, последовательно прорабатывать каждый шаг, проверять промежуточные результаты и только после этого формировать итоговый ответ. Такой подход имитирует человеческое мышление. Он пригодится при проведении научных исследований, проектировании систем и других задачах, где важны логика и точность.

AI Mode, Deep Search и нейрошопинг

AI Mode — это новый режим поиска на базе модели Gemini 2.5 Pro. С его помощью вы можете задавать более длинные запросы, которые модель анализирует глубже, чем обычный поиск. AI Mode учитывает персональный контекст каждого пользователя и способен взаимодействовать с другими сервисами Google. Например, если подключить свою почту, то при планировании поездки система самостоятельно подберёт жильё или развлечения, опираясь на данные о вашем билете из Gmail. Вкладка AI Mode уже доступна пользователям в США, а в остальных странах она появится позже в 2025 году.

Отдельно развивается система углублённого поиска Deep Search. Она умеет формировать отчёты, автоматически отправлять уточняющие запросы и анализировать полученные данные. Например, если вы хотите изучить влияние кофе на здоровье, то Deep Search соберёт научные статьи, медицинские рекомендации и статистику, чтобы представить комплексный обзор с разными точками зрения и ссылками на источники. Публичное тестирование режима Deep Search запланировано на лето 2025 года.

Презентационный ролик обновлённого ИИ-поиска от Google
Видео: Google

Кроме того, в поиске появится функция виртуальной примерки одежды, которая основана на технологиях компьютерного зрения. Вы сможете загрузить свою фотографию в полный рост, после чего нейросеть проанализирует фигуру, позу и пропорции вашего тела.

На основе собранных данных ИИ создаст реалистичную 3D-модель и покажет, как выбранная одежда будет выглядеть с разных ракурсов. Далее вы сможете сразу оформить покупку или указать желаемую цену — система отследит скидки и уведомит, когда цена снизится. При желании она сможет даже оформить покупку за вас.

Демонстрация возможностей виртуальной примерки с нейропоиском от Google. Функция уже доступна в США, а глобальный запуск запланирован на конец 2025 года
Видео: Cybernews

Google Beam и Meet

Beam — новая система видеосвязи, основанная на технологии Project Starline. Ожидается, что первое устройство с этой системой выпустит HP до конца 2025 года. Оно будет оснащено шестью камерами, которые будут объединять два видеопотока в объёмное трёхмерное изображение собеседника. По словам Google, качество картинки получится максимально реалистичным: система сможет точно передавать мимику и жесты, а также обеспечит поддержку мгновенного перевода речи с сохранением голоса говорящего.

Устройства с системой Beam ориентированы на корпоративных пользователей, а для широкой аудитории Google обновил Meet. Теперь сервис поддерживает синхронный перевод речи. Например, если один участник говорит по-английски, остальные могут слышать перевод на испанский в реальном времени. Пока функция работает только между английским и испанским, но в будущем появится поддержка других языков.

Пример перевода речи в Google Meet
Видео: Google

Gemini Live, Search Live и Project Astra

Gemini Live — голосовой ИИ-ассистент, который работает через камеру вашего смартфона. Достаточно показать ему объект, чтобы получить ответ. А в расширенном режиме Search Live ассистент даёт контекстные подсказки: например, если навести камеру на сломанный принтер, то он проанализирует поломку и подскажет, что делать.

Project Astra — ещё один ИИ-ассистент, который с вашего разрешения может сам инициировать диалог, если заметит что-то важное. Например, во время учёбы он может распознать ошибку в тетради и указать на неё. Как и в случае с Gemini Live, вы можете навести камеру смартфона на конспект, назвать номер задачи и попросить объяснение.

Демонстрация возможностей Project Astra
Видео: Google

Android XR, Project Mahan и Project Aura

Android XR — новая платформа для AR/VR-гарнитур и умных очков со встроенным ИИ Gemini. На презентации Google представила два первых устройства для этой платформы — гарнитуру Project Mahan и прототип компактных очков Project Aura.

Оба гаджета работают автономно и оснащены камерой, микрофонами и встроенным в линзу дисплеем. С их помощью можно просматривать уведомления, прокладывать маршруты, переводить речь и получать комментарии об окружающей обстановке. Например, при взгляде на вывеску кофейни можно сразу увидеть отзывы, меню и кнопку для заказа. Сроки выхода и стоимость устройств пока не объявлены.

Обзор возможностей умных очков на платформе Android XR
Видео: Android

Flow

Flow — новый ИИ-инструмент для генерации коротких видео, который объединяет возможности нейросетей Veo, Imagen и Gemini. Всё работает просто: вы загружаете нужные фото, добавляете текстовое описание — и получаете полноценный видеоклип.

Например, можно загрузить фотографию чашки кофе и написать: «Покажи процесс приготовления латте с молочной пенкой». Flow сгенерирует ролик, в котором бариста готовит кофе, а камера плавно показывает процесс во всех деталях. После этого вы можете изменить стиль, добавить эффекты и на своё усмотрение отредактировать сцену.

Презентация Flow — нейропомощника для генерации видео
Видео: Google

Впечатления от презентации

Мы рассмотрели далеко не все новинки конференции. Чувствуется, что Google делает серьёзную ставку на искусственный интеллект и активно конкурирует с OpenAI — особенно в области инструментов для разработчиков. Чуть позже мы подготовим обзор и подробнее расскажем о новом помощнике Jules, который Google предлагает использовать для исправления багов и написания тестов. Кроме того, мы планируем протестировать Stitch и создать с его помощью красивый пользовательский интерфейс.

Конечно, некоторые анонсы вызывают опасения — особенно те, где Gemini запрашивает доступ к личным данным. Но при этом многие нововведения действительно кажутся полезными. Например, Gemini Live уже сейчас может помочь людям с нарушениями зрения лучше ориентироваться в пространстве, озвучивая всё, что происходит вокруг.

В целом радует, что на рынке ИИ сохраняется здоровая конкуренция. Нам остаётся надеяться, что заявленные функции будут работать так же хорошо, как на презентации.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!

Нейросети. Практический курс

20 инструментов для видео, графики, текста и аудио в одном курсе. Получите бесплатный доступ и начните осваивать топовые нейросети.

Начать бесплатно →

Учитесь бесплатно: «Нейросети. Практический курс» Получить доступ
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована