Код
#новости

Google I/O 2024: больше нейросетей и ни одного устройства

Gemini, Gemini, Gemini, Gemini, Gemini, Gemini, Gemini, Gemini, Gemini…

14 мая 2024 года Google провела ежегодную конференцию для разработчиков. Обычно на ней анонсируют устройства компании и рассказывают про инструменты для работы с Android. В этом году всю конференцию посвятили нейросетям и Gemini. Подводим результаты Google I/O и рассказываем про новинки.

Генеральный директор Google Сундар Пичаи во время конференции
Кадр: Google / YouTube

Нейросетевое безумие

В этом году конференция шла чуть меньше двух часов. Энтузиасты подсчитали, что за это время представители компании 121 раз произнесли аббревиатуру «AI» — это больше одного раза в минуту.

Gemini

Главным обновлением языковой модели Gemini стало увеличение контекстного окна до 2 миллионов токенов. Это в 16 раз больше GPT-4o — самой мощной нейросети от OpenAI. Теперь в Gemini можно полностью загрузить копию романа «Война и мир».

Анонсировали Gemini Flash — специальную версию нейросети, которая сможет быстро отвечать на узкоспециализированные вопросы. Она мультимодальная и поддерживает широкое контекстное окно.

Gemini Nano поселится в десктопной версии браузера Google Chrome. Его можно будет использовать для генерации контента — к примеру, отвечать на электронные письма или писать посты для социальных сетей.

Veo

Google решила составить конкуренцию Sora от OpenAI и представила Veo. Нейросеть может генерировать видео в разрешении 1080p и продолжительностью больше одной минуты. В качестве промпта можно использовать текст, изображение или другое видео.

Сейчас компания тестирует Veo и разбирается с механизмами регуляции контента. Доступ к нейросети пока есть у некоторых авторов видео для YouTube. Google планирует интегрировать функции Veo в редактор Shorts и VideoFX. Кроме того, ведутся переговоры с голливудскими студиями.

Проект Astra

Astra — мультимодальный ИИ-помощник для ежедневного использования. Он работает с помощью камеры смартфона, может отвечать на вопросы и запоминает расположение предметов в помещении. В демонстрации показали, как пользователь с помощью Astra нашёл свои очки.

В будущем Google хочет интегрировать ИИ-помощника в умные очки. Нейросеть будет видеть всё происходящее и сразу же отвечать на вопросы пользователя. Полезную информацию можно будет выводить на линзы очков. К примеру, если вы пишете код, то не надо копировать его, чтобы отправить чат-боту, — нейросеть и так всё видит.

Проект Astra пока находится на стадии прототипа. Компания не называет дату релиза и другие подробности.

Нейропоиск

В поисковике Google появится функция AI Overviews. Она будет предоставлять ёмкие ответы на запросы пользователя. Нейросеть сможет сама переходить по ссылкам в выдаче, искать на страницах главное и составлять пересказ, подкрепляя его источниками. Функция похожа на «Нейро» от «Яндекса», которую компания представила в апреле 2024 года.

Пользователи из США получат доступ к AI Overviews в ближайшие несколько дней. В других странах функция появится к концу года.

Итоги

За два часа Google успела показать множество новинок в сфере искусственного интеллекта, но не обращала внимание на точные даты релизов. К тому же всю презентацию полностью посвятили нейросетям и не рассказали про устройства. Журналисты назвали мероприятие одной из самых скучных конференций Google I/O за всё время.

Теперь на очереди WWDC24 от Apple, которая пройдёт в середине июня этого года. Компания традиционно анонсирует обновления своих операционных систем и инструментов для разработчиков. Ожидается, что особое внимание уделят искусственному интеллекту. Сейчас Apple отстаёт от других компаний и не может похвастаться полезными нейрофункциями.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!

Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Научитесь: Профессия Python-разработчик Узнать больше
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована