Ни дня без свежих новостей об искусственном интеллекте. OpenAI обновила свои языковые модели GPT-3.5-turbo и GPT-4, которые представила в марте этого года. Среди главных изменений — новая механика вызова функции, более длинный контекст и снижение цен для разработчиков. Но обо всём по порядку.
Вызов функции. Теперь разработчики могут прописывать функции, которые вызывают сторонние плагины и инструменты на основе запросов пользователей. Например, можно написать в чате GPT: «Какая погода в Питере?», а модель преобразует ваш запрос в формат JSON и отправит на внешний API приложения с прогнозом погоды.
Получится что-то типа такого:
get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')
Таким же образом можно извлекать структурированные данные из текста или базы данных — например, получить список всех людей из статьи в «Википедии» или выгрузить десятку самых активных клиентов из CRM-системы магазина.
Длинный контекст. Это значит, что нейросеть теперь сможет вести более долгие разговоры, сохраняя в памяти содержание беседы. Если раньше GPT-3.5-turbo могла «держать в голове» 4 тысячи токенов (фрагментов слов), то сейчас это число выросло до 20 тысяч. А в качестве одного запроса можно загрузить целых 20 страниц печатного текста.
Читайте также:
Ценовая политика. Одновременно с внедрением новых фишек OpenAI снижает цены для разработчиков:
- На 75% — для встраиваемой версии GPT.
- На 25% — для чат-версии GPT. Обработка 700 страниц текста в ней обойдётся всего в доллар — правда, новый ценник не распространяется на модель с увеличенным контекстным окном.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!