Скидки до 50% и 3 курса в подарок : : Выбрать курс
Код
#новости

Исследование OpenAI: больше времени на размышление делает ИИ устойчивее к манипуляциям

Исследователи компании также обнаружили новые виды атак и манипуляций, а ещё уязвимости ИИ-моделей.

Новое исследование OpenAI показало, что модели искусственного интеллекта становятся более устойчивыми при столкновении с манипуляциями, если им предоставить больше времени для анализа. В ходе работы исследователи также выявили новые виды атак, которые открывают дополнительные уязвимости для ИИ.

Как проходило исследование

Тестируя модели o1-preview и o1-mini, команда OpenAI обнаружила, что увеличение времени на обработку данных позволяет моделям эффективнее противостоять манипуляциям. Однако, несмотря на обнадеживающие результаты, исследование выявило неожиданные уязвимости.

Исследователи протестировали различные методы атак, включая атаки с использованием большого количества примеров, атаки с использованием виртуальных токенов и сценарии, имитирующие реальные угрозы кибербезопасности.

Результаты показали, что дополнительное время обработки улучшает устойчивость моделей, даже без их специального обучения. Тем не менее в ряде случаев увеличение времени обработки наоборот повышало уязвимость, особенно если поставленная задача требовала минимального объёма вычислений.

Что ещё обнаружили исследователи

Исследователи обнаружили два новых типа атак, направленных на манипуляцию процессом размышлений моделей. Первый, названный «Думай меньше» (Think less), направлен на сокращение времени обработки модели, что может приводить к принятию неверных решений.

Второй вид атак (Nerd Sniping) подразумевает введение ИИ-моделей в так называемые непродуктивные циклы размышлений, при которых дополнительные вычислительные ресурсы расходуются на бесполезные процессы. Эта уязвимость позволяет атакующим намеренно создавать ресурсоёмкие сценарии, чтобы отвлечь модель от выполнения полезных задач.

Особое беспокойство вызывают сложности обнаружения таких атак. Если недостаточное время обработки легко заметить, то чрезмерное использование ресурсов может быть ошибочно воспринято как признак глубокого анализа. Такие атаки, как Think less и Nerd Sniping, создают новые вызовы для кибербезопасности ИИ-систем и подчёркивают необходимость дальнейших исследований в этой области.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!



Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Бесплатный курс по Python ➞
Мини-курс для новичков и для опытных кодеров. 4 крутых проекта в портфолио, живое общение со спикером. Кликните и узнайте, чему можно научиться на курсе.
Смотреть программу
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована