Маркетологи, программисты и менеджеры уже давно приручили ChatGPT и научились решать с его помощью рабочие задачи. Но у искусственного интеллекта есть и тёмная сторона, которой, как считает автор портала Tom’s Hardware, рано или поздно воспользуются хакеры.
Эксперты в области кибербезопасности заявили, что продукт OpenAI способен создавать «программы-мутанты», которые сложно обнаружить с помощью современных средств защиты (СЗ).
Что за мутанты и откуда они взялись
Сегодня одними из самых эффективных систем ИБ считаются EDR (endpoint detection and response). Они непрерывно отслеживают действия пользователей в локальной сети и сканируют их компьютеры на наличие вирусов, троянов, шпионского ПО и так далее.
По мнению экспертов, даже такой метод может оказаться недостаточно эффективным для обнаружения полиморфного кода, сгенерированного ChatGPT. В отличие от обычных программ, «мутанты» меняют своё поведение таким образом, чтобы средства защиты их не распознали.
В большинстве языковых моделей (LLM), как и в ChatGPT, есть специальные фильтры, которые не позволяют им генерировать контент, противоречащий законам и ряду других правил. Например, вы не сможете заставить чат написать речь, оскорбляющую национальные меньшинства, или составить план ограбления банка. Однако некоторым пользователям всё-таки удаётся обходить эти фильтры, а особо умелым — даже выведывать секреты компании-разработчика.
Новая головная боль для специалистов по ИБ
Проблемы, которые сулит полиморфный (не путать с полиморфизмом в ООП) вредоносный софт, создаваемый ChatGPT, вызывают тревогу у специалистов в области ИБ.
Джефф Симс, инженер по безопасности в HYAS InfoSec, опубликовал доклад, в котором подробно описал концепцию приложения BlackMamba. Оно представляет собой полиморфный кейлоггер, который отправляет запросы к API ChatGPT при каждом запуске:
«Используя новые методы, вредоносная программа может комбинировать легко распознаваемые шаблоны поведения в необычном сочетании и таким образом избегать обнаружения».
Другим кейсом поделились инженеры ИБ-компании CyberArk. В своей статье они рассказали, как с помощью кода, сгенерированного ChatGPT, можно изменять скрипты так, чтобы они обходили антивирусы и оставались незамеченными для систем безопасности.
Пока это все примеры, подтверждающие, что искусственный интеллект легко может стать помощником для киберпреступников. И есть вероятность, что со временем таких примеров станет больше.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!