Обход ограничений DeepSeek
Эксперты компании Tenable обнаружили критическую уязвимость в модели искусственного интеллекта DeepSeek R1. Они выяснили, что с помощью определённых формулировок можно вынудить ИИ-помощника генерировать и совершенствовать вредоносный программный код.
Чтобы преодолеть ограничения DeepSeek, специалисты применили оригинальные запросы, которые сначала вызвали отказ чат-бота их выполнять. Благодаря способности модели имитировать человеческое мышление и рассуждать на основе логических цепочек, они смогли добиться желаемых результатов. В ходе экспериментов были реализованы два сценария.
В первом случае исследователи обманом заставили DeepSeek создать кейлоггер — программу для отслеживания нажатий клавиш и записи в локальный файл. Однако полученный образец работал некорректно из-за ошибок, которые ИИ не смог исправить самостоятельно. Эксперты внесли корректировки, попросив ассистента написать дополнительные коды для инъекции DLL и шифрования лог-файла.
Аналогичным образом были созданы несколько образцов шифровальщиков, но они не компилировались, и исправления пришлось вносить вручную. После ряда улучшений под руководством специалистов ИИ выдал рабочий код, который умеет перечислять файлы, шифровать данные, закрепляться в системе и выводить диалоговое окно с сообщением для жертвы.
Эксперименты показали, что увеличение числа ИИ-сервисов снизило порог входа для начинающих вирусописателей. С помощью DeepSeek можно создавать несовершенные и простые вредоносные коды, однако их можно доработать, используя техники и поисковые ключи из коллекции ИИ. Злоумышленники всё чаще обращаются к ИИ для разработки зловредов и планирования атак, а также создают собственные модели без ограничений.
Результаты исследования подчёркивают потенциальную опасность, которую могут представлять технологии искусственного интеллекта при их ненадлежащем использовании.