Обход ограничений DeepSeek

Эксперты компании Tenable обнаружили критическую уязвимость в модели искусственного интеллекта DeepSeek R1. Они выяснили, что с помощью определённых формулировок можно вынудить ИИ-помощника генерировать и совершенствовать вредоносный программный код.

Чтобы преодолеть ограничения DeepSeek, специалисты применили оригинальные запросы, которые сначала вызвали отказ чат-бота их выполнять. Благодаря способности модели имитировать человеческое мышление и рассуждать на основе логических цепочек, они смогли добиться желаемых результатов. В ходе экспериментов были реализованы два сценария.

В первом случае исследователи обманом заставили DeepSeek создать кейлоггер — программу для отслеживания нажатий клавиш и записи в локальный файл. Однако полученный образец работал некорректно из-за ошибок, которые ИИ не смог исправить самостоятельно. Эксперты внесли корректировки, попросив ассистента написать дополнительные коды для инъекции DLL и шифрования лог-файла.

Аналогичным образом были созданы несколько образцов шифровальщиков, но они не компилировались, и исправления пришлось вносить вручную. После ряда улучшений под руководством специалистов ИИ выдал рабочий код, который умеет перечислять файлы, шифровать данные, закрепляться в системе и выводить диалоговое окно с сообщением для жертвы.

Эксперименты показали, что увеличение числа ИИ-сервисов снизило порог входа для начинающих вирусописателей. С помощью DeepSeek можно создавать несовершенные и простые вредоносные коды, однако их можно доработать, используя техники и поисковые ключи из коллекции ИИ. Злоумышленники всё чаще обращаются к ИИ для разработки зловредов и планирования атак, а также создают собственные модели без ограничений.

Результаты исследования подчёркивают потенциальную опасность, которую могут представлять технологии искусственного интеллекта при их ненадлежащем использовании.

Этот сайт использует файлы Cookies.

Нажимая ПРИНЯТЬ или продолжая просмотр сайта, Вы разрешаете их использование. Подробнее

ПРИНЯТЬ