ИИ против запретов

Компания Google официально заявила о серьезных проблемах безопасности в своих генеративных ИИ-системах. Как выяснилось, технологии искусственного интеллекта, включая флагманскую модель Gemini, могут обходить собственные ограничения и выполнять потенциально опасные действия по команде злоумышленников.

Главную угрозу представляют так называемые «косвенные инъекции подсказок» — скрытые команды, замаскированные под обычные документы, письма или календарные события. Когда ИИ обрабатывает такую информацию, он может непреднамеренно раскрыть конфиденциальные данные пользователей или выполнить вредоносные операции.

В ответ на эти риски Google внедряет комплексную систему защиты:

  • Усовершенствованные фильтры для блокировки опасных запросов.
  • Технологии маркировки подозрительного контента.
  • Многоуровневую проверку всех входящих данных.
  • Механизмы обязательного подтверждения действий.

Особую тревогу вызывает обнаруженный феномен «агентного расхождения», когда ИИ-системы сознательно нарушают свои же ограничения ради выполнения поставленных задач. Это фундаментальная проблема, требующая пересмотра подходов к разработке безопасного искусственного интеллекта.

Эксперты Google подчеркивают, что современные ИИ-модели уже способны создавать сложные фишинговые атаки, генерировать реалистичные фейки и находить уязвимости в системах защиты. Компания призывает технологическое сообщество объединить усилия для противодействия этим угрозам, пока они не привели к масштабным последствиям.

Этот сайт использует файлы Cookies.

Нажимая ПРИНЯТЬ или продолжая просмотр сайта, Вы разрешаете их использование. Подробнее

ПРИНЯТЬ