Пятничный запрет на ИИ: сначала шутка, теперь рекомендация
Аналитик Gartner Деннис Сюй поднял на конференции в Сиднее неожиданную тему: корпоративный ИИ опасен к концу недели. То, что начиналось как ироничное предложение запретить Microsoft Copilot по пятницам после обеда, быстро обрело черты серьезной рекомендации. Уставшие сотрудники, стремящиеся поскорее закрыть задачи и уйти на выходные, перестают критически оценивать результаты работы нейросети. Формально корректный, но неуместный по тону ответ улетает клиенту или коллегам, и исправить последствия такого «автоматического этикета» бывает сложнее, чем фактическую ошибку.
Основной доклад Сюя касался пяти главных рисков Microsoft 365 Copilot, и токсичный контент занял в этом списке далеко не последнее место. Аналитик подчеркнул: проблема не в фактических ошибках, а в формулировках, которые модель считает допустимыми, а люди — оскорбительными или неуместными. Встроенные фильтры Microsoft помогают, но не спасают полностью. Единственный надежный способ избежать репутационных потерь — человеческий контроль. А поскольку в пятницу во второй половине дня бдительность персонала стремится к нулю, техническая блокировка доступа к ИИ выглядит уже не шуткой, а прагматичным решением.
Однако главную угрозу Сюй видит в другом: Copilot безжалостно обнажает старые грехи ИТ-отделов. Искусственный интеллект не создает новые уязвимости, он просто находит документы, доступ к которым когда-то открыли слишком широко. Сотрудник, запрашивающий информацию о кадровых перестановках, может случайно получить доступ к строго конфиденциальному файлу о грядущей реорганизации, если настройки SharePoint когда-то настроили с ошибкой. Инструменты для автоматического поиска «пересвеченных» данных уже существуют, но массового внедрения они пока не получили.
Среди других рисков аналитик выделил удаленное выполнение действий через вредоносные запросы, опасные интеграции со сторонними сервисами и классические prompt injection-атаки, когда модель обманом заставляют игнорировать ограничения. Сюй предупреждает: компании, призывающие сотрудников «активнее экспериментировать с ИИ», сами создают почву для таких инцидентов. Защитой должны стать четкие внутренние регламенты, фильтры Azure OpenAI Service и осторожность при подключении дополнительных модулей, особенно включенного по умолчанию веб-плагина.
Ирония аналитика Gartner обернулась зеркалом, в котором корпоративный мир увидел реальную проблему: человеческий фактор к вечеру пятницы становится главной уязвимостью. Будущее безопасности, возможно, не в сложных алгоритмах, а в простом правиле — с понедельника по четверг ИИ работает, в пятницу отдыхает.




