6 апреля 2026
Теневой ИИ в компаниях: как сотрудники тайно используют сторонние нейросети для рабочих задач и какие риски это несет для безопасности
Сегодня искусственный интеллект (ИИ) является наиболее популярным рабочим инструментом в мире. По данным McKinsey, 88% компаний используют ИИ хотя бы в одной бизнес-функции, а глобальная аудитория пользователей продолжает стремительно расти и, по прогнозам, достигнет около 450 миллионов человек уже в 2026 году.
При внедрении ИИ в компанию мы ожидаем увидеть контролируемый процесс. Однако, сегодня привычная картина стремительно теряет актуальность, так как сотрудники стабильно используют нейросети в ежедневной работе, вне поля зрения работодателей. По разным оценкам, примерно 8 из 10 сотрудников используют ту или иную форму общедоступного ИИ, часто без ведома ИТ отдела. Значительная часть использования ИИ происходит на уровне конкретных задач, оставаясь практически невидимым для тех, кто отвечает за безопасность. При этом сотрудники не пытаются нарушить правила, а пытаются работать быстрее. Но каждый запрос в сторонний сервис, каждое загруженное в нейросеть коммерческое предложение или фрагмент кода постепенно размывает границы корпоративной инфраструктуры.
В результате теневой ИИ становится одним из ключевых источников рисков, который проявляется в утечках данных, проблемах с соблюдением регуляторных требований, росте стоимости инцидентов и утрате контроля над интеллектуальной собственностью. Так как остановить этот процесс уже невозможно, вопрос лишь в том, смогут ли компании вовремя взять ИИ под контроль и превратить его из угрозы в управляемый инструмент роста.
Парадокс ИИ: инвестиции есть, а контроля нет
Крупные компании инвестируют миллионы долларов в разработку, внедрение и масштабирование ИИ-решений, формируют отдельные команды и выстраивают дорожные карты трансформации. По данным SecondTalent, 87% крупных предприятий уже внедрили ИИ, а средний объем инвестиций достигает $6,5 млн в год. Однако за этими цифрами скрывается менее оптимистичная реальность: многие организации все еще не вышли за пределы пилотных проектов и экспериментов.
Это создает системный разрыв между ожиданиями бизнеса и фактической доступностью инструментов. Если официальные решения не закрывают потребности сотрудников, возникает естественный обходной путь. Именно в этом разрыве и формируется теневой ИИ как неформальный слой цифровизации, который развивается быстрее корпоративных инициатив.
Почему сотрудники выбирают теневой ИИ
Причины популярности теневого ИИ достаточно прагматичны: ИИ ускоряет принятие решений, повышает продуктивность, автоматизирует рутину. Согласно данным SecondTalent, использование ИИ позволяет ускорить принятие решений на 41% и повысить продуктивность на 29%.
Исследования показывают, что 60% сотрудников готовы использовать несанкционированные ИИ-инструменты, если это помогает быстрее выполнять работу, а 63% считают это допустимым при отсутствии альтернатив.
Однако, полностью остановить теневой ИИ невозможно. По данным исследований, 86% сотрудников используют ИИ хотя бы раз в неделю, почти половина скрывает это от работодателя, а более трети продолжат использовать инструменты даже при прямом запрете.
Для многих руководителей это может быть сигналом: там, где сотрудники массово используют сторонние инструменты, почти всегда есть системные проблемы (устаревшие процессы, нехватка автоматизации или медленное внедрение технологий). Фактически теневой ИИ подсвечивает зоны, где бизнес уже готов к трансформации, но не успевает ее поддержать.
Риски использования теневого ИИ
В отличие от традиционных IT-систем, использование внешних ИИ-инструментов часто не фиксируется и не отслеживается. По данным SQMagazine, только около 30% организаций имеют полную видимость того, какие ИИ-инструменты используют сотрудники, а 60% IT-руководителей называют отсутствие прозрачности ключевой проблемой. Компании фактически теряют понимание того, какие данные обрабатываются, где они хранятся и кто имеет к ним доступ.
Отсутствие контроля напрямую ведет к утечкам данных. Сотрудники могут непреднамеренно передавать в ИИ-сервисы конфиденциальную информацию, включая клиентские данные, финансовые показатели или исходный код. По данным SQMagazine, 38% сотрудников уже делились чувствительной информацией через ИИ-инструменты, а 27% запросов содержат конфиденциальные данные.
Последствия таких действий также становятся все более ощутимыми. Согласно IBM, инциденты, связанные с теневым ИИ, увеличивают среднюю стоимость утечки на $670 000, а каждая пятая компания уже сталкивалась с подобными случаями.
Помимо утечек данных, использование ИИ создает новые технические угрозы. Модели могут генерировать небезопасный код, содержать уязвимости или выдавать некорректные результаты. По данным Veracode, около 45% кода, созданного с помощью ИИ, содержит уязвимости, а вероятность появления ошибок и «галлюцинаций» достигает 25%.
Дополнительно возникает новый класс атак, включая prompt injection и model poisoning, которые позволяют злоумышленникам манипулировать поведением моделей или извлекать данные. В совокупности это формирует новую поверхность атак, которая существенно отличается от традиционных IT-рисков и требует иных подходов к защите.
Реальные сценарии и последствия
Практика показывает, что риски теневого ИИ существуют не только в теории, но и реализуются на практике.
Показательный случай произошел в США, где исполняющий обязанности главы агентства по кибербезопасности CISA случайно загрузил служебные документы в публичную версию ChatGPT. Несмотря на то, что данные не относились к строго засекреченным, они имели статус «для служебного пользования» и могли повлиять на работу государственных программ и безопасность инфраструктуры. Инцидент вызвал срабатывание внутренних систем защиты и стал предметом расследования внутри ведомства. Этот кейс особенно показателен тем, что речь идет о руководителе с многолетним опытом в сфере IT и кибербезопасности.
Схожую реакцию на риски продемонстрировал и корпоративный сектор. Банк JPMorgan Chase, ввел ограничения на использование ChatGPT сотрудниками по всему миру. Решение было принято из-за требований комплаенса и строгих правил работы с внешними сервисами. Банковский сектор работает с чувствительными данными клиентов и находится под постоянным контролем регуляторов, поэтому даже потенциальная возможность утечки через сторонние ИИ-инструменты рассматривается как существенный риск.
Еще более жесткий подход продемонстрировала Samsung Electronics, которые полностью запретили использование ChatGPT и аналогичных сервисов после реального инцидента. Поводом стало то, что один из инженеров компании загрузил в нейросеть фрагменты внутреннего исходного кода, что привело к утечке информации. В компании пришли к выводу, что данные, передаваемые в публичные ИИ-системы, могут сохраняться на стороне провайдеров и потенциально использоваться в дальнейшем, включая обучение моделей. Это создает риск утраты контроля над интеллектуальной собственностью и невозможности полностью удалить уже переданную информацию.
Еще один показательный кейс связан с компанией xAI, так как выяснилось, что сотни тысяч диалогов пользователей с системой стали публично доступными и индексировались поисковыми системами без явного понимания со стороны самих пользователей. Достаточно было воспользоваться функцией «поделиться», чтобы разговор автоматически получил уникальную ссылку и оказался доступен для поиска в интернете. В результате в открытом доступе оказалась конфиденциальная информация, включая персональные данные, файлы, а в отдельных случаях даже пароли и личные сведения. Особую обеспокоенность вызвало содержание части диалогов, так как среди них обнаружились запросы, связанные с созданием вредоносного кода, запрещенных веществ и даже сценариев насилия. При этом пользователи не всегда осознавали, что их взаимодействие с ИИ может стать публичным.
Попытки ограничить использование ИИ через запреты не работают и лишь уводят активность сотрудников в еще менее контролируемые зоны. В этих условиях ключевой задачей для бизнеса становится выстраивание системы управления теневым ИИ. Компании, которые добиваются результатов, смещают фокус с ограничений на прозрачность и контроль: формируют четкие политики использования ИИ, внедряют инструменты мониторинга и создают безопасные альтернативы для сотрудников, обучают сотрудников навыкам ИБ (для лучшего понимания последствий использования теневого ИИ).
В ближайшие годы использование ИИ будет только расти, увеличивая как эффективность бизнес-процессов, так и потенциальную поверхность атак. В выигрыше окажутся те организации, которые смогут встроить ИИ в свою операционную модель безопасно и системно. Именно способность сделать использование искусственного интеллекта прозрачным, управляемым и контролируемым станет ключевым фактором конкурентоспособности в новой цифровой реальности. Для CIO и CISO это означает необходимость пересмотра подходов к управлению технологиями. В условиях стремительного роста ИИ-инструментов и размытых границ ответственности традиционные модели контроля больше не работают. На первый план выходят задачи обеспечения видимости, управления доступом, контроля данных и оценки рисков, связанных с внешними поставщиками.