Следите за новостями

Цифра дня

85% пациентов получают лекарства через цифровые сервисы

    Как защитить корпоративный ИИ

    Искусственный интеллект — не просто технологическая возможность, но и новый фронт ответственности из-за уязвимостей, вопросов регулирования и репутационных рисков.

    24 декабря 2025 16:43, Линара Старкова, эксперт Axellect в области кибербезопасности, Profit.kz

    Между тем, бизнес во всем мире уже запускает ИИ-инициативы в то время, как государства зачастую еще только начинают формировать правовое поле и требования отраслевых стандартов. Как внедрять ИИ без негативных последствий — в нашем материале.

    Обратная сторона ИИ

    На форуме Digital Bridge 2025 Президент Казахстана Касым-Жомарт Токаев отметил, что сегодня одним из ключевых направлений технологического развития страны стал искусственный интеллект. Власти активно работают над формированием условий, в которых краеугольная для современного мира технология сможет развиваться в ногу со временем, но при этом не подвергать риску права граждан и коммерческих организаций.

    В ноябре 2025 года президентом был подписан рамочный закон об искусственном интеллекте, а также утверждены семь национальных стандартов, которые устанавливают единые правила для использования ИИ, начиная от терминологии и особенностей архитектуры систем до требований к защите персональных данных и управлению рисками. Все эти инициативы логично вписываются в мировую практику AI-Governance, в рамках которой всегда выделяется отдельный трек, посвященный вопросам безопасности. Ведь ИИ несет не только возможности, но и угрозы.

    Как показало исследование EY Global Responsible AI Pulse survey за октябрь 2025 года, уязвимости ИИ-систем негативно повлияли на 99% организаций, причем наиболее распространенным риском стало несоблюдение требований регулирования ИИ: этот тип рисков отметили как актуальный 57% опрошенных.

    В Казахстане законодательство предусматривает риск-ориентированный подход в применении ИИ, который требует от компаний более ответственного отношения к автоматизированным решениям, обработке персональных данных и прозрачности алгоритмов. Это означает, что бизнесу нужно выстраивать внутренние механизмы защиты. В противном случае их отсутствие может обернуться штрафами и репутационными потерями.

    Примеры ИИ-утечек

    Главная особенность искусственного интеллекта — способность к обобщению и извлечению закономерностей — оборачивается его уязвимостью. Оказавшись однажды в контакте с конфиденциальными данными, модель уже не может «забыть» увиденное. Она не цитирует напрямую, но использует полученные знания при формировании новых ответов. В итоге система, которой однажды показали документ для внутреннего использования, начинает «интуитивно» дополнять чужие тексты фразами и цифрами из него.

    Каждая компания, которая отправляет документы в публичные ИИ-сервисы, фактически рискует так же, как при работе с незащищенным API. Обычная ситуация: маркетолог загружает коммерческое предложение в чат, чтобы «улучшить формулировки», а спустя время этот же текст всплывает у конкурента, но уже как ответ на чужой запрос. И если речь идет не о типовом офере, а о материалах по слиянию компаний, планах по выводу нового продукта или технических спецификациях, последствия могут быть куда серьезнее.

    Другой пример: несанкционированное «дообучение» моделей на корпоративных данных. В крупных организациях разработчики нередко используют внутренние датасеты для улучшения качества внутреннего ИИ, не осознавая, что часть инфраструктуры обращается к внешним API. В результате внутренние документы, логи клиентов или черновые проекты попадают в публичные модели.

    Утечки также происходят через инструменты автоматического анализа кода. Сервисы, обещающие «ИИ-ревью», могут пересылать содержимое репозиториев третьим сторонам для последующего обучения. Так в модели попадают фрагменты проприетарного кода, алгоритмы шифрования или уникальные решения, которые впоследствии воспроизводятся в других проектах.

    Например, GitHub Copilot, использующий большие языковые модели для подсказок программистам, поймали на воспроизводстве целых фрагментов исходного кода, защищенного авторским правом. Модель была обучена на открытых, но не всегда свободных репозиториях. Вспомним и утечку данных пользователей ChatGPT в марте 2023 года. Из-за ошибки в библиотеке Redis часть истории диалогов и платежных данных оказалась видна случайным пользователям. Проблема была устранена за несколько часов, но сама ситуация стала тревожным сигналом: чем больше информации проходит через модель, тем выше потенциальный ущерб при сбое.

    Дорожная карта защиты корпоративного ИИ

    В таких условиях защита корпоративного ИИ должна стать одним из приоритетов бизнеса в целом, выходя за рамки нишевой задачи технического отдела. Компании, которые хотят использовать искусственный интеллект ответственно, должны выстраивать политику управления ИИ на уровне всей организации. Это включает создание внутреннего комитета по ИИ, определение ответственных за контроль рисков, учет всех ИИ-проектов, включая неофициальные. Существует также ряд специфических мер для защиты искусственного интеллекта.

    1. Контроль происхождения данных (data provenance)

    Первое, что требует защиты — это источники данных, на которых обучается модель. Компании должны фиксировать происхождение каждого набора, хранить метаданные об условиях его сбора и иметь возможность доказать, что в нем нет персональных или лицензированных данных. Это не просто вопрос этики, а гарантия того, что модель не воспроизведет чужую интеллектуальную собственность или личные сведения.

    2. Изоляция сред обучения и вывода (training/inference isolation)

    Модели не должны обучаться и работать в одном контуре. Изоляция потоков данных — ключевой элемент защиты от «контаминации»: модель, обрабатывающая живой трафик, не должна иметь прямой доступ к механизму обучения. Так предотвращаются утечки через несанкционированное дообучение и data poisoning.

    3. Защита промптов и контекста

    Искусственный интеллект уязвим к инъекции промптов, когда через запрос пользователя подсовывается инструкция, заставляющая модель раскрыть конфиденциальные данные или изменить поведение. Для корпоративных ИИ-систем нужно внедрять фильтры контекста, «санитайзеры» промптов и контрольные слои, которые отслеживают подозрительные инструкции до их исполнения.

    4. Мониторинг утечек на уровне вывода

    ИИ может непреднамеренно раскрывать фрагменты исходных данных. Для защиты корпоративных решений стоит использовать специальные сканеры вывода, которые анализируют текст и проверяют, не содержатся ли в ответах элементы из конфиденциальных наборов. В продвинутых сценариях применяется watermarking или маркировка данных, позволяющая отследить подобные факты, если они «всплыли» в генерации модели.

    5. Контроль цепочки обучения

    ИИ, особенно в крупных компаниях, редко строится «с нуля». Используются открытые модели, внешние фреймворки, предобученные весовые файлы. Важно вести внутренний реестр используемых моделей с их версиями, лицензиями, источниками и результатами аудита безопасности. Это защищает от внедрения вредоносных библиотек и «отравленных» чекпоинтов.

    6. Обучение персонала ИИ-гигиене

    Передача данных модели — это не просто «ввод текста», а добавление материала в потенциальную обучающую выборку. Сотрудников нужно обучать тому, какие типы данных нельзя передавать в ИИ, как проверять поведение модели и каким образом отличать штатные ответы от возможных признаков утечки или компрометации.

    7. Политика управления моделями

    Корпоративная политика в области ИИ должна включать не только принципы этичности, но и технические регламенты: кто имеет право модифицировать веса модели, где хранится история обучения, как проверяются изменения, и кто санкционирует публикацию новой версии. Это и есть ядро «ИИ-управления», которое и делает искусственный интеллект управляемым активом, а не черным ящиком.

    Вместе с ростом потенциала ИИ растет и цена ошибок при его использовании. Компании, которые внедряют технологию без должной подготовки, планирования и продумывания архитектуры ИБ, рискуют столкнуться с киберинцидентами, юридическими претензиями и потерей доверия. Те же, кто выстраивает культуру ответственности, прозрачности и осознанного использования технологий, получают устойчивое преимущество.

    ИИ для своего нормального развития на пользу национальной экономике должен стать не только частью бизнес-стратегии, но и обязательным элементом корпоративной культуры в каждой компании.

    Поэтому обеспечение безопасности ИИ — это требование сегодняшнего дня, а не задача на будущее. Бизнес по всему миру стоит на пороге новой эры, и от того, насколько ответственно он подойдет к защите своих цифровых составляющих, зависит, завоюет ли ИИ статус двигателя прогресса или превратится в перманентный источник новых угроз.

    Подписывайтесь на каналы Profit.kz в Facebook и Telegram.