Все новости и статьи

Как обезопасить данные при работе с внешними LLM-API: экспертиза Puzzle RPA

Руководитель продукта Puzzle GPT
Кирилл Беляков
Роботизация бизнес-процессов
Статьи
Как обезопасить данные при работе с внешними LLM-API: экспертиза Puzzle RPA
Время чтения
~10 минут
Дата публикации
17.10.2025

Эксперты Puzzle RPA делятся, как обеспечить высокий уровень защиты при работе с большими языковыми моделями

За последние несколько лет большие языковые модели (англ. Large Language Model, LLM) перестали быть нишевой технологией и превратились в универсальный инструмент для бизнеса. Они помогают автоматизировать коммуникацию, анализировать документы, формировать отчёты и поддерживать сотрудников в принятии решений.

Компании всё чаще обращаются к сторонним API от OpenAI, Anthropic, Mistral, Google и других вендоров, чтобы интегрировать возможности генеративного ИИ в свои продукты и процессы. Однако вместе с ростом интереса появляется и новая проблема: использование сторонних LLM-API связано с рисками для конфиденциальности.

Передавая запросы в облачные сервисы, компании фактически отдают свои данные третьим сторонам. В этих данных может содержаться коммерческая тайна, персональная информация или уникальные наработки, утечка которых чревата серьезными последствиями. Как обеспечить безопасность LLM?

Puzzle RPA предлагает решение, которое позволяет бизнесу использовать сторонние LLM-API, не жертвуя безопасностью. Наш подход основан на модели-маскираторе, которая автоматически выявляет и скрывает чувствительную информацию еще до того, как она покидает инфраструктуру клиента.

Ведущий эксперт Puzzle RPA Кирилл Беляков рассказывает, как организовать работу грамотно и избежать подводных камней.

kak-obezopasit-dannye-pri-rabote-s-vneshnimi-llm-api-ekspertiza-puzzle-rpa-2.jpg

Безопасность LLM: основная проблема

Когда компания интегрирует сторонний LLM-API, она сталкивается не только с техническими, но и с юридическими рисками. Российское законодательство предъявляет строгие требования к защите данных, и их нарушение может повлечь серьезные последствия.

Основные группы рисков

  1. Персональные данные сотрудников и клиентов
    Запросы могут содержать ФИО, паспортные реквизиты, адреса, телефоны или медицинскую информацию. Передача таких данных в публичное облако без согласия субъекта нарушает ФЗ-152 «О персональных данных» и влечет штрафы от Роскомнадзора, вплоть до блокировки сервиса.
  2. Коммерческая тайна
    В текстах могут быть цифры контрактов, детали тендерных заявок, сведения о поставщиках и партнерах. Утечка подобной информации нарушает ФЗ-98 «О коммерческой тайне» и может привести к гражданской или даже уголовной ответственности. Кроме того, потеря эксклюзивных данных подрывает конкурентные позиции компании.
  3. Внутренние документы и стратегические материалы
    Все чаще LLM используют для анализа договоров, методик, инструкций и технических отчетов. Даже частичный доступ к таким документам создает риски по ФЗ-149 «Об информации, информационных технологиях и защите информации» и угрожает безопасности бизнеса.

Почему риск высок
Отправляя такие данные напрямую в сторонний API, компания фактически доверяет их хранение и обработку внешнему поставщику. Даже если провайдер заявляет, что данные не сохраняются, остаются уязвимости: логирование, временные бэкапы, человеческий фактор.

Особенно важно, что в России в ряде отраслей (финансы, медицина, госсектор) передача данных за пределы инфраструктуры компании прямо запрещена. Использование зарубежных LLM без промежуточной защиты может привести к штрафам, предписаниям регуляторов и даже приостановке деятельности.

kak-obezopasit-dannye-pri-rabote-s-vneshnimi-llm-api-ekspertiza-puzzle-rpa-3.jpg

Решение от Puzzle RPA

Мы в Puzzle RPA понимаем, что компании не готовы выбирать между удобством SaaS-решений и безопасностью. Поэтому мы разработали решение, которое совмещает оба требования: использование сторонних LLM-API и сохранение конфиденциальности данных.

В основе решения лежит модель-маскиратор, работающая в закрытом контуре. Это промежуточный слой, который автоматически обрабатывает текст перед отправкой в LLM-API.

Как это работает

Процесс можно условно разделить на четыре последовательных этапа:

Шаг 1. Анализ входящих данных

Модель сканирует текст, поступающий от пользователя или из корпоративной системы. Алгоритмы анализируют контекст и выделяют потенциально чувствительные элементы. Это могут быть:

  • персональные данные (ФИО, паспортные данные, СНИЛС, ИНН);
  • реквизиты компаний и организаций;
  • номера договоров, счетов, контрактов;
  • финансовые показатели и суммы;
  • внутренние коды и идентификаторы;
  • медицинские сведения;
  • адреса и контактная информация.

Шаг 2. Классификация сущностей

Каждая найденная единица информации получает принадлежность к определённому классу.

Шаг 3. Маскирование

Все найденные элементы заменяются на универсальные метки. Примеры:

  • «Иван Иванов» →
  • «ООО Ромашка» →
  • «Контракт №4567» →

ЭТО ВАЖНО
Количество классов маскирования очень велико. Модель распознает десятки категорий сущностей: от простых персональных данных до сложных структурированных объектов вроде кадастровых номеров или медицинских терминов.
Это делает систему универсальной и применимой практически в любой отрасли.

Например, классы могут включать:

  • — адреса проживания и регистрации;

  • — телефонные номера;
  • — электронные почты;
  • — банковские реквизиты;
  • — диагнозы и результаты анализов;
  • — государственные номера документов;
  • — внутренние коды проектов.

И это только малая часть. В зависимости от задач и отрасли можно создавать дополнительные классы и расширять словарь модели.

Отправка в LLM-API

После маскирования текст становится «обезличенным». Он сохраняет структуру и смысл, но лишён конфиденциального контекста. Именно этот текст передаётся в выбранный LLM-API — будь то OpenAI GPT, Claude, Mistral или любая другая модель.

Благодаря этому внешняя система может корректно обработать запрос, но не получает доступа к реальным данным.

Шаг 4. Обратная подстановка

После получения ответа от LLM происходит финальный шаг — восстановление исходных данных. Модель-маскиратор заменяет условные метки обратно на реальные значения.

Таким образом, конечный пользователь получает полноценный результат, в котором сохранены все имена, номера и реквизиты, но при этом ни одно из этих значений не покидало корпоративной инфраструктуры. Вы можете быть уверены, что безопасность LLM обеспечена на высоком уровне.

Преимущества подхода

Конфиденциальность

Исходные данные не покидают инфраструктуру компании. Даже если злоумышленник получит доступ к запросу, он увидит только метки, а не реальные значения.

Гибкость

Модель поддерживает настройку правил маскирования под конкретные сценарии.
Даже если количество поддерживаемых классов очень велико, система распознает десятки типов сущностей и может расширяться под новые задачи. Это делает ее одинаково полезной для юридических компаний, банков, медицинских учреждений или промышленных предприятий.

Универсальность

Решение работает с любыми LLM-API. Клиент может подключить OpenAI, Anthropic, Mistral или любую другую модель, не меняя базовую архитектуру защиты.

Совместимость с RPA

Puzzle RPA изначально проектировался как платформа для роботизации бизнес-процессов.
Модель-маскиратор интегрируется в существующие RPA-сценарии:

  • обработку заявок,
  • подготовку отчетов,
  • взаимодействие с чат-ботами.

Примеры использования

  1. Обработка юридических документов
    Юристы часто обращаются к LLM для анализа договоров и подготовки проектов документов. Наше решение позволяет автоматически скрывать персональные данные клиентов и реквизиты компаний.
  2. Подготовка тендерной документации
    При работе с тендерами важно сохранять конкурентные преимущества. Модель-маскиратор заменяет названия компаний и суммы контрактов на метки, позволяя анализировать документы без риска раскрытия чувствительных данных.
  3. Обслуживание клиентов через чат-ботов
    Когда клиенты обращаются к чат-боту, они могут сообщать личные данные. С помощью маскирования оператор получает нужный контекст, а LLM работает только с обезличенным текстом.

kak-obezopasit-dannye-pri-rabote-s-vneshnimi-llm-api-ekspertiza-puzzle-rpa-4.jpg

Почему безопасность LLM важна для бизнеса

В современном мире данные — это актив. Их утечка может обернуться не только прямыми финансовыми потерями, но и ударом по репутации. Компании, которые используют LLM-API без защиты, рискуют столкнуться с:

  • нарушением законодательства;
  • потерей конкурентных преимуществ из-за раскрытия внутренних документов;
  • снижением доверия со стороны клиентов и партнеров.

Используя модель-маскиратор от Puzzle RPA, бизнес минимизирует эти риски. Решение позволяет извлекать пользу из генеративного ИИ без компромиссов в вопросах безопасности.

Заключение

Внедрение LLM стало одним из главных трендов последних лет. Но использование сторонних API неизбежно связано с рисками для конфиденциальности. Компании не могут позволить себе игнорировать эти риски, особенно в условиях ужесточения регулирования и роста конкуренции.

Puzzle RPA предлагает решение, которое делает использование LLM-API безопасным.

Модель-маскиратор позволяет обрабатывать запросы, скрывая конфиденциальные данные, и тем самым совмещает эффективность генеративного ИИ с требованиями бизнеса к защите информации.

Мы верим, что будущее корпоративного использования LLM лежит именно в таких технологиях — где инновации идут рука об руку с безопасностью.