Назад к блогу

Уязвимость в ChatGPT позволяла незаметно похищать пользовательские запросы и конфиденциальные данные

Уязвимость в ChatGPT могла потенциально использоваться для несанкционированного доступа к пользовательским запросам и конфиденциальным данным

Недавно исследователи из Check Point Research сообщили о выявлении потенциальной уязвимости, связанной с использованием некоторых функций ChatGPT, которая в теории могла бы быть использована злоумышленниками для извлечения конфиденциальной информации пользователей. В опубликованных материалах указывается, что в определённых условиях через взаимодействие с функционалом, таким как Code Interpreter (песочница для выполнения кода) и плагины, возможно было получение доступа к некоторым пользовательским данным.

Что произошло?

ChatGPT, как и многие современные AI-ассистенты, обрабатывает большие объёмы данных, включая личную и корпоративную информацию. В рамках исследования безопасности специалисты из Check Point Research продемонстрировали концепцию атаки (PoC), при которой через уязвимости в механизмах взаимодействия с песочницей для выполнения кода и сторонними плагинами можно было организовать передачу данных за пределы системы. При этом речь идёт о сценариях, требующих определённых условий и взаимодействия с уязвимыми компонентами, а не о массовой или автоматической утечке. OpenAI уже отреагировала на эти исследования и выпустила обновления, направленные на устранение выявленных проблем.

Почему это важно для организаций, управляющих внешней поверхностью атаки?

Организации, использующие AI-инструменты для обработки конфиденциальной информации, должны учитывать, что уязвимости в таких системах могут создавать дополнительные риски утечки данных. Особенно это касается компаний, которые интегрируют AI-ассистентов с расширенными возможностями, такими как выполнение кода и подключение плагинов, в свои рабочие процессы. В таких случаях потенциально возможно несанкционированное извлечение конфиденциальных данных, если не соблюдаются меры безопасности и контроль доступа.

Кроме того, уязвимости в AI-платформах расширяют внешний вектор атаки, поскольку злоумышленники могут использовать легитимные сервисы для обхода традиционных систем защиты и мониторинга. Это усложняет задачу обеспечения безопасности, требуя от команд кибербезопасности более глубокого анализа и контроля взаимодействия с облачными и AI-сервисами.

Практические рекомендации для команд безопасности

  • Оценка рисков использования AI-ассистентов
    Проведите аудит используемых AI-инструментов и определите, какие данные передаются и обрабатываются ими. Особое внимание уделите конфиденциальной информации и возможным каналам утечки.

  • Мониторинг и контроль изолированных сред выполнения
    Внедрите средства мониторинга, способные обнаруживать аномальные исходящие соединения и подозрительную активность в средах, где выполняется код AI-систем, включая песочницы и плагины.

  • Обновление и патчинг AI-платформ
    Следите за обновлениями и рекомендациями от разработчиков AI-сервисов, оперативно устанавливайте патчи, закрывающие выявленные уязвимости.

  • Обучение сотрудников
    Обучайте команды безопасности и пользователей правильному обращению с AI-инструментами, подчеркивая риски передачи конфиденциальных данных и необходимость соблюдения политики безопасности.

  • Использование решений для управления внешней поверхностью атаки (EASM)
    Интегрируйте платформы, способные выявлять и анализировать все внешние цифровые активы и взаимодействия с ними, включая облачные и AI-сервисы, чтобы своевременно обнаруживать потенциальные угрозы.

Учитывая растущую роль искусственного интеллекта в бизнесе, обеспечение безопасности AI-инфраструктуры становится критически важным элементом общей стратегии киберзащиты. Внимательное отношение к выявленным уязвимостям и своевременное реагирование помогут минимизировать риски утечки данных и сохранить доверие пользователей и партнеров.


Источники:

Поделиться:TelegramVK

Похожие статьи

Мы используем файлы cookie для обеспечения работоспособности сервиса и улучшения качества обслуживания. Продолжая использовать сайт, вы соглашаетесь с политикой конфиденциальности.