Уязвимость в ChatGPT позволяла незаметно похищать пользовательские запросы и конфиденциальные данные
Уязвимость в ChatGPT могла потенциально использоваться для несанкционированного доступа к пользовательским запросам и конфиденциальным данным
Недавно исследователи из Check Point Research сообщили о выявлении потенциальной уязвимости, связанной с использованием некоторых функций ChatGPT, которая в теории могла бы быть использована злоумышленниками для извлечения конфиденциальной информации пользователей. В опубликованных материалах указывается, что в определённых условиях через взаимодействие с функционалом, таким как Code Interpreter (песочница для выполнения кода) и плагины, возможно было получение доступа к некоторым пользовательским данным.
Что произошло?
ChatGPT, как и многие современные AI-ассистенты, обрабатывает большие объёмы данных, включая личную и корпоративную информацию. В рамках исследования безопасности специалисты из Check Point Research продемонстрировали концепцию атаки (PoC), при которой через уязвимости в механизмах взаимодействия с песочницей для выполнения кода и сторонними плагинами можно было организовать передачу данных за пределы системы. При этом речь идёт о сценариях, требующих определённых условий и взаимодействия с уязвимыми компонентами, а не о массовой или автоматической утечке. OpenAI уже отреагировала на эти исследования и выпустила обновления, направленные на устранение выявленных проблем.
Почему это важно для организаций, управляющих внешней поверхностью атаки?
Организации, использующие AI-инструменты для обработки конфиденциальной информации, должны учитывать, что уязвимости в таких системах могут создавать дополнительные риски утечки данных. Особенно это касается компаний, которые интегрируют AI-ассистентов с расширенными возможностями, такими как выполнение кода и подключение плагинов, в свои рабочие процессы. В таких случаях потенциально возможно несанкционированное извлечение конфиденциальных данных, если не соблюдаются меры безопасности и контроль доступа.
Кроме того, уязвимости в AI-платформах расширяют внешний вектор атаки, поскольку злоумышленники могут использовать легитимные сервисы для обхода традиционных систем защиты и мониторинга. Это усложняет задачу обеспечения безопасности, требуя от команд кибербезопасности более глубокого анализа и контроля взаимодействия с облачными и AI-сервисами.
Практические рекомендации для команд безопасности
-
Оценка рисков использования AI-ассистентов
Проведите аудит используемых AI-инструментов и определите, какие данные передаются и обрабатываются ими. Особое внимание уделите конфиденциальной информации и возможным каналам утечки. -
Мониторинг и контроль изолированных сред выполнения
Внедрите средства мониторинга, способные обнаруживать аномальные исходящие соединения и подозрительную активность в средах, где выполняется код AI-систем, включая песочницы и плагины. -
Обновление и патчинг AI-платформ
Следите за обновлениями и рекомендациями от разработчиков AI-сервисов, оперативно устанавливайте патчи, закрывающие выявленные уязвимости. -
Обучение сотрудников
Обучайте команды безопасности и пользователей правильному обращению с AI-инструментами, подчеркивая риски передачи конфиденциальных данных и необходимость соблюдения политики безопасности. -
Использование решений для управления внешней поверхностью атаки (EASM)
Интегрируйте платформы, способные выявлять и анализировать все внешние цифровые активы и взаимодействия с ними, включая облачные и AI-сервисы, чтобы своевременно обнаруживать потенциальные угрозы.
Учитывая растущую роль искусственного интеллекта в бизнесе, обеспечение безопасности AI-инфраструктуры становится критически важным элементом общей стратегии киберзащиты. Внимательное отношение к выявленным уязвимостям и своевременное реагирование помогут минимизировать риски утечки данных и сохранить доверие пользователей и партнеров.
Источники:
