Используйте моделирование угроз для выявления рисков ИИ и машинного обучения

Системы искусственного интеллекта и машинного обучения меняют мир и могут стать самой прорывной технологией последнего времени. Широкое внедрение таких систем предприятиями для получения конкурентного преимущества в отрасли является огромной проблемой для групп кибербезопасности, которые не привыкли к уникальным рискам, которые создают такие системы.

Атаки Отравление данными, извлечение модели и вывод о членстве — это новые риски, которые специалистам по кибербезопасности необходимо выявлять и устранять на раннем этапе. Один из лучших способов сделать это — применить к этим приложениям концепцию моделирования угроз.

Моделирование угроз

Моделирование угроз относится к структурированному способу выявления угроз безопасности системы и обычно состоит из следующего:

● Общая схема системы

● Профили злоумышленников и их мотивы

● Список угроз для системы и способы их реализации.

Моделирование угроз похоже на оценку рисков, но вы принимаете точку зрения злоумышленника и видите, какой ущерб он может нанести. Существует множество методологий и инструментов для моделирования угроз, которые нам не нужно здесь описывать, но, честно говоря, вы можете создать модель угрозы с ручкой и бумагой, если понимаете основные концепции!

Приложения искусственного интеллекта для моделирования угроз

В простейшей форме вы создаете высокую диаграмму своего приложения ИИ и представляете сценарии, в которых материализуются угрозы.

Давайте возьмем следующий пример примера системы ИИ, для которой мы создадим следующую высокоуровневую абстракцию:

Несмотря на то, что это очень простая концепция, вы все равно можете использовать ее для декомпозиции системы ИИ и перечисления ключевых активов, которые могут стать целью злоумышленника.

Некоторые из ключевых активов будут:

● Данные обучения

● Общедоступный API

● Модель машинного обучения

● Серверы, на которых размещена модель

● Ключи или учетные данные для доступа к инфра-администратору

Теперь примите точку зрения злоумышленника и попытайтесь представить, на какие области он нацелится. Вам не нужно делать это в одиночку, и вы должны привлечь специалистов по обработке и анализу данных, которые являются частью команды ИИ, чтобы помочь вам в этом. Мозговой штурм угроз — отличный способ определить слабые места вашей технологической экосистемы с помощью многочисленных методологий.

STRIDE — это популярная методология моделирования угроз от Microsoft, которую я предпочитаю, которая классифицирует угрозы по следующим категориям:

  1. Спуфинг : выдача себя за что-то или кого-то другого.
  2. Вмешательство : Изменение данных или кода.
  3. Отказ : заявление о невыполнении действия.
  4. Раскрытие информации: предоставление информации лицу, не имеющему права на ее просмотр
  5. Отказ в обслуживании: отказать в обслуживании или снизить качество обслуживания пользователей.
  6. Повышение привилегий: Получение возможностей без надлежащей авторизации

Постарайтесь классифицировать все ваши угрозы по этим категориям и представить хотя бы по одной для каждой. Давайте подробно рассмотрим категории с некоторыми примерами угроз и мерами по их устранению.

Спуфинг

🚨 Сценарий угрозы. Злоумышленник может использовать системы ИИ злонамеренно для совершения мошенничества с идентификацией. Например, использование Deepfakes, чтобы выдать себя за другого человека в удаленном интервью.

🔒 Смягчение: принудительно применяйте «проверки на достоверность» для собеседований на деликатные должности. Убедитесь, что HR обучен обнаруживать дипфейки

Tамперизация

🚨 Сценарий угрозы: Злоумышленник отравляет цепочку поставок сторонних инструментов, используемых специалистами по обработке и анализу данных:

🔒 Смягчение последствий: сканируйте программные библиотеки перед использованием. Убедитесь, что проверки целостности присутствуют

Rопровержение

🚨 Сценарий угрозы. Основываясь на угрозе спуфинга, злоумышленник может использовать дипфейки для совершения угрозы идентичности и приписать эти действия другому лицу.

🔒 Смягчение последствий. Убедитесь, что аутентификация встроена в системы на нескольких уровнях, которые не зависят друг от друга.

Раскрытие информации

🚨 Сценарий угрозы: злоумышленник получает доступ к модели и пытается воспроизвести ее.

🔒 Смягчение последствий: ограничения регулирования, присутствующие в открытых API, для ограничения количества запросов, которые могут быть сделаны. Оповещения о ненормальном количестве вызовов. Ограниченная информация в запросе вывода

Отказотказа в обслуживании

🚨 Сценарий угрозы: злоумышленник вызывает атаку типа «отказ в обслуживании», удаляя обучающие данные.

🔒 Смягчение: регулярное резервное копирование изображений. Ограниченный доступ к тренировочным данным

Eповышение привилегий

🚨 Сценарий угрозы: злоумышленник получает доступ к учетным данным или ключам администратора.

🔒 Смягчение последствий: администраторы используют многофакторную аутентификацию для доступа к серверам через защищенные конечные точки.

Заключение

Как видите, моделирование угроз — это больше искусство, чем точная наука, и чем больше вы этим занимаетесь, тем лучше вы будете в этом разбираться. Конкретная методология, которую вы используете, не важна, но важно, чтобы вы применяли ее последовательно и без сбоев и отслеживали эти риски до закрытия. Это следует делать в сотрудничестве с техническими и бизнес-группами, которые будут участвует в обучении/создании системы ИИ на периодической основе.

Я надеюсь, что это помогло вам увидеть, как моделирование угроз может помочь предвидеть риски и угрозы ИИ в ясной и понятной форме. По сути, моделирование угроз задает вопрос «Что может пойти не так» и отвечает на него, думая как злоумышленник. Выполняйте этот процесс на протяжении всего жизненного цикла ИИ и всякий раз, когда происходят серьезные изменения, и вы увидите ощутимое улучшение состояния безопасности вашего ИИ.

Надеюсь, вам понравилось это читать. Если вам интересна эта тема, то ознакомьтесь с моей книгой Управление ИИ и кибербезопасность или моим курсом. Поддержите меня, став участником Medium по этой ссылке