Введение:

По данным Gartner, 79% корпоративных стратегов считают искусственный интеллект (ИИ) и аналитику критически важными для их успеха в ближайшие два года. Поскольку мир стремительно вступает в эпоху технологического прогресса, растущая важность искусственного интеллекта и машинного обучения (МО) неоспорима. Их потенциал кажется безграничным: от революции в отраслях до улучшения повседневной жизни. Однако практические проблемы требуют тщательного рассмотрения и инновационных решений для полного использования его потенциала.

В последние годы федеративное обучение (FL) стало новаторским подходом к использованию коллективного разума из децентрализованной среды. В этом блоге мы углубимся в мир FL и рассмотрим, как он помогает преодолеть традиционные проблемы машинного обучения с помощью эталонной архитектуры с использованием сервисов AWS.

Проблемы традиционного машинного обучения:

Традиционное машинное обучение предполагает обучение моделей на централизованном наборе данных, хранящемся в одном месте. Данные собираются из различных источников, предварительно обрабатываются, а затем используются для обучения модели на мощном сервере или в центре обработки данных. Однако этот подход сталкивается с рядом проблем. Во-первых, централизация данных вызывает проблемы конфиденциальности, поскольку конфиденциальная информация может быть раскрыта. Во-вторых, передача больших наборов данных на центральный сервер требует значительной пропускной способности и времени. Наконец, производительность модели может ухудшиться при работе с разнообразными данными из разных источников, поскольку она может плохо обобщаться на новые данные.

Давайте рассмотрим сценарий из сферы здравоохранения. В традиционном машинном обучении медицинскому научно-исследовательскому учреждению необходимо собирать данные о пациентах из разных больниц, чтобы построить модель прогнозирования заболеваний. Однако обмен данными поднимает вопросы конфиденциальности, и больницы могут неохотно делиться конфиденциальной информацией о пациентах.

Федеративный подход к обучению:

FL устраняет недостатки традиционного машинного обучения за счет децентрализации процесса обучения. Вместо сбора данных в одном месте FL позволяет отдельным устройствам или периферийным узлам (например, смартфонам или устройствам Интернета вещей) обучать свои локальные модели с использованием локальных данных. Обновления моделей, а не необработанные данные отправляются на центральный сервер, где они объединяются для улучшения глобальной модели. Такой подход обеспечивает конфиденциальность данных, поскольку необработанные данные остаются на устройствах. Это также снижает накладные расходы на связь и обеспечивает совместное обучение на распределенных устройствах, извлекая выгоду из разнообразных данных, которые они хранят.

Что касается здравоохранения, то теперь с FL каждая больница может хранить данные пациентов локально. Они обучают модель на своих данных для прогнозирования заболеваний, имеющих отношение к их пациентам. Затем больница передает только обновления модели на центральный сервер, который объединяет обновления для создания надежной глобальной модели прогнозирования заболеваний. Таким образом, конфиденциальность пациентов сохраняется, передача данных сводится к минимуму, а модель извлекает выгоду из разнообразия групп пациентов, что приводит к более точным прогнозам.

Как работает федеративное обучение:

FL работает по принципу обучения моделей локально на отдельных устройствах или узлах, а затем агрегирования знаний для создания глобальной модели. Это включает в себя следующие шаги:

  1. Инициализация. Глобальная модель инициализируется централизованно и распространяется среди участвующих узлов.
  2. Локальное обучение. Узлы обучают модель, используя соответствующие данные локально, не передавая их центральному серверу.
  3. Агрегация моделей. Локально обученные модели отправляются обратно на центральный сервер, где они объединяются для создания обновленной глобальной модели.
  4. Повторение. Процесс повторяется итеративно, при этом каждый раунд обучения совершенствует глобальную модель.

Три ключевых компонента FL:

Варианты использования в отрасли:

Децентрализованный характер FL делает его идеальным решением для различных отраслей, которым требуется совместный интеллект, сохраняя при этом конфиденциальность и безопасность данных. Вот несколько убедительных примеров использования:

1. Здравоохранение

В секторе здравоохранения FL позволяет медицинским учреждениям и исследовательским центрам объединять знания из различных источников без обмена конфиденциальными данными пациентов. Это позволяет создавать надежные модели диагностики заболеваний, персонализированные рекомендации по лечению и поиск лекарств, сохраняя при этом конфиденциальность пациентов.

2. Банковские и финансовые учреждения

FL позволяет банкам и финансовым учреждениям сотрудничать в улучшении моделей прогнозирования, не передавая конфиденциальные данные о клиентах. Этот децентрализованный подход обеспечивает соблюдение конфиденциальности, одновременно улучшая обнаружение мошенничества, оценку кредитного риска и персонализацию клиентов, способствуя безопасным и эффективным инновациям, основанным на данных.

3. Умное производство

В производственном секторе FL можно использовать для оптимизации производственных процессов и профилактического обслуживания. Различные заводы могут коллективно повышать эффективность своей деятельности, обмениваясь знаниями, не ставя под угрозу запатентованные технологии производства.

4. Автономные транспортные средства

Автономные транспортные средства генерируют огромные объемы данных, что делает традиционное централизованное обучение непрактичным. FL позволяет подключенным транспортным средствам учиться на опыте друг друга, обеспечивая при этом сохранение данных внутри соответствующих транспортных средств, что приводит к улучшению и повышению безопасности возможностей самостоятельного вождения.

5. Путешествия и гостиничный бизнес

FL можно использовать в туристической индустрии для улучшения персонализированных рекомендаций и качества обслуживания клиентов при сохранении конфиденциальности данных. Отели, авиакомпании и туристические платформы сотрудничают для обучения моделей искусственного интеллекта на основе децентрализованных данных из различных источников, оптимизируя предложения путешествий, цены и услуги без централизованного обмена конфиденциальной информацией о клиентах.

6. Образование

FL позволяет образовательным учреждениям совершенствовать модели персонализированного обучения, не передавая конфиденциальные данные учащихся извне. Такой подход способствует лучшему пониманию, адаптивной доставке контента и эффективным результатам обучения при соблюдении конфиденциальности данных.

Эталонная архитектура — FL в облаке AWS:

В этом разделе представлен обзор того, как можно реализовать FL в облаке AWS. Обратите внимание: это эталонная архитектура высокого уровня, используемая для проверки концепции. Практическая реализация может потребовать различного набора сервисов и интеграции в зависимости от масштаба и сложности требований. На момент написания этого блога готового сервиса AWS ML для FL не существовало. В этой архитектуре облако AWS используется в качестве платформы IaaS для размещения компонентов FL Open Framework (клиента и сервера) на виртуальных машинах Amazon EC2. Сервисы AWS используются для остальных сервисов (хранилище, сеть, Интернет вещей, анализ данных, визуализация и бессерверная интеграция).

Ниже приводится обзор архитектуры AWS высокого уровня:

1. Клиент FL 1 на AWS с использованием машинного обучения на периферии (например: производство, автономный транспорт):

а. Датчики Интернета вещей собирают данные, которые обрабатываются с помощью функций Lambda на периферии.

б. Модели машинного обучения реализуются на периферии с использованием AWS IoT Greengrass для выявления аномалий, обнаружения объектов и т. д.

в. Выходные данные модели отправляются по протоколу MQTT в сервис AWS IoT Core и сохраняются в Amazon S3.

д. Клиентский компонент FL, работающий в экземпляре частной подсети AWS EC2, считывает выходные данные модели и отправляет их в учетную запись AWS Central для агрегирования выходных данных модели в глобальную модель.

е. Клиентский компонент FL также передает обновления модели из центральной учетной записи в Edge, используя те же AWS IoT Core и IoT Greengrass для будущих прогнозов.

2. Клиент FL 2 на AWS с использованием машинного обучения для аналитики (например: путешествия и гостиничный бизнес, здравоохранение)

а. Сгенерированные данные в режиме реального времени и/или в пакетном режиме отправляются клиенту AWS для аналитических целей.

б. Сервисы AWS, такие как AWS Kinesis Firehouse (для режима реального времени) и AWS DataSync (для пакетной обработки), принимают данные и сохраняют их в Amazon S3 для дальнейшей обработки.

в. Модели машинного обучения, работающие в частном экземпляре AWS EC2, генерируют прогнозы или аналитическую информацию на основе данных.

д. Клиентский компонент FL считывает выходные данные модели и отправляет их в учетную запись AWS Central для агрегирования выходных данных модели в глобальную модель.

е. Клиентский компонент FL также обновляет локальную модель в EC2 с помощью обновлений модели, отправленных из центральной учетной записи, для будущих прогнозов.

3. Клиент FL 3 на частном сервере с использованием машинного обучения для частных приложений (например: BFSI, Education)

а. Конечные пользователи клиентов генерируют данные из мобильных приложений или веб-портала.

б. Веб-сервер обеспечивает пользовательский интерфейс приложения, а пользовательские данные хранятся на локальном сервере базы данных (MySQL, Oracle и т. д.).

в. Пользовательские модели машинного обучения, работающие на локальном сервере приложений, генерируют прогнозы или аналитическую информацию на основе данных.

д. Клиентский компонент FL, на котором работает локальный сервер приложений, считывает выходные данные модели и отправляет их в учетную запись AWS Central для агрегирования выходных данных модели в глобальную модель с использованием клиентского шлюза и частного VPN-соединения.

е. Клиентский компонент FL также обновляет локальную модель на локальном сервере приложений с помощью обновлений модели, отправляемых из центральной учетной записи, для будущих прогнозов.

4. Сервер FL на AWS для агрегирования машинного обучения (например: агрегаторы медицинских исследований, путешествий)

а. Выходные данные модели от клиентов принимаются через AWS Transit Gateway и сохраняются в Amazon S3.

б. Компонент FL Server, работающий в экземпляре частной подсети AWS EC2, считывает выходные данные модели и объединяет их для обучения/переобучения глобальной модели.

в. Обновленные модели затем передаются обратно всем клиентам через AWS Transit Gateway для будущих прогнозов с использованием протоколов MQTT или gRPC.

д. Прогнозы и данные глобальных моделей хранятся в S3. Авторизованные бизнес-пользователи могут визуализировать их на информационной панели Amazon QuickSight.

е. Функция AWS Lambda, запускаемая из уведомления о событии S3, может передавать прогнозы и аналитическую информацию нижестоящим приложениям с помощью Amazon API Gateway.

ф. Для обслуживания или улучшения глобальной модели авторизованные специалисты по данным могут войти на сервер со своей рабочей станции через TCP-соединение.

Ключевые соображения по поводу будущих улучшений:

Поскольку FL набирает обороты, необходимы дальнейшие исследования и разработки для решения определенных проблем и расширения его применения:

·Разработка надежных механизмов безопасности и установление доверия между участниками имеют решающее значение для предотвращения потенциальных атак или вредоносного поведения.

· Оптимизация протоколов связи между устройствами и центральными серверами может снизить накладные расходы, связанные с частым обновлением модели.

· Изучение методов федеративного трансферного обучения для передачи знаний из одного варианта использования в другой может повысить масштабируемость и эффективность федеративного обучения.

Еда на вынос:

FL — это сдвиг парадигмы традиционного машинного обучения за счет использования совместного интеллекта из децентрализованных сред. Благодаря своему потенциалу совершить революцию в отраслях, сохраняя при этом конфиденциальность и безопасность, FL готов стать движущей силой в будущем искусственного интеллекта и машинного обучения. Поставщики облачных услуг (такие как AWS) позволяют предприятиям начать работу и экспериментировать с использованием FL — быстро, эффективно и с низкими затратами.