Публикации по теме 'federated-learning'


Нарушение конфиденциальности в федеративном обучении
Федеративное обучение - это новый способ обучения машинному обучению с использованием распределенных данных, которые не централизованы на сервере. Он работает, обучая общую (совместно используемую) модель с личными данными конкретного пользователя, не имея прямого доступа к таким данным. Чтобы глубже понять, как это работает, я рекомендую вам ознакомиться с моим предыдущим сообщением в блоге, в котором содержится общий обзор, а также подробный анализ исследований Google...

Централизованное обучение против распределенного обучения
Централизованное обучение Данные обучения централизованы в машине Централизованный объект обучает и размещает модель Используется в аутсорсинговых моделях (ML-as-a-service), например. Машинное обучение Amazon AWS Плюсы: высокая точность. Минусы: операторы имеют доступ к конфиденциальным данным обучения. Распределенное обучение Примечание. Существует три варианта: совместное обучение, федеративное обучение и раздельное обучение. Здесь я сосредоточусь на федеративном..

Реализация федеративного обучения на предприятии
Что, если бы компании могли создавать более точные модели машинного обучения, обучая данные в разрозненных облаках и на нескольких платформах данных? В условиях неопределенности и волатильности рынка возможность для предприятия как масштабировать, так и повышать производительность своих моделей машинного обучения (ML) стала жизненно важной задачей. Проблема в том, что для многих предприятий сама архитектура, на которой работают их модели машинного обучения, действует не как союзник, а..

ФЕДЕРАЦИОННОЕ ОБУЧЕНИЕ: Ваши данные остаются с вами
Благодаря федеративному обучению мы можем улучшить производительность модели централизованного машинного обучения альтернативным способом без совместного использования данных пользователей. Это 21 век, и данные - новое золото . С появлением новых технологий, более высокой вычислительной мощности и, конечно же, огромного объема данных, искусственный интеллект набирает обороты, и ожидается, что глобальный рынок искусственного интеллекта (ИИ) вырастет с 58,3 миллиарда долларов США. в..

Миру нужны вычисления, сохраняющие конфиденциальность
Эта статья предлагает общий обзор для всех, кто интересуется методами, используемыми для решения проблемы конфиденциальности данных при обучении моделей глубокого обучения или просто при работе с данными в целом. Мы надеемся, что это может послужить отправной точкой в ​​этой захватывающей области. Если вы следили за растущей популярностью глубокого обучения, вы знаете, насколько ценны данные для всех, кто тренирует различные модели. Эта область быстро развивается, и исследователи упорно..

Жизнь и компьютеры на грани
Краткое введение в федеративное обучение Необходимость защиты конфиденциальности Потребность в конфиденциальности никогда не была более острой, чем сейчас - время, когда ценность данных сравнивается с нефтью и считается самым важным активом человека. Типы данных, которые генерируют люди, варьируются от кажущихся безобидными подробностей, таких как предпочтения в розничной торговле, до очень конфиденциальной информации, такой как медицинские записи, и даже политических взглядов,..

Как повысить конфиденциальность в проектах Data Science?
Эта статья была написана командой Substra Foundation. В этой статье блога мы представляем наиболее важные методы повышения конфиденциальности (PET) , которые в настоящее время разрабатываются и используются различными техническими деятелями. Мы кратко объясним их принципы и обсудим их потенциальную взаимодополняемость с Substra Framework. Цель этой статьи — представить потенциальное развитие Substra Framework и возможную интеграцию с другими технологиями . Для более полного..