Пару месяцев назад я написал серию из трех частей о децентрализации искусственного интеллекта (ИИ). В этом эссе я попытался охватить основные элементы, которые оправдывают движение децентрализованного ИИ, от экономических факторов до факторов, способствующих развитию технологий, а также первого поколения технологий, которые развивают децентрализованные платформы ИИ. Аргументы, приведенные в моем эссе, были в основном теоретическими, потому что, как мы все знаем, факт остается фактом: сегодня ИИ полностью централизован. Однако по мере того, как я все больше работаю над проблемами искусственного интеллекта в реальном мире, я начинаю понимать, что централизация - это аспект, который постоянно препятствует прогрессу решений искусственного интеллекта. Более того, мы должны начать рассматривать централизацию ИИ как единственную проблему, но как множество различных проблем, которые возникают на разных этапах жизненного цикла решения ИИ. Сегодня я хотел бы более подробно изучить эту идею.

Что я имею в виду, утверждая, что у ИИ много проблем с централизацией? Если мы визуализируем традиционный жизненный цикл решения AI, мы увидим циклический график, который соединяет различные этапы, такие как создание модели, обучение, регуляризация и т. Д. Мой тезис состоит в том, что все эти этапы являются концептуально децентрализованными действиями, которые объединены в централизованные процессы из-за того, что ограничение современных технологий. Однако мы должны спросить себя, если разработка программного обеспечения по запросу традиционно была централизованной деятельностью, так что же отличает ИИ от других? Ответ можно найти, проанализировав две основные области, в которых ИИ отличается от традиционных программных приложений.

Субъективное и статическое против объективного и динамического

Возьмем сценарий, в котором крупная организация разрабатывает веб-приложение или облачное приложение. Команда проекта начнет с начального набора требований, которые они предъявят агентству или группе разработчиков, которым доверяют. Эта группа разработает концепцию архитектуры, которая соответствует требованиям, и начнет, надеюсь, итеративный процесс разработки. В целом решение будет проходить серию тестов до тех пор, пока не будет соответствовать функциональным требованиям, и в конечном итоге оно будет развернуто в инфраструктуре, контролируемой исходной компанией или доверенной третьей стороной, которой они доверяют.

Этот централизованный жизненный цикл хорошо работает для традиционных программных приложений, потому что они по своей сути субъективны и статичны по своей природе. Мы выбираем архитектуру и стек технологий для функциональной проблемы, но у нас нет объективного способа узнать, является ли наша архитектура лучшей для этой проблемы или насколько она лучше альтернатив. Мы следуем методологиям и лучшим практикам, созданным экспертами в данной области, но у нас нет объективного способа узнать, есть ли наиболее подходящие для нашей проблемы. Точно так же структура нашего решения будет статической по своей природе и не обязательно будет меняться в поведении или размере в зависимости от окружающей среды.

В случае решений ИИ мы по-прежнему полагаемся на субъективные мнения при выборе модели для удовлетворения набора требований, но у нас есть объективные способы оценить производительность этой модели по сравнению с альтернативой. Точно так же мы можем объективно оценить методы обучения, регуляризации и оптимизации и выбрать наиболее эффективные варианты для нашего решения. Что касается структуры программы, модели искусственного интеллекта со временем будут меняться и расти по мере того, как он обрабатывает больше данных и приобретает больше знаний.

Как все это связано с централизацией? Что ж, оказывается, что субъективные и статические структуры по своей сути централизованы, в то время как объективные и динамические модели лучше подходят для децентрализации. Структура правительства субъективна (мы полагаемся на мнения и суждения наших лидеров) и довольно статична по своей природе (мы не меняем должности в кабинете министров каждый день), в то время как сама структура демократии очень объективна (мы голосуем) и динамична (выборы). результаты меняются со временем в зависимости от демографии и т. д.). В случае ИИ субъективный и динамичный характер программ ИИ является эволюционным аспектом, подталкивающим к децентрализации. Следующий рисунок может помочь проиллюстрировать эту концепцию.

Я начал эту статью с упоминания того, что у ИИ есть не одна проблема централизации, а множество. Давайте рассмотрим несколько моих любимых, используя наш тезис о субъективности и динамизме.

Проблема централизации данных

ИИ - это проблема не только интеллекта, но и данных. Сегодня большие наборы данных, относящиеся к проблемам ИИ, контролируются небольшим количеством крупных организаций, и нет хороших механизмов для обмена этими данными с сообществом специалистов по науке о данных. Представьте себе сценарий искусственного интеллекта в здравоохранении, в котором любой участник эксперимента может предоставить свои собственные данные с надлежащими гарантиями безопасности и конфиденциальности. Децентрализация владения данными - необходимый шаг в развитии ИИ.

Проблема централизации модели

Ваша любимая консалтинговая фирма выбрала серию алгоритмов искусственного интеллекта для конкретной проблемы, но как мы узнаем, что они лучше всего подходят для этого сценария? Идут ли они в ногу с постоянным потоком исследований ИИ, исходящих от университетов и исследовательских лабораторий? Что, если бы сообщество специалистов по данным со всего мира могло бы предложить и объективно оценить различные модели для вашего сценария? Разве это не было бы здорово? На мой взгляд, децентрализация выбора моделей и алгоритмов со временем радикально улучшит качество решений ИИ.

Проблема централизации обучения

Одна из основных проблем решений искусственного интеллекта в реальном мире заключается в том, что обучение моделей выполняется теми же группами, которые сами создают модели. Нравится вам это или нет, но эта динамика привносит огромный уровень предвзятости и очень часто подталкивает модели к переобучению. Что, если бы мы могли делегировать обучение моделей децентрализованной сети специалистов по данным, которые будут работать при правильных стимулах для улучшения их качества? Обучение - это еще один аспект решений искусственного интеллекта, которому централизация регулярно мешает.

Проблема централизации регуляризации-оптимизации

Мы развернули нашу модель искусственного интеллекта в производственной среде, но как мы узнаем, что она работает правильно? Его поведение со временем улучшается или ухудшается? Можно ли настроить гиперпараметры другим способом для повышения производительности? Парадоксально, но мы полагаемся на централизованные процессы оптимизации и регуляризации моделей ИИ, которые очень часто используют тех же специалистов по данным, которые создавали модели. Представьте себе, если бы мы могли использовать децентрализованную сеть экспертов по ИИ, чтобы попытаться найти ошибки-уязвимости и попытаться постоянно улучшать нашу модель. Регуляризация и оптимизация искусственного интеллекта - это по сути децентрализованные методы, которые сегодня внедряются в децентрализованные процессы.

Не одна, а множество проблем централизации

Как видите, мы не должны говорить о централизации ИИ одним общим термином, а говорить о множестве проблем, которые сталкиваются, чтобы помешать развитию ИИ. Развитие технологий блокчейн, а также таких парадигм, как федеративное обучение, постепенно открывают двери для более децентрализованных моделей искусственного интеллекта, и, надеюсь, мы добьемся этого, решив не одну, а многие из этих проблем.