Когда применять правильную технику машинного обучения?

Глубокое обучение против обучения с подкреплением против байесовских сетей

1. Введение

Первоначально методы ИИ были нацелены на «компьютеризацию» процессов, характеризующих человеческое познание, знания, рассуждения и т. Д. Основные задачи ИИ: определить тип процесса, который можно компьютеризировать, затем компьютеризировать его и проверить его актуальность или эффективность. Исследования машинного обучения сосредоточены на конкретном процессе - обучении. Основная задача - дать компьютерам минимум знаний и данных для их обучения. Более того, машинное обучение требует взаимодействия между людьми, выбирающими данные и проверкой результатов машин, и компьютерами с целью предоставления им большей автономии в принятии решений. С 1990-х годов синергия между большими наборами данных, особенно помеченными данными, и увеличение мощности компьютеров с помощью графических процессоров, привело к росту более мощных технических приложений. Технологии и логика рассуждений позволили достичь нескольких целей, например, снизить количество ошибок в словах при распознавании речи, обработать распознавание изображений (Крижевский, Суцкевер и Хинтон, 2012), победить чемпиона из числа людей в Go (Silver et al., 2016) и перевод изображений на естественный язык (Karpathy & Fei-Fei, 2017).

В конкретной области PM авторы все еще установили статистические корреляции между факторами PM (реализация процессов, управление командой и т. Д.) И результатами прошлых проектов (Ko & Cheng, 2007; Wong, Lai, & Lam, 2000). В более общем плане мы предполагаем, что методы искусственного интеллекта и машинного обучения являются ценными решениями для PM; они облегчают систематическое использование данных по проектам, чтобы иметь более четкое представление об актуальности или силе причинно-следственных связей. Одна из основных проблем - выбрать хорошие методы искусственного интеллекта и машинного обучения, потому что эта очень активная область включает в себя различные и многочисленные статистические методы, которые могут обеспечить автоматическое принятие решений, прогнозное моделирование, классификацию данных и кластеризацию данных. Это объясняет, почему эта статья сосредоточена на выборе методов искусственного интеллекта и машинного обучения, соответствующих специфике PM.

2 Обзор методов искусственного интеллекта

В управлении проектами наиболее часто используются следующие методы искусственного интеллекта: двухвариантная корреляция и множественные регрессионные тесты (Mir & Pinnington, 2014), интеллектуальный анализ данных (Ahiaga-Dagbui & Smith, 2014), искусственные нейронные сети (Al-Tabtabai et al. ., 1997; Ко и Ченг, 2007; Ван и Гибсон, 2010; Ван и др., 2012), обучение с подкреплением (Мао, Ализаде, Менаше и Кандула, 2016; Тесауро, Джонг, Дас и Беннани, 2006; Йе & Li, 2018), генетические алгоритмы и многокритериальное принятие решений (Baron, Rochet, & Esteve, 2006) и байесовские сети (Qazi et al., 2016) и даже методы гибридизации байесовских сетей и эволюционных алгоритмов (Pitiot, Coudert, Geneste, & Baron, 2010).

Вот почему, чтобы решить нашу исследовательскую задачу, мы изучили три метода моделирования, которые могут быть знакомы исследователям PM:

· Искусственные нейронные сети (глубокое обучение), потому что теперь у нас есть доказательства точности их результатов в нескольких областях (Wang & Gibson, 2010),

· Тип машинного обучения, называемый обучением с подкреплением (RL), потому что он имеет сходство с нашей концепцией зрелости,

· Байесовские сети (BN), потому что эти динамические инструменты объединяют знания и данные экспертов, причинно-следственные рассуждения и корреляцию.

2.1. Методы контролируемого обучения: глубокое обучение / искусственные нейронные сети (ИНС)

Первоначально мы исследуем использование Supervise Learning, а точнее искусственных нейронных сетей (ИНС), для прогнозирования производительности на основе зрелости управления проектами.

Если вы хотите узнать больше об алгоритмах контролируемого обучения, я предлагаю вам следующий пост:



Нейронные сети используются для извлечения шаблонов, которые слишком сложны для восприятия людьми из-за их замечательной способности получать тенденции из сложных данных (Castillo & Melin, 1999). Они широко используются в бизнес-приложениях (Wong et al., 2000), особенно для оценки практики управления рисками (Kampianakis & Oehmen, 2017). В этом разделе мы представляем их, а затем объясняем, как этот метод может быть использован в нашей исследовательской работе.

Вдохновленные человеческим мозгом, нейрофизиолог Уоррен Маккалок и логик Уолтер Питс предложили первую нейронную сеть, состоящую из связанных функциональных узлов. Сеть обучалась путем итеративного изменения весов связей (McCulloch & Pitts, 1943). Позже, также вдохновленный нейробиологией, Розенблатт (Rosenblatt, 1958) разработал перцептрон, простую функцию для обучения. Он отображал выход каждого нейрона на единицу или ноль. Он взял в качестве входных данных вектор критериев x, вектор весов w и оценивает, превышает ли их скалярное произведение порог u,, который равен f (x) = {1, если wx ›u; в противном случае 0}. В простой многослойной нейронной сети эта функция не очень полезна, поскольку двоичная классификация ограничена. Однако он был более полезен в многослойных сетях, называемых многослойным персептроном (MLP) (Rumelhart, Hinton, & Williams, 1986). MLP, разработанный в 1980-х годах, включает в себя алгоритмы обратного распространения, т.е., назначающие хорошие веса, для которых нейронные сети имеют более низкие ошибки при обучении. Одним из наиболее часто используемых методов обратного распространения является стохастический градиентный спуск (SGD), который минимизирует частоту ошибок за счет использования цепных правил частных производных. SGD распространяет все производные или градиенты, начиная с верхнего вывода и идя вниз, затем вычисляет соответствующий вес каждой ссылки.

С момента внедрения MLP и SGD не было значительного прогресса в решении нейронных сетей до 1997 года, когда (Hochreiter & Schmidhuber, 1997) был предложен другой метод обратного распространения, названный Long Short Term Memory LSTM. LSTM сокращает SGD; он также вводит концепцию рекуррентной сети для изучения дальнодействующих зависимостей. LSTM обучается быстрее, чем SGD, и решает сложные искусственные задачи с длительным запаздыванием.

Нейронные сети применяются во многих отраслях науки и промышленности. Затем нам нужно ограничить тип нейронных сетей, полезных для PM. Более того, в нашем конкретном случае нейронная сеть должна иметь: (1) в качестве входных данных критерий, характеризующий зрелость управления проектами, и (2) в качестве выходных показателей операционной деятельности проектов. Согласно общепринятой практике для создания причинно-следственной модели может потребоваться использование нескольких слоев (см. Рисунок 1). Однако даже если нейронные сети показали высокую точность, в PM мы не можем получить доступ к количеству данных, необходимых для построения достаточно эффективной сети. У нас недостаточно проектов по этим критериям для обучения сети. Потребность ИНС в данных растет экспоненциально с увеличением количества входных критериев (рис. 2). Несмотря на присущие им ограничения, ИНС все еще используются в некоторых бизнес-приложениях (Wong et al., 2000), например для оценки практики управления рисками (Kampianakis & Oehmen, 2017).

ИНС очень интересны и даже увлекательны. В таблице 1 мы суммируем их сильные и слабые стороны, связанные с точкой зрения PM.

Второй метод, который мы хотели бы представить, - это обучение с подкреплением (RL).

2.2. Обучение с подкреплением (RL)

Алгоритмы обучения с подкреплением были разработаны на основе Марковских процессов принятия решений (MDP). Это математические модели для принятия решений в стохастической ситуации, где каждое событие зависит только от состояния, достигнутого в предыдущем событии (свойство Маркова). В 1957 году Беллман (Bellman, 1957) предложил рекурсивную формулу, оптимизирующую сумму всех вознаграждений по MDP. Решение этого уравнения означает поиск оптимальной политики. Однако уравнение Беллмана невозможно было решить аналитически, поскольку оно включает в себя максимизацию функции, которая не может быть производной. Эта проблема позволяла RL не продвигаться вперед до 1995 года, когда Уоткинс предложил алгоритм Q-обучения (Watkins, 1995). Этот алгоритм помогает решить проблему дилеммы разведки и эксплуатации: компьютерный агент тратит оптимальное время на изучение решений и получение вознаграждения, которого недостаточно, чтобы попасть в локальный оптимум, но максимизируя общее вознаграждение.

В качестве примера на рисунке 3 агент желтого квадрата пробует несколько путей, чтобы максимизировать накопленные в долгосрочной перспективе вознаграждения и достичь своей цели: зеленой позиции с наградой +1. Согласно RL, этот агент не имеет прямых указаний относительно того, какие решения принимать или которые являются непосредственными последствиями его решений. Тем не менее, каждое решение будет стоить -0,04 балла. Агент выполняет все шаги (от начальной точки до зеленого квадрата); затем он получает кумулятивное вознаграждение в конце процесса принятия решения. Затем он будет моделировать несколько путей до максимизации накопленных вознаграждений (Sutton, 1988).

Очень удивительно, что RL основан на концепции обучения, которая закрыта для тех, кто находится в процессе зрелости. PMMM были разработаны для классификации и ранжирования организаций в соответствии с количеством и типом реализованных передовых практик (или нет). Точно так же в рамках RL улучшение основано на успешном повторении чего-либо, что аналогично внедренным передовым практикам. RL использует компьютерных агентов, которые учатся принимать решения непосредственно в процессе взаимодействия со средой моделирования. RL стремится максимизировать вознаграждение, основанное на опыте; то есть максимизировать функцию полезности вознаграждения (аналогичную производительности проекта) путем создания оптимальной политики (аналогично советам по управлению проектами). Согласно RL компьютерный агент начинает с незнания того, как обращаться с внешней средой; по мере того, как он становится более зрелым, он выполняет свои задачи более эффективно, как в шкале совершенства процесса зрелости (Таблица 2).

Более того, в базе данных PM может быть определена ось критериев. На рисунке 4 показано упрощение с двумя критериями. Идея заключается в следующем: пока агент - система, нацеленная на улучшение, - движется в каждом направлении. Он получит вознаграждение от окружающей среды. Агент оценки управления проектом будет исследовать состояния (то есть удовлетворяет критериям перехода на следующий уровень по каждой оси) и будет получать баллы вознаграждения (повышение операционной эффективности проектов). Модель RL создаст соответствующую политику, основанную на этапах прохождения через разные уровни, обеспечивая при этом лучшую производительность. Использование RL требует создания моделирования, включающего несколько критериев управления проектом и определение баллов «вознаграждение», поскольку агент соответствует этим критериям.

Несмотря на свою ценность, включенный в PM, RL нелегко реализовать. Многие параметры должны быть определены ex ante. К сожалению, в нашем исследовательском запросе у нас недостаточно данных для создания надежного сценария RL. В таблице 3 показаны сильные и слабые стороны RL.

Комбинация ИНС и RL является основой глубокого обучения с подкреплением (DRL). В этом случае компьютерный агент в состоянии использует глубокую нейронную сеть для изучения политики. С помощью этой политики агент выполняет действие в среде и получает вознаграждение в определенных состояниях, которых он достигает. Награды питают нейронную сеть и генерируют лучшую политику. Это было разработано и применено в статье под названием «Игра в Atari с глубоким обучением с подкреплением», в которой они учат машину играть в игры Atari прямо из пикселей, и после обучения машина дает отличные результаты (Mnih, Серебро, & Ридмиллер, 2013). Авторы учат компьютер играть в игры Atari прямо из пикселей, и после обучения машина дает отличные результаты. В 2016 году RL также использовался для игры в го, очень сложной игры, в которой он побеждал чемпиона мира (Silver et al., 2016). После этого RL привлек больше внимания инвесторов. Инвестиции увеличились, и с тех пор количество приложений росло (Huddleston & Brown, 2018).

2.3 Байесовские сети (BN)

BN - это графические инструменты, моделирующие знания и заключения экспертов; BN объединяет данные и знания, состояние знаний и обновление знаний, корреляцию и причинно-следственную связь. Если вы не знакомы с BN, предлагаю вам следующий пост:



Способность BN явно управлять неопределенностью делает их пригодными для большого количества приложений в широком спектре реальных проблем, включая оценку рисков (Fenton & Neil, 2013), прогнозирование банкротства (Sun & Shenoy, 2007), приемлемость продукта (Arbelaez Garces, Rakotondranaivo, & Bonjour, 2016), медицинская диагностика (Constantinou, Fenton, Marsh, & Radlinski, 2016), диагностика процесса проектирования строительства (Matthews & Philip, 2012) и т. Д.

Тем не менее, мы можем отметить, что BN подходят для задач, в которых (1) причины должны быть соотнесены со следствием, например критерии зрелости управления проектом, как входные переменные, и операционная эффективность конкретного проекта, как результат, (2) объем данных невелик, и они меняются во времени (их уровень неопределенности высок), (3) необходимо объединить данные и знания экспертов Мы можем суммировать сильные и слабые стороны BN в таблице

После того, как ИНС, RL и BN были представлены, мы можем определить ориентированные на данные требования к удовлетворительной технике искусственного интеллекта и машинного обучения, чтобы установить причинно-следственную связь между зрелостью процесса управления проектами и производительностью проектов.

3 Выбор адекватной техники

Мы представили три метода искусственного интеллекта и машинного обучения - ИНС, RL, BN, - которые можно использовать для решения нашей исследовательской проблемы. В этом разделе мы их качественно сравниваем, чтобы выбрать самые ценные. Критерии, которые мы будем использовать, относятся к данным, а не к знаниям.

3.1. Система оценки качества данных

Мы представили три метода, которые можно использовать для решения нашей исследовательской задачи. В этом разделе мы их качественно сравниваем, чтобы выбрать наиболее подходящий. Для этого мы выбираем несколько критериев, чтобы оценить, как данные обрабатываются в соответствии с методами, представленными выше. В таблице 5 представлена ​​концепция, взятая из Глоссария статистических терминов ОЭСР (Глоссарий статистических терминов ОЭСР, 2008 г.) и (Naïm, Wuillemin, Leray, Becker, & Pourret, 2008 г.).

3.2. Оценка данных, связанных с нашим запросом

В таблице 6 показано сравнение между ИНС, RL и BN по списку критериев, представленному выше. У каждой техники AI и LM есть знак +, если характеристика выполняется, и знак ++, если метод лучше по характеристике. Аналогичным образом - знак, если характеристика не выполняется, и знак -, если техника имеет в характеристике существенный недостаток.

Критерии доступа: доступ к данным ограничен в рамках нашего запроса. Одна из самых больших проблем - получить структурированную базу данных аудиторских проверок зрелости проектов и оценки операционных показателей проектов. Следовательно, методы, требующие ввода значительного количества данных (ИНС, RL), не подходят. BN кажутся наиболее подходящими с точки зрения доступности. Они выделяются своей способностью работать со смешанными данными (из баз данных и экспертов), обрабатывать неопределенность данных и быть легко читаемыми.

Контекстные критерии: учитывая контекст оценки зрелости управления проектом, тип и количество данных ограничены. Полнота результата обеспечивается БН лучше, чем другим методом. Объем данных, необходимых для создания соответствующей BN, соответствует реальности исследовательской проблемы.

Критерии представления: графическое представление BN является явным, интуитивно понятным и понятным для специалиста по PM. Это облегчает как проверку модели, так и ее использование. Лица, принимающие решения, гораздо более уверены в модели, работа которой понятна, а не в модели черного ящика, такой как ИНС.

Внутренние критерии: ИНС продемонстрировали свои возможности с точки зрения точности, объективности, уникальности и последовательности. Этот навык достигается только в том случае, если они получают адекватный объем данных. BN не обладают «объективностью»: они могут быть предвзятыми. Однако BN могут распространять эволюцию данных от входа к выходу и обратно распространять информацию в другом направлении, эта характеристика делает их полезными для этой исследовательской задачи.

Данные по управлению проектами, как правило, недостаточны и неполны, и принятие правильного решения на основе предыдущих данных является общей задачей этого исследования. В то время как классическое машинное обучение, такое как нейронные сети, дает ответы на основе доступных данных, байесовские сети включают не выборочный или предшествующий человеческий опыт, который имеет значение. Обычно интервью с экспертом, который спрашивает о влиянии нескольких параметров, - лучший способ вспомнить всю ту информацию, которая делает байесовскую сеть богаче, чем другие методы. Объединение этого опыта с образцами данных дает мощный метод, позволяющий создать реализуемую и достаточно производительную модель.

Структура графического представления модели всегда лучше, чем модель черного ящика, как нейронные сети. Легче объяснять и сообщать, что дает преимущество при работе с людьми, которые не являются экспертами в модельной технологии, а в области бизнеса, например, здравоохранения или, в данном случае, управления проектами. Еще одно положительное преимущество байесовских сетей заключается в том, что они могут быть построены на основе экспертных знаний и необработанных данных, даже если один из этих наборов знаний является неполным. Можно начать с эксперта и уточнить данные или сначала создать модель с данными, а затем улучшить ее с помощью эксперта.

Спасибо за чтение !!

Если вам нравится и дальше читать подобные истории, вы можете подписаться здесь!