Объем, скорость и разнообразие данных, генерируемых в ресурсоемких отраслях, ошеломляют. К сожалению, по мнению многих аналитиков рынка, 80% этих данных остаются неиспользованными. По оценкам McKinsey & Company, 99% данных, генерируемых в нефтегазовой отрасли, остаются неиспользованными. Отсутствие систем, обеспечивающих единое представление об операциях с активами, и нехватка квалифицированных сотрудников, которые могут использовать инструменты обработки данных, являются основными причинами, по которым данные зарываются в разрозненные системы хранения сразу же после их создания. Обращение к команде специалистов по данным с ограниченными ресурсами для создания решений проблемы потока данных не является долгосрочным решением. На мой взгляд, для решения этой задачи необходимы как технологические инструменты, так и квалифицированная рабочая сила. Инструменты, доступные для анализа данных, должны быть настолько интуитивными, чтобы сотрудники различных отделов, от инженерных до финансовых, могли использовать их и создавать приложения и информационные панели для решения различных операционных задач.

Несколько лет назад, когда концепции машинного обучения и искусственного интеллекта только входили в промышленную сферу, многие считали, что разработанные исследователями проприетарные алгоритмы глубокого обучения содержат ответы на все их операционные вопросы. Однако со временем люди поняли, что, хотя алгоритмы способны находить закономерности в данных, они все же недостаточно умны, чтобы самостоятельно давать надежные ответы. Существует много причин для этого. Во-первых, целостность данных может быть слабой из-за плохих датчиков, отсутствия данных, неправильной конфигурации и т. д., что приводит к большому количеству ложных срабатываний. Во-вторых, не хватает размеченных данных для обучения алгоритмов, что иронично, когда мы говорим об отраслях, которые генерируют огромные объемы данных каждый час. Прежде чем алгоритмы можно будет обучать на данных, кто-то должен кропотливо определить случаи сбоев или шаблоны и пометить их. В-третьих, многие модели ИИ до сих пор являются черными ящиками и не поддаются объяснению. Пользователи не могут отслеживать или интерпретировать логику рекомендаций алгоритма.

Таким образом, опасно оставлять принятие решений ненадежной модели искусственного интеллекта «черный ящик» в критически важных средах. Правильный подход, на мой взгляд, состоит в том, чтобы предоставить эксперту в предметной области или предметной области эти аналитические инструменты, чтобы он или она могли идентифицировать и обучать алгоритмы на данных и функциях правильного качества, разработать достаточно точную модель прогнозирования, проверить его поведение при изменении новых данных и только потом продукционировать его. Когда дело доходит до прогнозирования отказа компонента газовой турбины, кто лучше подходит для ответа — инженер, который работал над проектированием компонента, или алгоритм, который использовался где-то еще для классификации кошек и собак?

Нам нужны аналитические инструменты, которые легко использовать на предприятии людьми с любым опытом без особых знаний в области науки о данных. Пользователи должны иметь возможность легко подключаться к архиваторам данных и другим базам данных, получать доступ к активам, системам или моделям процессов (так называемым цифровым двойникам), созданным другими, проверять гипотезы, выявлять возможности улучшения или ранние признаки неудачи и принимать решения. Время до ощутимого финансового эффекта должно быть важным фактором при выборе поставщиков инструментов и приоритизации аналитических проектов, а организациям не следует браться за причудливые проекты по науке о данных, которые технологически стимулируют, но не дают значимых результатов. Только в этом случае организации смогут перейти от усталости пилотов к реализации преимуществ масштабируемого аналитического решения для всего предприятия.