2018 год вполне может стать годом огромных скачков в прогнозной аналитике, искусственном интеллекте, периферийных вычислениях, хранении данных, гибридном облаке и многом другом… Узнайте о самых горячих тенденциях в области ИТ на 2018 год!

2017 год был годом, когда ИТ-индустрия созрела и расширилась за все предыдущие пределы, поскольку поставщики облачных услуг, такие как AWS, представили следующее поколение облачных экземпляров, решений для хранения и обработки данных, более мощных и экономичных. В то время как некоторые инструменты для работы с большими данными и технологии машинного обучения устарели и от них пришлось отказаться, на их место приходят новые, более многофункциональные и продуктивные инструменты (например, Spark).

Сам термин «большие данные» сейчас несколько избыточен, поскольку мы знаем, что данные, о которых идет речь, по умолчанию огромны. Вот почему многие ИТ-эксперты и надежные источники в основном используют вместо этого просто «данные». Поскольку эффективное использование аналитики данных имеет решающее значение для успешного принятия бизнес-решений, весь пакет отраслей ИТ-индустрии сосредоточен на высокоскоростной агрегации данных, недорогом хранении данных, высокоскоростной обработке данных и высокоточной аналитике данных. Давайте подробнее рассмотрим передовые технологические тенденции для бизнеса в 2018 году.

Интернет вещей для высокоскоростной агрегации данных

Озера данных, используемые для аналитики больших данных, имеют несколько входов, таких как социальные сети, внутренние потоки данных из систем CRM/ERP, учетных платформ и т. д. Тем не менее, когда мы добавляем в смесь датчики IoT, сложность возрастает в десять раз. Чтобы иметь возможность извлекать ценные сведения из этих данных, они должны быть агрегированы и обработаны быстро, а объем вставляемых данных должен поддерживаться на самом низком подходящем уровне.

Например, при сборе данных Индустрии 4.0 с полностью автоматизированных заводов по всему объекту могут быть разбросаны сотни датчиков температуры, которые будут передавать одни и те же данные о температуре в обычном режиме. В этом случае логично отсечь 99% данных и сообщать только, что температура была номинальной. Только если (когда) произойдет скачок температуры, система граничных вычислений должна отреагировать, найти датчик, вызвавший тревогу, проанализировать ситуацию и действовать соответствующим образом.

В качестве другого примера предположим, что у нас есть ветряная электростанция с несколькими ветряными турбинами, вращающимися под управлением периферийной вычислительной системы. Если порыв ветра приносит мелкий гравий, который может повредить подшипники ротора, первая турбина сообщает об ударе, система идентифицирует угрозу и реагирует, приказывая остальным турбинам вращать свои вентиляторы в направлении, позволяющем избежать столкновения.

Такая высокоскоростная агрегация и анализ данных с помощью периферийных вычислительных систем уже доступна на многих облачных платформах и будет расширяться в 2018 году.

Недорогое хранение данных в облаке

Облачное хранилище является обязательным для озер данных, поскольку только использование ресурсов облачных вычислений позволяет раскрыть весь потенциал систем бизнес-аналитики и аналитики больших данных. Однако, когда рассматриваемые данные огромны, такими же будут и расходы на их хранение. Хотя многие поставщики облачных услуг, такие как AWS или GCP, усердно работают над минимизацией расходов на хранение данных, они по-прежнему остаются существенными. Вопросы безопасности данных также вызывают определенные опасения, поскольку несколько отделов получают доступ к облаку, и для обеспечения безопасности данных на работе должны применяться строгие протоколы безопасности.

См. также: Демистификация: 6 мифов об облачных вычислениях

Одним из возможных решений является использование гибридной облачной стратегии и объединение права гранулярного доступа, предоставляемого локальной инфраструктурой, с огромной и легко масштабируемой вычислительной мощностью общедоступного облака. Другой подход заключается в использовании вариантов облачного хранилища на базе блокчейна, поскольку некоторые пилотные проекты показали снижение затрат на 90 % по сравнению с AWS.

В 2018 году эти проекты будут развиваться и развиваться, готовясь к внедрению в масштабах всей отрасли.

Высокоскоростная обработка больших данных

Компания Syncsort, поставщик решений для работы с большими данными, опубликовала обзор задач и проблем, связанных с большими данными, с которыми сталкиваются предприятия. Одним из ключевых выводов этого опроса является тот факт, что почти 70 % респондентов упомянули о последствиях ETL, что означает, что они изо всех сил пытаются обрабатывать входящие данные достаточно быстро, чтобы их озера данных были свежими и актуальными.

Аналитика в режиме реального времени и прогнозная аналитика, которые необходимы для обеспечения прочной основы для оперативной бизнес-аналитики, требуют отточенных рабочих процессов обработки данных, в то время как более 75% респондентов опроса Syncsort признали, что они должны иметь возможность для более быстрой обработки данных. Модели визуализации больших данных позволяют предоставлять результаты аналитики в понятном для восприятия виде.

2018 год, вероятно, станет годом, когда различные инструменты визуализации больших данных станут еще более готовыми к производству и смогут удовлетворить потребности корпоративного бизнеса.

AI и ML используются для высокоточного анализа данных

Основное направление развития ИИ и машинного обучения (МО) сегодня — это улучшение способов взаимодействия людей с компьютерами путем написания специальных алгоритмов. Эти алгоритмы позволяют автоматизировать рутинную работу или улучшить результаты выполнения задач, результаты которых традиционно сильно зависят от навыков человека. В 2017 году были достигнуты большие успехи в таких областях машинного обучения, как перевод текста, оптическое распознавание изображений и других проектах.

Механизм прогнозирования Amazon предназначен для улучшения обслуживания клиентов, но на данный момент его точность довольно низкая, в лучшем случае около 10%. В конце 2017 года AWS объединила усилия с Azure для разработки платформы искусственного интеллекта нового поколения Gluon API. Передавая платформу на аутсорсинг, AWS и Azure надеются побудить разработчиков ИИ любого уровня квалификации создавать более чистые и эффективные алгоритмы ИИ.

Мы уверены, что Gluon будет тепло встречен в 2018 году и станет одним из основных инструментов в наборе инструментов любого разработчика ИИ.

Заключительные мысли о передовых ИТ-тенденциях на 2018 год

2018 год определенно станет годом, когда многочисленные проекты в области облачных вычислений, больших данных, Интернета вещей и искусственного интеллекта/машинного обучения перейдут в фазу производства. Такие инструменты, как Spark, JupyteR, Gluon и другие, найдут свое место в сердцах и наборах инструментов корпоративных специалистов. Люди, ответственные за цифровую трансформацию и повышение эффективности бизнес-аналитики и аналитики больших данных в своих компаниях, должны внимательно следить за этими тенденциями и внедрять решения, как только они будут готовы.

Изначально эта история была опубликована в блоге моей компании —https://itsvit.com/blog/cutting-edge-trends-2018-cloud-big-data-ai-ml-iot/