Автор: Д-р Ташкин Дениз, специалист по анализу данных в Record Evolution GmbH

Резюме

В статье рассматривается интеллектуальная обработка данных Интернета вещей (IoT) в контексте профилактического обслуживания и связывается с последними разработками в области полууправляемого обучения. Хотя статья написана с оглядкой на аудиторию, не являющуюся экспертом, статья ссылается на недавние научные публикации. Мы предоставляем любознательному и технически ориентированному читателю возможность расширить свои знания по изложенным нами идеям (см. Ссылки). Мы стремимся быть информативными и открытыми для стимулирования дискуссий по IoT и аналитике данных.

Мы освещаем тему алгоритмов обучения и профилактического обслуживания Интернета вещей в серии из трех статей. В ЧАСТИ I мы подробно представляем простой пример и обсуждаем некоторые алгоритмы обучения, связанные с ним. В ЧАСТИ I I мы сосредотачиваемся на анализе данных IoT и разработке приложений для IoT для профилактического обслуживания. В ЧАСТИ III (текущая статья) мы рассматриваем недавнюю литературу по полу-контролируемому обучению и сравниваем основы различных методов. Мы представляем реальные случаи, в которых обучение за несколько шагов может стать эффективным методом для интеллектуальной аналитики Интернета вещей и потоковой передачи данных. В конце этой статьи вы найдете глоссарий терминов и предложения для дальнейшего чтения.

1. Редкие события и аномалии

Прежде чем углубляться в методы работы с редкими событиями и аномалиями, давайте определим их. Редкое событие - это событие во времени с предельной статистикой, то есть событие, которое происходит слишком мало раз по отношению к норме (норма - это средняя временная шкала фона). Хороший пример - землетрясение. Аномалия - это редкое событие, которое имеет характеристики, отличные от событий в распределении нормы, что означает, что аномалия порождается процессом, отличным от процессов, относимых к норме. Аномалия часто рассматривается как аналог выброса, определяемого Хокинсом следующим образом : Исключение - это наблюдение, которое настолько отличается от других наблюдений, что вызывает подозрения, что оно был порожден другим механизмом . Другими словами, выброс - это точка данных, которая имеет множество различных свойств по сравнению с естественным состоянием набора данных.

Редкие события часто относятся к катастрофам или поломкам. Так что стоимость редкого мероприятия часто бывает огромной. С другой стороны, очень сложно предсказать редкое событие. Простые методы не работают в случаях крайнего дисбаланса и… .. обучающие данные часто будут иметь несбалансированные данные (количество нормальных данных будет намного больше, чем количество аномальных данных). Нам нужно найти способ справиться с несбалансированными данными. Одним из простых решений является выборка (выборка количества аномальных данных и выборка количества нормальных данных). Еще одно решение, которое следует принять во внимание, - это применение веса к этикеткам.

В Части I мы представили гипотетическое иерархическое решение проблемы обнаружения аномалий, в этом случае также возникают проблемы с дисбалансом.

2. Обнаружение аномалий: сеть Интернета вещей и безопасность

Обнаружение аномалий - обширная тема. Следующая таблица демонстрирует множество моделей:

Здесь мы рассматриваем случай, когда у нас есть большие объемы обучающих данных, в которых скрыты редкие аномалии. Мы пытаемся подойти к новому делу с обучением с учителем. Позже мы также включим обновление набора меток на лету с использованием полу-контролируемых методов.

Мы затронули тему аномалий и рассмотрели конкретный пример в Части I этой серии статей. Аномалии могут быть обнаружены вручную с помощью простого статистического критерия (поскольку они могут быть концептуализированы как выбросы). С другой стороны, цель состоит в том, чтобы автоматизировать процесс обнаружения с использованием развивающегося машинного интеллекта и структуры обучения определенных аномалий.

Во Части II этой серии статей мы говорили о сетевой безопасности. Здесь мы представили протоколы и механизмы безопасности. Здесь мы хотим перейти к обсуждению интеллектуальной безопасности в промышленном контексте. Полный список алгоритмов обнаружения аномалий представлен в следующей таблице [12]:

Мы хотим указать, что в упомянутой публикации [12] авторы представили полный обзор результатов обнаружения классических аномалий. Здесь мы рассматриваем только алгоритмы, связанные с сетевой безопасностью. Ниже мы представляем детали из Таблицы 1:

  • Прогнозирование отсутствия данных. В реальных примерах качество данных является проблемой. Отсутствие данных является частью автоматизированного процесса, поскольку не всегда можно гарантировать качество данных на лету.
  • Распределенный / централизованный: результат предсказателя может быть распределенным или централизованным.
  • Сложность. Это говорит о том, насколько сложна проблема с точки зрения вычислений или насколько важна с точки зрения вычислительных ресурсов.
  • Механизм: обнаружение выбросов; также могут быть адаптивными или распределенными.

Ниже мы набросаем некоторые классические методы обнаружения аномалий и их свойства:

  1. Распределенное обнаружение выбросов с использованием байесовских сетей доверия:… Решение о том, является ли наблюдение выбросом, зависит от поведения показаний соседей, а также показаний самого датчика. Это можно сделать, зафиксировав пространственно-временные корреляции, существующие между наблюдениями сенсорных узлов. Используя наивные байесовские сети для классификации, мы можем оценить, принадлежит ли наблюдение классу или нет. Если наблюдение выходит за пределы диапазона класса, оно может быть обнаружено как выброс. https://minerva-access.unimelb.edu.au/bitstream/handle/11343/34872/67630_00004013_01_issnip07.pdf?sequence=1&isAllowed=y
  2. Обнаружение выбросов с использованием k-NN:с использованием алгоритма независимых чисел (ODIN), который использует граф k-ближайших соседей. Чтобы решить проблему неконтролируемого обнаружения выбросов в беспроводных сенсорных сетях, мы разрабатываем алгоритм, который (1) является гибким по отношению к определению выброса, (2) работает в сети с коммуникационной нагрузкой, пропорциональной результату, (3) выявляет свои результат для всех датчиков. http://cs.joensuu.fi/~villeh/icpr2004.pdf http://www.cs.technion.ac.il/~ranw/papers/wolff06icdcs.pdf
  3. Обнаружение атак с селективной пересылкой с помощью SVM:В атаках с селективной пересылкой вредоносные узлы ведут себя как обычные узлы и выборочно отбрасывают пакеты. Авторы предлагают централизованную схему обнаружения вторжений, основанную на машинах опорных векторов (SVM) и скользящих окнах. https://minerva-access.unimelb.edu.au/bitstream/handle/11343/34872/67630_00004013_01_issnip07.pdf?sequence=1&isAllowed=y
  4. Распределенное обнаружение выбросов с помощью SVM:использует распределенные одноклассовые опорные векторные машины четвертьсферы для выявления аномальных измерений в данных. https://ieeexplore.ieee.org/document/4289308
  5. Обнаружение выбросов в режиме онлайн:метод обнаружения выбросов в режиме онлайн с низкой вычислительной сложностью и использованием памяти, основанный на неконтролируемой центрированной машине вектора поддержки четверти сферы для приложений мониторинга окружающей среды в беспроводных сенсорных сетях в реальном времени. Предлагаемый подход является полностью локальным и, таким образом, экономит накладные расходы на связь и хорошо масштабируется с увеличением числа развернутых узлов. https://ieeexplore.ieee.org/document/4761978
  6. Система обнаружения вторжений. Система обнаружения вторжений - это устройство или программное обеспечение, которое отслеживает сеть или систему на предмет злонамеренных действий или нарушений политики. Чтобы улучшить общую производительность системы обнаружения вторжений в сеть (IDS), в статье анализируются характеристики данных, используемых в IDS, чтобы представить подход, с помощью которого можно распознать злоумышленников. Подход основан на иммунном алгоритме (IA) и машине опорных векторов (SVM). Https://link.springer.com/chapter/10.1007/978-3-642-19853-3_54
  7. Обнаружение линейных выбросов учитывает корреляцию между атрибутами данных датчиков и предлагает два распределенных онлайн-метода обнаружения выбросов, основанные на гиперэллипсоидальной одноклассовой машине векторов поддержки (SVM).
  8. Анализ атак с помощью SOM: Предлагаемая система обнаружения отслеживает сетевой трафик на каждом узле и анализирует собранные данные с помощью самоорганизующихся карт для извлечения статистических закономерностей из векторов входных данных и кодирования их в весовые коэффициенты без надзор. Мы оцениваем наш подход к обнаружению сетевых атак на протоколы AODV и DSR с использованием OPNET. https://ieeexplore.ieee.org/document/4215510

Как упоминалось выше, одним из важных аспектов аномалий является то, что они редки по сравнению с обычным поведением. Таким образом, нам необходимо разработать стратегии для преодоления дисбаланса данных в выборках. В этом смысле однократное обучение - это мощный полууправляемый метод обучения, который можно адаптировать к аналитике Интернета вещей. Основная идея заключается в том, что у нас есть центральная сетевая модель, которая копирует себя на указанные устройства и определяет новую категорию. Центральная модель будет обновлена ​​единичными примерами, обнаруженными пограничным устройством, и будет повторно использована во вновь установленных устройствах IoT. Итак, у нас есть четыре шага:

  1. Центральная модель в облаке или центральный ресурс тумана: длительная история обучения, среднесрочная временная шкала точной настройки.
  2. Копия центральной модели запускается на локальном устройстве: копия центральной модели будет отправлена ​​на граничные устройства.
  3. Граничные или туманные вычисления будут выполнены, и устройство отправит оцененную новую информацию в центральную модель после оценки.
  4. Вся новая информация будет интегрирована в модель посредством обучения за несколько шагов.

Этот рабочий процесс можно оптимизировать, увеличив количество обучающих примеров (то есть с заданным опытом) для доступных ресурсов в данный момент. В целом, для эффективной работы таких интеллектуальных настроек IoT важно наследование или передача знаний. Непрерывно сообщаемые нефильтрованные данные не только потребляют ресурсы хранилища и избыточную энергию, но также создают шум в модели, где данные нужны для обучения новой модели. Основная идея заключается в том, что большие данные, собранные случайным образом, не обязательно приводят к знаниям. Таким образом, нам нужна умная локальная аналитика Интернета вещей. В частности, это может быть достигнуто путем обучения за несколько шагов, потому что решение сообщить или действовать иногда должно включать очень мало примеров.

3. Индуктивное обучение без учителя.

Здесь мы предлагаем набор моделей, реализующих полу-контролируемое обучение. Проблема нескольких выстрелов изучалась с нескольких точек зрения, включая сопоставление по сходству [17], оптимизацию [3], метрическое обучение [ 14, 16, 18] и иерархические графические модели [15].

A s urvey by Tassilo Klein классифицирует полу-контролируемые алгоритмы глубокого обучения. Ниже мы представляем эту классификацию и соответствующие ссылки:

A. Подход на уровне данных:

  • Использование внешних ресурсов: сбор дополнительных данных с внешних ресурсов и их оценка. [10]
  • Создание новых данных: расширение данных или генеративные сети. [1]

Б. Подход на уровне параметров

  • Избегайте переобучения, пространство параметров ограничено: сокращение сети с помощью мер корреляции выходной активности и т. д. [2]
  • Руководство по алгоритму оптимизации: в общем, несколько примеров метаобучения [3, 5, 7, 11].

В. Сочетание того и другого:

  • Используется для устранения дисбаланса между пространством параметров и размером набора данных. [4]

3.1. Отношения обучения: примечание о метрическом обучении

Потребность в подобии данных как способе оценки присуща машинному обучению. Однако это больше невозможно в сложных случаях, когда используются вручную созданные метрики. Вот почему можно обучить метрику с заданными параметрами для представления этой близости. Такая метрика имеет решающее значение для реализации алгоритмов кластеризации, таких как k-ближайшие соседи или k-means [18]. Метрики общего назначения, такие как евклидовы метрики, могут применяться к структурным числовым данным. Тем не менее, хорошая метрика, отражающая особенности данного набора данных, важна, поскольку общие метрики обычно не справляются с этой задачей.

Помимо приведенных выше примеров, существуют независимые от нейронных сетей методы, такие как обучение метрики или ядра с использованием прототипных сетей [6], обучение метрики [16] .

3.2. Создание образцов с помощью GAN

С помощью GAN вы можете создавать дополнительные выборки из существующих данных, которые похожи на данные выборки, но не совпадают. Используя этот метод, вы можете генерировать больше данных об аномалиях, начиная с небольшого набора аномалий.



Https://arxiv.org/abs/1810.01392

3.3. Заметка о метаобучении

Почему нам нужно мета-обучение, также известное как обучение? Кажется, есть две основные причины, по которым градиентная оптимизация терпит неудачу перед несколькими помеченными примерами:

  • Во-первых, варианты алгоритмов оптимизации на основе градиента не были разработаны специально для хорошей работы в условиях выбранного количества обновлений. В частности, применительно к задачам невыпуклой оптимизации с разумным выбором гиперпараметров эти алгоритмы не имеют надежных гарантий скорости сходимости - помимо этого, они в конечном итоге сойдутся к хорошему решению после того, что может быть миллионами итераций. [9]
  • Во-вторых, для каждого отдельного рассматриваемого набора данных сеть должна будет начинаться со случайной инициализации ее параметров, что значительно ухудшает способность сети сходиться к хорошему решению после нескольких обновлений. [9]

Мета-обучение предлагает сформулировать проблему обучения на двух уровнях. Первый - это быстрое получение знаний по каждой отдельной поставленной задаче. Этот процесс управляется вторым механизмом, который включает более медленное извлечение информации, полученной во всех задачах. [9]

Мета-обучение представлено в виде простых диаграмм в [19]. Читатель может обратиться к соответствующим публикациям, чтобы изучить технические аспекты двух механизмов оптимизации в метаобучении, применяемых к нейронным сетям.

Прежде всего, обычная оптимизация с градиентным спуском и вариантами просто сводит к минимуму расстояние между предсказанными и истинными метками при соблюдении схемы регуляризации (для уменьшения количества параметров). Параметры градиентного спуска, то есть скорость обучения, задаются и фиксируются для всего процесса.

Обучение. Минимизируйте расстояние между предсказаниями и истиной, используя показатель функции потерь.

Идея метаобучения заключается в оптимизации параметров обучения, а также параметров сети с помощью второго процесса. Например, скорость обучения оптимизатора потерь может быть адаптирована таким образом, чтобы его обучение замедлялось после рассматриваемой части сети. Это может быть достигнуто с помощью дополнительных динамических переменных (подробнее см. [19] и ссылки в нем).

Мета-обучение: обучение гиперпараметрам или оптимизатору. Оптимизируйте оптимизатор!

Дополнительные процессы, которым необходимо следовать:

  • Производные второго порядка. Обратное распространение мета-потерь через градиенты модели включает вычисление производных от производной, то есть вторых производных. Обычно этого избегают, чтобы уменьшить сложность.
  • Совместное использование координат: чтобы оптимизировать миллионы параметров, нам нужно уменьшить размерность, например, с помощью совместного использования координат [7]. Это означает, что мы проектируем оптимизатор для одного параметра модели и дублируем его для всех параметров (т. е. разделяем его веса во входном измерении, связанном с параметрами модели).

3.4. Примечание о полу-контролируемом обучении с помощью SVM

Несмотря на всю шумиху о глубоком обучении с его эпохами обучения, требующими обработки данных, и при этом не интуитивно понятными неявными механизмами, можно просто спросить, есть ли более простой способ выполнять полу-контролируемое обучение. Ответ и да и нет! На концептуальном уровне SVM - действительно мощные инструменты для реализации частично контролируемого обучения. Однако на практике они могут привести к NP-трудным проблемам.

Хотя глубокие нейронные сети показали выдающиеся результаты в широком спектре приложений, изучение очень ограниченного числа примеров по-прежнему является сложной задачей. Несмотря на трудности обучения по принципу «несколько выстрелов, методы обучения метрикам показали потенциал нейронных сетей для решения этой задачи. Хотя эти методы работают хорошо, они не дают удовлетворительных результатов. В этой работе идея обучения метрикам расширена рабочим механизмом Support Vector Machines (SVM), который хорошо известен своими возможностями обобщения для небольшого набора данных ». [27]

3.5. Примеры недавних методов:

В этом разделе мы рассмотрим несколько методов, которые были внедрены за последние годы:

  1. Из статьи:


2. Методы из недавних статей:



3. Примеры вне распределения: «Несколько предыдущих работ были направлены на решение этих проблем, предоставляя классификаторам глубоких нейронных сетей средства присвоения оценок аномалий входным данным. Эти оценки затем можно использовать для выявления примеров, не связанных с распространением (OOD) (Hendrycks & Gimpel, 2017; Lee et al., 2018; Liu et al., 2018) »

4. Выявление выбросов: «Мы предлагаем использовать для этой цели разнообразные реалистичные наборы данных с помощью метода, который мы называем выявлением выбросов (OE). OE обеспечивает простой и эффективный способ последовательно существующих методов обнаружения OOD… Использование дополнительных наборов данных. При выявлении выбросов используется вспомогательный набор данных, полностью не связанный с данными во время тестирования, чтобы научить сеть лучшим представлениям для обнаружения аномалий ».

5. https://arxiv.org/abs/1805.09411

4. Онлайн-обучение

… .. Обсудив механизм одного цикла обучения и развертывания, мы должны начать думать о создании гибкой системы для реализации таких циклов в континууме в долгосрочной перспективе.

Алгоритмы пакетного или автономного обучения используют пакеты обучающих данных для обучения модели. Пакетное обучение - это подход, при котором все данные вводятся одновременно для построения модели. Алгоритмы онлайн-обучения берут модель начального предположения, а затем собирают наблюдения от обучающейся совокупности для повторной калибровки весов для каждого входного параметра. Ниже приведены несколько компромиссов при использовании двух алгоритмов:

  • С точки зрения вычислений гораздо быстрее и компактнее
  • Обычно проще реализовать
  • Сложнее поддерживать в производственной среде
  • Сложнее оценить в Интернете
  • Обычно сложнее понять "правильно"

В случаях, когда мы имеем дело с огромными данными, нам не остается ничего другого, кроме как использовать алгоритмы онлайн-обучения. Единственный другой вариант - выполнить пакетное обучение на меньшей выборке.

Вывод. Платформа рекордного развития для Интернета вещей и искусственного интеллекта

В этой серии статей мы обрисовали некоторые проблемы, возникающие при работе с интеллектуальной средой Интернета вещей. Наша цель - сделать устройства IoT совместимыми и продолжать улучшать их псевдо-восприятие мира. Однако для этого нам нужна инфраструктура для управления устройствами и данными.

Во-первых, нам нужно создать среду роя для устройств Интернета вещей с гибкими механизмами настройки, сбора данных и метаданных. Платформа Record Evolution предоставляет интерфейс, с помощью которого можно управлять устройствами Интернета вещей и развертывать на них приложения. Другой важный компонент - это инфраструктура данных, необходимая для создания каналов поступления и передачи данных в обучающий механизм. Platform’s data science studio - это прозрачная и удобная облачная платформа для обработки данных, обрабатывающая сбор, преобразование и визуализацию данных. Следующим шагом будет использование облачных ресурсов и гибких полууправляемых алгоритмов для передачи собранных данных в интеллект. Вдобавок к этому нам необходимо повторно развернуть и обновить в соответствии с потребностями локальной среды IoT. С этой задачей справится студия разработки IoT платформы.

В нашем анализе полууправляемое обнаружение аномалий является возможным благодаря структурным свойствам реальных наборов данных IoT (дисбаланс между известными и неизвестными). Обучение без учителя - всегда решение, когда размеченные данные недоступны. Однако следует также использовать трансферное обучение [12, 13, 20] как здоровое состояние, поскольку оно довольно стереотипно и моделируется обилием данных, а это означает, что у нас будет множество помеченных состояний. Это может просто помочь обнаружить менее распространенные состояния и охарактеризовать их. Позже такие новые состояния могут быть изучены, и, следовательно, границы известной аномальной вселенной могут быть расширены. Мы считаем, что обучение по принципу несколько выстрелов - это метод, позволяющий уловить специфику решаемой проблемы.

Заключение серии

В этой серии статей, состоящей из трех частей, мы рассмотрели тему сквозной службы и инфраструктуры Интернета вещей. Наше основное внимание было сосредоточено на том, как реализовать интеллектуальный Интернет вещей в мире динамических разнородных данных. В целом, эти 45 минут чтения предназначены как для неспециалистов, так и для технически ориентированных читателей.

I. Интернет вещей имеет решающее значение для профилактического обслуживания. Для этого нам нужно обратиться к периферийным вычислениям и интеллектуальным алгоритмам.

II. IoT требует инфраструктуры управления данными и устройствами. Циклы развертывания и обновления являются частью процесса наследования интеллекта.

III. Индуктивное полууправляемое обучение - хороший кандидат на интеллектуальный алгоритм Интернета вещей. Хотя существуют различные варианты выбора точного алгоритма обучения, в основном мы представили глубокие нейронные сети и машины опорных векторов.

использованная литература

1. Статья: Генеративные состязательные остаточные парные сети для однократного обучения

2. Статья: Эффективное обучение методом K-shot с регулярными глубокими сетями

3. Статья: Оптимизация как модель быстрого обучения

4. Статья: Низкое визуальное распознавание по уменьшающимся изображениям и галлюцинациям

5. Статья: Не зависящее от модели мета-обучение для быстрой адаптации глубоких сетей

6. Статья: Прототипные сети для быстрого обучения

7. Статья: Meta-SGD: Быстрое обучение для кратковременного обучения

8. Статья: Глубокое обучение для больших данных Интернета вещей и потоковой аналитики: обзор

9. Статья: Мета-изучение динамической языковой модели

10. Статья: Простое обучение с широким распространением

11. Статья: Мета-обучение для полуавтоматической классификации по нескольким выстрелам

12. Статья: Машинное обучение в беспроводных сенсорных сетях: алгоритмы, стратегии и приложения

13. Статья: Машинное обучение для анализа данных Интернета вещей: обзор

14. Статья: Соответствующие сети для быстрого обучения

15. Статья: Одноразовое обучение с помощью иерархической непараметрической байесовской модели

16. Статья: Метрическое обучение с адаптивной дискриминацией по плотности

17. Статья: Сиамские нейронные сети для мгновенного распознавания изображений

18. Статья: Обзор изучения показателей для векторов признаков и структурированных данных

19 . Блог Томаса Вольфа: Мета-обучение

20. Блог Тассило Кляйна: глубокое обучение по нескольку раз

21. Блог Абхинава Хушраджа: профилактическое обслуживание на основе Интернета вещей

22. Блог: ценность Интернета вещей

23. Книга Бишопа: Распознавание образов и машинное обучение

24. Статья: Сравнительная оценка неконтролируемых алгоритмов обнаружения аномалий для многомерных данных

25. Статья: Имитационные сети: небольшое изучение нейронных сетей с нуля

26. Статья: Как запоминать редкие события

27. Статья: Сделайте SVM снова великим с помощью сиамского ядра для быстрого обучения (авторы не разглашаются)

28. Презентация: WAMP (протокол обмена сообщениями веб-приложений )

29. Wiki: аномалии в статистике. Определение, данное Википедией

30. Статья: Интернет вещей: новые проблемы взаимодействия, управления и безопасности

31. Книга: Основы частотно-временного анализа

32. Wiki: Введение в ПИД-регуляторы

33. Интернет: https://mqtt.org/faq

34. Интернет: http://customerthink.com/top-5-surprising-facts-everyone-should-read-about-iot/

35. Блог: https://blog.timescale.com/why-sql-beating-nosql-what-this-means-for-future-of-data-time-series-database-348b777b847a?gi = 85a48c950887

36. Блог: платформа Record Evolution

Эта статья является частью серии из трех статей. См. Часть I и Часть II здесь:

Обучение и профилактическое обслуживание Интернета вещей - I

Обучение и профилактическое обслуживание Интернета вещей-II

Приложение А. Глоссарий терминов

Этот глоссарий охватывает только концепции, представленные в нашей аргументации. Это не исчерпывающий отчет о машинном обучении в среде Интернета вещей. Вы можете обратиться к обзорам [13], [12] и [8] для полной картины.

Обучение:

  • Контролируемое обучение означает, что модель просто изучает ранее определенные ярлыки, чтобы предсказывать ярлыки, глядя на примеры.
  • Обучение без учителя заключается в том, что ярлыков нет, и нам нужно создать некоторые ярлыки с помощью кластеризации и т. д.
  • Полу-контролируемое обучение - это выбор новых кластеров с помощью существующих помеченных классов.
  • Мета-обучение в некотором смысле учится учиться. Гиперпараметры, такие как скорость обучения, управляются / опираются отдельно от таких параметров, как сетевые соединения.
  • Быстрое обучение: в задаче классификации набор данных может отображать некоторые классы как относительно недопредставленные. Изучение таких классов или объединение нескольких примеров в кластеры - это несложное обучение.
  • Обучение с нулевым выстрелом: обучение с нулевым выстрелом подразумевает абстрактную концепцию исключения до создания примера нового класса.

Вычисление

  • Облачные вычисления: это вычисления в облаке или практика использования сети удаленных серверов, размещенных в Интернете, для хранения, управления и обработки данных, а не локального сервера или персонального компьютера.
  • Туманные вычисления переносят интеллект на уровень локальной сети сетевой архитектуры, обрабатывая данные в туманном узле или шлюзе IoT.
  • Граничные вычисления передают интеллектуальные возможности, вычислительную мощность и коммуникационные возможности граничного шлюза или устройства непосредственно в такие устройства, как программируемые контроллеры автоматизации (PAC).

Алгоритмы

  • Глубокие нейронные сети: они основаны на искусственных нейронных сетях, но составляют множество уровней с прямой связью. Итак, здесь у нас есть глубокие «скрытые» слои, обученные путем обратного распространения ошибки.
  • LSTM: это сети длинных и краткосрочных циклов памяти, обеспечиваемые переменными синаптической активации. Короткая и длинная позиции - относительные термины; это разделение указывает на разные временные масштабы.
  • SVM: машина опорных векторов (SVM) - это гемометрический метод, который предоставляет поверхности оптимальную функцию Лагранжа для классификации или подбора кривых.
  • One Class SVM: это специальный метод SVM для обнаружения аномалий или выбросов. Он просто создает расстояние между источником и набором данных, чтобы классифицировать новые точки данных как выбросы, если они находятся относительно далеко от основной массы данных.
  • PCA: Анализ главных компонентов (PCA) выполняется с использованием разложения по сингулярным значениям корреляционной матрицы и, таким образом, применения спектрального отсечения для уменьшения всего пространства до главных измерений.

Данные

  • Большие данные: модное слово в науке о данных, которое описывает объем данных, требующий больше, чем обычные повседневные ресурсы памяти и хранилища, такие как ноутбуки и жесткие диски.
  • Потоковая передача данных: публикация данных, измеренных устройствами, на сервере.
  • База данных: структурированный набор данных, хранящихся на сервере или компьютере, который доступен различными способами.

Сеть

  • IoT: Интернет вещей (IoT) - это соединение через Интернет вычислительных устройств, встроенных в общие объекты, для отправки, получения и обработки данных.
  • Сети беспроводных датчиков «представляют собой совокупность пылинок».
  • Частицы - «отдельные компьютеры, которые вместе образуют сети».
  • Сетевые протоколы связи IP и т. д. «Протокол определяет синтаксис правил, семантику и синхронизацию связи, а также возможные методы устранения ошибок».

Приложения

  • Профилактическое обслуживание: моделирование технического обслуживания на основе данных.
  • Обнаружение мошенничества: обнаружение мошенничества в торговле, банковских транзакциях или истории кредитных карт.
  • Бизнес-аналитика: анализ данных для бизнес-моделирования.
  • Smart: тег Smart часто используется для обозначения реализации искусственного интеллекта.