Как создать обработку данных потока SPARK / Flink как микросервис (REST API)

Я создаю приложение для потоковой аналитики с помощью Spark, Flink & Kafka. Каждая аналитика / функциональность будет реализована как микросервис, чтобы эту аналитику можно было использовать позже в другом проекте.

Я отлично выполняю задание Spark / Flink в приложении Simple Scala и отправляю это задание через кластер Spark и Flink соответственно. Но мне нужно запустить / запустить это задание, когда запрос REST POST startJob () вызывает мою веб-службу.

Как я могу интегрировать свои функции обработки данных Spark & ​​Flink в приложение, ориентированное на веб-службы?

До сих пор я пробовал Lagom Microservice, но обнаружил так много проблем, которые вы можете проверить

  1. Лучший подход к получению потоковых данных в микросервисе Lagom
  2. java.io.NotSerializableException с использованием Apache Flink с Lagom

Я думаю, что иду в неправильном направлении в отношении приложения микросервиса потоковой обработки. Ищем правильное направление для реализации этой аналитики через службу REST.


person Madiha Khalid    schedule 25.04.2017    source источник


Ответы (2)


У Flink есть REST API, который вы можете использовать для отправки и управления заданиями - он используется веб-интерфейсом Flink. См. здесь. См. Также этот предыдущий вопрос.

person David Anderson    schedule 13.05.2017

Я думаю, что REST API предоставляет подробную информацию о выполнении задания, Any Flink API обеспечивает предположение, если вызов конечной точки Spring Boot REST соединяет потоковые данные Kafka и возвращает данные Kafka?

person prostý člověk    schedule 09.08.2020