Я провел много исследований по этому поводу, но до сих пор не могу найти что-то подходящее. Куда бы я ни пошел, я вижу, что самый простой способ - это вызвать saveToEs()
, а затем после этого зафиксировать смещения. У меня вопрос: а что, если saveToEs()
по какой-то причине выйдет из строя?
Как правильно хранить смещения в Kafka, когда мы используем задание потоковой передачи Spark и храним наши документы в ES. Я пробовал использовать BulkProcessorListener
и сохранял смещения вручную (отслеживая отсортированные смещения, запросы и тому подобное), но это вышло из-под контроля, и подход казался сложным для такой общей задачи.
Может ли кто-нибудь направить меня?
Всем, кто интересуется моим подходом, вот вопрос, который его объясняет Зафиксировать смещения для Kafka на Spark Executors