Spring Cloud Stream опрашиваемый потребительский dlq и errorChannel не работают, если используется другой поток

Чтобы управлять длительной задачей с помощью Spring Cloud Stream 3.1.1 со связывателем Kafka, нам нужно использовать Pollable Consumer для управления потреблением вручную в отдельном потоке, чтобы Kafka не запускал ребалансировку. Для этого мы определили новую аннотацию для управления Pollable Consumer. Проблема с этим подходом заключается в том, что работой необходимо управлять в отдельном потоке, любое возникшее исключение в конечном итоге не попадет в errorChannel и DLQ.

  private final ExecutorService executor = Executors.newFixedThreadPool(1);

  private volatile boolean paused = false;

  @Around(value = "@annotation(pollableConsumer) && args(dataCapsule,..)")
  public void handleMessage(ProceedingJoinPoint joinPoint,
      PollableConsumer pollableConsumer, Object dataCapsule) {
    if (dataCapsule instanceof Message) {
      Message<?> message = (Message<?>) dataCapsule;
      AcknowledgmentCallback callback = StaticMessageHeaderAccessor
          .getAcknowledgmentCallback(message);
      callback.noAutoAck();

      if (!paused) {
        // The separate thread is not busy with a previous message, so process this message:
        Runnable runnable = () -> {
          try {
            paused = true;

            // Call method to process this Kafka message
            joinPoint.proceed();

            callback.acknowledge(Status.ACCEPT);
          } catch (Throwable e) {
            callback.acknowledge(Status.REJECT);
            throw new PollableConsumerException(e);
          } finally {
            paused = false;
          }
        };

        executor.submit(runnable);
      } else {  

        // The separate thread is busy with a previous message, so re-queue this message for later:
        callback.acknowledge(Status.REQUEUE);
      }
    }
  }

Мы можем создать другой выходной канал для публикации сообщения в случае исключения, но нам кажется, что мы пытаемся реализовать что-то, что может быть ненужным.

Обновление 1

Мы добавили эти бобы:

  @Bean
  public KafkaTemplate<String, byte[]> kafkaTemplate() {
    return new KafkaTemplate<>(producerFactory());
  }
  @Bean
  public ProducerFactory<String, byte[]> producerFactory() {
    Map<String, Object> configProps = new HashMap<>();
    configProps.put(
        org.apache.kafka.clients.producer.ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
        "http://localhost:9092");
    configProps.put(
        org.apache.kafka.clients.producer.ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
        StringSerializer.class);
    configProps.put(
        org.apache.kafka.clients.producer.ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
        KafkaAvroSerializer.class);
    return new DefaultKafkaProducerFactory<>(configProps);
  }
  @Bean
  public KafkaAdmin admin() {
    Map<String, Object> configs = new HashMap<>();
    configs.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, "http://localhost:9092");
    return new KafkaAdmin(configs);
  }
  @Bean
  public NewTopic topicErr() {
    return TopicBuilder.name("ERR").partitions(1).replicas(1).build();
  }
  @Bean
  public SeekToCurrentErrorHandler eh(KafkaOperations<String, byte[]> template) {
    return new SeekToCurrentErrorHandler(new DeadLetterPublishingRecoverer(
        template,
        (cr, e) -> new TopicPartition("ERR", 1)),
        new FixedBackOff(0L, 1L));
  }

И enable-dlq не установлен в spring.cloud.stream.kafka.bindings.channel-name.consumer, но по-прежнему мы не видим никаких сообщений, отправляемых по теме ERR. Даже для любых исключений, созданных основным потоком.

Если для enable-dlq установлено значение true, исключения в основном потоке будут публиковаться в теме dlq по умолчанию, и, как и ожидалось, исключения в дочернем потоке игнорируются.

Обновление 2

Пример Гэри в целом работает. Хотя нам нужно было внести некоторые изменения, поскольку мы используем устаревший подход StreamListner вместо функций, есть несколько проблем, которые мы не смогли решить в нашем случае.

  • Предполагается, что название темы всегда будет channel_name+.DLT, так как мы не могли понять, как можно использовать другое имя, например dlq. Мы используем одну dlq тему для всех потребителей, что, похоже, не соответствует ожиданиям DLT Spring-kafka по умолчанию.
  • Похоже, нам нужно иметь как минимум такое же количество разделов в DLT, что и в теме-потребителе. В противном случае это решение не сработает. Не уверен, как с этим можно справиться, поскольку это не кажется нам практическим предположением.
  • Есть ли способ использовать повторные попытки Spring, аналогичные тому, что Spring Cloud Stream делает за кулисами? Или это нужно реализовывать отдельно? т.е. повторная попытка работы на основе max.attempts, а затем включение части DLQ.
  • Я мог видеть, что в примере пружинный привод использовался для обновления статуса канала через this.endpoint.changeState("polled", State.PAUSED) и this.endpoint.changeState("polled", State.RESUMED). Почему нам нужно делать это вместе с паузами, повторной постановкой в ​​очередь и т. Д. Каков побочный эффект невыполнения этого действия?



Ответы (1)


Ваше наблюдение верно; обработка ошибок привязана к потоку.

Вы можете использовать DeadLetterPublishingRecoverer прямо в своем коде, чтобы упростить публикацию DLQ в помете (вместо канала вывода). Таким образом, вы получите расширенные заголовки с информацией об исключениях и т. Д.

https://docs.spring.io/spring-kafka/docs/current/reference/html/#dead-letters

ИЗМЕНИТЬ

Вот пример; Я приостанавливаю привязку, чтобы предотвратить любые новые доставки во время выполнения задания, а не запрашивать доставку, как это делаете вы.

@SpringBootApplication
@EnableScheduling
public class So67296258Application {

    public static void main(String[] args) {
        SpringApplication.run(So67296258Application.class, args);
    }

    @Bean
    TaskExecutor exec() {
        return new ThreadPoolTaskExecutor();
    }

    @Bean
    DeadLetterPublishingRecoverer recoverer(KafkaOperations<Object, Object> template) {
        return new DeadLetterPublishingRecoverer(template);
    }

    @Bean
    NewTopic topic() {
        return TopicBuilder.name("polled.DLT").partitions(1).replicas(1).build();
    }

    @Bean
    MessageSourceCustomizer<KafkaMessageSource<?, ?>> customizer() {
        return (source, dest, group) -> source.setRawMessageHeader(true);
    }

}

@Component
class Handler {

    private static final Logger LOG = LoggerFactory.getLogger(Handler.class);

    private final PollableMessageSource source;

    private final TaskExecutor exec;

    private final BindingsEndpoint endpoint;

    private final DeadLetterPublishingRecoverer recoverer;

    Handler(PollableMessageSource source, TaskExecutor exec, BindingsEndpoint endpoint,
            DeadLetterPublishingRecoverer recoverer) {

        this.source = source;
        this.exec = exec;
        this.endpoint = endpoint;
        this.recoverer = recoverer;
    }

    @Scheduled(fixedDelay = 5_000)
    public void process() {
        LOG.info("Polling");
        boolean polled = this.source.poll(msg -> {
            LOG.info("Pausing Binding");
            this.endpoint.changeState("polled", State.PAUSED);
            AcknowledgmentCallback callback = StaticMessageHeaderAccessor.getAcknowledgmentCallback(msg);
            callback.noAutoAck();
//          LOG.info(msg.toString());
            this.exec.execute(() -> {
                try {
                    runJob(msg);
                }
                catch (Exception e) {
                    this.recoverer.accept(msg.getHeaders().get(KafkaHeaders.RAW_DATA, ConsumerRecord.class), e);
                }
                finally {
                    callback.acknowledge();
                    this.endpoint.changeState("polled", State.RESUMED);
                    LOG.info("Resumed Binding");
                }
            });
        });
        LOG.info("" + polled);
    }

    private void runJob(Message<?> msg) throws InterruptedException {
        LOG.info("Running job");
        Thread.sleep(30_000);
        throw new RuntimeException("fail");
    }

}
spring.cloud.stream.pollable-source=polled
spring.cloud.stream.bindings.polled-in-0.destination=polled
spring.cloud.stream.bindings.polled-in-0.group=polled

РЕДАКТИРОВАТЬ2

Ответы на дополнительные вопросы:

1, 2: См. Документацию Spring для Apache Kafka: https://docs.spring.io/spring-kafka/docs/current/reference/html/#dead-letters.

DLPR имеет альтернативный конструктор, позволяющий указать преобразователь назначения. По умолчанию просто добавляется .DLT и используется тот же раздел. В документации javadoc указано, как можно указать целевой раздел:

    /**
     * Create an instance with the provided template and destination resolving function,
     * that receives the failed consumer record and the exception and returns a
     * {@link TopicPartition}. If the partition in the {@link TopicPartition} is less than
     * 0, no partition is set when publishing to the topic.
     * @param template the {@link KafkaOperations} to use for publishing.
     * @param destinationResolver the resolving function.
     */

Когда null, KafkaProducer выбирает раздел.

  1. Подключите RetryTemplate с соответствующими политиками повтора и отсрочки; тогда
retryTemplate.execute(context -> { ... },
    context -> {...});

Второй аргумент - это RecoveryCallback, вызываемый, когда количество повторных попыток исчерпано.

  1. Это более эффективно. С вашим решением вы продолжаете получать и запрашивать доставку, пока вы обрабатываете предыдущую задачу. Приостановив привязку, мы говорим kafka не отправлять больше записей, когда мы poll(), пока мы не возобновим работу с потребителем. Это позволяет нам поддерживать жизнь потребителя, опрашивая его, но без накладных расходов на получение и сброс смещения.
person Gary Russell    schedule 28.04.2021
comment
Я попробовал ваше предложение, но не уверен, что делаю неправильно. Я не очень хорошо знаком с Spring-kafka и не мог понять, как заставить его работать. Я обновил вопрос, указав, за чем следил до сих пор. Есть ли какие-либо соображения по поводу того, могут ли эти bean-компоненты быть определены в одном или отдельных файлах? У вас где-нибудь есть пример? - person Ali; 02.05.2021
comment
Вы не можете использовать обработчик ошибок в этом контексте, только DLPR, и напрямую из вашего кода. Приведу пример завтра (понедельник). - person Gary Russell; 02.05.2021
comment
Я добавил пример. - person Gary Russell; 03.05.2021
comment
Спасибо, что поделились примером. В целом работает. Однако у нас есть несколько вопросов, которые кажутся специфическими для нашего варианта использования и того, как мы использовали Spring Cloud Stream в производственной среде, поэтому я обновил вопрос и включил некоторые детали. - person Ali; 04.05.2021
comment
Слишком много для комментария, поэтому я отредактировал ответ. - person Gary Russell; 04.05.2021