Привет, я пытаюсь запустить конвейер для обработки очень большого файла (около 4 миллионов записей). Каждый раз, когда он достигает примерно 270 000, он терпит неудачу, а затем прекращает обработку дальнейших записей и возвращает эту ошибку.
«/FileLocation/FiLeNAME..DAT» в позиции «93167616»: com.streamsets.pipeline.lib.dirspooler.BadSpoolFileException: com.streamsets.pipeline.api.ext.io.OverrunException: Reader превысил предел чтения «131072».
Если кто-то еще сталкивался с подобной проблемой, пожалуйста, помогите. Спасибо
Я проверил строки, где он останавливает конвейер, но там нет ничего очевидного. Пробовал другой файл и все равно не работает.
«/FileLocation/FiLeNAME..DAT» в позиции «93167616»: com.streamsets.pipeline.lib.dirspooler.BadSpoolFileException: com.streamsets.pipeline.api.ext.io.OverrunException: Reader превысил предел чтения «131072».