При записи записей в AWS Firehose, для которого S3 настроен в качестве получателя вывода, как долго эти данные буферизуются перед записью в S3? Или есть минимальный порог размера?
Например, я делаю следующее, чтобы добавить записи:
авс кли:
aws firehose put-record --delivery-stream-name mytestfirehoseafds --record='Data="{\"asdf\":\"testam\"}"'
результат:
{
"RecordId": "meESlTCUOBQwXaJ9NOVwKOLrEL+7y/glB0mIJ6h6Sz8lOJGUX/N+DlZttq4BQuY528j6ResbxQBR4To+V1RMbBvE4rcxP3kYwg0lmdBAEFWlNnzUb3nP214ywtRYRQ7IzCOjY9o1YPpqHNCCYkPd4Qr0StIFxIiBHHZvTcfW+qMbQkcy7Rr3R+wb+RVs9fEF2Fa8P6mD2NXJOE84sasPNYB/mrjaSMn9"
}
Я не вижу этого сразу в своей корзине S3, однако, если я использую функцию «Тестовые данные» в консоли aws, я увижу, что файлы добавляются в S3 с тестовыми данными, включая мою тестовую запись выше.
Итак, мои вопросы,
1.) Есть ли у Firehose какой-то порог буфера, которого он должен достичь, прежде чем он запишет свои буферизованные данные в свой источник вывода?
2.) Как я могу определить, какие данные/записи находятся в буфере пожарного шланга в любой момент времени?