Я использую Python и Boto в сценарии, чтобы скопировать несколько файлов с моих локальных дисков, преобразовать их в файлы .tar и загрузить в AWS Glacier.
Я основывал свой сценарий на: http://www.withoutthesarcasm.com/using-amazon-glacier-for-personal-backups/#highlighter_243847
Который использует concurrent.ConcurrentUploader
Мне просто любопытно, насколько я могу быть уверен, что все данные находятся в Glacier после успешного получения идентификатора? Выполняет ли concurrentUploader какую-либо проверку хэшей, чтобы гарантировать получение всех битов?
Я хочу удалить файлы с моего локального диска, но опасаюсь, что мне следует внедрить какую-то проверку хэша... Я надеюсь, что это происходит под капотом. Я попытался и успешно восстановил пару архивов и смог их распаковать. Просто стараюсь быть очень осторожным.
Кто-нибудь знает, есть ли под капотом проверка того, что все куски передачи были успешно загружены? Если нет, есть ли у кого-нибудь пример кода на Python, как реализовать загрузку с проверкой хэша?
Большое спасибо!
Документация Boto Concurrent Uploader: http://docs.pythonboto.org/en/latest/ref/glacier.html#boto.glacier.concurrent.ConcurrentUploader
ОБНОВЛЕНИЕ: просмотр фактического кода Boto (https://github.com/boto/boto/blob/develop/boto/glacier/concurrent.py) строка 132 показывает, что хэши вычисляются автоматически, но я не понимаю, что
[None] * total_parts
означает. Означает ли это, что хэши действительно вычисляются, или это остается на усмотрение пользователя?