Как синхронизировать индикатор выполнения загрузки с загрузкой в ​​корзину s3 с помощью Django Rest Framework

Я работаю над REST API (используя Django Rest Framework). Я пытаюсь загрузить видео, отправив почтовый запрос на конечную точку, которую я сделал.

Проблема

Видео загружается в корзину s3, но прогресс загрузки показывает 100% в течение нескольких секунд, независимо от того, какой большой файл я загружаю.

Почему это происходит и как я могу это решить?

PS. Раньше я выполнял загрузку в локальное хранилище, и процесс загрузки работал нормально. Я использую Реакт.


person Harshit Gangwar    schedule 23.10.2020    source источник
comment
Где ваш прогресс загрузки показывает 100%? Это на стороне реакции? Что вы используете, чтобы загрузить туда?   -  person monkut    schedule 24.10.2020
comment
Я использую Axios для отправки запроса и расчета прогресса. Да, прогресс, который я вижу, находится на стороне реакции. Терминал, через который работает сервер Django, отвечает на почтовый запрос сразу после загрузки файла. Прогресс на стороне реакции заканчивается миганием.   -  person Harshit Gangwar    schedule 24.10.2020


Ответы (1)


Прежде всего убедитесь, что вы установили эти библиотеки: boto3==1.14.53, botocore==1.17.53, s3transfer==0.3.3, django-storages==1.10

настройки.py:

INSTALLED_APPS = [
 
    'storages',
]


AWS_ACCESS_KEY_ID = 'your-key-id'
AWS_SECRET_ACCESS_KEY = 'your-secret-key'
AWS_STORAGE_BUCKET_NAME = 'your-bucket-name'
AWS_S3_CUSTOM_DOMAIN = '%s.s3.amazonaws.com' % AWS_STORAGE_BUCKET_NAME

AWS_S3_OBJECT_PARAMETERS = {
    'CacheControl': 'max-age=86400',
}
DEFAULT_FILE_STORAGE = 'your_project-name.storage_backends.MediaStorage'

MEDIA_URL = "https://%s/" % AWS_S3_CUSTOM_DOMAIN

#File upload setting
BASE_URL = 'http://example.com'
FILE_UPLOAD_PERMISSIONS = 0o640
DATA_UPLOAD_MAX_MEMORY_SIZE = 500024288000

затем создайте файл storage_backends python в папке вашего проекта, где находится файл settings.py.

storage_backends.py:

import os
from tempfile import SpooledTemporaryFile

from storages.backends.s3boto3 import S3Boto3Storage


class MediaStorage(S3Boto3Storage):
    bucket_name = 'your-bucket-name'
    file_overwrite = False

    def _save(self, name, content):
        """
        We create a clone of the content file as when this is passed to
        boto3 it wrongly closes the file upon upload where as the storage
        backend expects it to still be open
        """
        # Seek our content back to the start
        content.seek(0, os.SEEK_SET)

        # Create a temporary file that will write to disk after a specified
        # size. This file will be automatically deleted when closed by
        # boto3 or after exiting the `with` statement if the boto3 is fixed
        with SpooledTemporaryFile() as content_autoclose:
            # Write our original content into our copy that will be closed by boto3
            content_autoclose.write(content.read())

            # Upload the object which will auto close the
            # content_autoclose instance
            return super(MediaStorage, self)._save(name, content_autoclose)


person satyajit    schedule 24.10.2020
comment
Я сделал именно то, что ты сказал @xxnora. Файл загружается, но прогресс в завершении просто мигает. Я поместил в файл несколько операторов печати. storage.backend также работает. В чем может быть причина, до сих пор не установлено. - person Harshit Gangwar; 24.10.2020