Получи случайную криптовалюту за регистрацию!

Загруженные с помощью S3 multipart upload части файла остаются | AWS Notes

Загруженные с помощью S3 multipart upload части файла остаются в S3 такими же "кусками", как были туда загружены. Потому, если после их скорость скачивания критична, то стоит выбирать размеры multiparts, оптимальные для скачивания:

If objects are PUT using a multipart upload, it’s a good practice to GET them in the same part sizes (or at least aligned to part boundaries) for best performance.

https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance-guidelines.html#optimizing-performance-guidelines-get-range

Последующая "дефрагментация" (на какие-то более оптимальные значения, если были выбраны неоптимальные размеры частей) загруженного файла на S3 невозможна. Хотя можно отправить файл в Glacier Deep Archive и после восстановить – он будет пересобран из мелких частей.

Также не стоит забывать, что недозагруженные "запчасти" занимают место и жрут какие-никакие деньги, потому для бакетов, где активно практикуется S3 multipart upload, нужно настраивать lifecycle политики:

https://aws.amazon.com/blogs/aws/s3-lifecycle-management-update-support-for-multipart-uploads-and-delete-markers/

#S3