AWS S3 обслуживает сжатые файлы, но не читается

Я использую AWS S3 для размещения статической веб-страницы, почти все ресурсы перед загрузкой заархивированы.

Во время загрузки заголовок «content-encoding» правильно установлен на «gzip» (и это также отражается при фактической загрузке файла из AWS).

Дело в том, что файлы не читаются и все еще находятся в формате gzip, хотя заданы правильные заголовки ...

Файлы загружаются с помощью npm s3-deploy, вот скриншот запроса. как:

запрос файла

и содержимое файла в браузере:

содержимое файла

Если я загружаю файл вручную и устанавливаю заголовок кодирования содержимого на «gzip», он работает отлично. К сожалению, у меня есть пара сотен файлов для загрузки на каждое развертывание, и я не могу делать это все время вручную (надеюсь, это понятно;)).

Кто-нибудь знает, что здесь происходит? Кто-нибудь работал с s3-deploy и может помочь?


person Jan Schuermann    schedule 03.08.2017    source источник


Ответы (1)


Я использую свой собственный сценарий bash для развертываний S3, вы можете попробовать это сделать:

webpath='path'
BUCKET='BUCKETNAME'

for file in $webpath/js/*.gz; do
        aws s3 cp "$file" s3://"$BUCKET/js/" --content-encoding 'gzip' --region='eu-west-1'
done
person drsromero    schedule 03.08.2017
comment
+1 Прекрасно работает с парочкой дополнений! Позвольте мне подождать пару часов, если кто-то сможет найти решение с использованием модуля npm, иначе я приму ваш ответ. Спасибо! - person Jan Schuermann; 03.08.2017