2015-12-08 2 views
1

В documentation жестких ограничений на размер файлов не существует, но когда я пытаюсь загрузить файлы 100 МБ, он выходит из строя без ошибок на портале administration. Кто-нибудь видел это раньше? Каков наилучший способ загрузки больших файлов (100 МБ + < 2 ГБ) на движок приложения?Клиент Python для Google Cloud Storage и больших файлов

ответ

1

В документации говорится следующее:

Входящий Bandwidth: Объем данных, получаемых приложением от запросов. Каждый входящий HTTP-запрос может быть не более 32 МБ.

Это включает в себя:

Данные, полученные при применении в безопасных запросов и небезопасных запросов

добавления к Blobstore

данных, полученных в ответ на HTTP-запросов по URL услуги по извлечению

https://cloud.google.com/appengine/docs/quotas#Requests

+0

Хорошо, это имеет смысл. Поэтому я предполагаю, что лучше использовать [APIs] (https://cloud.google.com/storage/docs/overview) для больших файлов? Если я правильно понимаю это. Нет библиотеки или кода, который объединяет и предоставляет удобные методы? –

Смежные вопросы