Я внедрил собственный экстрактор для файлов NetCDF и загружал переменные в массивы в памяти перед их выводом. Некоторые массивы могут быть довольно большими, поэтому мне интересно, какой предел памяти в ADLA. Есть ли максимальный объем памяти, который вы можете выделить?Ограничение памяти в Azure Data Lake Analytics
3
A
ответ
4
(Team Azure озеро данных здесь)
Каждая вершина имеет 6GB доступны. Имейте в виду, что эта память распределена между ОС, временем выполнения U-SQL и кодом пользователя, запущенным на вершине.
2
В дополнение к ответу Saveen: Обратите внимание, что строка может содержать не более 4 МБ данных, поэтому ваш SqlArray
будет ограничен максимальным размером строки, а также после его возврата из вашего экстрактора.
Смежные вопросы
- 1. E_RUNTIME_SYSTEM_ERROR на Azure Data Lake Analytics
- 2. Azure Data Lake Analytics IOutputter E_RUNTIME_USER_ROWTOOBIG
- 3. Azure Data Lake Store параллелизм
- 4. Консистенция Azure Data Lake Store
- 5. Где хранятся базы данных Azure Data Lake Analytics?
- 6. Azure Lake Data Analytics IOutputter получить имя выходного файла
- 7. Azure Data Lake: запрос в Azure Data Lake Store был несанкционирован
- 8. Powershell -recursive in Azure Data Lake Store
- 9. Как скопировать azure blob-файлы в azure data lake analyticis
- 10. Полибаза и предикат Pushdown на Azure Data Lake Analytis
- 11. U-SQL (Azure Data Lake языка) ошибка сценария
- 12. Интеграция Azure CDN с магазином Azure Data Lake
- 13. Data Lake Analytics: Пользовательский выход для записи в разные файлы?
- 14. Hadoop Vs Data Lake
- 15. Как запланировать запрос U-SQL в Azure Data Lake?
- 16. Оптимизация для максимальной степени параллелизма в Azure Data Lake
- 17. Как использовать Azure Data Lake Store в качестве набора входных данных для Azure ML?
- 18. Тайм-аут авторизации: Конфигурация магазина Azure Data Lake в Factory Azure Data
- 19. Azure Data Lake Analytics: Объединить время перекрытия с использованием U-SQL
- 20. Политика хранения данных в Data Lake
- 21. Заголовок авторизации для WebHDFS с Azure Data Lake
- 22. Источник данных источника питания BI BI Azure Data lake
- 23. PowerBI.com Dataset Refresh for Azure Data Lake с OAuth2
- 24. Azure Data Lake Внешние источники данных: размер строки слишком большой
- 25. Google BigQuery vs Azure data lake U-SQL
- 26. Где я могу просмотреть сведения об ошибках для работ U-SQL Azure Data Lake Analytics в случае отказа?
- 27. с помощью Azure озеро данных для Analytics
- 28. Любая команда Powershell или метод C# для повторной отправки неудавшейся работы в Azure Data lake
- 29. Как читать файл, присутствующий в Azure Data Lake Store, через лазурные команды командной оболочки?
- 30. Различные подходы к загрузке данных из Hadoop (по месту) в Azure Data Lake