0
У меня 7 узлов данных следующих размеров хранения:Hadoop репликации скорость передачи данных размер блока для 1 ТБ данных
- DataNode 1: 250GB
- DataNode 2: 250GB
- DataNode 3: 250GB
- DataNode 4: 45gb
- DataNode 5: 250gb
- DataNode 6: 250GB
- DataNode 7: 250 gb
На узле данных 4 у меня есть 1 ТБ данных, смонтированных на/данных. Поэтому я начал операцию put
(hadoop fs -put /data /user/hadoop-user/
) на datanode 4. Когда хранилище исчерпано, он продолжил работу на других узлах данных с большим объемом памяти, но скорость очень медленная.
Теперь мои вопросы:
- Есть ли способ увеличить скорость размера блока
put
операции? От here говорится: «DataNode начинает получать данные небольшими порциями (4 КБ)». Это кажется слишком маленьким для данных 1 ТБ. Есть ли способ увеличить это? - Если я остановлю операцию put, чтобы увеличить скорость блокировки (если есть), возобновит ли она с того места, где она остановилась?