Я начало работы в Hadoop - и я хотел бы знать,Когда задание MapReduce запускает то, что нужно искать?
what all the factors that needs to be looked at when a Map Reduce job(say via Hive or Snapplex) is being triggered to ensure that the cluster is stable and that job does not do any major impact
к кластеру
Где бы один искать для всех этих контрольно-пропускных пунктов, и есть ли стандартные пороги для отслеживания против?
В основном проверка работоспособности системы, чтобы обеспечить работу MR мы строим чистый
Цените любые идеи