Spark кэширует рабочий набор данных в память, а затем выполняет вычисления со скоростью памяти. Есть ли способ контролировать, как долго рабочий набор находится в ОЗУ?Apache spark в кешировании памяти
У меня есть огромное количество данных, доступ к которым осуществляется через задание. Требуется время для загрузки задания изначально в ОЗУ, и когда придет следующее задание, он должен снова загрузить все данные в ОЗУ, которая требует много времени. Есть ли способ кэшировать данные навсегда (или определенное время) в ОЗУ с помощью Spark?
Спасибо Суджи. Я работал над этим решением. – Atom