У меня есть data.frame (link to file) с 18 колоннами и 11520 строк, которые я трансформируют так:как ускорить этот код R
library(plyr)
df.median<-ddply(data, .(groupname,starttime,fPhase,fCycle),
numcolwise(median), na.rm=TRUE)
согласно system.time(), он принимает об этом долгое время:
user system elapsed
5.16 0.00 5.17
Этот вызов является частью webapp, поэтому время работы довольно важно. Есть ли способ ускорить этот вызов?
Можете ли вы кешировать результаты? – Shane
'ddply()' в первую очередь * удобный *. Если вам нужно что-то быстро, вам может потребоваться повторить логику. –
@Shane: В настоящее время доступны 3 * 400 возможных наборов данных (и ежедневно), которые пользователь может запросить. Вряд ли один пользователь попадет в тот же набор данных, что и другой. Таким образом, кэширование будет полезно только в сеансе. Поскольку вывод webapp - это, по сути, консервированный отчет, я не думаю, что пользователь обычно запрашивал его более одного раза. Не могли бы вы реализовать кэширование ситуации, описанной мной? Я никогда не делал этого раньше, так что я немного потерял. – dnagirl