Я прочитал несколько тем о проблемах с памятью в R, и я не могу найти решение моей проблемы.R stats - проблемы с памятью при распределении большой матрицы/Linux
Я запускаю своего рода регрессию LASSO на нескольких подмножествах большого набора данных. Для некоторых подмножеств он работает хорошо, а для некоторых более крупных подмножеств он не работает, причем ошибки типа «не могут выделять вектор размером 1,6 ГБ». Ошибка возникает в этой строке кода:
example <- cv.glmnet(x=bigmatrix, y=price, nfolds=3)
Это также зависит от числа переменных, которые были включены в «bigmatrix».
Я попытался использовать R и R64 для Mac и R для ПК, но недавно перешел на более быструю виртуальную машину в Linux, думая, что я избегу любых проблем с памятью. Это было лучше, но все же имело некоторые ограничения, хотя memory.limit указывает «Inf».
В любом случае, чтобы выполнить эту работу или мне нужно вырезать несколько переменных в матрице или взять меньший поднабор данных?
Я читал, что R ищет некоторые смежные биты памяти, и возможно, я должен предварительно выделить матрицу? Есть идеи ?
С плоским 64-разрядным адресным пространством, находя временное адресное пространство будет без проблем. –