Неужели кому-нибудь удалось запустить обычный регрессию наименьших квадратов в Vowpal Wabbit? Я пытаюсь подтвердить, что он вернет тот же ответ, что и точное решение, т. Е. При выборе a для минимизации ||y - X a||_2 + ||Ra||_2
(где R является регуляризацией). Я хочу получить аналитический ответ a = (X^T X + R^T R)^(-1) X^T y
. Выполнение этого типа регрессии занимает около 5 строк в numpy python.Обычная регрессия наименьших квадратов в Vowpal Wabbit
Документация VW предполагает, что она может это сделать (предположительно, функция «квадрата» потерь), но до сих пор мне не удалось заставить ее приблизиться к сопоставлению результатов python. Becuase квадрат является функция потерь по умолчанию, я просто позвонив:
$ vw-varinfo input.txt
где input.txt есть такие строки
1.4 | 0:3.4 1:-1.2 2:4.0 .... etc
мне нужны некоторые другие параметры в VW называют ли? Я не могу получить (относительно минимальную) документацию.
Непонятный, что вопрос здесь. Можете ли вы предоставить дополнительную информацию, объясняющую, что вы ожидаете от того, что вы получаете? – Spaceghost
Помните, что vw - это онлайн-алгоритм, который обновляет вес модели (коэффициенты OLS) лишь незначительно для каждого примера и никогда не возвращается или не работает. Если вы хотите получить производительность, похожую на пакетный алгоритм, особенно когда количество примеров не намного больше числа функций, вам, вероятно, потребуется выполнить несколько проходов на входе до сближения (например, '-c -passes 100 '). – arielf
«--loss_function classic» даст наименее квадраты ванили. «--loss_function squared» часто превзойдет его, потому что он имеет «Обновления по весу онлайн-значения» (см .: http://arxiv.org/abs/1011.1576) –