Просто глупое сомнение, почему оно называется «линейным». Это из-за степени полиномиальной функции, используемой в регрессии, или потому, что у нас есть 1 результат для прогнозирования или какая-то другая причина. Я новичок в ML. Поиск Google не нашел ответа.Почему линейная регрессия называется «линейной»?
ответ
Линейная регрессия называется линейной, потому что модель вашей выходной переменной (назовем ее f(x)
) в виде линейной комбинации входов и весов (назовём их x
и w
соответственно). А именно
f(x) = < w, x > + b = SUM w_i x_i + b
С строгой математической точки зрения эти модели должны называться аффинные модели, из-за существования смещения (b
срока, который не должен иметь место в линейном преобразовании), но в силу исторических причин, почему мы используем имя linear вместо.
Вы можете рассмотреть линейную регрессию на вершине нелинейного преобразования данных, но это только семантическое трюк, так же эффективно, это то линейная регрессия трансформируются данных, а не сам по себе (данные с точки зрения данных установленная регрессия не является линейной). С математической точки зрения важно, чтобы линейность сохранялась по. к тому, что вы оптимизируете, поэтому с точки зрения w
. Так что, если вы считаете
f(x) = <w, g(x)> + b
Вы все еще можете назвать его линейной регрессии (как линейный WRT. К w
), но это уже не линейная регрессия применяется к x
, но применительно к g(x)
.
Ссылаясь на this Ответ Я думаю, что это касается параметров theta. Даже если ссылка вики на Linear Regression начинается со следующим утверждением:
Учитывая набор данных из п статистических единиц, линейная регрессия модель предполагает, что связь между зависимой переменной уг и п-вектором регрессор х является линейным.
Однако после того, как пару строк они упоминают:
Иногда один из регрессоров может быть нелинейной функцией другого регрессора или данных, как в полиномиальной регрессии и сегментированным регрессии. Модель остается линейной, если она линейна по вектору параметра β.
Так что, я думаю, линейность не в терминах x, а в параметрах.
- 1. Экстраполировать Линейная регрессия
- 2. Множественная линейная регрессия
- 3. MATLAB: Линейная регрессия
- 4. Роллинг-линейная регрессия
- 5. Агрегатная линейная регрессия
- 6. Линейная регрессия с postgres
- 7. множественная линейная регрессия в R
- 8. Линейная регрессия с Python Numpy
- 9. Линейная регрессия в эсперской группе
- 10. Множественная линейная регрессия с питоном
- 11. Взвешенная линейная регрессия в R
- 12. Использование scikit учиться линейная регрессия для построения линейной аппроксимации
- 13. Python/Scikit учиться - линейная регрессия - Доступ к уравнению линейной регрессии
- 14. Цифровая линейная регрессия с регуляризацией
- 15. R, линейная регрессия, ое, около
- 16. линейная регрессия scala.MatchError:
- 17. Линейная регрессия в Python
- 18. Линейная регрессия в anano
- 19. Многовариантная линейная регрессия Mysql
- 20. Линейная регрессия в петле
- 21. Loop Линейная регрессия
- 22. Линейная регрессия в MATLAB
- 23. Линейная регрессия Лазань/Theano
- 24. Адаптивная линейная регрессия
- 25. Многофакторных линейная регрессия
- 26. R линейная регрессия
- 27. Множественная множественная линейная регрессия
- 28. Линейная регрессия полностью выключена
- 29. Логарифмическая линейная регрессия
- 30. Линейная регрессия с градиентным спуском
Не должен ли этот вопрос быть в Cross Validated? – jeff