Линейная регрессия определяет, что Y является функцией X. Используя эту функцию, можно предсказать Y, используя значения X до их возникновения (игнорируя выбросы).Зачем использовать несколько функций в линейной регрессии?
Унилинейная линейная регрессия зависит только от одной переменной. Но более мощная форма - многовариантная линейная регрессия, где вместо использования только одного параметра: X, используйте несколько параметров. Это невозможно визуализировать на плоскости X, Y, возможно, можно представить 3 параметра, но 4,5,6 параметров (размеров) не могут.
Идея состоит в том, что с большим количеством параметров даст лучшее предсказание. В чем заключается основа этого? Почему использование нескольких функций улучшает качество прогноза? Интуитивно я понимаю, что чем больше известно о проблеме, тем более точным может быть предсказание. Но почему добавление дополнительных функций, или, другими словами, увеличивает точность функции? Существует ли формальное определение этого?
Или это просто пробная версия и ошибка - одной функции может быть достаточно, но она не будет знать точно до тестирования с несколькими функциями.
Случай нескольких функций является лишь обобщением случая только с одной функцией, где ваш вес вектор имеет нули для всех, кроме одной функции. Таким образом, не может быть хуже, просто потому, что вы можете игнорировать дополнительную информацию. – cel
«Идея состоит в том, что с большим количеством параметров даст лучшее предсказание». Не обязательно. Если вы используете слишком много параметров, полученную модель можно переопределить. В любом случае, вы должны задать этот вопрос в [CrossValidated] (http://stats.stackexchange.com). – BartoszKP
Это действительно более подходящее обсуждение для проверки перекрестного стека. Для кодирования вопросов следует использовать переполнение. – JJFord3