2016-12-22 2 views
1

Может ли кто-нибудь дать мне высокий уровень зрения относительно того, как градиент приличный используется в линейной регрессии? Я понимаю, что градиент приличный в основном находит локальный минимум эффективно, но как это на самом деле помогает сформировать регрессию к данным? Может ли кто-нибудь дать мне порядок событий, в которых линия фактически сформирована для точек данных? я понимаю, как вычислить градиент точки, просто не так, как это на самом деле помогает формировать линию более эффективно.Какова роль градиента в линейной регрессии?

ответ

2

Я нашел твердый ответ здесь: https://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/

Хитрость к пониманию этого является знание того, что вы должны вычислить м и б значение у = х + Ь разработать функцию затрат, но дает новый набор данных лучших и наихудших линий. Затем вы используете градиент приличный, чтобы в основном найти самую низкую строку ошибки, которая содержит ваши фактические значения m и b для строки. Эта ссылка имеет действительно хороший график (в моем не профессиональном мнении о механизме) того, как выглядит граф ошибок, и если вы понимаете градиент приличный, вы можете увидеть, как он может перемещаться по графику, чтобы найти самую низкую ошибку. Извините за то, что выбрал пистолет по этому вопросу, но, надеюсь, он может помочь некоторым другим, кто не знаком с машинным обучением!

Смежные вопросы