Берилиштер топтому берилген D={(X1,Y2),…,(XN,YN)}, мисалы, Xi жана Yi үзгүлтүксүз, "Сызыктуу регрессиянын" максаты бул маалыматтарга туура келген эң жакшы сызыкты табуу.
Башкача айтканда, биз моделди түзгүбүз келет:
y^=a∗0+a∗1.x∗1+⋯+a∗p.x_p
мында p — X өзгөрмөнүн өлчөмдөрүнүн саны.
Бул макалада биз үч жагдайда бул көйгөйдү чечүү үчүн карап көрөлү:
X бир өлчөмдүү болгондо, б.а. p=1.
X көп өлчөмдүү болгондо, б.а. p>1.
Градиенттин түшүүсүн колдонуу.
X бир өлчөмдүү (Кадимки эң кичине чарчы)
Биз түзгүбүз келген моделдин формасы:
y^=a∗0+a∗1.x
Сызыктуу регрессиянын максаты маалыматтарга эң туура келген сызыкты табуу экенин унутпаңыз. Башка сөз менен айтканда, биз маалымат чекиттери менен сызык ортосундагы аралыкты минималдаштыруу керек.
(a∗0^,a∗1^)=(a∗0,a∗1)argmin∑∗i=1N(y∗i−y∗i^)2
=(a∗0,a∗1)argmin∑∗i=1N(y∗i−(a∗0+a∗1.x∗i))2
коёлу:
L=∑∗i=1N(y∗i−(a∗0+a∗1.x_i))2
Минималды табуу үчүн төмөнкү теңдемелерди чечүү керек:
Бул учурда, Xi мындан ары чыныгы сан эмес, анын ордуна p өлчөмүндөгү вектор:
X∗i=(X∗i1,X∗i2,…,X∗ip)
Ошентип, модель төмөнкүчө жазылган:
y^=a∗0+a∗1x∗1+a∗2x∗2+⋯+a∗px_p
же, ал матрицалык форматта жазылышы мүмкүн:
Y^=X.W
кайда:
Y(N,1) формасында.
X(N,p) формасында.
W(p,1) формасында: бул (w1,w2,…,wp) векторунун параметрлери.
Биринчи учурга окшоп, биз төмөнкү көлөмдү минималдаштырууну максат кылабыз:
W^=Wargmin∑∗i=1N(y∗i−y_i^)2
Дагы айталы:
L=∑∗i=1N(y∗i−y_i^)2
=(Y−XW)T(Y−XW)
=YTY−YTXW−WTXTY+WTXTXW
=YTY−2WTXTY+WTXTXW
Биз Wга карата Lды минималдаштыргыбыз келгендиктен, биз биринчи "YTY" терминин этибарга албай койсок болот, анткени ал Wга көз каранды эмес жана төмөнкү теңдемени чечели:
∂W∂(−2WTXTY+WTXTXW)=0
−2XTY+2XTXW^=0
W^=(XTX)−1XTY
Градиенттин түшүүсүн колдонуу
Бул жерде градиенттин түшүү алгоритминин формуласы:
w∗n+1=w∗n−lr×∂w_n∂f
Эми аны a0 жана a1 эки параметрге колдонуу керек (бир өзгөрмө X болгон учурда):
Арналган жана сага багытталган. Биз сизге резюмелерди карап чыгуу, интервью практикасы жана тармактык талкуулар аркылуу жаңы күчтүү жөндөмүңүздү түшүнүүгө, колдонууга жана көрсөтүүгө жардам беребиз.