D={(X1,Y2),\no¨qtələr,(XN,YN)} data dəsti verilmişdir, məsələn, Xi və Yi davamlıdır, "Xətti Reqressiyanın" məqsədi bu məlumatlara uyğun gələn ən yaxşı xətti tapmaqdır.
Başqa sözlə, biz modeli yaratmaq istəyirik:
y^=a∗0+a∗1.x∗1+⋯+a∗p.x_p
burada pX dəyişəninin ölçülərinin sayıdır.
Bu yazıda bu problemi üç ssenaridə necə həll edəcəyimizi görəcəyik:
X bir ölçülü olduqda, yəni p=1.
X çoxölçülü olduqda, yəni p>1.
Qradiyent enişdən istifadə.
X bir ölçülüdür (Adi Ən Kiçik Kvadrat)
Yaratmaq istədiyimiz model formadır:
y^=a∗0+a∗1.x
Unutmayın ki, xətti reqressiyanın məqsədi verilənlərə ən yaxşı uyğun gələn xətti tapmaqdır. Başqa sözlə, məlumat nöqtələri ilə xətt arasındakı məsafəni minimuma endirməliyik.
(a∗0^,a∗1^)=(a∗0,a∗1)argmin∑∗i=1N(y∗i−y∗i^)2
=(a∗0,a∗1)argmin∑∗i=1N(y∗i−(a∗0+a∗1.x∗i))2
qoyaq:
L=∑∗i=1N(y∗i−(a∗0+a∗1.x_i))2
Minimumu tapmaq üçün aşağıdakı tənlikləri həll etməliyik:
Bu halda, Xi artıq həqiqi ədəd deyil, bunun əvəzinə p ölçülü vektordur:
X∗i=(X∗i1,X∗i2,…,X∗ip)
Beləliklə, model aşağıdakı kimi yazılır:
y^=a∗0+a∗1x∗1+a∗2x∗2+⋯+a∗px_p
və ya matris formatında yazıla bilər:
Y^=X.W
harada:
Y(N,1) şəklindədir.
X(N,p) şəklindədir.
W(p,1) şəklindədir: bu, (w1,w2,…,wp) parametr vektorudur.
Birinci halda olduğu kimi, biz də aşağıdakı miqdarı minimuma endirməyi hədəfləyirik:
W^=Wargmin∑∗i=1N(y∗i−y_i^)2
Yenə də deyək:
L=∑∗i=1N(y∗i−y_i^)2
=(Y−XW)T(Y−XW)
=YTY−YTXW−WTXTY+WTXTXW
=YTY−2WTXTY+WTXTXW
Biz W-a nisbətdə L-nı minimuma endirmək istədiyimiz üçün ilk "YTY" terminini nəzərə almaya bilərik, çünki o, W-dan müstəqildir və gəlin aşağıdakı tənliyi həll edək:
∂W∂(−2WTXTY+WTXTXW)=0
−2XTY+2XTXW^=0
W^=(XTX)−1XTY
Qradiyent enişdən istifadə
Budur gradient eniş alqoritminin tərtibi:
w∗n+1=w∗n−lr×∂w_n∂f
İndi etməli olduğumuz yeganə şey onu a0 və a1 iki parametrinə tətbiq etməkdir (bir dəyişən X vəziyyətində):
Sizə həsr olunmuş və diqqət mərkəzindədir. Biz sizə rezyume rəyləri, müsahibə təcrübəsi və sənaye müzakirələri vasitəsilə yeni güclü bacarıqlarınızı anlamağa, istifadə etməyə və nümayiş etdirməyə kömək edirik.