D={(X1,Y2),…,(XN,YN)} veri kümesi verildiğinde, örneğin Xi ve Yi süreklidir, "Doğrusal Regresyon"un amacı bu verilere uyan en iyi doğruyu bulmaktır.
Başka bir deyişle modeli oluşturmak istiyoruz:
y^=a∗0+a∗1.x∗1+⋯+a∗p.x_p
burada p, X değişkeninin boyut sayısıdır.
Bu yazıda bu sorunun üç senaryoda nasıl çözüleceğini göreceğiz:
X tek boyutlu olduğunda yani p=1.
X çok boyutlu olduğunda, yani p>1.
Gradyan inişini kullanma.
X tek boyutludur (Sıradan En Küçük Kare)
Oluşturmak istediğimiz model şu şekildedir:
y^=a∗0+a∗1.x
Doğrusal regresyonun amacının verilere en iyi uyan doğruyu bulmak olduğunu unutmayın. Yani veri noktaları ile çizgi arasındaki mesafeyi en aza indirmemiz gerekiyor.
(a∗0^,a∗1^)=(a∗0,a∗1)argmin∑∗i=1N(y∗i−y∗i^)2
=(a∗0,a∗1)argmin∑∗i=1N(y∗i−(a∗0+a∗1.x∗i))2
Hadi koyalım:
L=∑∗i=1N(y∗i−(a∗0+a∗1.x_i))2
Minimumu bulmak için aşağıdaki denklemleri çözmemiz gerekir:
Bu durumda, Xi artık gerçek bir sayı değil, bunun yerine p boyutunda bir vektör olur:
X∗i=(X∗i1,X∗i2,…,X∗ip)
Yani model şu şekilde yazılmıştır:
y^=a∗0+a∗1x∗1+a∗2x∗2+⋯+a∗px_p
veya matris formatında yazılabilir:
Y^=X.W
Neresi:
Y(N,1) şeklindedir.
X(N,p) şeklindedir.
W(p,1) şeklindedir: bu (w1,w2,…,wp) parametre vektörüdür.
İlk duruma benzer şekilde aşağıdaki miktarı en aza indirmeyi hedefliyoruz:
W^=Wargmin∑∗i=1N(y∗i−y_i^)2
Tekrar belirtelim:
L=∑∗i=1N(y∗i−y_i^)2
=(Y−XW)T(Y−XW)
=YTY−YTXW−WTXTY+WTXTXW
=YTY−2WTXTY+WTXTXW
L'yi W'a göre minimuma indirmek istediğimizden, o zaman ilk terim olan "YTY"'yi yok sayabiliriz çünkü o W'dan bağımsızdır ve aşağıdaki denklemi çözelim:
Size adanmış ve odaklanmış durumdayız. Özgeçmiş incelemeleri, röportaj uygulamaları ve sektör tartışmaları yoluyla güçlü yeni becerilerinizi anlamanıza, geliştirmenize ve sergilemenize yardımcı oluyoruz.