Givet et datasæt D={(X1,Y2),…,(XN,YN)} såsom Xi og Yi er kontinuerlige. Målet med "Lineær regression" er at finde den bedste linje, der passer til disse data.
Vi ønsker med andre ord at skabe modellen:
y^=a∗0+a∗1.x∗1+⋯+a∗p.x_p
hvor p er antallet af dimensioner af variablen X.
I denne artikel vil vi se, hvordan du løser dette problem i tre scenarier:
Når X er endimensional, dvs. p=1.
Når X er flerdimensional, dvs. p>1.
Brug af gradientnedstigning.
X er endimensionel (almindelig mindste kvadrat)
Den model, vi ønsker at skabe, er af form:
y^=a∗0+a∗1.x
Husk, at målet med lineær regression er at finde den linje, der passer bedst til dataene. Med andre ord skal vi minimere afstanden mellem datapunkterne og linjen.
(a∗0^,a∗1^)=(a∗0,a∗1)argmin∑∗i=1N(y∗i−y∗i^)2
=(a∗0,a∗1)argmin∑∗i=1N(y∗i−(a∗0+a∗1.x∗i))2
Lad os sætte:
L=∑∗i=1N(y∗i−(a∗0+a∗1.x_i))2
For at finde minimum skal vi løse følgende ligninger:
X er multidimensionel (almindelig mindste kvadrat)
I dette tilfælde er Xi ikke længere et reelt tal, men i stedet er det en vektor af størrelsen p:
X∗i=(X∗i1,X∗i2,…,X∗ip)
Så modellen er skrevet som følger:
y^=a∗0+a∗1x∗1+a∗2x∗2+⋯+a∗px_p
eller det kan skrives i et matrixformat:
Y^=X.W
hvor:
Y har formen (N,1).
X har formen (N,p).
W har formen (p,1): dette er parametrene vektor (w1,w2,…,wp).
På samme måde som i det første tilfælde tilstræber vi at minimere følgende mængde:
W^=Wargmin∑∗i=1N(y∗i−y_i^)2
Lad os igen sige:
L=∑∗i=1N(y∗i−y_i^)2
=(Y−XW)T(Y−XW)
=YTY−YTXW−WTXTY+WTXTXW
=YTY−2WTXTY+WTXTXW
Da vi ønsker at minimere L med hensyn til W, så kan vi ignorere det første udtryk "YTY", fordi det er uafhængigt af W, og lad os løse følgende ligning:
∂W∂(−2WTXTY+WTXTXW)=0
−2XTY+2XTXW^=0
W^=(XTX)−1XTY
Bruger gradientnedstigning
Her er formuleringen af gradient descent-algoritmen:
w∗n+1=w∗n−lr×∂w_n∂f
Nu skal vi bare anvende det på de to parametre a0 og a1 (i tilfælde af én variabel X):
Dedikeret og fokuseret på dig. Vi hjælper dig med at forstå, udnytte og vise dine stærke nye færdigheder gennem CV-gennemgange, interviewpraksis og branchediskussioner.