Հաշվի առնելով D={(X1,Y2),…,(XN,YN)}, ինչպիսիք են Xi և Yi-ը շարունակական են, «Գծային ռեգրեսիայի» նպատակն է գտնել լավագույն տողը, որը համապատասխանում է այս տվյալներին:
Այլ կերպ ասած, մենք ցանկանում ենք ստեղծել մոդելը.
y^=a∗0+a∗1.x∗1+⋯+a∗p.x_p
որտեղ p-ը X փոփոխականի չափերի թիվն է:
Այս հոդվածում մենք կտեսնենք, թե ինչպես լուծել այս խնդիրը երեք սցենարով.
Երբ X-ը միաչափ է, այսինքն՝ p=1:
Երբ X-ը բազմաչափ է, այսինքն՝ p>1:
Օգտագործելով գրադիենտ ծագում:
X-ը միաչափ է (սովորական նվազագույն քառակուսի)
Մոդելը, որը մենք ցանկանում ենք ստեղծել, ձևի է.
y^=a∗0+a∗1.x
Հիշեք, որ գծային ռեգրեսիայի նպատակն է գտնել այն գիծը, որը լավագույնս համապատասխանում է տվյալներին: Այլ կերպ ասած, մենք պետք է նվազագույնի հասցնենք տվյալների կետերի և գծի միջև հեռավորությունը:
(a∗0^,a∗1^)=(a∗0,a∗1)argmin∑∗i=1N(y∗i−y∗i^)2
=(a∗0,a∗1)argmin∑∗i=1N(y∗i−(a∗0+a∗1.x∗i))2
Դնենք.
L=∑∗i=1N(y∗i−(a∗0+a∗1.x_i))2
Նվազագույնը գտնելու համար մենք պետք է լուծենք հետևյալ հավասարումները.
Այս դեպքում Xi-ն այլևս իրական թիվ չէ, բայց փոխարենը p չափի վեկտոր է:
X∗i=(X∗i1,X∗i2,…,X∗ip)
Այսպիսով, մոդելը գրված է հետևյալ կերպ.
y^=a∗0+a∗1x∗1+a∗2x∗2+⋯+a∗px_p
կամ, այն կարելի է գրել մատրիցային ձևաչափով.
Y^=X.W
որտեղ:
Y-ը (N,1) է:
X-ը (N,p) է:
W-ը (p,1) է. սա պարամետրերի վեկտորն է (w1,w2,…,wp):
Ինչպես առաջին դեպքում, մենք նպատակ ունենք նվազագույնի հասցնել հետևյալ քանակը.
W^=Wargmin∑∗i=1N(y∗i−y_i^)2
Կրկին դնենք.
L=∑∗i=1N(y∗i−y_i^)2
=(Y−XW)T(Y−XW)
=YTY−YTXW−WTXTY+WTXTXW
=YTY−2WTXTY+WTXTXW
Քանի որ մենք ցանկանում ենք նվազագույնի հասցնել L-ը W-ի նկատմամբ, ապա մենք կարող ենք անտեսել "YTY" առաջին տերմինը, քանի որ այն անկախ է W-ից և եկեք լուծենք հետևյալ հավասարումը.
∂W∂(−2WTXTY+WTXTXW)=0
−2XTY+2XTXW^=0
W^=(XTX)−1XTY
Օգտագործելով գրադիենտ ծագում
Ահա գրադիենտ ծագման ալգորիթմի ձևակերպումը.
w∗n+1=w∗n−lr×∂w_n∂f
Այժմ մեզ մնում է միայն կիրառել այն a0 և a1 երկու պարամետրերի վրա (X մեկ փոփոխականի դեպքում).
Նվիրված և կենտրոնացած ձեզ վրա: Մենք օգնում ենք ձեզ հասկանալ, օգտագործել և ցուցադրել ձեր հզոր նոր հմտությունները ռեզյումեների վերանայումների, հարցազրույցների պրակտիկայի և ոլորտի քննարկումների միջոցով: