Klasifikacija drevesa odločanja

klasifikacija
drevo odločanja
model napovedi
Klasifikacija drevesa odločanja cover image

Uvod

Odločitvena drevesa (DT) so neparametrična nadzorovana učna metoda, ki se uporablja za klasifikacijo in regresijo. Cilj je ustvariti model, ki napoveduje vrednost ciljne spremenljivke z učenjem preprostih pravil odločanja, izpeljanih iz podatkovnih funkcij.

Entropija

Cilj usposabljanja je najti najboljše razcepe v vozliščih, da bi našli najbolj optimalno drevo. Razdelitve se izvedejo z uporabo nekaterih meril, kot so: Entropija.

Obstaja veliko definicij entropije, kot so:

  • Entropija ustreza količini informacij, ki jih vsebuje vir informacij.

  • Entropijo lahko razumemo tudi kot naključnost ali merjenje presenečenja v nizu.

  • Entropija je metrika, ki meri nepredvidljivost ali nečistost v sistemu.

entropy

V odločitvenih drevesih bomo entropijo obravnavali kot merilo čistosti znotraj vozlišča. Cilj modela odločitvenega drevesa je zmanjšati entropijo vozlišč pri vsaki delitvi:

entropy_reductioin

Tako želimo čim bolj povečati razliko med entropijo nadrejenega vozlišča in entropijo podrejenih vozlišč. Ta razlika se imenuje Informacijski dobiček.

Entropija HH množice XX je matematično formulirana na naslednji način:

H(X)=_xXp(x)logp(x)H(X) = - \sum\limits\_{x \in X} p(x) \log p(x)

Pridobivanje informacij

Dobiček informacij je razlika med entropijo nadrejenega vozlišča in ponderirano vsoto entropij vozlišč chlid, zato jo je mogoče formulirati na naslednji način:

IG(Y,X)=H(Y)xunique(X)P(xX)×H(YX=x)IG(Y, X) = H(Y) - \sum_{x \in unique(X)} P(x|X) \times H(Y | X = x)

=H(Y)xunique(X)X.count(x)len(X)×H(Y[X==x])= H(Y) - \sum_{x \in unique(X)} \frac{X.count(x)}{len(X)} \times H(Y[X == x])

kje:

  • H(.)H(.) je entropija.

  • YY je populacija pred delitvijo, predstavlja nadrejeno vozlišče.

  • XX je spremenljivka, ki jo želimo uporabiti za razdelitev.

  • xx je edinstvena vrednost X.

  • Y[X==x]Y[X==x] je razdeljen seznam z vrednostmi samo xx.

vzemimo pravi primer:

entropy_reductioin

Dobiček informacij bomo izračunali, ko bomo nadrejeno vozlišče razdelili z uporabo vrednosti X:

IG(parent,X)=H(parent)xunique(X)P(xX)×H(parentX=x)IG(parent, X) = H(parent) - \sum_{x \in unique(X)} P(x|X) \times H(parent | X = x)

\

Najprej izračunamo entropijo nadrejenega vozlišča:

H(parent)=P(Y=Blue)×logP(Y=Blue)P(Y=Yellow)×logP(Y=Yellow)H(parent) = - P(Y=Blue) \times \log P(Y=Blue) - P(Y=Yellow) \times \log P(Y=Yellow)

=1121×log(1121)1021×log(1021)=0.3= - \frac{11}{21} \times \log(\frac{11}{21}) - \frac{10}{21} \times \log(\frac{10}{21}) = 0.3

\

Nato bomo izračunali notranjo verjetnost vsakega podrejenega vozlišča po razdelitvi z uporabo edinstvenih vrednosti X:

unique(X)=[Circle,Square]unique(X) = [Circle, Square]

_xunique(X)P(xX)×H(YX=x)=P(SquareX)×H(YX=Square)\sum\_{x \in unique(X)} P(x|X) \times H(Y | X = x) = P(Square|X) \times H(Y | X = Square)

+P(CircleX)×H(YX=Circle)+ P(Circle|X) \times H(Y | X = Circle)

=921×H(YX=Square)+1221×H(YX=Circle)= \frac{9}{21} \times H(Y | X = Square) + \frac{12}{21} \times H(Y | X = Circle)

Kot naprimer:

  • H(YX=Square)H(Y | X = Square) : predstavlja entropijo prvega podrejenega vozlišča.

  • H(YX=krog)H(Y | X = krog): predstavlja entropijo drugega podrejenega vozlišča.

\

Začnemo s prvim podrejenim vozliščem:

H(YX=Square)=P(Y=BlueX=Square)×logP(Y=BlueX=Square)H(Y | X = Square) = - P(Y=Blue | X = Square) \times \log P(Y=Blue| X = Square)

P(Y=YellowX=Square)×logP(Y=YellowX=Square)- P(Y=Yellow| X = Square) \times \log P(Y=Yellow| X = Square)

=79×log7929×log29=0.23= - \frac{7}{9} \times \log\frac{7}{9} - \frac{2}{9} \times \log\frac{2}{9} = 0.23

\

In nato drugo podrejeno vozlišče:

H(YX=Circle)=P(Y=BlueX=Circle)×logP(Y=BlueX=Circle)H(Y | X = Circle) = - P(Y=Blue | X = Circle) \times \log P(Y=Blue| X = Circle)

P(Y=YellowX=Circle)×logP(Y=YellowX=Circle)- P(Y=Yellow| X = Circle) \times \log P(Y=Yellow| X = Circle)

=412×log412812×log812=0.28= - \frac{4}{12} \times \log\frac{4}{12} - \frac{8}{12} \times \log\frac{8}{12} = 0.28

\

Nazadnje nadomestimo entropije v formuli pridobivanja informacij:

IG(parent,X)=H(parent)xunique(X)P(xX)×H(parentX=x)IG(parent, X) = H(parent) - \sum_{x \in unique(X)} P(x|X) \times H(parent | X = x)

=0.3921×0.231221×0.28=0.041= 0.3 - \frac{9}{21} \times 0.23 - \frac{12}{21} \times 0.28 = 0.041

\

\

Kot je bilo že omenjeno, je cilj razdelitve vozlišča povečati pridobitev informacij in tako zmanjšati entropijo v nastalem podrejenem vozlišču. Da bi to naredili, moramo poskusiti razdeliti vozlišče z različnimi nizi vhodov X1,X2,,XnX_1, X_2, \ldots, Xn in obdržati samo razdelitev, ki maksimira pridobitev informacij:

X\*=argmaxXiIG(Y,Xi)X^{\*} = \underset{X_i}{\operatorname{argmax}} IG(Y, X_i)

Kdaj prenehati z delitvijo

Razcepitev vozlišč v odločitvenih drevesih je rekurzivna, zato mora obstajati kriterij, ki ga lahko uporabimo, da zaustavimo razcepitev. To je nekaj najbolj izvajanih meril:

  • Ko je vozlišče čisto: H(vozlišče) = 0. Nesmiselno je nadaljnje razdeljevanje vozlišča.

  • Največje število globin: Nastavimo lahko največjo globino, ki jo model lahko doseže, kar pomeni, da se cepljenje ustavi, tudi če vozlišče ni čisto.

  • Najmanjše število vzorcev na vozlišče: Nastavimo lahko tudi najmanjše število NN vzorcev na vozlišče. Če je število vzorcev na vozlišče enako NN, prenehamo z delitvijo, tudi če vozlišče ni čisto.

Do konca usposabljanja (razcepitev) se vsako vozlišče, ki se zanaša na konec odločitvenega drevesa, imenuje "list", ker ni koren nobenega poddrevesa. Vsak list bo predstavljal razred pridelka z največ vzorci.

Zaključek

Odločitveno drevo je eden najbolj znanih algoritmov strojnega učenja zaradi svoje učinkovitosti, intuitivnega ozadja in preproste izvedbe. Ta algoritem je mogoče nadalje uporabiti z numerično neodvisnimi spremenljivkami ( Gaussovo drevo odločanja ) in ga je mogoče razširiti tudi za reševanje regresijskih nalog.


Career Services background pattern

Karierne storitve

Contact Section background image

Ostanimo v stiku

Code Labs Academy © 2024 Vse pravice pridržane.