Entscheidungsbaumklassifizierung

Klassifizierung
Entscheidungsbaum
Vorhersagemodell
Entscheidungsbaumklassifizierung cover image

Einführung

Entscheidungsbäume (DTs) sind eine nichtparametrische Methode des überwachten Lernens, die zur Klassifizierung und Regression verwendet wird. Das Ziel besteht darin, ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln lernt, die aus den Datenmerkmalen abgeleitet werden.

Entropie

Ziel des Trainings ist es, die besten Aufteilungen in den Knoten zu finden, um den optimalsten Baum zu finden. Die Aufteilungen erfolgen anhand einiger Kriterien wie zum Beispiel: Entropie.

Es gibt viele Definitionen von Entropie, wie zum Beispiel:

  • Entropie entspricht der Informationsmenge, die in einer Informationsquelle enthalten ist.

  • Entropie kann auch als Zufälligkeit oder als Maß für die Überraschung in einer Menge angesehen werden.

  • Entropie ist eine Metrik, die die Unvorhersehbarkeit oder Verunreinigung im System misst.

entropy

In Entscheidungsbäumen betrachten wir die Entropie als Maß für die Reinheit innerhalb eines Knotens. Das Ziel des Entscheidungsbaummodells besteht darin, die Entropie der Knoten bei jeder Teilung zu reduzieren:

entropy_reductioin

Daher möchten wir den Unterschied zwischen der Entropie des übergeordneten Knotens und der Entropie der untergeordneten Knoten maximieren. Dieser Unterschied wird Informationsgewinn genannt.

Die Entropie HH einer Menge XX lässt sich mathematisch wie folgt formulieren:

H(X)=_xXp(x)logp(x)H(X) = - \sum\limits\_{x \in X} p(x) \log p(x)

Informationsgewinn

Der Informationsgewinn ist die Differenz zwischen der Entropie des übergeordneten Knotens und der gewichteten Summe der Entropien der untergeordneten Knoten und kann daher wie folgt formuliert werden:

IG(Y,X)=H(Y)xunique(X)P(xX)×H(YX=x)IG(Y, X) = H(Y) - \sum_{x \in unique(X)} P(x|X) \times H(Y | X = x)

=H(Y)xunique(X)X.count(x)len(X)×H(Y[X==x])= H(Y) - \sum_{x \in unique(X)} \frac{X.count(x)}{len(X)} \times H(Y[X == x])

Wo:

  • H(.)H(.) ist die Entropie.

  • YY ist die Population vor der Teilung und stellt den übergeordneten Knoten dar.

  • XX ist die Variable, die wir für die Aufteilung verwenden möchten.

  • xx ist ein eindeutiger Wert von X.

  • Y[X==x]Y[X==x] ist eine geteilte Liste mit nur xx-Werten.

Nehmen wir ein richtiges Beispiel:

entropy_reductioin

Wir werden den Informationsgewinn berechnen, wenn wir den übergeordneten Knoten teilen, indem wir die Werte von X verwenden:

IG(parent,X)=H(parent)xunique(X)P(xX)×H(parentX=x)IG(parent, X) = H(parent) - \sum_{x \in unique(X)} P(x|X) \times H(parent | X = x)

\

Zuerst berechnen wir die Entropie des übergeordneten Knotens:

H(parent)=P(Y=Blue)×logP(Y=Blue)P(Y=Yellow)×logP(Y=Yellow)H(parent) = - P(Y=Blue) \times \log P(Y=Blue) - P(Y=Yellow) \times \log P(Y=Yellow)

=1121×log(1121)1021×log(1021)=0.3= - \frac{11}{21} \times \log(\frac{11}{21}) - \frac{10}{21} \times \log(\frac{10}{21}) = 0.3

\

Anschließend berechnen wir die interne Wahrscheinlichkeit jedes untergeordneten Knotens nach der Teilung mithilfe der eindeutigen Werte von X:

unique(X)=[Circle,Square]unique(X) = [Circle, Square]

_xunique(X)P(xX)×H(YX=x)=P(SquareX)×H(YX=Square)\sum\_{x \in unique(X)} P(x|X) \times H(Y | X = x) = P(Square|X) \times H(Y | X = Square)

+P(CircleX)×H(YX=Circle)+ P(Circle|X) \times H(Y | X = Circle)

=921×H(YX=Square)+1221×H(YX=Circle)= \frac{9}{21} \times H(Y | X = Square) + \frac{12}{21} \times H(Y | X = Circle)

Wie zum Beispiel:

  • H(YX=Square)H(Y | X = Square) : stellt die Entropie des ersten untergeordneten Knotens dar.

  • H(YX=Circle)H(Y | X = Circle) : stellt die Entropie des zweiten untergeordneten Knotens dar.

\

Wir beginnen mit dem ersten untergeordneten Knoten:

H(YX=Square)=P(Y=BlueX=Square)×logP(Y=BlueX=Square)H(Y | X = Square) = - P(Y=Blue | X = Square) \times \log P(Y=Blue| X = Square)

P(Y=YellowX=Square)×logP(Y=YellowX=Square)- P(Y=Yellow| X = Square) \times \log P(Y=Yellow| X = Square)

=79×log7929×log29=0.23= - \frac{7}{9} \times \log\frac{7}{9} - \frac{2}{9} \times \log\frac{2}{9} = 0.23

\

Und dann der zweite untergeordnete Knoten:

H(YX=Circle)=P(Y=BlueX=Circle)×logP(Y=BlueX=Circle)H(Y | X = Circle) = - P(Y=Blue | X = Circle) \times \log P(Y=Blue| X = Circle)

P(Y=YellowX=Circle)×logP(Y=YellowX=Circle)- P(Y=Yellow| X = Circle) \times \log P(Y=Yellow| X = Circle)

=412×log412812×log812=0.28= - \frac{4}{12} \times \log\frac{4}{12} - \frac{8}{12} \times \log\frac{8}{12} = 0.28

\

Schließlich ersetzen wir die Entropien in der Informationsgewinnformel:

IG(parent,X)=H(parent)xunique(X)P(xX)×H(parentX=x)IG(parent, X) = H(parent) - \sum_{x \in unique(X)} P(x|X) \times H(parent | X = x)

=0.3921×0.231221×0.28=0.041= 0.3 - \frac{9}{21} \times 0.23 - \frac{12}{21} \times 0.28 = 0.041

\

\

Wie bereits erwähnt besteht das Ziel einer Knotenaufteilung darin, den Informationsgewinn zu maximieren und somit die Entropie im resultierenden untergeordneten Knoten zu minimieren. Dazu müssen wir versuchen, den Knoten mit verschiedenen Eingabesätzen X1,X2,,XnX_1, X_2, \ldots, Xn aufzuteilen und behalten nur die Aufteilung bei, die den Informationsgewinn maximiert:

X\*=argmaxXiIG(Y,Xi)X^{\*} = \underset{X_i}{\operatorname{argmax}} IG(Y, X_i)

Wann mit dem Teilen aufhören soll

Die Knotenaufteilung in Entscheidungsbäumen ist rekursiv, daher muss es ein Kriterium geben, das wir verwenden können, um die Aufteilung zu stoppen. Dies sind einige der am häufigsten implementierten Kriterien:

  • Wenn der Knoten rein ist: H(Knoten) = 0. Es ist sinnlos, den Knoten weiter zu teilen.

  • Maximale Anzahl an Tiefen: Wir können eine maximale Tiefe festlegen, die das Modell erreichen kann. Dies bedeutet, dass die Aufteilung auch dann gestoppt wird, wenn der Knoten nicht rein ist.

  • Mindestanzahl von Samples pro Knoten: Wir können auch eine Mindestanzahl NN von Samples pro Knoten festlegen. Wenn die Anzahl der Stichproben pro Knoten gleich NN ist, hören wir mit der Aufteilung auf, auch wenn der Knoten nicht rein ist.

Am Ende des Trainings (der Aufteilung) wird jeder Knoten, der auf das Ende des Entscheidungsbaums angewiesen ist, als „Blatt“ bezeichnet, da er keine Wurzel eines Unterbaums darstellt. Jedes Blatt repräsentiert die Klasse mit den meisten Proben.

Abschluss

Der Entscheidungsbaum ist aufgrund seiner Effizienz, seines intuitiven Hintergrunds und seiner einfachen Implementierung einer der bekanntesten Algorithmen für maschinelles Lernen. Dieser Algorithmus kann weiterhin mit numerischen unabhängigen Variablen verwendet werden (Gaußscher Entscheidungsbaum) und kann auch zur Lösung von Regressionsaufgaben erweitert werden.


Career Services background pattern

Karrieredienste

Contact Section background image

Lass uns in Kontakt bleiben

Code Labs Academy © 2024 Alle Rechte vorbehalten.