Isolation Forest ist eine unbeaufsichtigte, baumbasierte Methode zur Erkennung von Anomalien. Sehen Sie, wie sowohl KernelSHAP als auch TreeSHAP verwendet werden können, um die Ausgabe zu erklären.
Isolationswald ist zu einem festen Bestandteil von Anomalieerkennungssystemen geworden (1). Sein Vorteil besteht darin, komplexe Anomalien in großen Datensätzen mit vielen Funktionen finden zu können. Wenn es jedoch darum geht, diese Anomalien zu erklären, wird dieser Vorteil schnell zu einer Schwäche.
Um Maßnahmen gegen eine Anomalie ergreifen zu können, müssen wir oft die Gründe für die Einstufung als solche verstehen. Diese Erkenntnisse sind besonders wertvoll bei realen Anwendungen, etwa bei der Betrugserkennung, wo es oft genauso wichtig ist, den Grund für eine Anomalie zu kennen, wie sie zu erkennen.
Leider sind diese Erklärungen bei Isolation Forest in der komplexen Modellstruktur verborgen. Um sie aufzudecken, wenden wir uns an SHAP.
Wir werden SHAP auf IsolationForest anwenden und seine Ausgabe interpretieren. Wir werden sehen, dass wir, obwohl es sich um ein unbeaufsichtigtes Modell handelt, dennoch SHAP verwenden können, um seine Anomaliewerte zu erklären. Das ist zu verstehen:
- Wie Funktionen zur Bewertung einzelner Instanzen beigetragen haben
- und welche Options generell wichtig sind.