Als ich als Datenwissenschaftler anfing, erwartete ich, modernste Modelle zu verwenden. XGBoost, Neuronale Netze. Diese Dinge sind komplex und interessant und würden sicherlich zu Verbesserungen führen. Ich wusste nicht, dass die Fashions vor einer Hürde standen – sie anderen Menschen zu erklären.
Wer hätte gedacht, dass Sie die Entscheidungen Ihrer automatisierten Systeme verstehen müssen?
Zu meiner Freude stolperte ich in den Kaninchenbau von Modellunabhängige Methoden. Damit könnte ich das Beste aus beiden Welten haben. Ich könnte Black-Field-Modelle trainieren und sie dann mit Methoden wie erklären Gestalten, KALK, PDPs, ALEs Und Friedmans H-Stat. Wir müssen Genauigkeit nicht mehr gegen Interpretierbarkeit eintauschen!
Nicht so schnell. Dieses Denken ist fehlerhaft.
Bei unserem Streben nach bester Leistung verfehlen wir oft den Sinn des maschinellen Lernens: genaue Vorhersagen auf der Grundlage neuer, unsichtbarer Daten zu treffen. Lassen Sie uns diskutieren, warum komplexe Modelle nicht immer der beste Weg sind, dies zu erreichen. Auch wenn wir sie mit anderen Methoden erklären können.