Kürzlich stieß ich auf ein On-line-Buch, in dem verschiedene Instruments beschrieben werden, die zur Interpretierbarkeit von Machine-Studying-Modellen verwendet werden können (https://christophm.github.io/interpretable-ml-book/). Die Idee, dass Machine-Studying-Modelle keine Blackbox sein sollten und erklärt werden können, faszinierte mich und ich beschloss, mich intensiv mit diesem Thema zu befassen. Früher, wenn ich mit der Arbeit an einem neuen Machine-Studying-Projekt begann, folgte ich immer demselben Verfahren: das Drawback identifizieren, …