

Bild vom Herausgeber
# Einführung
Meistens lernt man besser, indem man Dinge baut, wie es in der Frontend-Entwicklung üblich ist. Ich erinnere mich, dass ich, als ich zum ersten Mal mit dem Codieren begann, einen Monat lang etwas über UI/UX, HTML und CSS gelesen habe, aber es gelang mir immer noch nicht, eine einfache Benutzeroberfläche zu entwerfen. Denn diese Artwork des Lernens erfordert Übung, Projekte und praktische Erfahrung.
Maschinelles Lernen ist anders. In diesem Bereich ist es lohnender, ein tiefes Verständnis der Theorie zu haben. Dabei geht es nicht nur um die Anwendung einfacher Regeln wie in anderen Bereichen. Wenn Sie nicht verstehen, was unter der Haube passiert, stoßen Sie leicht auf Hindernisse oder machen Fehler in Ihren Modellen. Deshalb empfehle ich dringend, hochwertige Bücher zum Thema maschinelles Lernen zu lesen.
Dieser Artikel ist Teil unserer neuen Serie, in der wir KOSTENLOSE, aber absolut lohnende Bücher hervorheben. Wenn Sie ernsthaft lernen und Ihre Grundlagen stärken möchten, ist diese Liste genau das Richtige für Sie. Beginnen wir mit der ersten Empfehlung.
# 1. Maschinelles Lernen verstehen: Von der Theorie zu Algorithmen
Maschinelles Lernen verstehen: Von der Theorie zu Algorithmen führt maschinelles Lernen auf strenge, aber prinzipielle Weise ein, ausgehend von der Kernfrage, wie Erfahrungen (Trainingsdaten) in Fachwissen (Vorhersagemodelle) umgewandelt werden können. Es baut auf grundlegenden theoretischen Ideen bis hin zu praktischen algorithmischen Paradigmen auf. Es gibt einen umfassenden Überblick über die Mathematik hinter dem Lernen, befasst sich sowohl mit der statistischen als auch mit der rechnerischen Komplexität von Lernaufgaben und behandelt algorithmische Methoden wie stochastischen Gradientenabstieg, neuronale Netze, strukturiertes Output-Lernen sowie neue Theorien wie PAC-Bayes und Kompressionsgrenzen. Es ist perfekt für alle, die über die Verwendung von Black-Field-Modellen hinausgehen und wirklich verstehen möchten, warum sich Algorithmen so verhalten, wie sie es tun.
// Überblick über die Gliederung:
- Grundlagen des Lernens (Kerntheorie des Lernens, wahrscheinlich annähernd korrektes (PAC) Lernen, Vapnik-Chervonenkis (VC)-Dimension, Verallgemeinerung, Kompromiss zwischen Voreingenommenheit und Komplexität)
- Algorithmen und Optimierung (lineare Prädiktoren, neuronale Netze, Entscheidungsbäume, Boosting, stochastischer Gradientenabstieg, Regularisierung)
- Modellauswahl und praktische Überlegungen (Überanpassung, Unteranpassung, Kreuzvalidierung, Recheneffizienz)
- Unüberwachtes und generatives Lernen (Clustering, Dimensionsreduktion, Hauptkomponentenanalyse (PCA), Erwartungsmaximierungsalgorithmus (EM), Autoencoder)
- Fortgeschrittene Theorie und neue Themen (Kernel-Methoden, Assist-Vektor-Maschinen (SVMs), PAC-Bayes, Komprimierungsgrenzen, On-line-Lernen, strukturierte Vorhersage)
# 2. Mathematik für maschinelles Lernen
Mathematik für maschinelles Lernen schließt die Lücke zwischen den mathematischen Grundlagen und den Kerntechniken des maschinellen Lernens. Es ist in zwei Hauptteile gegliedert. Der erste Teil behandelt die wichtigsten mathematischen Werkzeuge wie lineare Algebra, Evaluation, Wahrscheinlichkeitsrechnung und Optimierung. Der zweite Teil zeigt, wie diese Werkzeuge bei wichtigen maschinellen Lernaufgaben wie Regression, Klassifizierung, Dichteschätzung und Dimensionsreduktion eingesetzt werden. Viele Bücher über maschinelles Lernen behandeln Mathematik als Nebenthema, aber dieses Buch konzentriert sich auf Mathematik, damit die Leser Modelle für maschinelles Lernen wirklich verstehen und erstellen können.
// Überblick über die Gliederung:
- Mathematische Grundlagen für maschinelles Lernen (lineare Algebra, analytische Geometrie, Matrixzerlegungen, Vektorrechnung, Wahrscheinlichkeit und kontinuierliche Optimierung)
- Überwachtes Lernen und Regression (lineare Regression, Bayesianische Regression, Parameterschätzung, empirische Risikominimierung)
- Dimensionsreduktion und unüberwachtes Lernen (PCA, Gaußsche Mischungsmodelle, EM-Algorithmus, Modellierung latenter Variablen)
- Klassifizierung und erweiterte Modelle (SVMs, Kernel, trennende Hyperebenen, probabilistische Modellierung, grafische Modelle)
# 3. Eine Einführung in das statistische Lernen
Eine Einführung in das statistische Lernen (meiner Meinung nach ein moderner Klassiker) bietet Ihnen eine klare, praktische Einführung in den Bereich des statistischen Lernens – im Grunde geht es darum, wie wir Daten verwenden, um Vorhersagen zu treffen und Muster zu verstehen. Es behandelt die wichtigsten Instruments, die Sie benötigen, wie Regression, Klassifizierung, Resampling (um zu überprüfen, wie intestine Ihre Modelle sind), Regularisierung (um zu verhindern, dass die Dinge verrückt werden), baumbasierte Methoden, SVMs, Clustering und sogar neuere Themen wie Deep Studying, Überlebensanalyse und die gleichzeitige Bewältigung vieler Assessments. Jedes Kapitel enthält auch echte Python-basierte Übungen, sodass Sie nicht nur die Ideen lernen, sondern auch lernen, wie Sie sie in Code übersetzen.
// Überblick über die Gliederung:
- Grundlagen des statistischen Lernens (Einführung in das statistische Lernen, überwachtes vs. unüberwachtes Lernen, Regression vs. Klassifizierung, Modellgenauigkeit und Bias-Varianz-Kompromisse)
- Lineare und nichtlineare Modellierung (lineare Regression, logistische Regression, verallgemeinerte lineare Modelle, polynomiale Regression, Splines und verallgemeinerte additive Modelle)
- Erweiterte Vorhersagemethoden (baumbasierte Methoden, Ensemble-Methoden, SVMs, Deep Studying und neuronale Netze)
- Unbeaufsichtigte und spezialisierte Techniken (PCA, Clustering, Überlebensanalyse, zensierte Daten und mehrere Testmethoden)
# 4. Mustererkennung und maschinelles Lernen
Mustererkennung und maschinelles Lernen lehrt, wie Maschinen lernen können, Muster aus Daten zu erkennen. Es beginnt mit den Grundlagen der Wahrscheinlichkeit und Entscheidungsfindung, um das Verständnis von Unsicherheit zu erleichtern. Anschließend werden wichtige Techniken wie lineare Regression, Klassifizierung, neuronale Netze, SVMs und Kernel-Methoden behandelt. Später werden fortgeschrittenere Modelle wie grafische Modelle, Mischungsmodelle, Stichprobenmethoden und sequentielle Modelle erläutert. Das Buch konzentriert sich auf den Bayes’schen Ansatz, der hilft, mit Unsicherheiten umzugehen und Modelle zu vergleichen, anstatt nur eine einzige „beste“ Lösung zu finden. Obwohl die Mathematik eine Herausforderung sein kann, ist sie perfekt für Studenten oder Ingenieure, die ein tiefes Verständnis des maschinellen Lernens wünschen.
// Überblick über die Gliederung:
- Grundlagen des maschinellen Lernens (Wahrscheinlichkeitstheorie, Bayes’sche Methoden, Entscheidungstheorie, Informationstheorie und der Fluch der Dimensionalität zum Aufbau einer starken konzeptionellen Foundation)
- Kernmodelle (lineare Regression und Klassifizierung, neuronale Netze, Kernel-Methoden und Sparse-Modelle, mit Schwerpunkt auf Bayes’schen Ansätzen, Regularisierung und Optimierungstechniken)
- Fortgeschrittene Methoden (grafische Modelle, Mischungsmodelle mit EM, Näherungsinferenz und Stichprobenverfahren für komplexe probabilistische Modellierung)
- Spezielle Themen und Anwendungen (kontinuierliche latente Variablenmodelle (PCA, probabilistische PCA, Kernel-PCA), sequentielle Daten (versteckte Markov-Modelle (HMMs), lineare dynamische Systeme (LDS), Partikelfilter), Modellkombinationsstrategien und praktische Anhänge für Datensätze, Verteilungen und Matrixeigenschaften)
# 5. Einführung in maschinelle Lernsysteme
Einführung in maschinelle Lernsysteme zeigt, wie man echte maschinelle Lernsysteme baut – nicht nur Modelle, sondern den gesamten Aufbau, der sie zum Funktionieren bringt. Zunächst wird erklärt, warum es nicht ausreicht, zu wissen, wie man ein Modell trainiert: Sie müssen sich auch mit Datentechnik und Systemdesign auskennen, wissen, wie {Hardware} und Software program zusammentreffen, wie man sie in der realen Welt einsetzt und wie man dafür sorgt, dass alles funktioniert und sicher bleibt. Es bietet auch praktische Übungen und betont, dass Sie wie ein Ingenieur denken müssen ({Hardware}, Ressourcenbeschränkungen, Pipelines, Zuverlässigkeit) und nicht nur wie ein Modellbauer. Das Ziel besteht darin, Ihnen die Sprache, die Frameworks und die technische Denkweise zu vermitteln, um von „Ich habe ein Modell“ zu „Ich habe ein funktionierendes KI-System zu gelangen, das skalierbar, strong ist und echten Anforderungen entspricht.“
// Überblick über die Gliederung:
- Grundlagen und Designprinzipien (grundlegende Architektur maschineller Lernsysteme, einschließlich Einführung, Arbeitsabläufe für maschinelles Lernen, Datentechnik, Frameworks, Trainingsinfrastruktur)
- Efficiency Engineering (Modelloptimierungen, Hardwarebeschleunigung, Inferenzeffizienz, Benchmarking und Kompromisse auf Systemebene)
- Robuste Bereitstellung (Machine-Studying-Operationen (MLOps), Lernen auf dem Gerät, Sicherheit und Datenschutz, Robustheit, Vertrauenswürdigkeit)
- Grenzen maschineller Lernsysteme (nachhaltige KI, KI für das Gute, Systeme der künstlichen allgemeinen Intelligenz (AGI), neue Forschungsrichtungen)
# Zusammenfassung
Diese Bücher decken die wichtigsten Teile des maschinellen Lernens ab, von Mathematik und Statistik bis hin zu realen Systemen. Zusammen zeigen sie einen klaren Weg vom Verständnis der Theorie bis zur Erstellung und Verwendung von Modellen für maschinelles Lernen. Welche Themen sollte ich als nächstes behandeln? Lass es mich in den Kommentaren wissen.
Kanwal Mehreen ist ein Ingenieur für maschinelles Lernen und ein technischer Redakteur mit einer großen Leidenschaft für Datenwissenschaft und die Schnittstelle zwischen KI und Medizin. Sie ist Mitautorin des E-Books „Maximizing Productiveness with ChatGPT“. Als Google Technology Scholar 2022 für APAC setzt sie sich für Vielfalt und akademische Exzellenz ein. Sie ist außerdem als Teradata Range in Tech Scholar, Mitacs Globalink Analysis Scholar und Harvard WeCode Scholar anerkannt. Kanwal ist ein leidenschaftlicher Verfechter von Veränderungen und hat FEMCodes gegründet, um Frauen in MINT-Bereichen zu stärken.
