Machine Learning - Die Referenz /
Das praktische Nachschlagewerk zum Machine Learning mit strukturierten Daten.
Autor principal: | |
---|---|
Autor Corporativo: | |
Formato: | Electrónico eBook |
Idioma: | Alemán |
Publicado: |
[Place of publication not identified] :
dpunkt,
2020.
|
Edición: | 1st edition. |
Acceso en línea: | Texto completo (Requiere registro previo con correo institucional) |
Tabla de Contenidos:
- Intro
- Inhalt
- Vorwort
- Kapitel 1: Einleitung
- Verwendete Bibliotheken
- Installation mit pip
- Installation mit conda
- Kapitel 2: Der Vorgang des maschinellen Lernens: Überblick
- Kapitel 3: Klassifikation Schritt für Schritt: der Titanic-Datensatz
- Vorschlag für das Projektlayout
- Importe
- Eine Frage stellen
- Begriffe und Bezeichnungen für die Daten
- Daten sammeln
- Daten säubern
- Merkmale gewinnen
- Stichproben von Daten nehmen
- Daten auffüllen
- Daten normalisieren
- Refaktorieren
- Vergleichsmodell
- Verschiedene Algorithmenfamilien
- Stacking
- Ein Modell erstellen
- Das Modell auswerten
- Das Modell optimieren
- Wahrheitsmatrix
- Grenzwertoptimierungskurve (ROC-Kurve)
- Trainingskurve
- Das Modell einsetzen
- Kapitel 4: Fehlende Daten
- Fehlende Daten untersuchen
- Fehlende Daten entfernen
- Daten auffüllen
- Indikatorspalten hinzufügen
- Kapitel 5: Daten säubern
- Spaltennamen
- Fehlende Werte ersetzen
- Kapitel 6: Erkunden
- Datenmenge
- Zusammenfassende Statistiken
- Histogramm
- Streudiagramm
- Kombidiagramm
- Paarmatrix
- Kasten- und Violinendiagramme
- Vergleich zweier Ordinalwerte
- Korrelation
- RadViz
- Parallele Koordinaten
- Kapitel 7: Daten vorverarbeiten
- Standardisieren
- Den Wertebereich skalieren
- Dummy-Variablen
- Markierungen codieren
- Häufigkeitscodierung
- Kategorien aus Text gewinnen
- Weitere kategoriale Codierungen
- Datumsmerkmale konstruieren
- Ein Merkmal col_na hinzufügen
- Manuelle Merkmalskonstruktion
- Kapitel 8: Merkmalsauswahl
- Kollineare Spalten
- Lasso-Regression
- Rekursiver Ausschluss von Merkmalen
- Wechselseitige Aussagekraft
- Hauptkomponentenverfahren
- Merkmalsgewichtung
- Kapitel 9: Unausgeglichene Klassen
- Eine andere Metrik anwenden
- Baumalgorithmen und Ensembles
- Modelle mit Strafpunkten.
- Minderheiten erweitern
- Minderheitsdaten erzeugen
- Mehrheiten verkleinern
- Erweitern und danach verkleinern
- Kapitel 10: Klassifikation
- Logistische Regression
- Naiver Bayes-Klassifikator
- Supportvektormaschine
- K-nächste Nachbarn
- Entscheidungsbaum
- Random-Forest
- XGBoost
- Gradientenverstärkung mit LightGBM
- TPOT
- Kapitel 11: Modellauswahl
- Validierungskurve
- Lernkurve
- Kapitel 12: Metriken und Beurteilung der Klassifikation
- Wahrheitsmatrix
- Metriken
- Vertrauenswahrscheinlichkeit
- Trefferquote
- Genauigkeit
- F1 (F-Maß)
- Klassifikationstafel
- ROC-Kurve (Grenzwertoptimierungskurve)
- Kurve der Genauigkeit über der Trefferquote
- Kumulatives Gain-Diagramm
- Lift-Kurve
- Ausgeglichenheit der Klassen
- Klassenvorhersagefehler
- Ansprechschwelle
- Kapitel 13: Interpretation von Modellen
- Regressionskoeffizienten
- Merkmalsgewichtung
- LIME
- Interpretation von Bäumen
- Partielle Abhängigkeitsdiagramme
- Stellvertretermodelle
- Shapley
- Kapitel 14: Regression
- Vergleichsmodell
- Lineare Regression
- Supportvektormaschinen (SVM)
- K-nächste Nachbarn
- Entscheidungsbaum
- Random-Forest
- XGBoost-Regression
- Regression mit LightGBM
- Kapitel 15: Metriken und Bewertung der Regression
- Metriken
- Residuendiagramm
- Varianzheterogenität
- Normalverteilte Residuen
- Diagramm des Vorhersagefehlers
- Kapitel 16: Interpretation von Regressionsmodellen
- Shapley
- Kapitel 17: Dimensionsreduktion
- Hauptkomponentenverfahren (PCA)
- UMAP
- t-SNE
- PHATE
- Kapitel 18: Clustern
- K-Means-Algorithmus
- Agglomeratives (hierarchisches) Clustern
- Cluster verstehen
- Kapitel 19: Pipelines
- Klassifikationspipeline
- Regressionspipeline
- Pipeline für das Hauptkomponentenverfahren
- Index.