|
|
|
|
LEADER |
00000cam a2200000Mi 4500 |
001 |
OR_on1228512870 |
003 |
OCoLC |
005 |
20231017213018.0 |
006 |
m o d |
007 |
cr cn||||||||| |
008 |
021120s2020 xx eo 000 0 ger d |
040 |
|
|
|a TOH
|b eng
|c TOH
|d OCLCO
|d VT2
|d CZL
|d OCLCQ
|
019 |
|
|
|a 1228618795
|a 1240520373
|a 1262686839
|
020 |
|
|
|a 9781098128258
|
020 |
|
|
|a 1098128257
|
020 |
|
|
|a 9783960091356
|
020 |
|
|
|a 3960091354
|
024 |
8 |
|
|a 9781098128258
|
035 |
|
|
|a (OCoLC)1228512870
|z (OCoLC)1228618795
|z (OCoLC)1240520373
|z (OCoLC)1262686839
|
049 |
|
|
|a UAMI
|
100 |
1 |
|
|a Harrison, Matt,
|e author.
|
245 |
1 |
0 |
|a Machine Learning - Die Referenz /
|c Harrison, Matt.
|
250 |
|
|
|a 1st edition.
|
264 |
|
1 |
|a [Place of publication not identified] :
|b dpunkt,
|c 2020.
|
300 |
|
|
|a 1 online resource (246 pages)
|
336 |
|
|
|a text
|b txt
|2 rdacontent
|
337 |
|
|
|a computer
|b c
|2 rdamedia
|
338 |
|
|
|a online resource
|b cr
|2 rdacarrier
|
347 |
|
|
|a text file
|
365 |
|
|
|b 38.87
|
520 |
|
|
|a Das praktische Nachschlagewerk zum Machine Learning mit strukturierten Daten.
|
542 |
|
|
|f Copyright © dpunkt
|
550 |
|
|
|a Made available through: Safari, an O'Reilly Media Company.
|
588 |
0 |
|
|a Online resource; Title from title page (viewed October 2, 2020).
|
505 |
0 |
|
|a Intro -- Inhalt -- Vorwort -- Kapitel 1: Einleitung -- Verwendete Bibliotheken -- Installation mit pip -- Installation mit conda -- Kapitel 2: Der Vorgang des maschinellen Lernens: Überblick -- Kapitel 3: Klassifikation Schritt für Schritt: der Titanic-Datensatz -- Vorschlag für das Projektlayout -- Importe -- Eine Frage stellen -- Begriffe und Bezeichnungen für die Daten -- Daten sammeln -- Daten säubern -- Merkmale gewinnen -- Stichproben von Daten nehmen -- Daten auffüllen -- Daten normalisieren -- Refaktorieren -- Vergleichsmodell -- Verschiedene Algorithmenfamilien -- Stacking -- Ein Modell erstellen -- Das Modell auswerten -- Das Modell optimieren -- Wahrheitsmatrix -- Grenzwertoptimierungskurve (ROC-Kurve) -- Trainingskurve -- Das Modell einsetzen -- Kapitel 4: Fehlende Daten -- Fehlende Daten untersuchen -- Fehlende Daten entfernen -- Daten auffüllen -- Indikatorspalten hinzufügen -- Kapitel 5: Daten säubern -- Spaltennamen -- Fehlende Werte ersetzen -- Kapitel 6: Erkunden -- Datenmenge -- Zusammenfassende Statistiken -- Histogramm -- Streudiagramm -- Kombidiagramm -- Paarmatrix -- Kasten- und Violinendiagramme -- Vergleich zweier Ordinalwerte -- Korrelation -- RadViz -- Parallele Koordinaten -- Kapitel 7: Daten vorverarbeiten -- Standardisieren -- Den Wertebereich skalieren -- Dummy-Variablen -- Markierungen codieren -- Häufigkeitscodierung -- Kategorien aus Text gewinnen -- Weitere kategoriale Codierungen -- Datumsmerkmale konstruieren -- Ein Merkmal col_na hinzufügen -- Manuelle Merkmalskonstruktion -- Kapitel 8: Merkmalsauswahl -- Kollineare Spalten -- Lasso-Regression -- Rekursiver Ausschluss von Merkmalen -- Wechselseitige Aussagekraft -- Hauptkomponentenverfahren -- Merkmalsgewichtung -- Kapitel 9: Unausgeglichene Klassen -- Eine andere Metrik anwenden -- Baumalgorithmen und Ensembles -- Modelle mit Strafpunkten.
|
505 |
8 |
|
|a Minderheiten erweitern -- Minderheitsdaten erzeugen -- Mehrheiten verkleinern -- Erweitern und danach verkleinern -- Kapitel 10: Klassifikation -- Logistische Regression -- Naiver Bayes-Klassifikator -- Supportvektormaschine -- K-nächste Nachbarn -- Entscheidungsbaum -- Random-Forest -- XGBoost -- Gradientenverstärkung mit LightGBM -- TPOT -- Kapitel 11: Modellauswahl -- Validierungskurve -- Lernkurve -- Kapitel 12: Metriken und Beurteilung der Klassifikation -- Wahrheitsmatrix -- Metriken -- Vertrauenswahrscheinlichkeit -- Trefferquote -- Genauigkeit -- F1 (F-Maß) -- Klassifikationstafel -- ROC-Kurve (Grenzwertoptimierungskurve) -- Kurve der Genauigkeit über der Trefferquote -- Kumulatives Gain-Diagramm -- Lift-Kurve -- Ausgeglichenheit der Klassen -- Klassenvorhersagefehler -- Ansprechschwelle -- Kapitel 13: Interpretation von Modellen -- Regressionskoeffizienten -- Merkmalsgewichtung -- LIME -- Interpretation von Bäumen -- Partielle Abhängigkeitsdiagramme -- Stellvertretermodelle -- Shapley -- Kapitel 14: Regression -- Vergleichsmodell -- Lineare Regression -- Supportvektormaschinen (SVM) -- K-nächste Nachbarn -- Entscheidungsbaum -- Random-Forest -- XGBoost-Regression -- Regression mit LightGBM -- Kapitel 15: Metriken und Bewertung der Regression -- Metriken -- Residuendiagramm -- Varianzheterogenität -- Normalverteilte Residuen -- Diagramm des Vorhersagefehlers -- Kapitel 16: Interpretation von Regressionsmodellen -- Shapley -- Kapitel 17: Dimensionsreduktion -- Hauptkomponentenverfahren (PCA) -- UMAP -- t-SNE -- PHATE -- Kapitel 18: Clustern -- K-Means-Algorithmus -- Agglomeratives (hierarchisches) Clustern -- Cluster verstehen -- Kapitel 19: Pipelines -- Klassifikationspipeline -- Regressionspipeline -- Pipeline für das Hauptkomponentenverfahren -- Index.
|
590 |
|
|
|a O'Reilly
|b O'Reilly Online Learning: Academic/Public Library Edition
|
710 |
2 |
|
|a O'Reilly for Higher Education (Firm),
|e distributor.
|
710 |
2 |
|
|a Safari, an O'Reilly Media Company.
|
856 |
4 |
0 |
|u https://learning.oreilly.com/library/view/~/9781098128258/?ar
|z Texto completo (Requiere registro previo con correo institucional)
|
994 |
|
|
|a 92
|b IZTAP
|