Deep Learning mit Python und Keras : Das Praxis-Handbuch vom Entwickler der Keras-Bibliothek /
Einführung in die grundlegenden Konzepte von Machine Learning und Deep Learning Zahlreiche praktische Anwendungsbeispiele zum Lösen konkreter Aufgabenstellungen Maschinelles Sehen, Sprachverarbeitung, Bildklassifizierung, Vorhersage von Zeitreihen, Stimmungsanalyse, Erzeugung von Bildern und Texte...
Clasificación: | Libro Electrónico |
---|---|
Autor principal: | |
Otros Autores: | |
Formato: | Electrónico eBook |
Idioma: | Alemán Inglés |
Publicado: |
Frechen :
MITP Verlags GmbH & Co. KG,
2018.
|
Temas: | |
Acceso en línea: | Texto completo (Requiere registro previo con correo institucional) |
Tabla de Contenidos:
- Cover
- Titel
- Impressum
- Inhaltsverzeichnis
- Einleitung
- Über dieses Buch
- Wer sollte dieses Buch lesen?
- Überblick
- Erforderliche Hard- und Software
- Quellcode
- Das Forum zum Buch
- Über den Autor
- Über den Fachkorrektor
- Danksagungen
- Teil I: Grundlagen des Deep Learnings
- Kapitel 1: Was ist Deep Learning?
- 1.1 Künstliche Intelligenz, Machine Learning und Deep Learning
- 1.1.1 Künstliche Intelligenz
- 1.1.2 Machine Learning
- 1.1.3 Die Repräsentation anhand der Daten erlernen
- 1.1.4 Das »Deep« in Deep Learning
- 1.1.5 Deep Learning in drei Diagrammen erklärt
- 1.1.6 Was Deep Learning heute schon leisten kann
- 1.1.7 Schenken Sie dem kurzfristigen Hype keinen Glauben
- 1.1.8 Das Versprechen der KI
- 1.2 Vor Deep Learning: eine kurze Geschichte des Machine Learnings
- 1.2.1 Probabilistische Modellierung
- 1.2.2 Die ersten neuronalen Netze
- 1.2.3 Kernel-Methoden
- 1.2.4 Entscheidungsbäume, Random Forests und Gradient Boosting Machines
- 1.2.5 Zurück zu neuronalen Netzen
- 1.2.6 Das Besondere am Deep Learning
- 1.2.7 Der Stand des modernen Machine-Learnings
- 1.3 Warum Deep Learning? Und warum jetzt?
- 1.3.1 Hardware
- 1.3.2 Daten
- 1.3.3 Algorithmen
- 1.3.4 Eine neue Investitionswelle
- 1.3.5 Die Demokratisierung des Deep Learnings
- 1.3.6 Bleibt es so?
- Kapitel 2: Bevor es losgeht: die mathematischen Bausteine eines NNs
- 2.1 Ein erster Blick auf ein NN
- 2.2 Datenrepräsentationen
- 2.2.1 Skalare (0-D-Tensoren)
- 2.2.2 Vektoren (1-D-Tensoren)
- 2.2.3 Matrizen (2-D-Tensoren)
- 2.2.4 3-D-Tensoren und höherdimensionale Tensoren
- 2.2.5 Die wichtigsten Attribute
- 2.2.6 Bearbeiten von Tensoren mit Numpy
- 2.2.7 Datenstapel
- 2.2.8 Beispiele für Datentensoren aus der Praxis
- 2.2.9 Vektordaten
- 2.2.10 Zeitreihen oder sequenzielle Daten
- 2.2.11 Bilddaten
- 2.2.12 Videodaten
- 2.3 Das Getriebe von NNs: Tensoroperationen
- 2.3.1 Elementweise Operationen
- 2.3.2 Broadcasting
- 2.3.3 Tensorprodukt
- 2.3.4 Tensoren umformen
- 2.3.5 Geometrische Interpretation von Tensoroperationen
- 2.3.6 Eine geometrische Interpretation des Deep Learnings
- 2.4 Der Antrieb von NNs: gradientenbasierte Optimierung
- 2.4.1 Was ist eine Ableitung?
- 2.4.2 Ableitung einer Tensoroperation: der Gradient
- 2.4.3 Stochastisches Gradientenabstiegsverfahren
- 2.4.4 Ableitungen verketten: der Backpropagation-Algorithmus
- 2.5 Zurück zum ersten Beispiel
- 2.6 Zusammenfassung Kapitel 2
- Kapitel 3: Einführung in neuronale Netze
- 3.1 Aufbau eines NNs
- 3.1.1 Layer: Bausteine des Deep Learnings
- 3.1.2 Modelle: vernetzte Layer
- 3.1.3 Verlustfunktionen und Optimierer: Konfiguration des Lernvorgangs
- 3.2 Einführung in Keras
- 3.2.1 Keras, TensorFlow, Theano und CNTK
- 3.2.2 Mit Keras entwickeln: eine kurze Übersicht
- 3.3 Einrichtung eines Deep-Learning-Rechners