PyTorch für Deep Learning
Mit diesem praxisorientierten Buch meistern Sie die Methoden des Deep Learning, einer Teildisziplin des Machine Learning, die die Welt um uns herum verändert.Machen Sie sich mit PyTorch, dem populären Python-Framework von Facebook, vertraut, und lernen Sie Schlüsselkonzepte und neueste Technik...
Autor principal: | |
---|---|
Formato: | Electrónico eBook |
Idioma: | Inglés Alemán |
Publicado: |
dpunkt,
2020.
|
Edición: | 1st edition. |
Acceso en línea: | Texto completo (Requiere registro previo con correo institucional) |
MARC
LEADER | 00000cam a2200000Ma 4500 | ||
---|---|---|---|
001 | OR_on1295602440 | ||
003 | OCoLC | ||
005 | 20231017213018.0 | ||
006 | m o d | ||
007 | cr cn||||||||| | ||
008 | 081020s2020 xx o 000 0 eng d | ||
040 | |a CZL |b eng |e rda |e pn |c CZL |d VT2 |d TOH |d OCLCQ | ||
019 | |a 1224942830 | ||
020 | |a 1098125894 | ||
020 | |a 9781098125899 | ||
020 | |a 3960103999 | ||
020 | |a 9783960103998 | ||
020 | |a 9783960091349 | ||
020 | |a 3960091346 | ||
029 | 1 | |a AU@ |b 000071520657 | |
035 | |a (OCoLC)1295602440 |z (OCoLC)1224942830 | ||
041 | |a ger | ||
082 | 0 | 4 | |a 006.31 |q OCoLC |
049 | |a UAMI | ||
100 | 1 | |a Pointer, Ian, |e author. | |
245 | 1 | 0 | |a PyTorch für Deep Learning |h [electronic resource] / |c Pointer, Ian. |
250 | |a 1st edition. | ||
264 | 1 | |b dpunkt, |c 2020. | |
300 | |a 1 online resource (272 pages) | ||
336 | |a text |b txt |2 rdacontent | ||
337 | |a computer |b c |2 rdamedia | ||
338 | |a online resource |b cr |2 rdacarrier | ||
347 | |a text file | ||
588 | 0 | # | |a Online resource; Title from title page (viewed September 4, 2020). |
520 | |a Mit diesem praxisorientierten Buch meistern Sie die Methoden des Deep Learning, einer Teildisziplin des Machine Learning, die die Welt um uns herum verändert.Machen Sie sich mit PyTorch, dem populären Python-Framework von Facebook, vertraut, und lernen Sie Schlüsselkonzepte und neueste Techniken, um Ihre eigenen neuronalen Netze zu entwickeln. Ian Pointer zeigt Ihnen zunächst, wie Sie PyTorch in einer Cloud-basierten Umgebung einrichten. Er führt Sie dann durch die einzelnen Schritte der Entwicklung von neuronalen Architekturen, um praxisrelevante Anwendungen für Bilder, Ton, Text und andere Datenformate zu erstellen. Er erläutert auch das Transfer-Learning mit Bilddaten und das Debuggen der Modelle. Sie erfahren zudem, wie Sie Ihre Deep-Learning-Anwendungen in Docker-Containern und Kubernetes-Clustern in den Produktiveinsatz bringen. | ||
505 | 0 | |a Intro -- Inhalt -- Kapitel 1: Einstieg in PyTorch -- Zusammenbau eines maßgeschneiderten Deep-Learning-Rechners -- Grafikprozessor (GPU) -- Hauptprozessor (CPU) und Motherboard -- Arbeitsspeicher (RAM) -- Speicher -- Deep Learning in der Cloud -- Google Colaboratory -- Cloud-Anbieter -- Welchen Cloud-Anbieter sollte ich wählen? -- Verwendung von Jupyter Notebook -- PyTorch selbst installieren -- CUDA downloaden -- Anaconda -- Zu guter Letzt -- PyTorch (und Jupyter Notebook) -- Tensoren -- Tensoroperationen -- Tensor-Broadcasting -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 2: Bildklassifizierung mit PyTorch -- Unsere Klassifizierungsaufgabe -- Traditionelle Herausforderungen -- Zunächst erst mal Daten -- Daten mit PyTorch einspielen -- Einen Trainingsdatensatz erstellen -- Erstellen eines Validierungs- und eines Testdatensatzes -- Endlich, ein neuronales Netzwerk! -- Aktivierungsfunktionen -- Ein Netzwerk erstellen -- Verlustfunktionen -- Optimierung -- Training -- Validierung -- Ein Modell auf der GPU zum Laufen bringen -- Alles in einem -- Vorhersagen treffen -- Speichern von Modellen -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 3: Neuronale Konvolutionsnetze (CNNs) -- Unser erstes Konvolutionsnetz -- Konvolutionen -- Pooling -- Die Dropout-Schicht -- Die Geschichte der CNN-Architekturen -- AlexNet -- Inception/GoogLeNet -- VGG -- ResNet -- Weitere Architekturen -- Vortrainierte Modelle in PyTorch nutzen -- Die Struktur eines Modells untersuchen -- Die Batch-Normalisierungs-Schicht -- Welches Modell sollten Sie verwenden? -- One-Stop-Shopping für Modelle: PyTorch Hub -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 4: Transfer Learning und andere Kniffe -- Transfer Learning mit ResNet -- Die optimale Lernrate finden -- Differenzielle Lernraten -- Datenaugmentation -- Transformationen in Torchvision. | |
505 | 8 | |a Farbräume und Lambda-Transformationen -- Benutzerdefinierte Transformationsklassen -- Klein anfangen und schrittweise vergrößern! -- Ensemble-Modelle -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 5: Textklassifizierung -- Rekurrente neuronale Netzwerke -- Long-Short-Term-Memory-(LSTM-)Netzwerke -- Gated Recurrent Units (GRUs) -- BiLSTM-Netzwerke -- Einbettungen -- Torchtext -- Ein Twitter-Datensatz -- Field-Objekte definieren -- Einen Wortschatz aufbauen -- Erstellung unseres Modells -- Die Trainingsschleife modifizieren -- Tweets klassifizieren -- Datenaugmentation -- Zufälliges Einfügen -- Zufälliges Löschen -- Zufälliges Austauschen -- Rückübersetzung -- Datenaugmentation und Torchtext -- Transfer Learning? -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 6: Eine Reise in die Welt der Klänge -- Töne -- Der ESC-50-Datensatz -- Den Datensatz beschaffen -- Audiowiedergabe in Jupyter -- Den ESC-50-Datensatz erkunden -- SoX und LibROSA -- torchaudio -- Einrichten eines eigenen ESC-50-Datensatzes -- Ein CNN-Modell für den ESC-50-Datensatz -- Frequenzbereich -- Mel-Spektrogramme -- Ein neuer Datensatz -- Ein vortrainiertes ResNet-Modell -- Lernrate finden -- Datenaugmentation für Audiodaten -- Transformationen mit torchaudio -- SoX-Effektketten -- SpecAugment -- Weitere Experimente -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 7: PyTorch-Modelle debuggen -- 3 Uhr morgens. Wie steht es um Ihre Daten? -- TensorBoard -- TensorBoard installieren -- Daten an TensorBoard übermitteln -- Hooks in PyTorch -- Mittelwert und Standardabweichung visualisieren -- Class Activation Mapping -- Flammendiagramme -- py-spy installieren -- Flammendiagramme interpretieren -- Eine langsame Transformation beheben -- Debuggen von GPU-Problemen -- Die GPU überwachen -- Gradient-Checkpointing -- Zusammenfassung -- Weiterführende Literatur. | |
505 | 8 | |a Kapitel 8: PyTorch im Produktiveinsatz -- Bereitstellen eines Modells -- Einrichten eines Flask-Webdiensts -- Modellparameter laden -- Erstellen eines Docker-Containers -- Unterschiede zwischen lokalem und Cloud-Speicher -- Logging und Telemetrie -- Deployment mit Kubernetes -- Einrichten der Google Kubernetes Engine -- Aufsetzen eines Kubernetes-Clusters -- Dienste skalieren -- Aktualisierungen und Bereinigungen -- TorchScript -- Tracing -- Scripting -- Einschränkungen in TorchScript -- Mit libTorch arbeiten -- libTorch einrichten -- Ein TorchScript-Modell importieren -- Quantisierung -- Dynamische Quantisierung -- Weitere Quantisierungsmöglichkeiten -- Lohnt sich das alles? -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 9: Praxiserprobte PyTorch-Modelle in Aktion -- Datenaugmentation: Vermischen und Glätten -- Mixup -- Label-Glättung -- Computer, einmal in scharf bitte! -- Einführung in die Super-Resolution -- Einführung in Generative Adversarial Networks (GANs) -- Der Fälscher und sein Kritiker -- Trainieren eines GAN -- Die Gefahr des Mode Collapse -- ESRGAN -- Weitere Einblicke in die Bilderkennung -- Objekterkennung -- Faster R-CNN und Mask R-CNN -- Adversarial Samples -- Black-Box-Angriffe -- Abwehr adversarialer Angriffe -- Die Transformer-Architektur -- Aufmerksamkeitsmechanismus -- Attention Is All You Need -- BERT -- FastBERT -- GPT-2 -- GPT-2 vorbereiten -- Texte mit GPT-2 erzeugen -- Beispielhafte Ausgabe -- ULMFiT -- Welches Modell verwenden? -- Selbstüberwachtes Training mit PyTorch Lightning auf Basis von Bildern -- Rekonstruieren und Erweitern der Eingabe -- Daten automatisch labeln -- PyTorch Lightning -- Der Imagenette-Datensatz -- Einen selbstüberwachten Datensatz erstellen -- Ein Modell mit PyTorch Lightning erstellen -- Weitere Möglichkeiten zur Selbstüberwachung (und darüber hinaus) -- Zusammenfassung. | |
505 | 8 | |a Weiterführende Literatur -- Index. | |
590 | |a O'Reilly |b O'Reilly Online Learning: Academic/Public Library Edition | ||
776 | |z 3-96009-134-6 | ||
856 | 4 | 0 | |u https://learning.oreilly.com/library/view/~/9781098125899/?ar |z Texto completo (Requiere registro previo con correo institucional) |
994 | |a 92 |b IZTAP |