Cargando…

Big Data : Entwicklung und Programmierung von Systemen für große Datenmengen und Einsatz der Lambda-Architektur /

Techniken und Best Practices für Datensysteme Einführung in Big-Data-Systeme Echtzeitverarbeitung sehr großer Datenmengen Tools wie Hadoop, Cassandra und Storm Bei Anwendungen in der Größenordnung von sozialen Netzwerken, der Datenverkehrsanalyse in Echtzeit oder E-Commerce-Websites entstehen seh...

Descripción completa

Detalles Bibliográficos
Clasificación:Libro Electrónico
Autores principales: Marz, Nathan (Autor), Warren, James (Autor)
Otros Autores: Lorenzen, Knut (Traductor)
Formato: Electrónico eBook
Idioma:Alemán
Inglés
Publicado: [Germany] : Mitp Verlags GmbH & Co. KG, 2016.
Temas:
Acceso en línea:Texto completo (Requiere registro previo con correo institucional)
Tabla de Contenidos:
  • Cover; Titel; Impressum; Inhaltsverzeichnis; Vorwort; Danksagungen; Über dieses Buch; Kapitel 1: Ein neues Paradigma für Big Data; 1.1 Aufbau des Buches; 1.2 Skalierung mit einer herkömmlichen Datenbank; 1.2.1 Skalierung mit einer Warteschlange; 1.2.2 Skalierung durch Sharding; 1.2.3 Erste Probleme mit der Fehlertoleranz; 1.2.4 Probleme mit fehlerhaften Daten; 1.2.5 Was ist schiefgegangen?; 1.2.6 Inwiefern sind Big-Data-Verfahren hilfreich?; 1.3 NoSQL ist kein Allheilmittel; 1.4 Grundlagen; 1.5 Erwünschte Eigenschaften eines Big-Data-Systems; 1.5.1 Belastbarkeit und Fehlertoleranz
  • 1.5.2 Lesen und Aktualisieren mit geringen Latenzzeiten1.5.3 Skalierbarkeit; 1.5.4 Allgemeingültigkeit; 1.5.5 Erweiterbarkeit; 1.5.6 Ad-hoc-Abfragen; 1.5.7 Minimaler Wartungsaufwand; 1.5.8 Fehlerbehebung; 1.6 Schwierigkeiten vollständig inkrementeller Architekturen; 1.6.1 Komplexität im Betrieb; 1.6.2 Extreme Komplexität, um letztendliche Konsistenz zu erzielen; 1.6.3 Keine Fehlertoleranz gegenüber menschlichem Versagen; 1.6.4 Vollständig inkrementelle Lösung kontra Lambda-Architektur; 1.7 Lambda-Architektur; 1.7.1 Batch-Layer; 1.7.2 Serving-Layer
  • 1.7.3 Batch- und Serving-Layer erfüllen fast alle Anforderungen1.7.4 Speed-Layer; 1.8 Die neuesten Trends; 1.8.1 Prozessoren werden kaum noch schneller; 1.8.2 Elastic Clouds; 1.8.3 Ein lebhaftes Open-Source-Ökosystem für Big Data; 1.9 Beispielanwendung: SuperWebAnalytics.com; 1.10 Zusammenfassung; Teil I: Batch-Layer; Kapitel 2: Das Datenmodell für Big Data; 2.1 Die Eigenschaften von Daten; 2.1.1 Daten sind ursprünglich; 2.1.2 Daten sind unveränderlich; 2.1.3 Daten sind beständig korrekt; 2.2 Das faktenbasierte Modell zur Repräsentierung von Daten; 2.2.1 Faktenbeispiele und ihre Eigenschaften
  • 2.2.2 Vorteile des faktenbasierten Modells2.3 Graphenschemata; 2.3.1 Elemente eines Graphenschemas; 2.3.2 Die Notwendigkeit, dem Schema zu gehorchen; 2.4 Ein vollständiges Datenmodell für SuperWebAnalytics.com; 2.5 Zusammenfassung; Kapitel 3: Das Datenmodell für Big Data: Praxis; 3.1 Wozu ein Serialisierungs-Framework?; 3.2 Apache Thrift; 3.2.1 Knoten; 3.2.2 Kanten; 3.2.3 Eigenschaften; 3.2.4 Alles in Datenobjekten zusammenfassen; 3.2.5 Weiterentwicklung des Schemas; 3.3 Für Serialisierungs-Frameworks geltende Beschränkungen; 3.4 Zusammenfassung; Kapitel 4: Datenspeicherung im Batch-Layer
  • 4.1 Speicheranforderungen des Stammdatensatzes4.2 Auswahl einer Speicherlösung für den Batch-Layer; 4.2.1 Schlüssel-Werte-Datenbank zum Speichern des Stammdatensatzes verwenden; 4.2.2 Verteilte Dateisysteme; 4.3 Funktionsweise verteilter Dateisysteme; 4.4 Speichern des Stammdatensatzes mit einem verteilten Dateisystem; 4.5 Vertikale Partitionierung; 4.6 Verteilte Dateisysteme sind maschinennah; 4.7 Speichern des SuperWebAnalytics.com-Stammdatensatzes in einem verteiltem Dateisystem; 4.8 Zusammenfassung; Kapitel 5: Datenspeicherung im Batch-Layer: Praxis