Big Data : Entwicklung und Programmierung von Systemen für große Datenmengen und Einsatz der Lambda-Architektur /
Techniken und Best Practices für Datensysteme Einführung in Big-Data-Systeme Echtzeitverarbeitung sehr großer Datenmengen Tools wie Hadoop, Cassandra und Storm Bei Anwendungen in der Größenordnung von sozialen Netzwerken, der Datenverkehrsanalyse in Echtzeit oder E-Commerce-Websites entstehen seh...
Clasificación: | Libro Electrónico |
---|---|
Autores principales: | , |
Otros Autores: | |
Formato: | Electrónico eBook |
Idioma: | Alemán Inglés |
Publicado: |
[Germany] :
Mitp Verlags GmbH & Co. KG,
2016.
|
Temas: | |
Acceso en línea: | Texto completo (Requiere registro previo con correo institucional) |
Tabla de Contenidos:
- Cover; Titel; Impressum; Inhaltsverzeichnis; Vorwort; Danksagungen; Über dieses Buch; Kapitel 1: Ein neues Paradigma für Big Data; 1.1 Aufbau des Buches; 1.2 Skalierung mit einer herkömmlichen Datenbank; 1.2.1 Skalierung mit einer Warteschlange; 1.2.2 Skalierung durch Sharding; 1.2.3 Erste Probleme mit der Fehlertoleranz; 1.2.4 Probleme mit fehlerhaften Daten; 1.2.5 Was ist schiefgegangen?; 1.2.6 Inwiefern sind Big-Data-Verfahren hilfreich?; 1.3 NoSQL ist kein Allheilmittel; 1.4 Grundlagen; 1.5 Erwünschte Eigenschaften eines Big-Data-Systems; 1.5.1 Belastbarkeit und Fehlertoleranz
- 1.5.2 Lesen und Aktualisieren mit geringen Latenzzeiten1.5.3 Skalierbarkeit; 1.5.4 Allgemeingültigkeit; 1.5.5 Erweiterbarkeit; 1.5.6 Ad-hoc-Abfragen; 1.5.7 Minimaler Wartungsaufwand; 1.5.8 Fehlerbehebung; 1.6 Schwierigkeiten vollständig inkrementeller Architekturen; 1.6.1 Komplexität im Betrieb; 1.6.2 Extreme Komplexität, um letztendliche Konsistenz zu erzielen; 1.6.3 Keine Fehlertoleranz gegenüber menschlichem Versagen; 1.6.4 Vollständig inkrementelle Lösung kontra Lambda-Architektur; 1.7 Lambda-Architektur; 1.7.1 Batch-Layer; 1.7.2 Serving-Layer
- 1.7.3 Batch- und Serving-Layer erfüllen fast alle Anforderungen1.7.4 Speed-Layer; 1.8 Die neuesten Trends; 1.8.1 Prozessoren werden kaum noch schneller; 1.8.2 Elastic Clouds; 1.8.3 Ein lebhaftes Open-Source-Ökosystem für Big Data; 1.9 Beispielanwendung: SuperWebAnalytics.com; 1.10 Zusammenfassung; Teil I: Batch-Layer; Kapitel 2: Das Datenmodell für Big Data; 2.1 Die Eigenschaften von Daten; 2.1.1 Daten sind ursprünglich; 2.1.2 Daten sind unveränderlich; 2.1.3 Daten sind beständig korrekt; 2.2 Das faktenbasierte Modell zur Repräsentierung von Daten; 2.2.1 Faktenbeispiele und ihre Eigenschaften
- 2.2.2 Vorteile des faktenbasierten Modells2.3 Graphenschemata; 2.3.1 Elemente eines Graphenschemas; 2.3.2 Die Notwendigkeit, dem Schema zu gehorchen; 2.4 Ein vollständiges Datenmodell für SuperWebAnalytics.com; 2.5 Zusammenfassung; Kapitel 3: Das Datenmodell für Big Data: Praxis; 3.1 Wozu ein Serialisierungs-Framework?; 3.2 Apache Thrift; 3.2.1 Knoten; 3.2.2 Kanten; 3.2.3 Eigenschaften; 3.2.4 Alles in Datenobjekten zusammenfassen; 3.2.5 Weiterentwicklung des Schemas; 3.3 Für Serialisierungs-Frameworks geltende Beschränkungen; 3.4 Zusammenfassung; Kapitel 4: Datenspeicherung im Batch-Layer
- 4.1 Speicheranforderungen des Stammdatensatzes4.2 Auswahl einer Speicherlösung für den Batch-Layer; 4.2.1 Schlüssel-Werte-Datenbank zum Speichern des Stammdatensatzes verwenden; 4.2.2 Verteilte Dateisysteme; 4.3 Funktionsweise verteilter Dateisysteme; 4.4 Speichern des Stammdatensatzes mit einem verteilten Dateisystem; 4.5 Vertikale Partitionierung; 4.6 Verteilte Dateisysteme sind maschinennah; 4.7 Speichern des SuperWebAnalytics.com-Stammdatensatzes in einem verteiltem Dateisystem; 4.8 Zusammenfassung; Kapitel 5: Datenspeicherung im Batch-Layer: Praxis