Von der Datenaggregation auf den Nodes, über die Auswertung in Hadoop und den Transfer zurück soll ein kompletter Kreislauf entstehen.
Dieser Artikel ist noch nicht fertig gestellt.
Wir bauen die Architektur Schritt für Schritt auf.
== Setup ==
== Format ==
Wir bauen die Architektur Schritt für Schritt auf.
== Setup ==
- [wiki]Apache Hadoop Installation[/wiki]
== Format ==
- [wiki]Thrift, Protocol Buffers, Avro. Welches Datenformat?[/wiki]
- [wiki]Apache Thrift Installation[/wiki]
- [wiki]Thrift PHP Extension installieren[/wiki]
- [wiki]Scribe & Flume. Datentransport in die Cloud[/wiki]
- [wiki]Cloudera Flume Installation[/wiki]
- [wiki]Flume mit PHP[/wiki]
- [wiki]Hadoop mit LZO[/wiki]
- [wiki]Flume mit LZO[/wiki]
- [wiki]Elephant Bird Installation[/wiki]
- Datenanalyse mit Pig
- Speichern in Hbase/Cassandra/Redis
- Zugriff auf Hbase/Cassandra/Redis
9.031 mal gelesen