Skalierbare Anwendungen mit Hadoop

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • In diesem Beispiel entwickeln wir eine skalierbare Anwendung mit Hadoop.
    Von der Datenaggregation auf den Nodes, über die Auswertung in Hadoop und den Transfer zurück soll ein kompletter Kreislauf entstehen.
    Dieser Artikel ist noch nicht fertig gestellt.
    Wir bauen die Architektur Schritt für Schritt auf.

    == Setup ==
    • [wiki]Apache Hadoop Installation[/wiki]

    == Format ==
    • [wiki]Thrift, Protocol Buffers, Avro. Welches Datenformat?[/wiki]
    • [wiki]Apache Thrift Installation[/wiki]
    • [wiki]Thrift PHP Extension installieren[/wiki]
    == Transport zu Hadoop ==
    • [wiki]Scribe & Flume. Datentransport in die Cloud[/wiki]
    • [wiki]Cloudera Flume Installation[/wiki]
    • [wiki]Flume mit PHP[/wiki]
    • [wiki]Hadoop mit LZO[/wiki]
    • [wiki]Flume mit LZO[/wiki]
    == Auswertung ==
    • [wiki]Elephant Bird Installation[/wiki]
    • Datenanalyse mit Pig
    == Speichern ==
    • Speichern in Hbase/Cassandra/Redis
    == Zugriff ==
    • Zugriff auf Hbase/Cassandra/Redis

    9.016 mal gelesen