Kafka-Wissen für Software-Architekten, Entwickler und Administratoren
Die Zukunft Ihres Unternehmens ist nur dann sicher, wenn Sie richtig mit Daten umgehen. Neben dem Sammeln, Speichern und Auswerten ist der Austausch von Daten zwischen unterschiedlichen Systemen hierbei von immenser Bedeutung. Denn er soll zuverlässig und möglichst in Echtzeit erfolgen. Diese Anforderungen erfüllt Apache Kafka und hat sich deshalb als Standard etabliert. Immer mehr Unternehmen setzen Apache Kafka heute als Streaming-Plattform und Messaging-System ein, um die Komplexität moderner IT-Architekturen beherrschbar zu machen.
Für den Erfolg dieser Mission ist Wissen entscheidend. Und weil geteiltes Wissen höheren Mehrwert hat, nimmt dieses Buch Software-Architekten, Entwickler und Administratoren gleichermaßen auf die spannende Apache-Kafka-Mission mit – eine Mission, die von den Grundlagen bis zum Produktiveinsatz Kafka-basierter Daten-Pipelines reicht. Erleben Sie, wie Apache Kafka Zuverlässigkeit und Performance erreicht und wie Sie Komplikationen frühzeitig meistern. Anhand zahlreicher Praxisbeispiele lernen Sie überdies, wie Sie Best-Practice-Lösungen in Ihrem eigenen Unternehmen umsetzen.
Aus dem Inhalt
Warum Kafka? – Motivation für Kafka und verbreitete Nutzungsarten
Was ist Kafka? – Kafka als verteilter Log
Wie erreicht Kafka seine Performance? – Partitionen und Consumer Groups
Wie erreicht Kafka seine Zuverlässigkeit? – Replikation, ACKs und Exactly Once
Nachrichten produzieren und konsumieren: Was passiert in den Clients und auf den Brokern?
Nachrichten aufräumen: Wie können nicht mehr benötigte Daten gelöscht und Speicherplatz frei geräumt werden?
Einblicke in das Kafka-Ökosystem: Kafka über Kafka Connect mit anderen Systemen wie Datenbanken und externen Systemen verbinden
Was genau ist Kafka? Die Autoren zeigen in der Einführung in dieser Leseprobe, wie große Unternehmen Kafka einsetzen, um große Datenmengen von A nach B zu bewegen. Kafka eignet sich auch als Schnittstelle zwischen Altsystemen für bestehende Geschäftsprozesse und neuen Systemen, um untereinander Nachrichten auszutauschen. Sehen Sie hier an einem Beispiel, wie einige Daten in Kafka geschrieben und verarbeitet werden.
Wer hat's geschrieben?
Anatoly Zelenin vermittelt als IT-Trainer hunderten Teilnehmern Apache Kafka in interaktiven Schulungen. Seine Kunden aus dem DAX-Umfeld und dem deutschen Mittelstand schätzen seit über einem Jahrzehnt seine Expertise und seine begeisternde Art. Darüber hinaus ist er nicht nur IT-Berater und -Trainer, sondern erkundet auch als Abenteurer unseren Planeten.
Alexander Kropp ist seit seiner Kindheit leidenschaftlicher Informatiker und programmiert seit er 10 Jahre alt ist. Als Forscher und Berater unterstützt Alexander seit einem Jahrzehnt namhafte Unternehmen bei der Digitalisierung und Prototypen-Entwicklung. Parallel ist er als Dozent und Trainer im Cloud-Umfeld tätig.