Helion


Szczegóły kursu video

Apache Kafka. Kurs video. Wstęp do strumieniowego przetwarzania danych

Apache Kafka. Kurs video. Wstęp do strumieniowego przetwarzania danych


Obierz kurs na... sprawną komunikację między maszynami

Apache Kafka jest rodzajem brokera wiadomości (pośrednika między nadawcą i odbiorcą). Opracowany dziesięć lat temu, dziś jest coraz chętniej używanym oprogramowaniem. Tak się bowiem składa, że z roku na rok rośnie ilość danych, które sieci komputerowe muszą przetwarzać w czasie rzeczywistym. Bez brokerów typu Apache Kafka byłoby to na dłuższą metę niemożliwe. Wagę tego rozwiązania widać zarówno w opiekującej się nim fundacji - Kafka to jeden z najintensywniej rozwijanych projektów Apache - jak i w wymaganiach rekrutacyjnych dla programistów. Kafka często znajduje się na liście must have.

Proponowany przez nas kurs ma na celu zapoznanie słuchacza z zasadami działania Apache Kafka jako przykładowego brokera wiadomości. Nawet osoba, która do tej pory nie miała styczności z innym źródłem danych niż baza relacyjna, poznawszy z nami Kafkę, nie tylko będzie potrafiła odnaleźć się w projektach wykorzystujących właśnie to oprogramowanie, ale także zrozumie zasadę działania dowolnego brokera wiadomości. Będzie też swobodnie korzystać z brokerów w codziennej pracy. Ponieważ szkolenie porusza również zagadnienia związane z analizą strumieniową, stanowi świetną podstawę do dalszego rozwoju w tym wartym uwagi zakresie - szczególnie jeżeli kursant ma ambicje rozwoju w kierunku inżynierii związanej z przetwarzaniem dużych zbiorów danych.

Co Cię czeka podczas naszego profesjonalnego szkolenia?

W trakcie kursu video:

  • Dowiesz się, czym jest Apache Kafka.
  • Zrozumiesz architekturę i genezę brokera Kafka.
  • Na praktycznych przykładach przekonasz się, jak działają konsumenci i producenci.
  • Poznasz podstawy wykorzystywania API klienta Kafki z użyciem języka Java.
  • Opanujesz podstawowe koncepcje stojące za biblioteką Kafka Streams.
  • Stworzysz przykładowy mechanizm liczenia słów w tekście przy użyciu biblioteki Kafka Streams.
  • Zaznajomisz się z podstawowymi koncepcjami stojącymi za Kafka Connect, nauczysz się stosować ją w podstawowych przypadkach (korzystając ze sterowników JDBC).

Co więcej...

  • Zbudujesz PoC (proof of concept) architektury przetwarzającej dane płynące z API strumieniowego sieci społecznościowej Twitter. Samodzielnie, z wykorzystaniem zewnętrznych bibliotek, stworzysz prosty mechanizm analizujący nacechowania emocjonalne tweetów w czasie rzeczywistym.

Apache Kafka. Kurs video. Wstęp do strumieniowego przetwarzania danych kończy się na poziomie podstawowym. Odbywszy to szkolenie, będziesz dysponować solidną bazą teoretyczną i praktyczną, niezbędną do tego, by zacząć korzystać z Apache Kafka.

Kafka od podstaw

Kafka powstała jako projekt LinkedIn, udostępniono ją odbiorcom w 2011 roku w charakterze oprogramowania typu open source. Dziś rozwija się pod skrzydłami fundacji Apache i jest dodatkowo wspierana przez firmę Confluent. Należąca do niej specjalna platforma dedykowana Kafce powstała dzięki współpracy twórców tego brokera wiadomości i byłych pracowników firmy LinkedIn. Zatem, jak widać, powstanie Kafki zainicjowało zwrot w karierze inżynierów zaangażowanych od początku w ten projekt.

Komu Kafki?

Jeśli zastanawiasz się nadal, komu i do czego może się przydać broker wiadomości, pozwól, że zarysujemy przed Tobą sylwetkę typowego użytkownika. To programista posiadający co najmniej podstawową wiedzę z zakresu programowania warstwy serwerowej (backendu) - w przypadku naszego kursu akurat z użyciem języka Java. Kafka może być jednak wykorzystywana nie tylko przez „javowców” - równie dobrze mogą jej używać developerzy operujący w Pythonie czy Scali. Przydaje im się ona w projektach typu big data, w których stanowi niezbędny wręcz element architektury, a jej dobre zrozumienie może okazać się decydujące przy podejmowaniu poprawnych merytorycznie i biznesowo decyzji.

  • 1. Rozdział 1
    • 1.1. O kursie00:01:48
    • 1.2. Wprowadzenie do Apache Kafka00:04:38
    • 1.3. Podstawy architektury Apache Kafka00:04:41
  • 2. Rozdział 2
    • 2.1. Instalacja, uruchomienie lokalne Kafki, przetestowanie konsolowego producenta i konsumenta00:15:51
    • 2.2. Podstawowy przykład wykorzystania Kafka producer i Consumer API w języku Java00:16:03
    • 2.3. Podstawowy przykład wykorzystania Kafka Streams: WordCount demo00:22:15
  • 3. Rozdział 3
    • 3.1. Wprowadzenie do Kafka Connect00:05:18
    • 3.2. Podstawowy przykład użycia Kafka Connect00:20:58
    • 3.3. Przykład użycia Kafka Connect z JDBC00:27:35
  • 4. Rozdział 4
    • 4.1. Analizowanie danych z API Twittera: plan PoC00:07:13
    • 4.2. Implementacja Tweets Producer (cz.1)00:30:03
    • 4.3. Implementacja Tweets Producer (cz.2)00:44:40
    • 4.4. Implementacja Tweets Analyzer (cz.1)00:29:11
    • 4.5. Implementacja Tweets Analyzer (cz.2)00:41:23
    • 4.6. Implementacja Tweets Analyzer (cz.3)00:12:02
    • 4.7. Podsumowanie00:05:38

  • Tytuł: Apache Kafka. Kurs video. Wstęp do strumieniowego przetwarzania danych
  • Autor: Marcin Berendt
  • Ilość rozdziałów: 4
  • Ilość lekcji: 16
  • Czas trwania: 04:49:17
  • ISBN: 978-83-283-7574-1, 9788328375741
  • Data wydania: 2021-01-12
  • Identyfikator pozycji: vkafka
  • Kategorie:
  • Wydawca: Videopoint