Publisher: 8
Dayong Du
In this book, we prepare you for your journey into big data by frstly introducing you to backgrounds in the big data domain, alongwith the process of setting up and getting familiar with your Hive working environment. Next, the book guides you through discovering and transforming the values of big data with the help of examples. It also hones your skills in using the Hive language in an effcient manner. Toward the end, the book focuses on advanced topics, such as performance, security, and extensions in Hive, which will guide you on exciting adventures on this worthwhile big data journey. By the end of the book, you will be familiar with Hive and able to work effeciently to find solutions to big data problems
Apache Ignite Quick Start Guide. Distributed data caching and processing made easy
Sujoy Acharya
Apache Ignite is a distributed in-memory platform designed to scale and process large volume of data. It can be integrated with microservices as well as monolithic systems, and can be used as a scalable, highly available and performant deployment platform for microservices. This book will teach you to use Apache Ignite for building a high-performance, scalable, highly available system architecture with data integrity.The book takes you through the basics of Apache Ignite and in-memory technologies. You will learn about installation and clustering Ignite nodes, caching topologies, and various caching strategies, such as cache aside, read and write through, and write behind. Next, you will delve into detailed aspects of Ignite’s data grid: web session clustering and querying data.You will learn how to process large volumes of data using compute grid and Ignite’s map-reduce and executor service. You will learn about the memory architecture of Apache Ignite and monitoring memory and caches. You will use Ignite for complex event processing, event streaming, and the time-series predictions of opportunities and threats. Additionally, you will go through off-heap and on-heap caching, swapping, and native and Spring framework integration with Apache Ignite.By the end of this book, you will be confident with all the features of Apache Ignite 2.x that can be used to build a high-performance system architecture.
Raúl Estrada
Apache Kafka provides a unified, high-throughput, low-latency platform to handle real-time data feeds. This book will show you how to use Kafka efficiently, and contains practical solutions to the common problems that developers and administrators usually face while working with it. This practical guide contains easy-to-follow recipes to help you set up, configure, and use Apache Kafka in the best possible manner. You will use Apache Kafka Consumers and Producers to build effective real-time streaming applications. The book covers the recently released Kafka version 1.0, the Confluent Platform and Kafka Streams. The programming aspect covered in the book will teach you how to perform important tasks such as message validation, enrichment and composition.Recipes focusing on optimizing the performance of your Kafka cluster, and integrate Kafka with a variety of third-party tools such as Apache Hadoop, Apache Spark, and Elasticsearch will help ease your day to day collaboration with Kafka greatly. Finally, we cover tasks related to monitoring and securing your Apache Kafka cluster using tools such as Ganglia and Graphite.If you're looking to become the go-to person in your organization when it comes to working with Apache Kafka, this book is the only resource you need to have.
Apache Kafka. Kurs video. Przetwarzanie danych w czasie rzeczywistym
Paweł Pluta
Obierz kurs na... pracę z dużą ilością danych Oprogramowanie Apache Kafka powstało jako broker wiadomości w LinkedIn. Obecnie pełni funkcję rozproszonego systemu przetwarzania strumieniowego danych, używanego do budowania aplikacji opracowujących duże ilości danych w czasie rzeczywistym. Z zalet tego oprogramowania korzystają firmy na całym świecie – jest kluczowym narzędziem w takich sektorach jak bankowość, e-commerce, telekomunikacja itd. Znana ze swojej wyjątkowej wydajności i skalowalności Kafka to rozwiązanie idealne dla aplikacji o wysokich wymaganiach dotyczących pracy na danych. Umiejętność jej obsługi staje się więc wysoce pożądana na informatycznym rynku pracy. Jeśli chcesz dołączyć do grona programistów swobodnie czujących się w obszarach związanych z przetwarzaniem danych – zacznij od Kafki i naszego kursu. Dowiesz się z niego, jak zainstalować i skonfigurować Kafkę, a także jak jej używać. Niezależnie od tego, czy jesteś osobą początkującą, czy też bardziej zaawansowaną, znajdziesz tu coś dla siebie. Uzyskasz wszechstronną praktyczną wiedzę i umiejętności, które zastosujesz w różnych aspektach przetwarzania danych i rozwoju aplikacji w dzisiejszym świecie technologii. Szkolenie przygotuje Cię do stosowania Apache Kafka w realnych scenariuszach biznesowych i technologicznych, takich jak obsługa wolumenów danych w czasie rzeczywistym, integracja systemów i aplikacji, monitorowanie i logowanie operacji w dużych systemach czy włączanie oprogramowania do systemów analizy big data. Co Cię czeka podczas naszego profesjonalnego szkolenia Podczas kursu: Zdobędziesz wiedzę na temat tego, czym jest Kafka i dlaczego jest tak ważnym narzędziem w przetwarzaniu danych Poznasz główne komponenty Kafki, takie jak topic, partycja i offset Stworzysz producentów i konsumentów danych w Kafce, co jest kluczowe w zarządzaniu ich przepływem Opanujesz umiejętności w zakresie serializacji i deserializacji danych, co jest ważne w ich przetwarzaniu i przechowywaniu Przyjrzysz się grupom konsumentów i ich znaczeniu w architekturze Kafki Rozpracujesz rolę brokera (serwera) w systemie Kafka Opanujesz różne mechanizmy zapewniające wysoką dostępność i odporność danych w Kafce Dowiesz się, jak działa replikacja w Kafce i jak ją konfigurować Zgłębisz temat systemu potwierdzeń, który zapewnia niezawodność przesyłania danych Zrozumiesz, w jaki sposób zarządza się trwałością tematów w Kafce Poznasz rolę ZooKeepera w ekosystemie Kafki Zainstalujesz i skonfigurujesz Kafkę tak, aby odpowiadała Twoim potrzebom Będziesz tworzyć i modyfikować topiki, a także nimi zarządzać Pojmiesz zadania producenta i konsumenta danych poprzez ćwiczenia w konsoli Zintegrujesz Kafkę z aplikacjami Java, także w zakresie wysyłania wiadomości i pobierania danych Szkolenie Apache Kafka. Kurs video. Przetwarzanie danych w czasie rzeczywistym zapewnia solidne fundamenty teoretyczne i praktyczne, umożliwiając słuchaczom osiągnięcie poziomu średnio zaawansowanego. Absolwenci będą przygotowani do efektywnego stosowania Apache Kafka w różnych scenariuszach i wyposażeni w cenione na rynku pracy umiejętności. Kurs jest doskonałą propozycją dla osób, które chcą poszerzyć wiedzę i umiejętności w zakresie przetwarzania strumieniowego danych i zrozumieć, jak stosować Kafkę w praktycznych projektach IT. Chodź na Kafkę i poznaj ją bliżej Oprogramowanie Apache Kafka zostało stworzone przez zespół programistów w LinkedIn jako narzędzie do śledzenia aktywności użytkowników i przetwarzania logów. Później udostępniono je jako projekt open source. Z Kafki chętnie korzystają tacy giganci technologiczni jak Netflix, Uber, Spotify i Twitter – stosują ją do przetwarzania ogromnych ilości danych w czasie rzeczywistym. Na przykład Uber używa jej do przetwarzania miliardów wiadomości dziennie. W przeciwieństwie do tradycyjnych systemów kolejkowania wiadomości Kafka pozwala skalować w poziomie i radzić sobie z przetwarzaniem danych w czasie rzeczywistym na dużą skalę, co czyni ją wyjątkowym narzędziem w świecie big data. Często jest używana w architekturach opartych na przetwarzaniu strumieniowym zdarzeń (event streaming), co stanowi istotne odejście od tradycyjnego przetwarzania wsadowego (batch processing), pozwala bowiem na szybszą reakcję na dane w czasie rzeczywistym. Kafka znajduje również zastosowanie w projektach internetu rzeczy – tu może służyć jako centralny system do zbierania i przetwarzania danych z tysięcy urządzeń IoT. W testach wydajnościowych Kafka wykazała możliwość obsługi tysięcy wiadomości na sekundę, co czyni ją idealnym rozwiązaniem dla aplikacji wymagających szybkiego przetwarzania i analizy dużych ilości danych.
Raúl Estrada
Apache Kafka is a great open source platform for handling your real-time data pipeline to ensure high-speed filtering and pattern matching on the ?y. In this book, you will learn how to use Apache Kafka for efficient processing of distributed applications and will get familiar with solving everyday problems in fast data and processing pipelines.This book focuses on programming rather than the configuration management of Kafka clusters or DevOps. It starts off with the installation and setting up the development environment, before quickly moving on to performing fundamental messaging operations such as validation and enrichment.Here you will learn about message composition with pure Kafka API and Kafka Streams. You will look into the transformation of messages in different formats, such asext, binary, XML, JSON, and AVRO. Next, you will learn how to expose the schemas contained in Kafka with the Schema Registry. You will then learn how to work with all relevant connectors with Kafka Connect. While working with Kafka Streams, you will perform various interesting operations on streams, such as windowing, joins, and aggregations. Finally, through KSQL, you will learn how to retrieve, insert, modify, and delete data streams, and how to manipulate watermarks and windows.
Apache Karaf Cookbook. Over 60 recipes to help you get the most out of your Apache Karaf deployments
Jamie Goodyear, Johan Edstorm, Achim Nierbeck, Heath...
Apache Mahout Clustering Designs. Explore clustering algorithms used with Apache Mahout
Dragan Milcevski, Ashish Gupta, Ashish Gupta