Analiza danych
Analiza danych jest ekscytującą dyscypliną, która umożliwia zrozumienie pewnych zjawisk, uzyskanie wglądu i wiedzy na podstawie surowych danych. Pojęcie to oznacza dokładnie przetwarzanie danych za pomocą technik matematycznych i statystycznych w celu uzyskania cennych wniosków, podjęcia ważnych decyzji i opracowania przydatnych produktów. Termin ten wywodzi się od angielskiego data science, często traktowanego jako synonim takich terminów, jak analityka biznesowa, badania operacyjne, business intelligence, wywiad konkurencyjny, analiza i modelowanie danych, a także pozyskiwanie wiedzy. Dzięki takim technologiom, jak języki Python czy R, platformy Hadoop i Spark masz szansę wyciągnąć maksimum wniosków, dostrzec szanse na rozwój swojej organizacji albo przewidzieć i zapobiec zagrożeniom.
Wnioskowanie przyczynowe w Pythonie. Praktyczne wykorzystanie w branży technologicznej
Matheus Facure
Wnioskowanie przyczynowe przydaje się w sytuacji, gdy trzeba określić wpływ decyzji biznesowej na konkretny wynik, na przykład wielkość sprzedaży. Działania te są dobrze znane nauce, ale dopiero od niedawna świat poznaje korzyści z ich zastosowania w branży technologicznej. Przyczyniły się do tego postępy w uczeniu maszynowym, automatyzacji procesów i danologii. Teraz, aby uzyskać wymierne korzyści, wystarczy kilka wierszy kodu w Pythonie. Poznaj narzędzia najbardziej znanych analityków danych korzystających z Pythona! prof. Nick Huntington-Klein, autor The Effect: An Introduction to Research Design and Causality Tę książkę docenią w szczególności analitycy danych. Wyjaśniono w niej potencjał wnioskowania przyczynowego w zakresie szacowania wpływu i efektów w biznesie. Opisano klasyczne metody wnioskowania przyczynowego, w tym testy A/B, regresja liniowa, wskaźnik skłonności, metoda syntetycznej kontroli i metoda różnicy w różnicach, przy czym skoncentrowano się przede wszystkim na praktycznym aspekcie tych technik. Znalazło się tu również omówienie nowoczesnych rozwiązań, takich jak wykorzystanie uczenia maszynowego do szacowania heterogenicznych efektów. Każda metoda została zilustrowana opisem zastosowania w branży technologicznej. W książce między innymi: podstawy wnioskowania przyczynowego problemy biznesowe jako zagadnienia z obszaru wnioskowania przyczynowego eksperymenty geograficzne i eksperymenty z przełączaniem oddziaływania badanie błędu systematycznego modele graficzne i wizualizacja związków przyczynowych Najlepsza książka poświęcona najnowocześniejszym metodom, działaniu na rzeczywistych danych i rozwiązywaniu praktycznych problemów! Sean J. Taylor, główny badacz w Motif Analytics
Wprowadzenie do systemów baz danych. Wydanie VII
Ramez Elmasri, Shamkant B. Navathe
Mijają lata, a bazy danych wciąż stanowią serce większości systemów informatycznych. Rozwój technologii sprawia jednak, że zaprojektowanie systemu baz danych, jego wdrożenie i administrowanie nim wymaga biegłości w wielu dziedzinach. Niezbędne są solidne podstawy modelowania i projektowania baz danych, umiejętność posłużenia się językami i modelami udostępnianymi przez systemy zarządzania bazami danych, a także znajomość technik implementacji samych systemów. Od profesjonalisty wymaga się także wiedzy o najnowszych technologiach, takich jak NoSQL i oczywiście big data. Ważnym uzupełnieniem tego szerokiego wachlarza jest też znajomość technologii powiązanych z systemami bazodanowymi. Ta książka jest siódmym, zaktualizowanym wydaniem klasycznego podręcznika do nauki baz danych. Jest to szczegółowa prezentacja najważniejszych aspektów systemów i aplikacji bazodanowych oraz powiązanych technologii. To znakomity podręcznik dla studentów i świetne kompendium dla praktyków. Sporo miejsca poświęcono w nim systemom rozproszonym oraz technologiom opartym na systemie Hadoop i modelu MapReduce. Nie zabrakło opisu takich zagadnień, jak model IR, wyszukiwanie z użyciem słów kluczowych, porównanie baz danych z modelem IR, modele wyszukiwania, ocena wyszukiwania i algorytmy rankingowe. Wykładowcom przyda się szereg ułatwiających pracę dydaktyczną diagramów, prezentacji i rysunków. W książce między innymi: wprowadzenie do modeli, systemów i języków z obszaru baz danych; model związków encji i programowanie baz danych; bazy relacyjne, obiektowo-relacyjne, obiektowe i XML w bazach danych; algorytmy przetwarzania zapytań i techniki optymalizacji; bezpieczeństwo baz danych. Baza danych? Stosuj tylko najskuteczniejsze rozwiązania!
XML Basics. A Comprehensive Guide to Understanding and Implementing XML
Mercury Learning and Information, S. Banzal
This book focuses on essential XML standards relevant to almost all developers. It investigates XML technologies applicable across a wide range of applications, rather than those limited to specific domains. While XML is a markup language, it is widely used by programmers. The book also covers supporting technologies layered on top of XML, such as XLinks, XSLT, Namespaces, Schemas, XHTML, RDDL, XPointers, XPath, SAX, and DOM.The journey begins with understanding XML and its syntax. It then explores Document Type Definitions (DTDs), Namespaces, and XHTML. Following this, the book delves into CSS Style Sheets, XML Schema Basics, XSL and XSLT, SOAP, DOM Programming Interface, SAX, XPath, XLink, XQuery, XPointer, XForms, XSL-FO, and using XML with Databases. The final chapters cover Web Services, providing a comprehensive understanding of how XML integrates into various applications.Mastering these standards and technologies is crucial for developers working with XML. This book transitions readers from basic XML syntax to advanced applications, blending theoretical concepts with practical examples. It is an essential resource for developers looking to leverage XML in their projects.
Your Excel Survival Kit. A Guide to Surviving and Thriving in an Excel World
MrExcel's Holy Macro! Books, Anne Walsh
This book starts off with the basics of data entry, formulas, and charts, it provides practical tips to simplify workflows and create clear visuals. Progress to advanced techniques like data cleaning, handling missing entries, and using logical functions, including modern dynamic arrays.Learn to summarize and visualize data with pivot tables, troubleshoot common issues, and customize layouts. Explore VLOOKUP, XLOOKUP, and methods for tackling common challenges. Advanced chapters introduce Power Query for data merging, automation, and quick insights, while Power Pivot enables combining multiple datasets for detailed reports.Finally, unlock Power BI to create professional-grade dashboards and visualizations. Designed for beginners and advanced users alike, this book equips you with the skills to streamline processes, analyze data effectively, and make informed decisions.
Akash Tandon, Sandy Ryza, Uri Laserson, Sean...
Potrzeby w zakresie analizy dużych zbiorów danych i wyciągania z nich użytecznych informacji stale rosną. Spośród dostępnych narzędzi przeznaczonych do tych zastosowań szczególnie przydatny jest PySpark - interfejs API systemu Spark dla języka Python. Apache Spark świetnie się nadaje do analizy dużych zbiorów danych, a PySpark skutecznie ułatwia integrację Sparka ze specjalistycznymi narzędziami PyData. By jednak można było w pełni skorzystać z tych możliwości, konieczne jest zrozumienie interakcji między algorytmami, zbiorami danych i wzorcami używanymi w analizie danych. Oto praktyczny przewodnik po wersji 3.0 systemu Spark, metodach statystycznych i rzeczywistych zbiorach danych. Omówiono w nim zasady rozwiązywania problemów analitycznych za pomocą interfejsu PySpark, z wykorzystaniem dobrych praktyk programowania w systemie Spark. Po lekturze można bezproblemowo zagłębić się we wzorce analityczne oparte na popularnych technikach przetwarzania danych, takich jak klasyfikacja, grupowanie, filtrowanie i wykrywanie anomalii, stosowane w genomice, bezpieczeństwie systemów IT i finansach. Dodatkowym plusem są opisy wykorzystania przetwarzania obrazów i języka naturalnego. Zaletą jest też szereg rzeczywistych przykładów dużych zbiorów danych i ich zaawansowanej analizy. Dzięki książce poznasz: model programowania w ekosystemie Spark podstawowe metody stosowane w nauce o danych pełne implementacje analiz dużych publicznych zbiorów danych konkretne przypadki użycia narzędzi uczenia maszynowego kod, który łatwo dostosujesz do swoich potrzeb PySpark: systemowa odpowiedź na problemy inżyniera danych!
Zapytania w języku T-SQL w Microsoft SQL Server 2014 i SQL Server 2012
Itzik Ben-Gan, Adam Machanic, Dejan Sarka, Kevin...
Poznaj tajniki T-SQL, aby poradzić sobie z najtrudniejszymi zapytaniami i problemami dostrajania wydajności. Wyciśnij maksymalną wydajność i efektywność z każdego tworzonego zapytania T-SQL. Czterech wiodących ekspertów prezentuje pogłębiony przegląd wewnętrznej architektury T SQL i zaawansowane, praktyczne techniki optymalizowania reaktywności i zużycia zasobów. Dzięki właściwemu rozumieniu języka i jego podstaw autorzy przedstawiają unikatowe rozwiązania, tworzone i dostrajane przez lata. Cały kod i prezentowane techniki zostały w pełni zaktualizowane, aby odzwierciedlić nowe usprawnienia T-SQL dostępne w Microsoft SQL Server 2014 i SQL Server 2012. Twórz szybszy i wydajniejszy kod T-SQL: - Przejdź od programowania proceduralnego do języka zbiorów i logiki - Doskonal wydajną metodologię dostrajania zapytań - Oceniaj złożoność algorytmiczną, by móc przewidzieć wydajność rozwiązania - Porównaj techniki agregowania danych, łącznie z nową koncepcją grupowania zbiorów - Wydajnie realizuj analizy danych - Wydobądź wszystko z zoptymalizowanych narzędzi masowego importowania danych - Uniknij pułapek prowadzących do wadliwego, wolno wykonywanego kodu - Twórz zoptymalizowane zapytania statystyczne bez dodatkowego oprogramowania - Użyj obiektów programowalnych do przyśpieszenia zapytań - Wykorzystaj ulepszenia wydajności w zapytaniach OLTP - Opanuj użyteczne i eleganckie podejście do manipulowania grafami Przykłady kodu dostępne są do pobrania pod adresem tsql.solidq.com/books/tq3 O tej książce - Dla doświadczonych praktyków T-SQL - Obejmuje zaktualizowaną tematykę książek Microsoft SQL Server 2008 od środka: Zapytania w języku T-SQL oraz Programowanie w języku T-SQL - Wyjaśnia wiele zagadnień egzaminacyjnych dla certyfikacji MCSE 70-464 oraz MCSA/MCSE 70-461 O autorach Itzik Ben-Gan, SQL Server MVP od roku 1999, współtwórca SolidQ oraz cyków szkoleniowych Advanced T-SQL Querying, Programming and Tuning oraz T-SQL Fundamentals courses. Prowadzi wiele szkoleń na temat T-SQL i wykładów na konferencjach TechEd, SQLPASS i SQL Server Connections. Dejan Sarka, MCT, SQL Server MVP, jest konsultantem w dziedzinie baz danych/BI, szkoleniowcem i programistą specjalizującym się w modelowaniu, drążeniu danych i zapewnianiu jakości. Jest autorem lub współautorem 11 książek i założycielem Slovenian SQL Server and .NET Users Group. Adam Machanic, SQL Server MVP, jest programistą, autorem i wykładowcą skupiającym się na wydajności i projektowaniu wielkoskalowych hurtowni danych. Jest twórcą nagrodzonej procedury składowanej sp_WhoIsActive. Kevin Farlee, Storage Engine Program Manager w zespole SQL Server, ma ponad 25 lat doświadczenia w dziedzinie baz danych i magazynowania informacji.
Piethein Strengholt
Datafikacja trwa ― i zmienia nasze życie z zawrotną prędkością. Danych jest coraz więcej i są coraz bardziej złożone, a poza kwestiami technicznymi trzeba rozstrzygać mnóstwo dylematów etycznych lub prawnych związanych z prywatnością i bezpieczeństwem. Bez wątpienia w zarządzaniu danymi potrzeba nowej, wyrazistej wizji. Ta książka zapewnia bardzo szczegółowe i solidne podstawy z zakresu zarządzania danymi obecnie i w przyszłości! Joe Reis, współautor książki Inżynieria danych w praktyce. Kluczowe koncepcje i najlepsze technologie W książce w praktyczny sposób ujęto wiele złożonych zagadnień, różnych technologii, metod biznesowych, struktur i wzorców architektury. Przeanalizowano abstrakcyjny poziom strategii danych, kwestie zarządcze i architekturę danych, a następnie wyjaśniono, czym są domeny danych i strefy docelowe. Zaprezentowano kwestie zarządzania systemami źródłowymi, aplikacji, opisano też praktyczne szczegóły z zakresu zarządzania danymi. Nie zabrakło wartościowych informacji o aspektach istotnych dla konsumentów danych. Autor nie skupia się wyłącznie na teorii. Cennym atutem książki są jasne wskazówki, w jaki sposób zastosować omawianą wiedzę w praktyce. Zagadnienia: trendy w zarządzaniu danymi a aktualne wymagania nowe technologie projektowe, w tym siatka danych i data fabric strefy docelowe danych w chmurze, DDD, projektowanie produktów z danymi bezpieczeństwo danych zarządzanie samoobsługowymi platformami danych rola metadanych Ta książka mówi o skalowaniu i pozostaniu konkurencyjnym. Nie ma na rynku drugiej takiej pozycji! Ole Olesen-Bagneux, autor książki The Enterprise Data Catalog
Zrozumieć BPMN. Modelowanie procesów biznesowych
Szymon Drejewicz
Poznaj BPMN. Zobacz na przykładach, jak modelować w procesach biznesowych: Aktywności Zdarzenia Przepływy Bramki Obiekty Uczestników Podprocesy, transakcje i kompensacje Kolaboracje Choreografie Konwersacje Pełne zrozumienie w biznesie BPMN to standard opracowany przez organizację Object Management Group (OMG). Jego pełna nazwa brzmi "Business Process Model and Notation". Podstawowym celem standardu jest dostarczenie takiej notacji do opisywania procesów biznesowych, która będzie czytelna i zrozumiała tak dla biznesowych "użytkowników", którzy procesy monitorują i zarządzają nimi, jak i dla analityków przeprowadzających biznesową analizę oraz programistów odpowiedzialnych za techniczną implementację procesów. BPMN powstał z bezsilności — z braku języka wspólnego dla analityków biznesowych, "zwykłych" uczestników biznesu i programistów. O ile bowiem informatycy mieli swój standard opisywania procesów biznesowych, o tyle ludzie w firmie, którzy mieli korzystać z ich pracy, często nie byli w stanie użyć przygotowanych dla nich modeli analitycznych. Standard BPMN przyjęto w roku 2004. Od tego momentu przestało być istotne, za pomocą jakiego narzędzia tworzone są modele procesów. W centrum uwagi znalazło się tworzenie opisu zrozumiałego dla wszystkich uczestników. Ułatwia on pracę nad procesami zachodzącymi wewnątrz firmy, otwiera także szerzej możliwości współdziałania między podmiotami obecnymi na rynku. Szymon Drejewicz. Starszy specjalista ds. jakości oprogramowania w polskim centrum Samsung Research & Development oraz asystent na Wydziale Elektrycznym Politechniki Warszawskiej. Wcześniej jako starszy konsultant i trener w firmie Infovide-Matrix SA uczestniczył w projektach BPM dla największych firm w Polsce. Specjalista od projektowania systemów oprogramowania, analizy procesów biznesowych i modelowania. Przeprowadził ponad 70 szkoleń z zakresu zarządzania procesami biznesowymi (BPMN), modelowania systemów oprogramowania w języku UML i inżynierii oprogramowania.