Data Science

1
Videokurs

Analiza danych w Pythonie. Kurs video. Pracuj z Jupyter, Pandas i Matplotlib

Przemysław Dacko

Obierz kurs na analizę danych w Pythonie! Według raportu Digital 2022 liczba internautów to ponad 62% światowej populacji. Są nas miliardy i w krótkim czasie produkujemy miliardy danych. We współczesnym świecie zbiory danych postrzegane są niemal jak złoto, determinują bowiem kierunek rozwoju gospodarki. Jednakże tylko odpowiednio przetworzone dane stają się wartościowymi informacjami. Możemy przyjąć, że kształtują one każdy biznes, dlatego biznes chętnie sięga po analizę danych - naukę, w której surowe dane są analizowane w celu uzyskania na ich podstawie użytecznych informacji i wniosków. A więc jak przekuć zebrane dane w złoto? Branżowym standardem w analizie danych jest język Python i dystrybucja Anaconda wraz z licznymi pakietami data science. Zarezerwuj ponad 6 godzin na naukę, a wszystkie te niezbędne narzędzia i metodyki analizowania danych poznasz w ramach naszego kursu. W trakcie naszego profesjonalnego szkolenia wideo z analizy danych w Pythonie nauczysz się: Korzystać z dystrybucji Anaconda Używać programów Jupyter Lab i Jupyter Notebook Tworzyć wirtualne środowiska dla języka Python i nimi zarządzać Korzystać na poziomie podstawowym z języka Python Używać na poziomie podstawowym biblioteki Pandas, w tym: Obsługiwać DataFrame'y i sety Operować na DataFrame'ach i setach Wczytywać pliki Excel, CSV, tekstowe, pickle Wczytywać dane z baz danych i poprzez API Stosować metody oczyszczania danych: Usuwać puste wiersze Podglądać i przeglądać dane Zarządzać duplikatami Radzić sobie z błędnym typem danych Formatować tabele i dane Usuwać konkretne znaki Korzystać z metod manipulacji danymi: Zmieniać nazwy i dzielić kolumny Agregować dane i znajdować średnie, sumy, mediany, minimum i maksimum Grupować dane - sprawdzać teorię i analizować konkretne tendencje Sortować dane Filtrować dane Łączyć kilka źródeł i tabel w jedną Używać biblioteki Matplotlib i tworzyć wykresy: Tworzyć podstawowy wykres liniowy Edytować markery i linie Edytować etykiety i siatki Tworzyć subwykresy Tworzyć wykres scatterplot Tworzyć wykres słupkowy Generować histogram Tworzyć wykres kołowy Analizować dane i wyciągać wnioski z uzyskanych informacji Analiza danych w Pythonie. Kurs video. Pracuj z Jupyter, Pandas i Matplotlib rozpoczyna się konfiguracją środowiska Anaconda i instalacją bibliotek. W drugim rozdziale przestaną Ci być obce podstawy języka Python, poznasz między innymi operatory, listy, tuple, sety, słowniki, instrukcje warunkowe, pętle, funkcję lambda, RegEx i wyjątki. Po zaprzyjaźnieniu z Pythonem przyjdzie kolej na Pandas - bibliotekę oferującą struktury danych i operacje do manipulowania tabelami liczbowymi, a także szeregami czasowymi. Następnie czeka Cię dużo pracy z danymi; nauczysz się je oczyszczać, agregować i grupować. Po odpowiednim przygotowaniu danych kolej na ich wizualizację. W ostatnim rozdziale poznasz bibliotekę Matplotlib do generowania wizualizacji danych takich jak wykresy i histogramy. Kurs z analizy danych w Pythonie zakończysz na poziomie podstawowym. Będziesz w stanie samodzielnie stworzyć projekt analizy i przeprowadzić ją od wczytania danych po wnioski i wyniki w postaci tabel i wykresów. Pozbędziesz się uczucia skołowania, wywołanego wątpliwościami, od czego by rozpocząć naukę, a poznane zagadnienia pozwolą Ci na efektywny dalszy rozwój, wskażą bowiem wiele punktów wyjścia do kreowania swojej ścieżki w data science. Jakie zadania wykonuje analityk danych? Do codziennych zadań analityka należy zwiększanie wydajności poprzez wykrywanie wzorców w danych. Pod tym pojęciem kryje się realizowana na różne sposoby praca z danymi, w tym ich eksploracja, zarządzanie nimi, a także analiza statystyczna i wizualizacja danych. Analityk zajmuje się weryfikacją pewnych hipotez biznesowych i przygotowaniem raportów dla zarządu lub innych pracowników firmy. Jednocześnie zachowuje dużą samodzielność, eksplorując dane w sposób kreatywny i poszukując ciekawych zależności i zachowań. Już teraz jest to jeden z lepiej opłacanych zawodów w branży informatycznej, a analityk danych jest pożądanym pracownikiem z pogranicza IT i biznesu w każdej, zarówno większej, jak i mniejszej firmie. Zobacz także kursy wideo z .NET

2
Videokurs

Analiza danych w środowisku R. Kurs video. Poziom pierwszy. Manipulacja, modelowanie i wizualizacja danych w praktyce

Alicja Wolny-Dominiak

Obierz kurs na sprawniejszą analizę danych W dobie rozwoju technologii informatycznych i bazodanowych firmy gromadzą coraz więcej danych związanych z różnymi obszarami funkcjonowania przedsiębiorstwa. Praca z danymi powoli staje się codziennością działów marketingu i sprzedaży, w których konieczna okazuje się umiejętność szybkiego analizowania masowych informacji dotyczących profilu i zachowań klientów, źródeł ruchu na stronach WWW czy produktów przynoszących największe przychody w danym kanale dystrybucji. Kto potrafi błyskawicznie przetworzyć te dane i wyciągnąć z nich trafne wnioski, ten zyskuje przewagę konkurencyjną. Nic dziwnego, że rynek pracy jak gąbka chłonie specjalistów w zakresie analizy oraz wizualizacji danych. Sprzymierzeńcem w tych działaniach jest program R, czyli środowisko do obliczeń statystycznych, oraz współpracujące z nim R-Studio, stanowiące zestaw narzędzi do odzyskiwania danych utraconych z wewnętrznych i zewnętrznych nośników. Umiejętność sprawnego posługiwania się tym oprogramowaniem pozwala w bardzo elastyczny i indywidualny sposób przeprowadzać niezwykle zaawansowane analizy oraz profesjonalne wizualizacje danych. Co istotne, praca z nimi nie wymaga posiadania dużej wiedzy z dziedziny programowania — skupia się przede wszystkim na problemach stricte związanych z analizą. Niniejszy kurs video pozwala na szybkie rozpoczęcie samodzielnego działania w R-Studio i pokazuje możliwości, jakie oferuje środowisko R. Co Cię czeka podczas naszego profesjonalnego szkolenia? W trakcie niniejszego kursu video: Zobaczysz, na czym polega obróbka danych i jak zautomatyzować ten proces. Przeprowadzisz obliczenia statystyczne na zbiorach danych, a następnie je zautomatyzujesz. Zapoznasz się z zagadnieniem modelowania statystycznego. Będziesz wizualizować dane, wyniki oraz uzyskasz wykresy statystyczne. Co więcej... Nauczysz się wykonywać aplikację webową dla powyższych czynności. Analiza danych w środowisku R. Kurs video. Poziom pierwszy. Manipulacja, modelowanie i wizualizacja danych w praktyce kończy się na poziomie podstawowym. Jego słuchacz zdobędzie bazową wiedzę z obszaru statystyki opisowej oraz pracy w środowisku R i narzędziu R-Studio, dzięki czemu będzie w stanie samodzielnie ją rozwijać. Witaj w programie R Program, środowisko albo — jeszcze inaczej — język R to oprogramowanie typu open source, co oznacza, że rozwijają go sami użytkownicy, a korzystanie z niego jest nieodpłatne. Współpracuje z komputerami zarówno z Linuksem, jak i z Windowsem oraz macOS. Dostarcza szeroką gamę technik statystycznych (takich jak modelowanie liniowe i nieliniowe, klasyczne testy statystyczne, analiza szeregów czasowych, klasyfikacja czy grupowanie) oraz graficznych. Powszechnie korzysta się z niego w biznesie, bioinformatyce czy medycynie — do badań klinicznych. Jest na tyle popularny, że producenci komercyjnych pakietów statystycznych (na przykład SAAS lub Statistica) oferują dedykowane mechanizmy, dzięki którym ich oprogramowanie współpracuje z R. Dowiedz się, czym jest i jak działa pakiet R Kurs, dzięki któremu opanujesz podstawy pracy z językiem R oraz narzędziem R-Studio, trwa cztery godziny. W tym czasie dowiesz się, czym jest środowisko R i R-Studio i jak je zainstalować na swoim komputerze. Poznasz składnię programu R: rodzaje obiektów, wymuszanie typu zmiennej, wektor, macierz, listę faktor, ramkę danych data.frame, działania wektorowe, if oraz pętlę. Będziesz manipulować danymi — wczytywać je, agregować, filtrować, sortować i łączyć. Wykonasz analizę danych — i poznasz przy tym kolejne pojęcia: zmienną losową, jej rozkład i wybrane rozkłady, korelację i regresję oraz analizę szeregu czasowego (dekompozycja, średnia ruchoma, prognozowanie). Zobaczysz podstawowe wykresy wykonywane w technice tradycyjnej, dowiesz się, na czym polega formatowanie i personalizacja wykresu, poznasz nowoczesne wykresy z pakietem ggplot2, htmlwidgets i mapy z ggplot. Zaznajomisz się również z budową webowej aplikacji R Shiny. Tylko dla wtajemniczonych Osoba korzystająca z programu R może zajmować się wszystkim, co dotyczy danych i ich obróbki, analiz statystycznych czy wizualizacji. Poszerzając samodzielnie zakres wiedzy, będzie potrafiła budować modele statystyczne bazujące na zmiennych losowych i ich rozkładach, wykonywać na własne potrzeby różnego rodzaju symulacje, tworzyć modele predykcyjne i inne eksperymenty w ramach uczenia maszynowego oraz automatyzować wymienione czynności.

3
Videokurs

Analiza danych w Tableau. Kurs video. Podstawy pracy analityka

Przemysław Dacko

Obierz kurs na analizę danych w Tableau W sektorze business intelligence Tableau ma aż 16 procent udziału w rynku, co czyni go liderem w kategorii oprogramowania do analizy danych. Na ten zdumiewający wynik z pewnością wpłynęła prosta obsługa programu i jego intuicyjny interfejs. Nietechniczni pracownicy firmy bez problemów mogą przeglądać i analizować gotowe dane i raporty. Tableau, prócz tego, że jest łatwy do nauki, jako narzędzie do wizualizacji danych oferuje ogromne możliwości. Cechuje się dużą wydajnością, zdolnością wykonywania złożonych obliczeń i przetwarzania milionów danych w czasie rzeczywistym. Jest programem, w którym skomplikowane tabele w okamgnieniu można zamienić w zrozumiałe, interaktywne wykresy i grafiki. Ponadto Tableau jest dostępny na urządzenia mobilne iOS i Android. Wszystkie swoje analizy i raporty możesz więc mieć zawsze ze sobą! Użytkownicy pokochali Tableau za innowacje, które wprowadza do świata business intelligence. Z naszym kursem przekonasz się, że to narzędzie skrojone pod oczekiwania analityka! Analiza danych w Tableau. Kurs video. Podstawy pracy analityka składa się z 74 lekcji trwających łącznie ponad 7 godzin. W trakcie naszego profesjonalnego szkolenia: Zainstalujesz Tableau i poznasz jego obsługę Samodzielnie stworzysz wykresy: liniowe, punktowe, słupkowe, kołowe, pociskowe, heatmap, treemap Nauczysz się formatować wykresy, dodawać linie trendów i forecasty Poznasz najważniejsze pojęcia: worksheet, workbook, dashboard, story Nauczysz się pisać funkcje LOD Poznasz składnię pól kalkulowanych i dowiesz się, jak je utworzyć Stworzysz zaawansowane pola kalkulowane Przećwiczysz kalkulacje tabelaryczne, a także zorientujesz się, jak i kiedy ich używać Dowiesz się, jak korzystać z Tableau Server i Tableau Online Poznasz funkcje dostępne dla osoby wyświetlającej raport Nauczysz się tworzyć profesjonalne dashboardy i używać wszystkich związanych z nimi funkcji Dowiesz się, jak tworzyć foldery i przyznawać uprawnienia dostępu do nich Poznasz miary i wymiary Przećwiczysz pracę z danymi liczbowymi, tekstowymi i datami Przygotujesz źródło danych typu live i extract Uformujesz wszelkiego rodzaju relacje między źródłami danych Poznasz parametry, sety i ich zastosowanie Co więcej... Nauczysz się porządkowania danych, w tym agregowania, grupowania, filtrowania i sortowania Opublikujesz swoją pracę i własne źródło danych Analiza danych w Tableau. Kurs video. Podstawy pracy analityka ugruntuje Twoją wiedzę na poziomie podstawowym. Nie musisz mieć żadnych umiejętności technicznych i programistycznych, by nauczyć się obsługi Tableau. W trakcie szkolenia zaznajomisz się z pracą na zbiorach danych i metodami wizualizowania ich w postaci wykresów. Poznasz możliwości podłączania źródeł i relacje między danymi. Dowiesz się, jak łączyć tabele za pomocą join i union. Nauczysz się blendowania – techniki łączenia danych z różnych źródeł, aby analizować je w obrębie jednego widoku. Przećwiczysz funkcje LOD, czyli kalkulacje poziomu szczegółowości, i przedstawisz dane na innym poziomie dokładności niż wejściowa wizualizacja. Za pomocą kilku kliknięć stworzysz interaktywny dashboard umożliwiający wizualne porównywanie różnych typów danych. W ostatnim rozdziale opublikujesz kompletny raport na serwerze, by był dostępny dla uprawnionych odbiorców.

4
Videokurs

Apache NiFi. Kurs video. Automatyzacja przepływu danych i narzędzia Big Data

Piotr Szymański

Obierz kurs na... sprawną pracę z danymi w świecie Big Data Rola danych stale rośnie. Dziś są one nowym złotem, najcenniejszym zasobem, zdolność do ich kolekcjonowania, przetwarzania i eksplorowania zgodnie z zapotrzebowaniem zaś cenną umiejętnością. Tym cenniejszą, że dostęp do nich stanowi warunek rozwoju sztucznej inteligencji, czyli najgorętszej dziś dziedziny IT. Wszak modele SI są trenowane dzięki karmieniu systemu ogromnymi wolumenami danych. Nie byłoby to możliwe bez zastosowania odpowiednich, przeznaczonych do pracy z danymi narzędzi. Jednym z najciekawszych jest Apache NiFi – opracowane przez Apache Software Foundation, przeznaczone do automatyzacji przepływu danych między systemami oprogramowania. Oferuje ono o wiele więcej niż tradycyjne systemy ETL (ang. extract, transform and load). Myślisz o pobieraniu danych z różnych źródeł i chcesz to robić w prosty sposób – korzystając z metody „przeciągnij i upuść”? Chcesz wyzwalać procesy według harmonogramu? Zamierzasz wykrywać nowe dane oprogramowaniem typu open source, bez kosztownych licencji? W takim razie ten kurs, poświęcony Apache NiFi, jest dla Ciebie. Oprogramowanie, o którym mowa, pozwoli Ci pobierać pliki o różnych formatach (jak CSV, JSON, XML, AVRO, ORC) z rozmaitych magazynów danych (na przykład HDFS, Amazon S3, Google Cloud Storage) w bardzo prosty sposób. Wystarczy, że przeciągniesz odpowiednie komponenty, a połączenie różnych systemów i przesyłanie danych między nimi z wykorzystaniem przykładowo baz danych, takich jak PostgreSQL, Oracle, SQL Server, MongoDB, Apache Cassandra czy nawet serwisy sieciowe i strumienie danych typu MQTT, JMS, Kafka, stanie się dziecinnie proste. Podobnie jak pobieranie i dystrybucja e-maili według treści. A to dopiero początek możliwości Apache NiFi. Chcesz poznać je wszystkie? Zapraszamy do wzięcia udziału w naszym kursie! Co Cię czeka podczas naszego profesjonalnego szkolenia W ramach kursu między innymi: Dowiesz się, jak zainstalować i skonfigurować Apache NiFi Nauczysz się używać tego narzędzia do pobierania i przetwarzania danych z różnych źródeł Będziesz analizować, testować i debugować procesy NiFi, a także tworzyć połączenia między poszczególnymi grupami procesów Poznasz sposób konfiguracji Apache NiFi Registry Zmonitorujesz wytworzone procesy i środowisko Przygotujesz prostą obsługę błędów procesów Stworzysz procesy wykorzystujące przetwarzanie warunkowe Apache NiFi. Kurs video. Automatyzacja przepływu danych i narzędzia Big Data jest przeznaczony dla początkujących słuchaczy. Po ukończeniu szkolenia będziesz w stanie samodzielnie pracować z Apache NiFi i dalej rozwijać zdobyte w trakcie nauki umiejętności. Apache NiFi Oprogramowanie to zostało stworzone przez National Security Agency (NSA) w USA i pierwotnie nazywało się NiagaraFiles. Projekt został przekazany do Apache Software Foundation w 2014 roku. Jeśli chodzi o graficzny software użytkownika, Apache NiFi jest jednym z nielicznych narzędzi, które służą do budowy przepływu danych i przy tym oferują pełne wizualne środowisko, a budowę przypływu pozwalają zrealizować za pomocą metody „przeciągnij i upuść”, z konfiguracją jedynie parametrów gotowych procesorów, takich jak adres bazy danych czy adres URL serwisu. Ułatwia to użytkownikom tworzenie złożonych przepływów danych i zarządzanie tym procesem. Bogaty ekosystem Apache NiFi ma w obecnej chwili 345 gotowych do użycia wbudowanych procesorów, które umożliwiają połączenie z niemal wszystkimi popularnymi systemami. Sama lista procesorów jest sukcesywnie rozwijana – wraz z nowymi wersjami, wydawanymi zwykle co kilka miesięcy.

5
Videokurs

Apache Spark. Kurs video. Przetwarzanie złożonych zbiorów danych

Marek Czuma

Obierz kurs na złożone zbiory danych Apache Spark to narzędzie do przetwarzania danych w trybie rozproszonym, które umożliwia budowanie zaawansowanych systemów operacji na złożonych zbiorach danych. Przetwarzanie rozproszone poprzez wykorzystanie wielu maszyn jednocześnie znacząco przyspiesza operacje na dużych ilościach danych. Spark jest niezwykle popularny, stosowany w licznych projektach, a jego rynkowy udział stale rośnie. Można go używać zarówno na platformach chmurowych, jak i on-premise. W czasach, gdy Apache Spark debiutował, dominowała technologia MapReduce, która szybko została zastąpiona przez Sparka z powodu jego wielokrotnie lepszej wydajności. Dzięki przetwarzaniu danych w pamięci może on być nawet 100 razy szybszy! Do dużych firm korzystających z tego narzędzia należą: eBay, który używa go do targetowanych ofert, i Netflix, przetwarzający w trybie strumieniowym ponad 450 miliardów zdarzeń dziennie. Spark jest narzędziem niezastąpionym w świecie big data – obsługuje różne rodzaje przetwarzania danych, w tym przetwarzanie wsadowe, strumieniowe, interaktywne zapytania i uczenie maszynowe. Oferuje API dla języków takich jak Python, Scala, Java i R. Dodatkowo ma bogaty ekosystem narzędzi i bibliotek, między innymi Spark SQL, rozszerzających jego funkcjonalność i umożliwiających szerokie zastosowanie w różnorodnych projektach. To wszechstronne narzędzie rewolucjonizuje sposób, w jaki przetwarzamy i analizujemy dane w dzisiejszym świecie. Zdobądź praktyczne umiejętności i dowiedz się, jak korzystać z Apache Spark w branży big data. W trakcie kursu: Nauczysz się podstawowej obsługi Apache Spark Dowiesz się, jak działa architektura Sparka Zrozumiesz, jak zbudować logiczną strukturę joba (aplikacji) sparkowego Poznasz struktury danych obecne w Sparku Odkryjesz wiele funkcji przydatnych przy operacjach na danych Nauczysz się budować własne funkcje do operacji na danych (UDF) Dowiesz się, jak łączyć zbiory danych Opanujesz oczyszczanie surowych danych przy użyciu Sparka Nauczysz się pracy na rzeczywistych zbiorach danych W trakcie szkolenia Apache Spark. Kurs video. Przetwarzanie złożonych zbiorów danych nauczysz się budowy Apache Spark, poznając jego architekturę i zasady działania na wielu maszynach. Zdobędziesz ogólne rozeznanie w strukturach Apache Spark, a także zrozumiesz, jak działają akcje i transformacje. Będziesz pracować ze strukturami danych, jak RDD i dataframe – łączyć je za pomocą Unions i Joins, wykonywać agregacje i korzystać z pakietu functions. Odkryjesz, jak pracować z plikami w Sparku, a także przeprowadzisz praktyczne ćwiczenia na danych z Netflixa i pizzerii w USA. Dowiesz się, jak tworzyć własną logikę w Sparku, w tym jak definiować i stosować funkcje UDF i transform. Na koniec opanujesz dobre praktyki wydajnościowe i zrealizujesz mikroprojekt, obejmujący przegląd i czyszczenie danych, budowę wyszukiwarki i generatora statystyk. Kurs ukończysz na poziomie podstawowym. Zdobyte umiejętności pozwolą Ci pewnie poruszać się w środowisku Sparka, jak również – z pomocą doświadczonego zespołu – wziąć udział w pierwszym komercyjnym projekcie Sparkowym. Oddaję w Twoje ręce kurs, który jest syntezą wielu lat mojej pracy z Apache Spark. Choć uwielbiam tę technologię, popełniłem przy niej więcej błędów, niż jest to przyzwoite. Tym kursem oszczędzę Ci znakomitej większości z nich! Mam głęboką nadzieję, że poza solidną zawartością merytoryczną, będziesz się po prostu świetnie bawić. Wierzę, że nie tylko dasz radę przejść go wzorowo, ale też że uruchomisz ogromne pokłady swojej kreatywności. Twoje możliwości są znacznie wyżej, niż sądzisz! Wierzę w Ciebie, więc laptop na biurko, kawa w dłoń i lecimy eksplorować fascynujący świat danych!

6
Videokurs

Dashboardy w Excelu. Kurs video. Od surowych danych do perfekcyjnych raportów

Krzesimir Skórka

Obierz kurs na... perfekcyjne dashboardy w Excelu Analityka danych to umiejętność biznesowa, której fundamentem jest Excel. Dzięki biegłej znajomości tego narzędzia nie tylko usprawnisz raportowanie i automatyzację monotonnych zadań, ale także swobodnie przejdziesz do nauki bardziej zaawansowanych narzędzi analitycznych, takich jak Power BI czy SQL. Wiele osób korzysta z Excela na co dzień, ale nie zdaje sobie sprawy, jaki potencjał w nim drzemie. To nie jest tylko arkusz kalkulacyjny – to potężny mechanizm, który pozwala na tworzenie dynamicznych dashboardów, ułatwiających analizę kluczowych wskaźników sprzedażowych, finansowych i kadrowych. Tworzenie takich dashboardów nie wymaga skomplikowanej wiedzy programistycznej, a efekty, jakie osiągniesz, mogą być naprawdę imponujące. Z naszym szkoleniem odkryjesz ukryte funkcje Excela – od tabel przestawnych, przez fragmentatory, po dynamiczne wykresy i inteligentne formuły, za sprawą których będziesz wizualizować dane w sposób czytelny i atrakcyjny. Automatyzacja procesów za pomocą Excela pozwoli Ci zaoszczędzić godziny pracy, wyeliminuje bowiem powtarzalne zadania i poprawi organizację danych. Bez względu na to, czy pracujesz w księgowości, dziale HR, czy zajmujesz się zarządzaniem projektami, umiejętność przejrzystego prezentowania danych znacząco wpłynie na Twoje decyzje biznesowe. Pracodawcy poszukują specjalistów, którzy potrafią analizować liczby i prezentować je w czytelnej formie. Wyróżnij się na rynku i zdobądź wymarzony awans! Twórz dashboardy jak prawdziwy profesjonalista, zamieniając surowe dane w przejrzyste i dynamiczne wizualizacje. W trakcie szkolenia Dashboardy w Excelu. Kurs video. Od surowych danych do perfekcyjnych raportów nauczysz się budować dynamiczne raporty sprzedażowe, kadrowe, księgowe i zarządcze, które ułatwią analizę danych i przyczynią się do podejmowania trafnych decyzji biznesowych. To idealny wybór dla Ciebie, jeśli masz średnio zaawansowaną lub zaawansowaną wiedzę z zakresu Excela i chcesz poszerzyć umiejętności w ramach pracy z tym narzędziem. Odkryjesz nowe możliwości prezentowania i analizy danych, dzięki czemu podniesiesz swoje kompetencje zawodowe. Opanujesz tabele przestawne, fragmentatory, oś czasu i wykresy przestawne, a Twoje raporty staną się czytelne i interaktywne. Poznasz zaawansowane techniki wizualizacji danych, takie jak kartogramy, wykresy pierścieniowe i liniowe, co pozwoli Ci skutecznie prezentować wyniki. Dowiesz się, jak automatyzować raportowanie i oszczędzać godziny pracy dzięki inteligentnym formułom Excela. Zdobędziesz umiejętności cenione w każdej branży – od finansów i księgowości po HR, marketing i zarządzanie projektami. Po ukończeniu szkolenia będziesz w stanie tworzyć pełne dashboardy zarządcze, w tym kokpity i kartogramy, które ułatwią podejmowanie decyzji biznesowych na podstawie analizy danych. Twoja efektywność wzrośnie, a codzienne zadania staną się prostsze i szybsze do wykonania. Pracuj mądrzej, a nie ciężej – zyskaj czas dzięki zaawansowanym narzędziom Excel i zaskocz profesjonalizmem.

7
Videokurs

Data mining. Kurs video. Eksploracja danych z językiem R

Alicja Wolny-Dominiak

Obierz kurs na... eksplorację danych Żyjemy w świecie informacji. Przewagę w nim ma ten, kto dysponuje pożądanymi informacjami i (równocześnie) potrafi z nich zrobić odpowiedni użytek. Ten pierwszy etap - pozyskiwanie danych - w erze cyfrowej jest związany z czerpaniem ich z baz danych i odkrywaniem prawidłowości kryjących się w tym, co wydobywa się z hurtowni danych. Tym właśnie jest data mining (inaczej: eksploracja danych). Wraz z rozwojem dużych baz danych proces ten zyskał szerokie zastosowanie w wielu dziedzinach życia, od nauki po biznes. Opierając się na eksplorowaniu i analizie danych, firma może choćby lepiej poznać zwyczaje i preferencje swoich klientów, a dzięki temu przygotować dla nich atrakcyjniejszą ofertę czy przyjaźniej się z nimi komunikować. Na rynku jest dostępnych wiele programów, które pozwalają na przeprowadzenie pełnego modelu procesu data mining. Istotnym etapem jest tu znajomość metod i algorytmów, z których można skorzystać przy rozwiązywaniu danego problemu. Ogólną wiedzę praktyczną w tym zakresie daje nauka modelowania z programem R. Zastosowanie danego algorytmu wymaga „świadomego” użytkownika, a nie jedynie użycia gotowego okna dialogowego i kliknięcia przycisku OK. Nasz kurs ma na celu przybliżenie zagadnień związanych z algorytmami dataminingowymi w praktycznym modelowaniu z zastosowaniem języka R. Zdobyte podczas szkolenia umiejętności można wykorzystać od razu w swojej pracy lub potraktować jako bazę lepszego zrozumienia specjalistycznego oprogramowania w obszarze data mining. Co Cię czeka podczas naszego profesjonalnego szkolenia W ramach proponowanego przez nas kursu między innymi: Dowiesz się, czym jest data mining i jak działa model procesu eksploracji danych CRISP-DM Przyjrzysz się procesom związanym z pracą z danymi: imputacji wartości NA w danych, skalowaniu/normalizacji danych Zrozumiesz, czym są statystyki opisowe, statystyki opisowe w grupach Zagłębisz się w problemy związane z klasyfikacją, prawdopodobieństwem i macierzą pomyłek Poznasz tematy związane z drzewem decyzyjnym Co więcej... Nauczysz się modelować dane za pomocą metody k-średnich i metody aglomeracyjnej Data mining. Kurs video. Eksploracja danych z językiem R kończy się na poziomie podstawowym. Pozwala zrozumieć ideę procesu data mining, przybliża także najpopularniejsze algorytmy obliczeniowe w klasyfikacji i clusteringu (analizie skupień). Jeśli chodzi o część praktyczną, celem szkolenia jest nauczyć Cię stosowania algorytmów z udziałem języka R. Co istotne, by w pełni skorzystać z kursu, musisz znać podstawy tego języka. W świecie, w którym informacja jest złotem... Zdobytą na kursie wiedzę warto od razu zastosować w praktyce. Będzie z pewnością przydatna dla osób pracujących albo starających się o pracę na stanowisku analityka danych, junior data scientist, analityka BI (business intelligence) itd. Szkolenie da słuchaczowi solidne podstawy do tego, aby bez problemu zgłębiać wiedzę i umiejętności w zakresie data mining z uwzględnieniem dowolnej właściwie dziedziny nauki i biznesu: od ekonomii, przez inżynierię, aż po medycynę. Znajomość przedstawionych w kursie zagadnień przyda się również studentom - szczególnie w ramach przedmiotów ilościowych, opartych na wyciąganiu wiedzy z danych.

8
Videokurs

Data Science w Pythonie. Kurs video. Algorytmy uczenia maszynowego

Oleg Żero

Obierz kurs na... przyszłość Powszechna cyfryzacja nie dotyka jedynie wybranych gałęzi przemysłu, ale dosłownie przeniknęła nasze życie niemal w każdym aspekcie. Skutkiem tego procesu jest pojawienie się ogromnej ilości danych, które, odpowiednio wykorzystane, stanowią nowy rodzaj materii w nieprzerwanym cyklu postępu. Uczenie maszynowe stało się jednocześnie obszarem szczególnego zainteresowania ze strony zarówno firm, jak i uczelni. Dzięki specjalnym algorytmom i technikom możliwe stało się wykorzystanie zasobów, jakimi są dane, do opracowywania rozwiązań poprawiających efektywność w wielu dziedzinach: od robotyki, przez medycynę, aż po rozrywkę. Przykładami rozwiązań, które już dziś wykorzystują uczenie maszynowe, są chociażby silniki rekomendacyjne działające na platformach takich jak YouTube, Netflix, Spotify czy Amazon. Silniki te skutecznie dobierają treści, tak że wokół produktów tworzą się całe społeczności wiernie oddanych klientów. To wszystko dzieje się obecnie. W niedalekiej przyszłości wiele - także dość skomplikowanych - czynności zostanie zautomatyzowanych. Zawody, również te potencjalnie wymagające wysokich kwalifikacji, nawet jeśli nie będą w całości wykonywane przez maszyny, będą przez nie wspomagane. Jest niemal pewne, że specjaliści między innymi w dziedzinie uczenia maszynowego, którzy już dziś są intensywnie poszukiwani, staną się jeszcze bardziej pożądani w przyszłości. Dołącz do ich grona! Co Cię czeka podczas naszego profesjonalnego szkolenia? Dzięki temu kursowi video: pojmiesz istotę działania algorytmów uczenia maszynowego, zrozumiesz związek pomiędzy podstawą matematyczną a implementacją tych algorytmów i w razie czego będziesz umiał napisać je od zera (także w języku innym niż Python), dowiesz się, jak korzystać z popularnych i sprawdzonych bibliotek dedykowanych uczeniu maszynowemu: scikit-learn oraz Keras, stworzysz własny silnik rekomendacyjny, poprawnie przeprowadzisz proces przygotowania danych oraz trenowania modelu, ocenisz, który algorytm najlepiej sprawdzi się w rozwiązaniu danego problemu, a który może doprowadzić do niepożądanych efektów, opanujesz wiedzę, która pozwoli Ci szacować skuteczność modeli oraz diagnozować problemy związane z procesem uczenia maszynowego. Co więcej... ukończywszy kurs, będziesz w stanie właściwie podejść do pracy z różnymi typami danych w kontekście uczenia maszynowego, jak również przenieść sporą część tej wiedzy poza obszar Pythona. Data science w Pythonie. Kurs video. Algorytmy uczenia maszynowego kończy się na poziomie średnio zaawansowanym, a nawet nieco wyżej, jeśli chodzi o wiedzę i umiejętności, jakich wymaga się na przykład od analityka biznesowego, naukowca, inżyniera danych czy webdevelopera. Natomiast jeśli mowa o wiedzy stricte z zakresu data science, autor kursu określa poziom jego absolwenta na podstawowy. Uwaga, by móc w pełni skorzystać ze szkolenia, trzeba znać podstawy języka Python (w tym orientować się w bibliotekach: numpy, pandas, matplotlib) i matematykę na poziomie pierwszego - drugiego roku studiów na kierunkach ścisłych. Takie pojęcia jak gradient, pochodna, szereg, prawdopodobieństwo czy notacja nie powinny być Ci obce! Czym właściwie zajmuje się specjalista w dziedzinie data science? Odpowiedź na to pytanie jest krótka i - jak to w matematyce - policzalna. Aż 70 procent czasu pracy spędza się w tym zawodzie na zbieraniu i analizie danych, by potem, przez kolejne 20 procent, tworzyć i testować modele, które "ubiera się" w programy, a następnie wykorzystuje do otrzymywania przewidywań z modeli. Przykładami takich modeli, jakie stosuje się już dziś w kontekście biznesowym, są między innymi silniki rekomendacyjne (Netflix, YouTube, eBay, Amazon, Spotify itd.), modele do klasyfikacji obrazów medycznych w celu rozpoznawania ewentualnych infekcji, systemy do automatycznych tłumaczeń (patrz Google) czy popularne boty - i wiele innych. Od teorii, przez praktykę, aż po gotowe rozwiązania Kurs składa się z trzech bloków szkoleniowych. Zaczniemy od teorii data science. Tu przygotuj się na serię wykładów, w których autor wprowadza pojęcia na poziomie równań, wyjaśniając je od podstaw. Bazując na wiedzy zdobytej w części teoretycznej, przejdziemy do praktyki - będziesz pisać algorytm "od zera", a przy tym pogłębisz rozumienie koncepcji matematycznych i przy okazji napiszesz kod. Wreszcie przyjdzie czas na część trzecią, podczas której będziemy sprytni i sięgniemy po tzw. gotowce - przede wszystkim scikit-learn i Keras. Przy użyciu tych bibliotek rozwiążemy zadany problem, skupiając się zarówno na samym zagadnieniu, jak i ogólnym podejściu do problemu. W kursie połączysz teorię z praktyką. Dzięki temu osiągniesz dwa cele: wyrobisz w sobie intuicję matematyczną, która w razie potrzeby pozwoli Ci przenieść to rozumienie również poza Pythona, oraz zyskasz pewne doświadczenie w wykorzystywaniu powszechnie dostępnych narzędzi i w ten sposób zwiększysz skuteczność swojej pracy. Kurs jest podzielony na 16 rozdziałów. W pierwszym rozdziale stworzysz proste środowisko pracy. Dalej, w rozdziałach 2 - 8, poznasz podstawowe algorytmy, takie jak sieci neuronowe, oraz zrozumiesz, na czym polega ogólne podejście machinelearningowe. W rozdziałach 9 - 13 poznasz kolejne, nieco alternatywne, lecz równie często wykorzystywane algorytmy, których idea opiera się na innych zasadach. Na koniec, w ramach rozdziałów: 14, 15 i 16, stworzysz własny silnik rekomendacyjny, który następnie usprawnisz z wykorzystaniem popularnych metod pracy z tekstem (NLP), by uzyskać półgotowy produkt na koniec kursu.

9
Videokurs

Data Science w Pythonie. Kurs video. Przetwarzanie i analiza danych

Oleg Żero

Obierz kurs na... wyższy level pracy z danymi W każdej minucie użytkownicy Snapchata dzielą się ponad pół milionem zdjęć, oglądanych jest ponad 4 miliony filmów na YouTubie, a bywalcy Twittera wysyłają ponad 400 tysięcy tweetów. A to tylko ułamek danych, jakie są na bieżąco generowane. Ich wielka ilość z jednej strony jest wyzwaniem dla serwerów, z drugiej - ma ogromny potencjał dla osób pracujących z danymi. Dzięki nim udaje się usprawnić niemal każdą dziedzinę życia, by wspomnieć choćby medycynę, logistykę, robotykę, e-commerce. Rozwiązania pozwalające pracować z danymi opierają się na różnych podejściach: od prostych modeli czysto statystycznych po skomplikowane algorytmy sztucznej inteligencji, a sama praca na danych wymaga połączenia umiejętności analitycznych i programistycznych. W każdym przypadku punktem wyjścia jest analiza i eksploracja danych, która pozwala w skuteczny sposób przejrzeć i zgłębić ich zasób, by szybko i skutecznie docierać do konkretnych informacji. Umiejętności te zdobędziesz w ramach tego kursu. W trakcie nauki będziemy bazować na możliwościach, jakie oferują język Python i jego biblioteki (numpy, pandas, matplotlib, seaborn), które stanowią absolutną podstawę do dalszej pracy z danymi. Są też wykorzystywane przez inne, bardziej zaawansowane narzędzia uczenia maszynowego. Szkolenie jest adresowane do kilku grup zawodowych. Odnajdą się w nim zarówno osoby, które już zajmowały się analizą danych, na przykład w Excelu, i chcą rozwijać się w tym kierunku, jak i programiści języków innych niż Python, chcący poznać ten przyszłościowy, dynamicznie rozwijający się język. Materiał proponowany w ramach kursu jest także przeznaczony dla akademików wyspecjalizowanych w naukach ścisłych, którzy chcieliby nauczyć się przekładania równań na skuteczny kod. Wreszcie - szkolenie przyda się tym, którzy marzą o karierze na stanowisku Data Scientist (jedna z najpilniej poszukiwanych i jednocześnie najlepiej płatnych ról w IT). Wiedza oferowana w ramach kursu zapewni im odpowiedni punkt startowy - dalsza droga zawodowa będzie wymagała opanowania zaproponowanych zagadnień do perfekcji. Co Cię czeka podczas naszego profesjonalnego szkolenia? W trakcie tego kursu video opanujesz wiedzę, dzięki której: Stworzysz środowisko pracy i upewnisz się, jakie narzędzia będą Ci potrzebne. Poznasz język Python, nie tylko na poziomie składni, ale również pewnych przydatnych dla potrzeb kursu koncepcji. Zrozumiesz, na czym polega praca z danymi numerycznymi, tekstowymi i czasowymi. Dowiesz się, jak wykonuje się obliczenia numeryczne przy użyciu różnych technik. Będziesz w stanie dopasowywać, agregować i zestawiać dane. Co więcej... Opanujesz kolejne etapy procesu analizy danych, od ich pozyskania, przez obróbkę, aż po wyciąganie wniosków. Data science w Pythonie. Kurs video. Przetwarzanie i analiza danych został stworzony z myślą o „rozpędzeniu” Cię z poziomu zero do takiego, w którym będziesz potrafił skutecznie operować na całkiem sporych zasobach danych i wydobywać z nich informacje. Jednocześnie spory nacisk położono na pokazanie praktycznych aspektów pracy osoby na stanowisku analityka danych, ponieważ to teren, po którym często trzeba się poruszać, dysponując jedynie ogólnymi wskazówkami. Kurs bardziej szczegółowo Naszemu szkoleniu na początek będziesz musiał poświęcić co najmniej osiem godzin - tyle bowiem trwa nauka z ekspertem. W jej trakcie zapoznasz się z językiem Python jako narzędziem do zadań związanych z analizą danych. Używając biblioteki numpy, będziesz wykonywać obliczenia numeryczne, a stosując bibliotekę pandas - przekształcać zbiory danych. Zwizualizujesz je przy wykorzystaniu matplotlib, seaborn i pandas. Stworzysz własne środowisko pracy, zawierające konsolę, ipython, jupyter, jupyter lab i pip. Nauczysz się odnajdywania dokumentacji, korzystania z przykładów i ogólnego radzenia sobie z danymi. Zmierzysz się z równaniem matematycznym i jego przełożeniem na kod języka Python. Zaimplementujesz rozwiązania - zarówno z użyciem bibliotek, jak i w czystym Pythonie. Poznasz podstawy optymalizacji i czyszczenia danych, będziesz je przekształcać po to, by potwierdzić lub obalić konkretną hipotezę. Opanujesz metodykę korzystania z popularnych form reprezentacji danych statystycznych. Dokonasz także szeregu usprawnień związanych z wydajnością obliczeń (wektoryzacja, dobór typów danych itd.). W efekcie staniesz się początkującym, ale już samodzielnym analitykiem danych, przygotowanym zarówno na rozmowę kwalifikacyjną na przykład na stanowisko Junior Developera, jak i do usprawnienia swojej pracy - inżynierskiej, naukowej czy menedżerskiej.

10
Videokurs

Databricks. Kurs video. Wstęp do architektury Data Lakehouse

Piotr Chudzik

Obierz kurs na... inżynierię danych Jeśli myślisz o karierze inżyniera danych, ale nie masz doświadczenia w pracy na tym stanowisku, to ten kurs jest dla Ciebie idealną propozycją. Inżynier danych dostarcza je innym zespołom w firmie – usługę tę świadczy głównie dla analityków danych i dla data scientist. Do głównych obowiązków inżyniera danych należy tworzenie procesów ETL i ELT, walidacja danych i przygotowywanie ich poprzez budowanie systemu pobierania (na przykład strumienie danych lub orkiestracja zadań). Jego pracę ułatwiają i usprawniają odpowiednie narzędzia. Takie jak platforma analityczna Databricks. Databricks stanowi jedno z najpopularniejszych rozwiązań służących przetwarzaniu, procesowaniu i analizie danych. Funkcjonuje ono, opierając się na własnym formacie danych, zwanym Delta. Specyfiką tej platformy jest to, że pozwala na tworzenie struktury danych podobnej do relacyjnych baz danych. Jeśli chcesz ją poznać i nauczysz się procesować w niej dane, zapraszamy na szkolenie. W jego trakcie omówimy podstawowe tematy związane z platformą Databricks – przede wszystkim kwestie dotyczące reguł pracy z notebookami i formatem Delta. Przyjrzysz się także kwestiom związanym z korzystaniem z innych modułów Databricks, takich jak SQL Warehouse, Workflows, czy zasadom tworzenia polityki klastra. Co Cię czeka podczas naszego profesjonalnego szkolenia Podczas kursu między innymi: Przygotujesz środowisko pracy Zaczniesz pracować z notebookami Przyjrzysz się sposobom korzystania z widgetów i „magic functions” w swoich zadaniach Będziesz tworzyć własne klastry obliczeniowe i ich polityki, a także uruchamiać na nich niezbędne biblioteki i skrypty Dowiesz się, czym jest dDBFS i jak odczytuje się z niego dane Poznasz format Delta Wykonasz polecenia SQL w ramach hurtowni danych i stworzysz na niej funkcje Zautomatyzujesz zadania za pomocą Workflows Zaprezentujesz dane za pomocą Dashboard Databricks. Kurs video. Wstęp do architektury Data Lakehouse kończy się na poziomie podstawowym. Wiedza zdobyta w trakcie szkolenia pozwala na postawienie pierwszych kroków na platformie Databricks. Nabyte informacje oczywiście można zastosować w praktyce – na przykład w celu przeniesienia swojej pracy w języku Python, Scala, SQL i Spark do środowiska Databricks.

11
Videokurs

DAX w Power BI. Kurs video. Od podstaw po analizę biznesową

Adam Kopeć

Obierz kurs na... profesjonalną analizę biznesową Język DAX (Data Analysis Expressions) został stworzony przez firmę Microsoft jako język wyrażeń, służący do pracy z takimi narzędziami analizy danych jak Power BI, Power Pivot w Excelu czy SQL Server Analysis Services. Pozwala tworzyć zaawansowane raporty, analizy biznesowe i dynamiczne wizualizacje danych. Jeśli zamierzasz na poważnie zająć się analizą danych, warto nauczyć się korzystać z języka DAX. Ten kurs pokaże Ci, jakie możliwości oferuje on w tandemie z Power BI – zestawem aplikacji i usług klasy business intelligence od Microsoft, służącym gromadzeniu, zarządzaniu, przetwarzaniu i analizie danych pochodzących z różnych źródeł. Power BI uznaje się aktualnie za najpopularniejsze narzędzie w obszarze business intelligence na rynku. Proponowane przez nas szkolenie wprowadzi Cię w temat. W trakcie kursu przyjrzysz się temu, w jaki sposób język DAX sprzyja rozwiązywaniu skomplikowanych problemów analitycznych i modelowaniu danych na najwyższym poziomie. Zwiększy to Twoją atrakcyjność na rynku pracy, otwierając przed Tobą drzwi do kariery na stanowiskach związanych z analizą danych – firmy na całym świecie korzystają z Power BI i DAX podczas podejmowania ważnych decyzji biznesowych. Wiedza, którą opanujesz podczas kursu, obejmuje poznanie funkcji języka DAX, tworzenie miar, kolumn obliczeniowych i optymalizację modeli danych. W praktyce te umiejętności zastosujesz między innymi do analizy wyników sprzedaży i prognozowania, generowania zaawansowanych raportów biznesowych, automatyzowania procesów analitycznych w firmie czy też tworzenia efektywnych raportów w narzędziach BI takich jak Power BI Desktop. Szkolenie pt. DAX w Power BI. Kurs video. Od podstaw po analizę biznesową kończy się na poziomie średnio zaawansowanym. Kurs rozpoczyna się od podstaw, ale obejmuje także zaawansowane funkcje i daje solidne fundamenty do pracy z DAX i Power BI – przygotuje Cię do tworzenia bardziej skomplikowanych analiz i raportów. Podczas tworzenia części kursu wykorzystałem praktyczne przykłady autorstwa Trenera IT Przemysława Maślankiewicza, który wsparł mnie swoimi pomysłami na miary, co wzbogaciło treść szkolenia i nadało mu dodatkową wartość merytoryczną.  Między innymi dzięki jemu doświadczeniu w DAX kurs oparty jest na praktycznych przykładach biznesowych.

12
Videokurs

Elasticsearch. Kurs video. Pozyskiwanie i analiza danych

Adam Szpilewicz

Obierz kurs na wnikliwą analizę danych Dzisiejszą gospodarką rządzi informacja. Kto potrafi ją wyłuskać z zalewu danych, ten zyskuje konkurencyjną przewagę. Świadomi tego twórcy oprogramowania komputerowego stworzyli szereg narzędzi służących wyszukiwaniu informacji, ich przetwarzaniu, analizowaniu i prezentowaniu w sposób dostępny dla odbiorców. Jednym z nich jest Elasticsearch – technologia uznawana za kluczową w obszarze wyszukiwania i analizy danych, przydatna szczególnie wtedy, gdy w grę wchodzi wielka liczba rekordów. Korzystają z niej tacy giganci jak Netflix czy LinkedIn, czyli firmy, których model biznesowy wymaga ciągłego monitorowania zachowań grup konsumentów. Elasticsearch, jak sama nazwa sugeruje, to elastyczne narzędzie, które można dopasować do wielu różnych potrzeb biznesowych: od prostego wyszukiwania po zaawansowaną analizę danych. Stosowane w różnych branżach, od e-commerce po monitorowanie systemów IT, zalicza się do rozwiązań, które trzeba znać, jeśli poszukuje się pracy na stanowiskach wymagających obrabiania danych. Tajniki Elasticsearch zgłębisz z naszym kursem video, który pokazuje między innymi, jak skutecznie używać tego oprogramowania w prawdziwych scenariuszach biznesowych i technologicznych. Ucząc się z nami zasad współpracy z Elasticsearch, poznasz go krok po kroku – od podstaw aż po zaawansowane techniki analizy i wyszukiwania informacji. Co Cię czeka podczas naszego profesjonalnego szkolenia W trakcie kursu zdobędziesz takie umiejętności jak: Rozumienie architektury i działania Elasticsearch Instalacja i konfiguracja klastra Elasticsearch Tworzenie indeksów, zarządzanie nimi i ich optymalizacja Przetwarzanie i analiza danych przy użyciu zapytań i agregacji Integracja Elasticsearch z Pythonem i innymi narzędziami Stosowanie technik wyszukiwania pełnotekstowego i przybliżonego Praca z relacjami rodzic – dziecko i analiza tekstu Elasticsearch. Kurs video. Pozyskiwanie i analiza danych kończy się na poziomie średnio zaawansowanym. Udział w szkoleniu pozwoli Ci zdobyć solidne podstawy w zakresie pracy z Elasticsearch i przygotuje do zastosowania tej wiedzy w skomplikowanych projektach z obszarów analizy danych, monitorowania systemów czy budowania zaawansowanych systemów wyszukiwania. Zapraszam na kurs, który odkryje przed Wami świat możliwości, jakie oferuje Elasticsearch. To nie tylko narzędzie, to brama do lepszego zrozumienia i wykorzystania danych, które są wszędzie wokół nas.

13
Videokurs

Inteligencja obliczeniowa. Kurs video. Algorytmy genetyczne i programowanie równoległe

Jakub Tomasz Gnyp

Obierz kurs na... inteligencję obliczeniową w Pythonie Inteligencja obliczeniowa jest obok machine larning (ML) jedną z gałęzi sztucznej inteligencji, za sprawą której komputery mogą rozwiązywać złożone problemy, ucząc się z danych, zamiast polegać na regułach programowania. Dzięki algorytmom genetycznym, inspirowanym naturalną ewolucją, można optymalizować procesy w różnych branżach – od inżynierii, przez biotechnologię, aż po logistykę – bez potrzeby tworzenia dużych baz danych. Algorytmy te pozwalają na rozwiązywanie problemów takich jak dopasowywanie parametrów w symulacjach czy optymalizacja tras, co ma szerokie zastosowanie w codziennych wyzwaniach biznesowych. Dodatkowo znajomość programowania równoległego pozwala w pełni wykorzystać moc wielordzeniowych procesorów i klastrów obliczeniowych w analizie big data, modelowaniu numerycznym i zaawansowanych projektach AI. Nasze szkolenie pomoże Ci w ciągu 15 godzin opanować techniki algorytmów genetycznych i programowania równoległego, dzięki czemu znacząco zwiększysz efektywność i wydajność swojej pracy. Nauczysz się je stosować w rzeczywistych projektach, od optymalizacji algorytmów ML, przez wzmocnione uczenie (reinforcement learning), po poprawę wydajności modeli, i przyspieszać procesy uczenia. Zdobędziesz ponadto umiejętność oceny, kiedy programowanie równoległe jest najbardziej odpowiednie, a kiedy warto sięgnąć po alternatywne narzędzia, takie jak PyPy. Kurs, który opiera się na najnowszych badaniach i praktycznych zastosowaniach, przygotuje Cię do pracy z nowoczesnymi technologiami. Zdobyta wiedza pozwoli Ci się rozwinąć również w takich dyscyplinach jak big data, bioinformatyka czy rozwój autonomicznych systemów – Twoje umiejętności będą nieocenione przy modelowaniu, przewidywaniu i analizie dużych zbiorów danych. Podczas szkolenia Inteligencja obliczeniowa. Kurs video. Algorytmy genetyczne i programowanie równoległe nauczysz się praktycznego stosowania algorytmów genetycznych i programowania równoległego w Pythonie na poziomie średnio zaawansowanym. Zaczniesz od podstaw programowania w Pythonie, w tym instalowania bibliotek, korzystania z Google Colaboratory i pracy z repozytoriami Git. Poznasz teorię obiektowego programowania, typy danych, struktury danych, a także stworzysz własny projekt kalkulatora, przechodząc od wersji w Jupyterze do aplikacji okienkowej. Opanujesz ponadto umiejętność korzystania z bibliotek takich jak numpy, matplotlib i plotly w celu analizy i wizualizacji danych. Zdobędziesz wiedzę na temat algorytmów genetycznych, w tym różnych operatorów selekcji i krzyżowania, jak również nauczysz się ich implementacji w bibliotece PyGAD. Będziesz stosować programowanie równoległe do przyspieszania obliczeń, dzielenia zadań między procesory i przetwarzania danych w czasie rzeczywistym. Poznasz zasady selekcji, krzyżowania i mutacji, które pozwolą Ci tworzyć skuteczne algorytmy genetyczne. Nauczysz się definiować własne klasy w Pythonie i używać ich do pracy równoległej. Zrozumiesz, jak pisać wydajny kod i kiedy warto stosować alternatywne narzędzia, takie jak PyPy. Poznasz sposoby korzystania z klastrów obliczeniowych i unikniesz typowych błędów w programowaniu równoległym. Dowiesz się, jak algorytmy genetyczne są używane w przemyśle i nauce, na przykład do optymalizacji rozmieszczenia turbin wiatrowych. Na koniec zastosujesz te techniki w praktycznych projektach, takich jak rozwiązywanie labiryntu i równoległe mnożenie macierzy. Ukończenie szkolenia zapewni Ci solidne podstawy do nauki uczenia wzmacnianego i optymalizacji sieci neuronowych. Rozszerzysz swoje kompetencje w zakresie AI i metod obliczeniowych, nawet jeśli dopiero zaczynasz. Największym wrogiem przy nauce dziedzin ścisłych jest brak nie talentu, a cierpliwości. Materiał na pierwszy rzut oka może się wydawać trudny, ale jeśli próbować pisać kody (lub ich fragmenty) samemu i tylko porównywać je z filmami, to szybko można nabrać wprawy. Z odrobiną wytrwałości materiał kursu łatwo będzie można rozszerzyć, a ja chętnie służę pomocą przy okazji korzystania z publicznego repozytorium z kodami.

14
Videokurs

Konwolucyjne sieci neuronowe. Kurs video. Tensorflow i Keras w rozpoznawaniu obrazów

Kacper Łukawski

Obierz kurs na... sieci konwolucyjne! Sieci neuronowych i uczenia maszynowego nie trzeba już chyba nikomu przedstawiać. Służą nam na każdym kroku, dynamicznie rośnie zwłaszcza ich zastosowanie w przetwarzaniu wszelkiego rodzaju danych (data science). Swoją siłę pokazują w odniesieniu do problemów, dla których nie znaliśmy wcześniej algorytmicznych rozwiązań. Jednak mimo tych zalet klasyczne sieci neuronowe mają swoje ograniczenia - wymagają sprowadzenia danych do ustrukturyzowanej postaci. Jeden obraz wart jest 1000 słów Przygotowanie obrazów do takiej postaci może być utrudnione. A rzeczywistość, w której żyjemy, jest przecież przez obrazy zdominowana! Wzrok to nasz podstawowy zmysł, za jego pomocą głównie odbieramy otaczający nas świat. Obrazy są bardzo ważnym nośnikiem informacji, przez co ich analiza i przetwarzanie mają coraz większe znaczenie praktycznie w każdej branży: medycynie, rozrywce, bezpieczeństwie... Rozwiązaniem stały się neuronowe sieci konwolucyjne, które zrewolucjonizowały świat sztucznej inteligencji w kwestii przetwarzania obrazów. Przed ich powstaniem nie znaliśmy właściwie żadnych uniwersalnych metod efektywnego rozpoznawania wizualnych wzorców i praca z takimi danymi miała bardzo ograniczone zastosowania. Te czasy odeszły już w zapomnienie - sieci konwolucyjne pozwalają szybko stworzyć system, który będzie automatycznie klasyfikować obraz, rozpoznawać na nim obiekty, śledzić je, a także generować realistycznie wyglądające zdjęcia. Ten rodzaj sieci najczęściej jest implementowany przy wykorzystaniu jednej z dwóch bibliotek stworzonych dla potrzeb uczenia maszynowego: TensorFlow lub Keras. W kursie video Konwolucyjne sieci neuronowe. Kurs video. Tensorflow i Keras w rozpoznawaniu obrazów właśnie one będą służyły do budowania sieci, a materiałem do nauki i testów będą dostępne publicznie dane. Czego się nauczysz podczas naszego profesjonalnego szkolenia Wiedza, której posiadanie okazuje się konieczne, żeby efektywnie (a bardzo często także efektownie!) korzystać z tak potężnego narzędzia, jakim są konwolucyjne sieci neuronowe, jest rozległa i różnorodna. Jednak autor kursu video Konwolucyjne sieci neuronowe. Kurs video. Tensorflow i Keras w rozpoznawaniu obrazów zadbał o to, by znalazło się w nim wszystko, czego potrzebujesz, by przejść od poziomu początkującego aż do zaawansowanego. Natomiast podstawowa wiedza na temat sieci neuronowych jest wskazana. Dzięki kursowi dowiesz się: Jak korzystać z bibliotek NumPy i Matplotlib. Jak użyć bibliotek Keras i TensorFlow do projektowania sieci neuronowych. Co trzeba wiedzieć o sieciach neuronowych, zwłaszcza konwolucyjnych. Jak optymalizować funkcję z użyciem pakietu Optuna. Na czym polegają techniki doboru odpowiedniej struktury sieci. Jak wykorzystać gotowe modele poprzez transfer learning. Jak poszukiwać rozwiązań w dostępnych powszechnie źródłach. Jak zastosować sieci konwolucyjne do rozpoznawania obiektów. Jak wdrażać do produkcji rozwiązania oparte na sieciach konwolucyjnych.

15
Videokurs

Machine Learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek

Piotr Szajowski

Obierz kurs na... machine learning! Uczenie maszynowe obejmuje techniki wykorzystywane najczęściej w obszarze określanym mianem sztucznej inteligencji — a właśnie ona jest w tej chwili jednym z głównych kierunków rozwoju technologicznego branży IT. Niesamowite jest to, że po odpowiednim przekształceniu wiele problemów praktycznych, inżynierskich czy też biznesowych można rozwiązać właśnie z użyciem uczenia maszynowego. Można dzięki niemu wyszukiwać zdjęcia, na których znajdują się te same lub podobne obiekty, klasyfikować teksty z danej dziedziny, szacować, jak potoczy się kariera absolwenta szkoły i jaki kolejny produkt klient umieści w koszyku. Rozwiązania takich problemów są źródłem budowania wartości właściwie w każdej branży, w której nastąpiła już choćby minimalna cyfryzacja. Machine learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek pomoże Ci zorientować się w najważniejszych kwestiach dotyczących uczenia maszynowego i poznać techniki budowania praktycznych modeli, pozwalających swobodnie poruszać się w dużych zbiorach danych i wyłuskiwać z nich potrzebne informacje. Wgryź się w podstawy uczenia maszynowego i wykorzystaj je już dziś — ta rewolucja dzieje się naprawdę! Czego nauczysz się podczas naszego profesjonalnego szkolenia? Zainstalujesz i skonfigurujesz środowisko Anaconda. Nauczysz się korzystać z Google Colaboratory. Poznasz dobre praktyki w uczeniu maszynowym (w tym metody projektowe). Zobaczysz, jak wygląda wczytywanie danych i manipulowanie nimi za pomocą biblioteki Pandas. Wykorzystasz modele zaimplementowane w bibliotece Scikit-Learn (sklearn) do rozwiązania problemów:  klasyfikacji,  regresji,  redukcji wymiaru,  poszukiwania skupień. Zbudujesz modele sieci neuronowych w bibliotece Keras/Tensorflow (w tym modele sieci konwolucyjnych i rekurencyjnych). Sprawdzisz, jak wykorzystać biblioteki MLextend do analiz asocjacji. W kolejnych krokach opanujesz technikę transfer learningu, dokonasz optymalizacji hiperparametrów modeli i odkryjesz, jak działa konteneryzacja rozwiązań z użyciem Dockera. Machine learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek zakończysz na poziomie podstawowym, ale Twoja wiedza zwiększy się zdecydowanie. Bezpośrednio dzięki umiejętnościom zdobytym w czasie kursu będziesz potrafił zbudować takie rozwiązania jak: klasyfikator obrazów (na przykład rozpoznający, że na obrazie z kamery bezpieczeństwa pojawił się jakiś konkretny obiekt), klasyfikator tekstów (na przykład pozwalający zaklasyfikować wiadomości do odpowiedniej kategorii), model do prognozy zjawisk obserwowanych w czasie (na przykład prognozujący liczbę samochodów, które przejeżdżają dany odcinek drogi), model mierzący różne wartości liczbowe na podstawie obrazów (na przykład taki, który jest w stanie stwierdzić, jak bardzo nachylony jest obiekt znajdujący się na zdjęciu), model pozwalający wyszukiwać obiekty o podobnych cechach (na przykład zdjęcia zawierające podobne obiekty). Sztuczna inteligencja i uczenie maszynowe Sztuczna inteligencja w połączeniu z rozwojem narzędzi big data, usług chmurowych i stopniowym zwiększaniem mocy obliczeniowej nawet komputerów klasy PC coraz szybciej przekształca branżę IT. Dzięki temu, że należące do niej wielkie firmy udostępniły na zasadach open source wiele narzędzi i bibliotek, które pozwalają na szybkie i sprawne budowanie rozwiązań opartych na uczeniu maszynowym, rozwój tej dziedziny przyspiesza jeszcze bardziej. Machine learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek pozwoli Ci odkryć najważniejsze techniki uczenia maszynowego i dostosować modele do Twoich celów. Oprócz przykładów zastosowania klasyfikacji z użyciem płytkiego i głębokiego uczenia maszynowego oraz zastosowania regresji znajdziesz tu przykłady uczenia nienadzorowanego, optymalizacji hiperparametrów oraz konteneryzacji wytrenowanych modeli za pomocą Dockera. Przyjmij zaproszenie do świata AI! Trudno określić, jak będzie się rozwijać uczenie maszynowe w przyszłości, jednak pewne jest, że przynajmniej w najbliższych latach będzie to dziedzina znajdująca coraz więcej praktycznych zastosowań. Zaobserwować można postępującą „demokratyzację” uczenia maszynowego — narzędzia stają się coraz łatwiejsze w użyciu, dostępne są już wytrenowane modele, które dzięki technice transfer learningu łatwo jest zaprząc do rozwiązywania własnych problemów, a usługi chmurowe, oferujące możliwość użycia komputerów o dużej mocy obliczeniowej, mają na tyle przystępne ceny, że każda firma czy nawet osoba prywatna może sobie pozwolić na korzystanie z tych narzędzi. To wszystko powoduje, że wiele osób pragnie jak najszybciej poznać techniki związane z uczeniem maszynowym i ze sztuczną inteligencją. Machine learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek to najlepszy wstęp do praktycznego zastosowania metod zdecydowanie ułatwiających pracę z dużymi zbiorami danych. Po tym kursie już nigdy nie będziesz musiał ręcznie szukać igły w stogu siana. Tylko dla wtajemniczonych W 2020 roku firma OpenAI udostępniła API do modelu GPT-3, którego najobszerniejsza wersja zawiera przeszło 170 miliardów parametrów (dla porównania: modele omawiane podczas szkolenia Machine learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek mają maksymalnie kilkadziesiąt milionów parametrów). Okazuje się, że tak duży model, wytrenowany na ogromnym zbiorze tekstów, zaczyna mieć już pewne cechy, których spodziewać by się można po przyszłych modelach „ogólnej sztucznej inteligencji” — potrafi rozwiązywać zadania, do których nie został bezpośrednio wytrenowany. Jego możliwości są oczywiście nadal bardzo dalekie od możliwości ludzkiego mózgu, jednakże jego potencjalne praktyczne zastosowania są przeogromne, wręcz przełomowe. Obecnie dostęp do modelu GPT-3 jest możliwy jedynie przez API udostępniane beta testerom, ale gdy tylko dostęp ten stanie się powszechny, warto poeksperymentować z tym modelem i sprawdzić jego działanie.     Jak zrozumieć działanie modeli klasyfikacji w Pythonie?    

16
Videokurs

NLP. Kurs video. Analiza danych tekstowych w języku Python

Anna Kotarba

Obierz kurs na... wymianę myśli ze sztuczną inteligencją Czy zastanawiasz się czasem nad tym, jak to możliwe, że jesteśmy w stanie "rozmawiać" z maszynami? Że coś mówimy, a one nas rozumieją i odpowiadają na nasze pytania, realizują polecenia, wykonują zadania? I na odwrót - to one mówią (i piszą) do nas słowami, które są dla nas jasne? Przetwarzaniem języka naturalnego (ang. natural language processing, NLP) zajmuje się interdyscyplinarna dziedzina, łącząca między innymi zagadnienia sztucznej inteligencji, a także językoznawstwa i analityki. NLP pozwala rozwiązywać takie problemy jak automatyczne streszczanie tekstu, tłumaczenie maszynowe (na przykład Google Translate), generowanie mowy czy opinion mining (co na język polski tłumaczy się jako analizę sentymentu - emocjonalnego wydźwięku wypowiedzi). Brzmi ciekawie? NLP to jedna z najszybciej rozwijających się dziedzin opartych na sztucznej inteligencji. W codziennej pracy korzystają z niej na przykład analityk danych i data scientist, do których zadań należy zrozumienie danych tekstowych - między innymi kategoryzowanie tekstów, automatyczne streszczanie artykułów/książek, automatyczna analiza lub moderowanie komentarzy, a także tłumaczenie maszynowe. Jeśli myślisz o tego typu karierze, ten kurs pozwoli Ci opanować podstawy natural language processing. Dowiesz się z niego, czym jest tokenizacja i lematyzacja i jak się przeprowadza analizę sentymentu. Przykłady używane w ramach szkolenia prezentowane będą z użyciem języka Python - najpopularniejszego języka programowania w data science. Co Cię czeka podczas naszego profesjonalnego szkolenia Dzięki udziałowi w proponowanym przez nas kursie: Nauczysz się importowania plików tekstowych (TXT i PDF) Przeprowadzisz analizę tekstu w bibliotece spaCy: tokenizację, lematyzację, stemming Będziesz procesować tekst za pomocą wyrażeń regularnych i za pomocą named entity recognition Porównasz teksty przy użyciu algorytmu word2Vec Dokonasz zamiany mowy na tekst i tekstu na mowę Poznasz modele analizy sentymentu Zamodelujesz tematy w tekście NLP. Kurs video. Analiza danych tekstowych w języku Python kończy się na poziomie podstawowym, przy czym lekko zahacza o poziom średnio zaawansowany. Szkolenie pozwoli Ci zrozumieć podstawy przetwarzania języka naturalnego na język maszyny. A wszystko prowadzi do ChatGPT... Rozwinięcie technologii NLP zaowocowało rozwojem chatbotów (w tym głośnego ChatGPT). Wcześniej tego typu maszyny miały trudności z odpowiadaniem na pytania użytkowników. Obecnie coraz więcej chatbotów opiera się w działaniu na NLP i sztucznej inteligencji. Są one w stanie płynnie odpowiadać na pytania i wykonywać dla użytkowników rozmaite zadania, jakie do tej pory realizowali pracownicy działu obsługi klienta - takie jak choćby anulowanie biletów lub przebookowanie ich na inny termin. Chatboty stały się popularnym sposobem utrzymywania przez organizacje kontaktu z klientami i odpowiadania na ich pytania i wątpliwości. Można je znaleźć zarówno na stronach internetowych, jak i w aplikacjach i należy się spodziewać intensywnego rozwoju tego działu informatyki - zatem także rosnącego zapotrzebowania na specjalistów do spraw natural language processing.