Verleger: 8
Bruno Joseph D'mello
Node.js builds fast, scalable network applications while MongoDB is the perfect fit as a high-performance, open source NoSQL database solution. The combination of these two technologies offers high performance and scalability and helps in building fast, scalable network applications. Together they provide the power for manage any form of data as well as speed of delivery.This book will help you to get these two technologies working together to build web applications quickly and easily, with effortless deployment to the cloud. You will also learn about angular 4, which consumes pure JSON APOIs from a hapi server.The book begins by setting up your development environment, running you through the steps necessary to get the main application server up-and-running. Then you will see how to use Node.js to connect to a MongoDB database and perform data manipulations.From here on, the book will take you through integration with third-party tools to interact with web apps. You will see how to use controllers and view models to generate reusable code that will reduce development time. Toward the end, the book supplies tests to properly execute your code and take your skills to the next level with the most popular frameworks for developing web applications.By the end of the book, you will have a running web application developed with MongoDB, Node.js, and some of the most powerful and popular frameworks.
Mithun Satheesh, Jason Krol, Bruno Joseph D'mello
Web Penetration Testing with Kali Linux. Build your defense against web attacks with Kali Linux 2.0
Juned Ahmed Ansari, Juned Ahmed Ansari
Gilberto Najera-Gutierrez, Juned Ahmed Ansari
Web Penetration Testing with Kali Linux - Third Edition shows you how to set up a lab, helps you understand the nature and mechanics of attacking websites, and explains classical attacks in great depth. This edition is heavily updated for the latest Kali Linux changes and the most recent attacks. Kali Linux shines when it comes to client-side attacks and fuzzing in particular.From the start of the book, you'll be given a thorough grounding in the concepts of hacking and penetration testing, and you'll see the tools used in Kali Linux that relate to web application hacking. You'll gain a deep understanding of classicalSQL, command-injection flaws, and the many ways to exploit these flaws. Web penetration testing also needs a general overview of client-side attacks, which is rounded out by a long discussion of scripting and input validation flaws.There is also an important chapter on cryptographic implementation flaws, where we discuss the most recent problems with cryptographic layers in the networking stack.The importance of these attacks cannot be overstated, and defending against them is relevant to most internet users and, of course, penetration testers.At the end of the book, you'll use an automated technique called fuzzing to identify flaws in a web application. Finally, you'll gain an understanding of web application vulnerabilities and the ways they can be exploited using the tools in Kali Linux.
Joseph Muniz, Aamir Lakhani, Aamir Lakhani
Kali Linux is built for professional penetration testing and security auditing. It is the next-generation of BackTrack, the most popular open-source penetration toolkit in the world. Readers will learn how to think like real attackers, exploit systems, and expose vulnerabilities.Even though web applications are developed in a very secure environment and have an intrusion detection system and firewall in place to detect and prevent any malicious activity, open ports are a pre-requisite for conducting online business. These ports serve as an open door for attackers to attack these applications. As a result, penetration testing becomes essential to test the integrity of web-applications. Web Penetration Testing with Kali Linux is a hands-on guide that will give you step-by-step methods on finding vulnerabilities and exploiting web applications.Web Penetration Testing with Kali Linux looks at the aspects of web penetration testing from the mind of an attacker. It provides real-world, practical step-by-step instructions on how to perform web penetration testing exercises.You will learn how to use network reconnaissance to pick your targets and gather information. Then, you will use server-side attacks to expose vulnerabilities in web servers and their applications. Client attacks will exploit the way end users use web applications and their workstations. You will also learn how to use open source tools to write reports and get tips on how to sell penetration tests and look out for common pitfalls.On the completion of this book, you will have the skills needed to use Kali Linux for web penetration tests and expose vulnerabilities on web applications and clients that access them.
Web scraping. Kurs video. Zautomatyzowane pozyskiwanie danych z sieci
Jan Mager
Obierz kurs na... pozyskiwanie danych z sieci Wiesz, że ponad połowa aktywności w sieci jest podejmowana przez boty? Powód ich popularności nie powinien być zaskoczeniem - w świecie usług i biznesu chodzi przede wszystkim o poznanie rynku i konkurencji. W tym wypadku kto ma technologię, ten ma przewagę, a daje ją web scraping. Dosłownie tłumaczony jako zdrapywanie sieci, web scraping służy do wydobywania ustrukturyzowanych danych ze stron internetowych. Jeśli właśnie zastanawiasz się gdzie w sieci można spotkać web scraping, to stosuje się go do przeprowadzania badań rynkowych, w botach wyszukiwarek i porównywarkach cenowych. W uproszczeniu - by skutecznie pozyskiwać dane z sieci, należy wykonać kilka kroków: nawiązać połączenie z API, a następnie odebrać i zwalidować dane, by odpowiednio wyodrębnić interesujące informacje. Spróbuj swoich sił i przekonaj się w praktyce, że droga do tego, by zostać web scraperem, jest prosta! W trakcie naszego profesjonalnego szkolenia: Przygotujesz poprawną strukturę folderów dla aplikacji webowej Stworzysz podstawowy szablon aplikacji oparty na bibliotece Bootstrap Utrwalisz wiedzę na temat dodawania stylów CSS Dowiesz się, jak pobrać dane z zewnętrznego API Nauczysz się wysyłać dynamiczne zapytania do API Poznasz bibliotekę Chart.js i API CoinGecko Nauczysz się wysyłać zapytania przy użyciu AJAX Zbudujesz responsywną i dynamiczną aplikację internetową Stworzysz interaktywne wykresy Naniesiesz dynamiczne zmiany na wykresie Dowiesz się, jak przechwytywać błędy podczas komunikacji z API Wprowadzisz dynamiczne zmiany na stronie bez konieczności jej odświeżania Co więcej... Przeprowadzisz walidację zapytań wysłanych do API i walidację zapytań odbieranych z API Nauczysz się pobierać dane z zewnętrznych baz danych i wykonywać operacje na pobranych danych Web scraping. Kurs video. Zautomatyzowane pozyskiwanie danych z sieci ukończysz na poziomie podstawowym. W trakcie szkolenia wspólnie zbudujemy dwa projekty w języku JavaScript. Na początku omówimy plan całego kursu i niezbędne narzędzia. Następnie płynnie przejdziemy do projektu pierwszej miniaplikacji - Populacja Świata. Podczas tego modułu nauczysz się wysyłać zapytania do API, przetwarzać odebrane wartości, sprawdzać ich poprawność, wyświetlać i operować nimi na stronie. Z tak uporządkowanych danych stworzysz dynamiczny wykres oparty na bibliotece Chart.js. Drugim projektem będzie aplikacja o budzącej emocje nazwie Kryptowaluty. W tej części kursu utworzysz dynamiczną tabelę generującą ranking kryptowalut z aktualnymi kursami pobranymi z API CoinGecko. Dzięki połączeniu z API CoinGecko mamy dostęp do aktualnych co do minuty kursów wszystkich możliwych kryptowalut opublikowanych na stronie CoinGecko. Bez trudu więc zaprogramujesz dynamiczny wykres do wyświetlania kursów kryptowalut na przestrzeni czasu zadanego przez użytkownika. Aplikacja będzie w pełni responsywna na wszystkich dostępnych mobilnych i stacjonarnych urządzeniach. W ramach ostatnich lekcji przedstawimy pomysły na rozwój aplikacji rankingu kryptowalut. Ten kurs dostarczy Ci inspiracji do indywidualnych projektów, a także pokaże nowe możliwości wykorzystania znanych Ci dotychczas tematów. Po zakończeniu szkolenia będziesz w stanie samodzielnie wykonać swój prywatny portfel kryptowalut, łącznie z wykresami i analizowaniem statystyk dzięki zastosowaniu wykresów Chart.js.
Web scraping w Data Science. Kurs video. Techniki uczenia maszynowego w Pythonie
Tobiasz Bajek
Obierz kurs na... scraping danych i uczenie maszynowe W danych dostępnych w Internecie tkwi ogromny potencjał – poddane obróbce i analizie, są źródłem cennych informacji, niezbędnych do badań rynku, personalizowania treści, przewidywania trendów i monitorowania działań konkurencji. W posiadaniu takiej wiedzy chce być prawdopodobnie każda firma... tylko jak ją zdobyć? Do pozyskiwania ustrukturyzowanych danych z różnych źródeł w Internecie służy technika zwana scrapingiem danych (w sieci można także spotkać dosłowne tłumaczenie: zdrapywanie danych). W celu uzyskania jeszcze lepszych rezultatów biznesowych często łączy się ją z uczeniem maszynowym. Razem otwierają przed światem nowe możliwości rozwoju w postaci automatyzacji zbiorów treningowych czy tworzenia coraz bardziej złożonych modeli maszynowych, przetwarzających różnorodne typy danych. Umiejętne połączenie machine learning i scrapingu pomaga usprawnić klasyfikację, prognozowanie i cały proces trenowania sieci na dużych zbiorach danych. Być może te pojęcia brzmią nieco abstrakcyjnie, ale efekty ich działań nie są nam obce. Zderzamy się z nimi codziennie, choćby wtedy, gdy otrzymujemy personalizowane reklamy, oferty i rekomendacje. Tak sektor e-commerce i usług wykorzystuje naukę, by dotrzeć do swoich klientów. Co więcej, w marcu 2023 roku laboratorium OpenAI opublikowało model sieci neuronowej GPT-4, który dorównuje w rozumieniu języka naturalnego ludziom. Bez wątpienia zrewolucjonizuje on naszą codzienność i szereg gałęzi gospodarki. Model ten opiera się na architekturze zwanej Transformer, jednak zasada uczenia się tej sieci nie odbiega zbytnio od prostych sieci neuronowych i jest oparta na propagacji wstecznej. Zatem znajomość podstawowych budulców sieci neuronowych to cenna umiejętność, pozwalająca lepiej zrozumieć rewolucję, z którą mamy do czynienia. Wiesz już, ile korzyści płynie z biegłości w machine learning i scrapingu, pora przełożyć to na realne kompetencje. Czas najwyższy, by wykorzystać technologię i moc płynącą w danych do tworzenia rozwiązań przyszłości! W trakcie naszego profesjonalnego szkolenia: Poznasz zasady formatowania kodu w Pythonie, zgodnie ze standardem PEP 8 Nauczysz się typowania i tworzenia docstringów Dowiesz się, czym jest zdrapywanie danych i kiedy jest legalne Poznasz elementy kodu strony internetowej i przeglądarkowe narzędzia dla deweloperów Za pomocą sterownika Selenium nauczysz się scrapingu danych stron ładowanych dynamicznie Poznasz moduł BeautifulSoup służący do zbierania danych z sieci Opanujesz podstawy uczenia maszynowego – teorię i matematykę sieci neuronowych Poznasz matematykę uczenia się sieci – propagację wsteczną Dowiesz się, jakie zastosowania ma funkcja aktywacji Skorzystasz w praktyce z możliwości bibliotek NumPy i pandas Utworzysz własną sieć neuronową Zdefiniujesz kilka klas warstw sieci, w tym warstwę głęboką Przeprowadzisz propagację wsteczną dla powyższych warstw Za pomocą biblioteki TensorFlow utworzysz prostą sieć neuronową Zaimplementujesz model uczenia się sieci neuronowej Przetestujesz utworzoną sieć na zbiorze danych z biblioteki scikit-learn Opanujesz uczenie sieci na podstawie wcześniej zdrapanych danych Utworzysz funkcję do diagnostyki wyników zwracanych przez sieć Web scraping w data science. Kurs video. Techniki uczenia maszynowego w Pythonie pozwoli Ci zdobyć umiejętności potrzebne do sprawnego pozyskiwania informacji ze stron internetowych. Opanujesz fundamentalne wzorce i zagadnienia uczenia maszynowego, a następnie wdrożysz się w bardziej zaawansowane tajniki. Nauczysz się matematyki sieci neuronowej i poznasz podstawowe bloki matematyczne budujące sieć, po czym zaimplementujesz sprawną sieć od podstaw. Wiedza na temat budowy i działania poszczególnych elementów sieci neuronowej znacznie ułatwi Ci proces dalszej, samodzielnej nauki. W praktyce sprawdzisz, jakie możliwości daje scraping, na przykładzie pobierania z Internetu danych dotyczących zanieczyszczeń miast. Poznasz bibliotekę NumPy i wykorzystasz jej znajomość do tworzenia tablic, generowania liczb losowych, funkcji aktywacji i sformułowania funkcji błędu średniokwadratowego. Utworzysz funkcje aktywacji, takie jak tangens hiperboliczny czy sigmoid. Dowiesz się, do czego służy biblioteka pandas, i wykonasz funkcje do prezentowania danych, jak również nauczysz się wczytywać dane do ramek DataFrames i zapisywać je do plików .csv. Za pomocą TensorFlow sprawnie utworzysz własną sieć neuronową. Korzystając z biblioteki scikit-learn, przygotujesz dane treningowe dla modeli maszynowych. Wszystkie przykłady i zadania są napisane w Pythonie, dlatego jego znajomość co najmniej na poziomie podstawowym jest zalecana. Kombinacja machine learning i scrapingu pozwala na tworzenie zaawansowanych rozwiązań analitycznych, prognozowych i automatyzacyjnych, a programistom ułatwia osiąganie wielu celów od początku do końca – od pozyskania danych po wyciągnięcie z nich nowej informacji. Obie technologie są dziś powszechnie stosowane w przemyśle, a kwalifikacje z obszaru inżynierii danych to istotny atut na rynku pracy. Cześć, zachęcam Was serdecznie do nauki w ramach tego kursu. Dołożyłem wszelkich starań, by precyzyjnie przekazać wiedzę na temat zdrapywania i uczenia maszynowego. Wybrałem taką kombinację tematów, ponieważ liczę, że popchnie to Was do podejmowania projektów i rozwiązywania problemów na własną rękę za pomocą stworzonego przez siebie oprogramowania. Mogą z tego powstać fantastyczne rzeczy, które pozytywnie wpłyną na życie innych ludzi. Dziękuję za zainteresowanie i życzę Wam miłej nauki! Tobiasz Bajek