Деталі електронної книги

Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II

Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II

Rowel Atienza

Eлектронна книга

Oto propozycja dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie. Autor przybliża tajniki tworzenia sieci neuronowych stosowanych w uczeniu głębokim i pokazuje, w jaki sposób używać w tym celu bibliotek Keras i TensorFlow. Objaśnia zagadnienia dotyczące programowania AI zarówno w teorii, jak i praktyce. Liczne przykłady, czytelna oprawa graficzna i logiczne wywody sprawiają, że to skuteczne narzędzie dla każdego, kto chce się nauczyć budowania sieci neuronowych typu MLP, CNN i RNN.

Książka wprowadza w teoretyczne fundamenty uczenia głębokiego - znalazły się w niej wyjaśnienia podstawowych pojęć związanych z tą dziedziną i różnice pomiędzy poszczególnymi typami sieci neuronowych. Opisano tutaj również metody programowania algorytmów używanych w uczeniu głębokim i sposoby ich wdrażania. Dzięki lekturze lepiej zrozumiesz sieci neuronowe, nauczysz się ich tworzenia i zastosowania w różnych projektach z zakresu AI.

Polecamy tę książkę każdemu, kto:

  • chce zrozumieć, jak działają sieci neuronowe i w jaki sposób się je tworzy
  • specjalizuje się w uczeniu głębokim lub zamierza lepiej poznać tę dziedzinę
  • posługuje się sieciami neuronowymi w programowaniu
  • chce się nauczyć stosować biblioteki Keras i TensorFlow w uczeniu głębokim

O autorze

O recenzencie

Przedmowa

Rozdział 1. Wprowadzenie do uczenia głębokiego z Keras

  • 1.1. Dlaczego Keras jest idealną biblioteką do uczenia głębokiego?
    • Instalowanie biblioteki Keras i TensorFlow
  • 1.2. Sieci MLP, CNN i RNN
    • Różnice między MLP, CNN i RNN
  • 1.3. Perceptron wielowarstwowy (MLP)
    • Zbiór danych MNIST
    • Model klasyfikatora cyfr MNIST
    • Budowanie modelu przy użyciu MLP i Keras
    • Regularyzacja
    • Funkcja aktywacji i funkcja straty
    • Optymalizacja
    • Ocena wydajności
    • Podsumowanie modelu MLP
  • 1.4. Splotowa (konwolucyjna) sieć neuronowa
    • Splot
    • Operacje łączenia
    • Ocena wydajności i podsumowanie modelu
  • 1.5. Rekurencyjna sieć neuronowa
  • 1.6. Wnioski
  • 1.7. Odwołania

Rozdział 2. Głębokie sieci neuronowe

  • 2.1. Funkcyjne API Keras
    • Tworzenie modelu o dwóch wejściach i jednym wyjściu
  • 2.2. Głęboka sieć resztkowa (ResNet)
  • 2.3. ResNet v2
  • 2.4. Gęsto połączona sieć splotowa (DenseNet)
    • Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10
  • 2.5. Podsumowanie
  • 2.6. Bibliografia

Rozdział 3. Sieci autokodujące

  • 3.1. Zasada działania sieci autokodującej
  • 3.2. Budowanie sieci autokodującej za pomocą Keras
  • 3.3. Autokodujące sieci odszumiające (DAE)
  • 3.4. Automatyczne kolorowanie z użyciem autokodera
  • 3.5. Podsumowanie
  • 3.6. Bibliografia

Rozdział 4. Generujące sieci współzawodniczące

  • 4.1. GAN - informacje wprowadzające
    • Podstawy GAN
  • 4.2. Implementacja DCGAN w Keras
  • 4.3. Warunkowe sieci GAN
  • 4.4. Podsumowanie
  • 4.5. Bibliografia

Rozdział 5. Ulepszone sieci GAN

  • 5.1. Sieć GAN Wassersteina
    • Funkcje odległości
    • Funkcja odległości w GAN
    • Wykorzystanie funkcji straty Wassersteina
    • Implementacja WGAN przy użyciu Keras
  • 5.2. GAN z metodą najmniejszych kwadratów (LSGAN)
  • 5.3. Pomocniczy klasyfikator GAN (ACGAN)
  • 5.4. Podsumowanie
  • 5.5. Bibliografia

Rozdział 6. Rozplątane reprezentacje w GAN

  • 6.1. Rozplątane reprezentacje
  • 6.2. Sieć InfoGAN
    • Implementacja InfoGAN w Keras
    • Ocena rezultatów działania generatora sieci InfoGAN
  • 6.3. Sieci StackedGAN
    • Implementacja sieci StackedGAN w Keras
    • Ocena rezultatów działania generatora StackedGAN
  • 6.4. Podsumowanie
  • 6.5. Bibliografia

Rozdział 7. Międzydomenowe GAN

  • 7.1. Podstawy sieci CycleGAN
    • Model sieci CycleGAN
    • Implementacja CycleGAN przy użyciu Keras
    • Wyjścia generatora CycleGAN
    • CycleGAN na zbiorach danych MNIST i SVHN
  • 7.2. Podsumowanie
  • 7.3. Bibliografia

Rozdział 8. Wariacyjne sieci autokodujące (VAE)

  • 8.1. Podstawy sieci VAE
    • Wnioskowanie wariacyjne
    • Podstawowe równanie
    • Optymalizacja
    • Sztuczka z reparametryzacją
    • Testowanie dekodera
    • VAE w Keras
    • Korzystanie z CNN w sieciach autokodujących
  • 8.2. Warunkowe VAE (CVAE)
  • 8.3. B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami
  • 8.4. Podsumowanie
  • 8.5. Bibliografia

Rozdział 9. Uczenie głębokie ze wzmocnieniem

  • 9.1. Podstawy uczenia ze wzmocnieniem (RL)
  • 9.2. Wartość Q
  • 9.3. Przykład Q-uczenia
    • Q-uczenie w języku Python
  • 9.4. Otoczenie niedeterministyczne
  • 9.5. Uczenie z wykorzystaniem różnic czasowych
    • Q-uczenie w Open AI Gym
  • 9.6. Głęboka sieć Q (DQN)
    • Implementacja DQN w Keras
    • Q-uczenie podwójnej sieci DQN (DDQN)
  • 9.7. Podsumowanie
  • 9.8. Bibliografia

Rozdział 10. Strategie w metodach gradientowych

  • 10.1. Twierdzenie o gradiencie strategii
  • 10.2. Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE)
  • 10.3. Metoda WZMOCNIENIE z wartością bazową
  • 10.4. Metoda Aktor-Krytyk
  • 10.5. Metoda Aktor-Krytyk z przewagą (A2C)
  • 10.6. Metody strategii gradientowych przy użyciu Keras
  • 10.7. Ocena wydajności metod strategii gradientowej
  • 10.8. Podsumowanie
  • 10.9. Bibliografia

Rozdział 11. Wykrywanie obiektów

  • 11.1. Wykrywanie obiektów
  • 11.2. Pole zakotwiczenia
  • 11.3. Referencyjne pola zakotwiczenia
  • 11.4. Funkcje strat
  • 11.5. Architektura modelu SSD
  • 11.6. Architektura modelu SSD w Keras
  • 11.7. Obiekty SSD w Keras
  • 11.8. Model SSD w Keras
  • 11.9. Model generatora danych w Keras
  • 11.10. Przykładowy zbiór danych
  • 11.11. Szkolenie modelu SSD
  • 11.12. Algorytm niemaksymalnego tłumienia (NMS)
  • 11.13. Walidacja modelu SSD
  • 11.14. Podsumowanie
  • 11.15. Bibliografia

Rozdział 12. Segmentacja semantyczna

  • 12.1. Segmentacja
  • 12.2. Sieć do segmentacji semantycznej
  • 12.3. Sieć do segmentacji semantycznej w Keras
  • 12.4. Przykładowy zbiór danych
  • 12.5. Walidacja segmentacji semantycznej
  • 12.6. Podsumowanie
  • 12.7. Bibliografia

Rozdział 13. Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej

  • 13.1. Informacja wzajemna
  • 13.2. Informacja wzajemna i entropia
  • 13.3. Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych
  • 13.4. Sieć koderów do grupowania nienadzorowanego
  • 13.5. Implementacja nienadzorowanego grupowania w Keras
  • 13.6. Walidacja na zbiorze cyfr MNIST
  • 13.7. Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych
  • 13.8. Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa
  • 13.9. Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
  • 13.10. Podsumowanie
  • 13.11. Bibliografia
  • Назва: Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II
  • Автор: Rowel Atienza
  • Оригінальна назва: Advanced Deep Learning with TensorFlow 2 and Keras: Apply DL, GANs, VAEs, deep RL, unsupervised learning, object detection and segmentation, and more, 2nd Edition
  • Переклад: Magdalena Tkacz
  • ISBN: 978-83-283-8884-0, 9788328388840
  • Дата видання: 2022-06-27
  • Формат: Eлектронна книга
  • Ідентифікатор видання: delet2
  • Видавець: Helion