Helion


Szczegóły ebooka

 
Sztuczna inteligencja dla inżynierów. Metody ogólne

Sztuczna inteligencja dla inżynierów. Metody ogólne


Autorami poszczególnych rozdziałów opracowania są wykładowcy Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, którzy aktywnie biorą udział w rozwoju sztucznej inteligencji. Planując zakres i treść książki, z szerokiej gamy metod i zagadnień autorzy wybrali te, które uważają za szczególnie istotne i mające zastosowanie w ramach całego obszaru SI – również w obrębie innych, nieomówionych tutaj metod. W rozdziale pierwszym znajdują się informacje o historii, charakterze i o zastosowaniach sztucznej inteligencji. Rozdział drugi traktuje o podstawowym (nie tylko dla sztucznej inteligencji) zagadnieniu przeszukiwania przestrzeni stanów w poszukiwaniu rozwiązań zadanego problemu. Towarzyszy temu omówienie metod optymalizacji, które wskazują najlepsze rozwiązanie z punktu widzenia przyjętego kryterium. Tematem kolejnego rozdziału jest uczenie maszynowe. Rozdział czwarty został poświęcony architekturom sztucznych sieci neuronowych, w tym sieciom głębokim. W rozdziale piątym znajduje się prezentacja i dyskusja dotycząca wzajemnych związków etyki i sztucznej inteligencji, ze szczególnym naciskiem na konieczność przedstawiania wyników działania systemów SI w sposób zrozumiały dla człowieka. Każdy rozdział jest opatrzony notą bibliograficzną, która podaje pozycje rozszerzające omówiony materiał.
 
Książka może służyć jako podręcznik i wsparcie dydaktyczne wykładów z zakresu SI oraz jako materiał referencyjny dla przedstawionych w niej metod i algorytmów.

O książce v

Notacja vii

1 O sztucznej inteligencji 1

Jarosław Chudziak, Tomasz Gambin, Piotr Gawrysiak, Mieczysław Muraszkiewicz

2 Przeszukiwanie i optymalizacja 21

Rafał Biedrzycki, Wiktor Daszczuk, Robert Nowak, Paweł Wawrzyński

2.1 Wstęp 21

2.2 Metody klasyczne w SI 23

2.2.1 Metoda Newtona 23

2.2.2 Metoda Levenberga 24

2.2.3 Metoda gradientu prostego 24

2.2.4 Metoda stochastycznego najszybszego spadku 27

2.3 Przeszukiwanie przestrzeni stanów 29

2.3.1 Strategie ślepe 30

2.3.2 Strategie heurystyczne 35

2.3.3 Gry dwuosobowe, algorytm MiniMax 38

2.4 Algorytmy ewolucyjne i inne metaheurystyki 43

2.4.1 Algorytm genetyczny 43

2.4.2 Algorytm ewolucyjny45

2.4.3 Strategia ewolucyjna ES(1+1) 48

2.4.4 Strategie ewolucyjne ES(μ + λ), ES(μ, λ) 50

2.4.5 Inne metaheurystyki 51

2.5 Uwagi bibliograficzne 59

3 Uczenie maszynowe 61

Paweł Cichosz

3.1 Systemy uczące się 61

3.1.1 W stronę definicji uczenia się 61

3.1.2 Rodzaje informacji trenującej 62

3.1.3 Wprowadzenie do uczenia indukcyjnego 63

3.2 Drzewa decyzyjne 71

3.2.1 Drzewa decyzyjne jako reprezentacja modelu 71

3.2.2 Zstępująca budowa drzewa74

3.2.3 Kryterium stopu 75

3.2.4 Kryterium wyboru podziału 76

3.2.5 Przycinanie drzewa 79

3.2.6 Predykcja probabilistyczna 81

3.2.7 Drzewa regresji 82

3.2.8 Właściwości drzew decyzyjnych 83

3.3 Modele liniowe 83

3.3.1 Regresja liniowa 84

3.3.2 Klasyfikacja liniowo-progowa 88

3.3.3 Regresja logistyczna 92

3.3.4 Obsługa atrybutów dyskretnych 97

3.3.5 Klasyfikacja wieloklasowa 97

3.3.6 Właściwości modeli liniowych 98

3.4 Naiwny klasyfikator bayesowski 99

3.4.1 Wnioskowanie bayesowskie 99

3.4.2 Estymacja prawdopodobieństw 100

3.4.3 Prawdopodobieństwa zerowe i prawie zerowe 101

3.4.4 Atrybuty ciągłe 102

3.4.5 Predykcja 104

3.4.6 Właściwości naiwnego klasyfikatora bayesowskiego 105

3.5 Las losowy 105

3.5.1 Modele zespołowe 106

3.5.2 Tworzenie modeli bazowych 107

3.5.3 Łączenie predykcji 107

3.5.4 Budowa lasu losowego 108

3.5.5 Predykcja lasu losowego 110

3.5.6 Ocena predykcyjnej użyteczności atrybutów 111

3.5.7 Właściwości lasów losowych 112

3.6 Algorytm SVM 112

3.6.1 Udoskonalenie klasyfikacji liniowo-progowej 113

3.6.2 Maksymalizacja marginesu klasyfikacji 114

3.6.3 Twardy margines 116

3.6.4 Miękki margines 118

3.6.5 Postać dualna 120

3.6.6 Funkcje jądrowe 123

3.6.7 Właściwości algorytmu SVM 125

3.7 Ocena jakości modeli 125

3.7.1 Miary jakości klasyfikacji 125

3.7.2 Miary jakości regresji 132

3.7.3 Procedury oceny 134

3.8 Elementy teorii uczenia się 137

3.8.1 Klasy pojęć i przestrzenie modeli 138

3.8.2 PAC-nauczalność 139

3.8.3 PAC-uczenie się dla algorytmów spójnych 142

3.8.4 Uczenie agnostyczne 144

3.8.5 Wymiar Vapnika-Chervonenkisa 146

3.8.6 Podsumowanie wniosków z teorii 148

3.9 Uwagi bibliograficzne 149

4 Sieci neuronowe 151

Karol Piczak, Paweł Wawrzyński

4.1 Perceptron wielowarstwowy 151

4.1.1 Model neuronu 151

4.1.2 Perceptron dwuwarstwowy 153

4.1.3 Własność uniwersalnej aproksymacji 154

4.1.4 Perceptron wielowarstwowy 154

4.2 Uczenie sieci neuronowej 156

4.2.1 Uczenie jako rozwiązanie problemu optymalizacji 156

4.2.2 Skalowanie wejść i wyjść, inicjacja wag 158

4.2.3 Wsteczna propagacja gradientu 158

4.2.4 Algorytmy optymalizacji 162

4.3 Rekurencyjne sieci neuronowe 165

4.3.1 Uczenie rekurencyjnej sieci neuronowej 167

4.3.2 Sieci LSTM 167

4.3.3 Sieci GRU169

4.4 Hiper parametry struktury i procesu uczenia sieci 170

4.4.1 Funkcje aktywacji neuronów 171

4.4.2 Inicjacja wag 174

4.4.3 Normalizacja 175

4.4.4 Dobór wielkości sieci 176

4.4.5 Wczesne zatrzymanie uczenia 177

4.4.6 Regularyzacja 177

4.4.7 Inne techniki poprawy generalizacji 179

4.5 Modele splotowe 180

4.5.1 Operacja splotu 181

4.5.2 Warstwy splotowe 181

4.5.3 Złożone architektury splotowe 188

4.6 Uwagi bibliograficzne195

5 O związkach etyki i sztucznej inteligencji 197

Katarzyna Budzyńska, Mieczysław Muraszkiewicz

5.1 Wybrane dylematy i problemy 197

5.2 Sztuczna inteligencja godna zaufania 201

5.3 Uwagi bibliograficzne 205

6 Podsumowanie 207

Jarosław Arabas, Mieczysław Muraszkiewicz, Robert Nowak

Bibliografia 211

Skorowidz 219