Деталі електронної книги

Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps

Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps

John Sotiropoulos

Eлектронна книга

Wraz z rozwojem rewolucyjnych możliwości modeli AI pojawiają się nowe zagrożenia. Może to być na przykład manipulowanie działaniem sztucznej inteligencji, by celowo doprowadzić do błędnych decyzji. Tak właśnie prowadzi się ataki adwersarialne. Konsekwencje takich manipulacji, jak również innych, mogą być bardzo poważne. Jednak zrozumienie ich istoty i wdrożenie adekwatnych zabezpieczeń stanowi ogromne wyzwanie.

Tę książkę docenią specjaliści do spraw cyberbezpieczeństwa, którzy chcą zdobyć umiejętności zabezpieczania systemów AI. Znajdą w niej uporządkowaną prezentację wyników badań i najnowszych standardów branżowych, z uwzględnieniem klasyfikacji: MITRE, NIST i OWASP. W przewodniku omówiono strategię zabezpieczania AI już na etapie projektowania ― z wykorzystaniem modelowania zagrożeń, przy czym skoncentrowano się na integracji MLSecOps i LLMOps z systemami bezpieczeństwa przedsiębiorstwa. Dodatkowo przedstawiono przykłady wdrażania integracji ciągłej, strategii i narzędzi MLOps, a także mechanizmów kontroli bezpieczeństwa. Zaproponowano ponadto bazujący na klasycznych filarach NIST plan wzmacniania bezpieczeństwa AI w przedsiębiorstwie.

Ciekawsze zagadnienia:

  • zatruwanie danych, omijanie zabezpieczeń i naruszanie prywatności
  • użycie sieci GAN do przeprowadzania ataków i generowania deepfake'ów
  • nowe zagrożenia bezpieczeństwa LLM, w tym wstrzykiwanie promptów i ekstrakcja danych
  • zatruwanie LLM metodami: RAG, osadzeń i dostrajania
  • nowe zagrożenia związane z łańcuchem dostaw i modelami LLM o otwartym dostępie
  • wdrażanie operacji MLSecOps z integracją ciągłą MLOps i SBOM

Podejmij wyzwanie: ochroń AI przed nadużyciami!

O autorze

O recenzentach

Zastrzeżenie

Wstęp

Część 1. Wprowadzenie do adwersarialnej sztucznej inteligencji

  • Rozdział 1. Wprowadzenie do sztucznej inteligencji
    • Podstawy sztucznej inteligencji i uczenia maszynowego
    • Rodzaje uczenia maszynowego i jego cykl życia
    • Kluczowe algorytmy uczenia maszynowego
    • Sieci neuronowe i uczenie głębokie
    • Narzędzia deweloperskie do programowania uczenia maszynowego
    • Podsumowanie
    • Dodatkowe publikacje
  • Rozdział 2. Przygotowanie adwersarialnego laboratorium
    • Wymagania techniczne
    • Konfiguracja środowiska programistycznego
      • Instalacja Pythona
      • Tworzenie wirtualnego środowiska
      • Instalowanie pakietów
      • Powiązanie środowiska wirtualnego z notatnikami Jupytera
      • Weryfikowanie instalacji
    • Praktyczne podstawy uczenia maszynowego
      • Proste sieci neuronowe
    • Tworzenie docelowej usługi AI z użyciem sieci CNN
      • Konfiguracja i gromadzenie danych
      • Eksploracja danych
      • Wstępne przetwarzanie danych
      • Wybór algorytmu i tworzenie modelu
      • Trenowanie modelu
      • Ewaluacja modelu
      • Wdrażanie modelu
      • Usługa wnioskowania
    • Tworzenie rozwiązań ML na dużą skalę
      • Google Colab
      • AWS SageMaker
      • Usługi Azure Machine Learning
      • Lambda Labs Cloud
    • Podsumowanie
  • Rozdział 3. Bezpieczeństwo a adwersarialna sztuczna inteligencja
    • Wymagania techniczne
    • Podstawy bezpieczeństwa
      • Modelowanie zagrożeń
      • Ryzyka i środki zaradcze
      • DevSecOps
    • Zabezpieczenie naszego adwersarialnego laboratorium
      • Bezpieczeństwo hosta
      • Ochrona sieci
      • Uwierzytelnianie
      • Ochrona danych
      • Kontrola dostępu
    • Zabezpieczanie kodu i artefaktów
      • Bezpieczeństwo kodu
      • Zabezpieczanie zależności przez wyszukiwanie podatności
      • Skanowanie sekretów
      • Zabezpieczanie notatników Jupytera
      • Zabezpieczanie modeli przed złośliwym kodem
      • Integracja z potokami DevSecOps i MLOps
    • Omijanie zabezpieczeń za pomocą adwersarialnej sztucznej inteligencji
      • Nasz pierwszy adwersarialny atak
      • Tradycyjne cyberbezpieczeństwo a adwersarialna sztuczna inteligencja
      • Adwersarialna sztuczna inteligencja
    • Podsumowanie

Część 2. Atakowanie modeli ML

  • Rozdział 4. Ataki zatruwające
    • Podstawy ataków zatruwających
      • Definicja i przykłady
      • Rodzaje ataków zatruwających
      • Przykłady ataków zatruwających
      • Dlaczego to takie ważne?
    • Przygotowanie prostego ataku zatruwającego
      • Tworzenie zatrutych próbek
    • Ataki zatruwające typu backdoor
      • Tworzenie wyzwalaczy backdoorowych za pomocą narzędzi ART
      • Zatruwanie danych z użyciem frameworku ART
    • Ataki backdoorowe z ukrytym wyzwalaczem
    • Ataki typu clean-label
    • Zaawansowane ataki zatruwające
    • Zapobieganie i obrona
      • Obrona cyfrowych twierdz przy użyciu MLOps
      • Wykrywanie anomalii
      • Testy odporności na zatruwanie
      • Zaawansowana ochrona przed zatruciem realizowana z użyciem narzędzi ART
      • Trening adwersarialny
      • Budowanie strategii obronnej
    • Podsumowanie
  • Rozdział 5. Manipulowanie modelami za pomocą koni trojańskich i przeprogramowywania
    • Wstrzykiwanie backdoorów za pomocą serializacji pickle'owej
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Wstrzykiwanie koni trojańskich za pomocą kerasowych warstw lambda
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Warstwy niestandardowe z końmi trojańskimi
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Wstrzykiwanie ładunku neuronowego
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Atakowanie brzegowej sztucznej inteligencji
      • Aplikacja mobilna ImRecS na Androida
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Przejmowanie kontroli nad modelem
      • Wprowadzenie kodu konia trojańskiego
      • Przeprogramowanie modelu
    • Podsumowanie
  • Rozdział 6. Ataki na łańcuch dostaw a adwersarialna sztuczna inteligencja
    • Tradycyjne zagrożenia dla łańcucha dostaw a sztuczna inteligencja
      • Zagrożenia związane z przestarzałymi i podatnymi na atak komponentami
      • Ryzyka wynikające z zależności AI od danych pobieranych na żywo
      • Zabezpieczanie AI przed podatnymi na atak komponentami
      • Zaawansowane zabezpieczenia - akceptowanie jedynie zatwierdzonych pakietów
      • Konfiguracja klienta do obsługi prywatnych repozytoriów PyPI
      • Dodatkowe zabezpieczenia prywatnego repozytorium PyPI
      • Korzystanie ze specyfikacji SBOM
    • Ryzyka związane z łańcuchem dostaw w kontekście AI
      • Uczenie transferowe jako broń obosieczna
      • Zatruwanie modelu
      • Manipulowanie modelami
      • Sprawdzanie pochodzenia wstępnie wytrenowanych modeli i nadzorowanie ich
      • MLOps a prywatne repozytoria modeli
    • Zatruwanie danych
      • Ryzyka związane z łańcuchem dostaw
      • Zatruwanie danych, aby wpłynąć na wyniki analizy sentymentu
      • Obrona i środki zaradcze
    • Specyfikacje komponentów oprogramowania (SBOM) dla AI/ML
    • Podsumowanie

Część 3. Ataki na implementacje AI

  • Rozdział 7. Ataki unikowe na implementacje AI
    • Podstawy ataków unikowych
      • Znaczenie znajomości ataków unikowych
      • Techniki rozpoznawcze w atakach unikowych
    • Perturbacje i techniki ataków unikowych w kontekście obrazów
      • Scenariusze ataków unikowych
      • Jednoetapowa perturbacja z użyciem metody FGSM
      • Podstawowa metoda iteracyjna (BIM)
      • Atak z mapą istotności wyznaczonej metodą Jacobiego (JSMA)
      • Atak Carliniego i Wagnera (C&W)
      • Rzutowanie gradientu (PGD)
      • Łatki adwersarialne - łączenie cyfrowych i fizycznych technik unikania
    • Ataki unikowe w dziedzinie NLP - atak na model BERT z użyciem biblioteki TextAttack
      • Scenariusz ataku - analiza sentymentu
      • Przykład ataku
      • Scenariusz ataku - wnioskowanie w języku naturalnym
      • Przykład ataku
    • Uniwersalne perturbacje adwersarialne (UAP)
      • Scenariusz ataku
      • Przykład ataku
    • Ataki czarnoskrzynkowe oraz ich transferowalność
      • Scenariusz ataku
      • Przykład ataku
    • Obrona przed atakami unikowymi
      • Przegląd strategii obronnych
      • Trening adwersarialny
      • Wstępne przetwarzanie danych wejściowych
      • Techniki wzmacniania modelu
      • Zespoły modeli
      • Certyfikowane mechanizmy obronne
    • Podsumowanie
  • Rozdział 8. Ataki na prywatność - kradzież modeli
    • Charakterystyka ataków na prywatność
    • Wykradanie modeli podczas ataków ekstrakcyjnych
      • Ekstrakcja równoważna funkcjonalnie
      • Ataki ekstrakcyjne oparte na uczeniu
      • Generatywne ataki ekstrakcyjne typu uczeń-nauczyciel (ataki destylacyjne)
      • Przykładowy atak na model CIFAR-10 CNN
    • Obrona i środki zaradcze
      • Środki prewencyjne
      • Mechanizmy wykrywające
      • Ustalanie stanu własności modelu oraz jej odzyskiwanie
    • Podsumowanie
  • Rozdział 9. Ataki na prywatność - kradzież danych
    • Istota ataków polegających na inwersji modelu
    • Typy ataków inwersyjnych
      • Wykorzystanie poziomów pewności modelu
      • Inwersja modelu wspomagana sieciami GAN
    • Przykład ataku inwersyjnego
    • Istota ataków wnioskowania
    • Ataki wnioskowania o atrybutach
      • Metaklasyfikatory
      • Wnioskowanie wspomagane zatruciem
    • Przykład ataku wnioskowania o atrybutach
    • Ataki wnioskowania o przynależności
      • Statystyczne wartości progowe wycieku danych z modeli ML
      • Atak transferu wiedzy z wykorzystaniem samych etykiet
      • Ślepe ataki wnioskowania o przynależności
      • Ataki białoskrzynkowe
      • Przykładowy atak wnioskowania o przynależności z użyciem narzędzi ART
    • Podsumowanie
  • Rozdział 10. Zachowanie prywatności w rozwiązaniach AI
    • Zachowanie prywatności w rozwiązaniach ML i AI
    • Prosta anonimizacja danych
    • Zaawansowana anonimizacja
      • K-anonimowość
      • Anonimizacja a dane geolokalizacyjne
      • Anonimizacja formatów multimedialnych
    • Prywatność różnicowa
    • Uczenie federacyjne
    • Uczenie dzielone
    • Zaawansowane opcje szyfrowania wspomagające ochronę prywatności w uczeniu maszynowym
      • Bezpieczne obliczenia wielostronne
      • Szyfrowanie homomorficzne
    • Praktyczne zastosowanie zaawansowanych technik szyfrowania w rozwiązaniach ML
    • Stosowanie technik zapewniania prywatności w uczeniu maszynowym
    • Podsumowanie
  • Rozdział 11. Generatywna sztuczna inteligencja - nowy front walki
    • Krótkie wprowadzenie do generatywnej sztucznej inteligencji
      • Krótka historia rozwoju generatywnej sztucznej inteligencji
      • Technologie generatywnej sztucznej inteligencji
    • Stosowanie generatywnych sieci adwersarialnych
      • Tworzenie sieci GAN od podstaw
      • Sieci WGAN i niestandardowe funkcje strat
    • Korzystanie ze wstępnie wytrenowanych modeli GAN
      • Pix2Pix
      • CycleGAN
      • Pix2PixHD
      • PGGAN
      • BigGAN
      • StarGAN v2
      • Seria StyleGAN
    • Podsumowanie
  • Rozdział 12. Wykorzystywanie sieci GAN do deepfake'ów i ataków adwersarialnych
    • Wykorzystanie GAN-ów do tworzenia deepfake'ów oraz ich wykrywania
      • Generowanie przekonujących fałszywych zdjęć za pomocą modeli StyleGAN
      • Wykorzystanie sieci GAN do tworzenia prostych deepfake'ów na podstawie istniejących zdjęć
      • Wprowadzanie ukierunkowanych zmian w istniejącym obrazie
      • Syntezowanie obrazów za pomocą modelu Pix2PixHD
      • Sfałszowane filmy i animacje
      • Inne techniki tworzenia deepfake'ów
      • Deepfaki dźwiękowe
      • Wykrywanie deepfake'ów
    • Zastosowanie GAN-ów w cyberatakach i bezpieczeństwie ofensywnym
      • Omijanie systemów weryfikacji twarzy
      • Oszukiwanie biometrycznych mechanizmów uwierzytelniających
      • Łamanie haseł z użyciem GAN-ów
      • Omijanie mechanizmów detekcji złośliwego oprogramowania
      • GAN-y w kryptografii i steganografii
      • Generowanie ładunków dla ataków sieciowych z użyciem GAN-ów
      • Generowanie ładunków dla ataków adwersarialnych
    • Mechanizmy obronne i środki zaradcze
      • Zabezpieczanie sieci GAN
      • Ataki adwersarialne wspomagane sieciami GAN
      • Deepfaki, złośliwe treści i szerzenie dezinformacji
    • Podsumowanie
  • Rozdział 13. Podstawy LLM w kontekście adwersarialnej sztucznej inteligencji
    • Krótkie wprowadzenie do dużych modeli językowych
    • Tworzenie aplikacji AI z użyciem dużych modeli językowych
    • "Hello LLM" w Pythonie
    • "Hello LLM" w LangChainie
    • Wprowadzanie własnych danych
    • Wpływ dużych modeli językowych na adwersarialną sztuczną inteligencję
    • Podsumowanie
  • Rozdział 14. Ataki adwersarialne z użyciem promptów
    • Adwersarialne dane wejściowe i wstrzykiwanie promptów
    • Bezpośrednie wstrzykiwanie promptów
      • Zastępowanie promptów
      • Wstrzykiwanie stylu
      • Odgrywanie ról
      • Podszywanie się
      • Inne techniki jailbreakingowe
    • Zautomatyzowane wstrzykiwanie promptów z użyciem technik gradientowych
    • Ryzyko związane z wprowadzaniem własnych danych
    • Pośrednie wstrzykiwanie promptów
    • Wydobywanie danych za pomocą wstrzykiwania promptów
    • Eskalacja uprawnień za pomocą wstrzykiwania promptów
    • Zdalne wykonywanie kodu przez wstrzykiwanie promptów
    • Mechanizmy obronne i środki zaradcze
      • Mechanizmy obronne platformy LLM
      • Mechanizmy obronne na poziomie aplikacji
    • Podsumowanie
  • Rozdział 15. Ataki zatruwające a modele LLM
    • Zatruwanie osadzeń w mechanizmie RAG
      • Scenariusze ataku
      • Zatruwanie podczas generowania osadzeń
      • Bezpośrednie zatruwanie osadzeń
      • Zaawansowane zatruwanie osadzeń
      • Manipulowanie osadzeniami zapytań
      • Mechanizmy obronne i środki zaradcze
    • Ataki zatruwające proces dostrajania modeli LLM
      • Wprowadzenie do dostrajania modeli LLM
      • Scenariusze ataków zatruwających podczas dostrajania
      • Wektory ataku na proces dostrajania
      • Zatrucie bota ChatGPT-3.5 przez dostrajanie
      • Mechanizmy obronne i środki zaradcze chroniące przed zatruwaniem procesu dostrajania
    • Podsumowanie
  • Rozdział 16. Zaawansowane scenariusze z wykorzystaniem generatywnej sztucznej inteligencji
    • Ataki na łańcuch dostaw w kontekście LLM-ów
      • Publikowanie zatrutego LLM-u w serwisie Hugging Face
      • Publikowanie zmanipulowanego modelu LLM w serwisie Hugging Face
      • Inne zagrożenia związane z łańcuchem dostaw w kontekście modeli LLM
      • Mechanizmy obronne i środki zaradcze w kontekście łańcucha dostaw
    • Ataki na prywatność w kontekście modeli LLM
    • Ataki polegające na inwersji modelu i ekstrakcji danych treningowych w kontekście modeli LLM
    • Ataki wnioskowania na modele LLM
    • Klonowanie jednego modelu LLM przy użyciu drugiego
    • Mechanizmy obronne i środki zaradcze w kontekście ataków na prywatność
    • Podsumowanie
  • Rozdział 17. Koncepcje Secure by Design i Trustworthy AI
    • Secure by Design - zabezpieczanie AI już na etapie projektowania
    • Budowanie biblioteki zagrożeń
      • Tradycyjne cyberzagrożenia
      • Ataki adwersarialne
      • Ataki adwersarialne specyficzne dla generatywnej AI
      • Ataki na łańcuch dostaw
    • Branżowe klasyfikacje zagrożeń dla AI
    • Porównania klasyfikacji zagrożeń dla AI
      • Porównanie z klasyfikacją NIST AI
      • Porównanie z klasyfikacją AI Exchange
      • Porównanie z klasyfikacją MITRE ATLAS
    • Modelowanie zagrożeń dla AI
    • Modelowanie zagrożeń w praktyce
      • Przykładowe rozwiązanie AI
    • Model zagrożeń dla systemu Enhanced FoodieAI
    • Ocena zagrożeń i ich priorytetyzacja
      • Ocena ryzyka dla aplikacji Enhanced FoodieAI
    • Projektowanie i implementowanie zabezpieczeń
    • Testowanie i weryfikacja
    • Przesuwanie w lewo i osadzanie zabezpieczeń w cyklu życia AI
    • Eksploatacja systemu
    • Więcej niż bezpieczeństwo - Trustworthy AI
    • Podsumowanie
  • Rozdział 18. Zabezpieczanie AI przy użyciu strategii MLSecOps
    • Konieczność wdrożenia praktyk MLSecOps
    • Na drodze do frameworku MLSecOps 2.0
      • Opcje orkiestracji MLSecOps
      • Wzorce MLSecOps
    • Budowanie podstawowej platformy MLSecOps
    • MLSecOps w praktyce
      • Pozyskiwanie i walidacja modelu
    • Integracja MLSecOps z LLMOps
    • Zaawansowane praktyki MLSecOps z użyciem SBOM-ów
    • Podsumowanie
  • Rozdział 19. Wzmacnianie bezpieczeństwa AI
    • Wyzwania związane z bezpieczeństwem AI w przedsiębiorstwie
    • Podstawy bezpieczeństwa sztucznej inteligencji w przedsiębiorstwie
    • Ochrona sztucznej inteligencji przy użyciu zabezpieczeń korporacyjnych
    • Bezpieczeństwo operacyjne AI
    • Iteracyjne wzmacnianie bezpieczeństwa w przedsiębiorstwie
    • Podsumowanie

Skorowidz

  • Назва: Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps
  • Автор: John Sotiropoulos
  • Оригінальна назва: Adversarial AI Attacks, Mitigations, and Defense Strategies: A cybersecurity professional's guide to AI attacks, threat modeling, and securing AI with MLSecOps
  • Переклад: Zbigniew Waśko
  • ISBN: 978-83-289-2236-5, 9788328922365
  • Дата видання: 2025-06-28
  • Формат: Eлектронна книга
  • Ідентифікатор видання: atanai
  • Видавець: Helion