Деталі електронної книги

Projektowanie aplikacji LLM. Holistyczne podejście do dużych modeli językowych

Projektowanie aplikacji LLM. Holistyczne podejście do dużych modeli językowych

Suhas Pai

Завантаження...
EЛЕКТРОННА КНИГА

Duże modele językowe przeniknęły do wielu dziedzin techniki uważa się je za skuteczne narzędzia do rozwiązywania szerokiej gamy problemów. Coraz więcej przedsiębiorstw korzysta z ich potencjału w celu własnego rozwoju. Jednak przekształcenie prototypów w funkcjonalne aplikacje bywa złożone i skomplikowane.

To wyjątkowe opracowanie zawiera wszystkie ważne koncepcje w dziedzinie LLM!

Madhav Singhal, CEO, AutoComputer

W tej praktycznej książce opisano wszelkie niezbędne narzędzia, techniki i rozwiązania, których potrzebujesz do tworzenia użytecznych produktów wykorzystujących potęgę modeli językowych. Na początku zdobędziesz wiedzę o budowie modelu językowego. Następnie poznasz różne sposoby zastosowania modeli językowych, czy to poprzez bezpośrednie zapytania do modelu, czy też poprzez jego dostrajanie. Zrozumiesz ograniczenia LLM, takie jak halucynacje i problemy z rozumowaniem, a także dowiesz się, jak sobie z nimi poradzić. Znajdziesz tu również omówienie paradygmatów zastosowań, takich jak generowanie wspomagane wyszukiwaniem (RAG) czy agenty.

Z tą książką:

  • przygotujesz zbiory danych do treningu i dostrajania modeli
  • zrozumiesz architekturę transformera
  • zaadaptujesz wstępnie wytrenowane modele do własnych potrzeb
  • poznasz skuteczne techniki optymalizacji i adaptacji dziedzinowej
  • dowiesz się, jak integrować modele językowe z zewnętrznymi środowiskami i źródłami danych

Gorąco polecam tę książkę!

Megan Risdal, Kaggle (Google)

To mistrzowski kurs budowania zaawansowanych systemów AI!

Jay Alammar, autor książek

Przedmowa

Część I. Składniki modeli językowych

  • 1. Wprowadzenie
    • Definicja LLM-ów
    • Krótka historia LLM-ów
      • Początki
      • Era współczesnych LLM-ów
    • Wpływ LLM-ów
    • Zastosowanie modeli językowych w przedsiębiorstwach
    • Prompty
      • Podpowiadanie bez przykładów (ang. zero-shot)
      • Podpowiadanie z kilkoma przykładami (ang. few-shot)
      • Metoda łańcucha myśli
      • Łańcuchy promptów
      • Prompty adwersaryjne
    • Korzystanie z modeli językowych za pośrednictwem API
    • Mocne strony i ograniczenia modeli językowych
    • Budowanie pierwszego prototypowego czatbota
    • Od koncepcji do wdrożenia
    • Podsumowanie
  • 2. Dane do treningu wstępnego
    • Składniki LLM-a
    • Wymagania dotyczące danych do treningu wstępnego
    • Popularne zbiory danych do treningu wstępnego
    • Syntetyczne dane do treningu wstępnego
    • Wstępne przetwarzanie danych treningowych
      • Filtrowanie i oczyszczanie danych
      • Wybieranie wartościowych dokumentów
      • Deduplikacja
      • Usuwanie danych osobowych
      • Dekontaminacja zbioru treningowego
    • Wpływ danych do treningu wstępnego na wykonywanie docelowych zadań
    • Problemy stronniczości i sprawiedliwości w zbiorach danych do treningu wstępnego
    • Podsumowanie
  • 3. Słownik i tokenizacja
    • Słownik
    • Tokenizatory
    • Potok tokenizacji
      • Normalizacja
      • Tokenizacja wstępna
      • Tokenizacja
      • Kodowanie par bajtów
      • WordPiece
      • Tokeny specjalne
    • Podsumowanie
  • 4. Architektury i cele uczenia
    • Wprowadzenie
    • Reprezentowanie znaczenia
    • Architektura transformera
      • Samouwaga
      • Kodowanie pozycyjne
      • Sieci z propagacją w przód
      • Normalizacja warstw
    • Funkcje straty
    • Wewnętrzna ewaluacja modelu
    • Szkielety transformera
      • Architektury enkoderowe
      • Architektury enkoderowo-dekoderowe
      • Architektury dekoderowe
      • Kombinacja ekspertów
    • Cele uczenia
      • Pełne modelowanie języka
      • Prefiksowe modelowanie języka
      • Maskowane modelowanie języka
      • Które cele uczenia są lepsze?
    • Wstępne trenowanie modeli
    • Podsumowanie

Część II. Używanie modeli językowych

  • 5. Dostosowywanie modeli językowych do własnych potrzeb
    • Krajobraz modeli językowych
      • Kim są dostawcy LLM-ów?
      • Odmiany modeli
      • Otwarte modele językowe
    • Jak wybrać LLM odpowiedni do określonego zadania?
      • LLM-y otwarte a zastrzeżone
      • Ocena LLM-ów
    • Wczytywanie modeli językowych
      • Hugging Face Accelerate
      • Ollama
      • API wnioskowania w LLM-ach
    • Strategie dekodowania
      • Dekodowanie zachłanne
      • Wyszukiwanie wiązkowe
      • Próbkowanie top-k
      • Próbkowanie top-p
    • Wnioskowanie z użyciem LLM-ów
    • Wyniki ustrukturyzowane
    • Debugowanie i interpretowanie modeli
    • Podsumowanie
  • 6. Dostrajanie
    • Potrzeba dostrajania
    • Dostrajanie - pełny przykład
      • Parametry algorytmów uczenia się
      • Parametry optymalizacji pamięci
      • Parametry regularyzacji
      • Rozmiar partii
      • Dostrajanie efektywne parametrycznie
      • Praca ze zmniejszoną precyzją
      • Łączenie wszystkiego w całość
    • Zbiory danych do dostrajania
      • Wykorzystanie ogólnodostępnych zbiorów danych do dostrajania instrukcyjnego
      • Zbiory danych do dostrajania instrukcyjnego generowane przez LLM-y
    • Podsumowanie
  • 7. Zaawansowane techniki dostrajania modeli
    • Ciągły trening wstępny
      • Przypominanie (pamięć)
      • Rozszerzanie parametrów
    • Dostrajanie efektywne parametrycznie
      • Dodawanie nowych parametrów
      • Metody podzbiorowe
    • Łączenie wielu modeli
      • Zespalanie modeli
      • Fuzja modeli
      • Scalanie adapterów
    • Podsumowanie
  • 8. Trening dostosowawczy i rozumowanie
    • Definicja treningu dostosowawczego
    • Uczenie przez wzmacnianie
      • Typy informacji zwrotnych od człowieka
      • Przykład RLHF
    • Halucynacje
    • Ograniczanie halucynacji
      • Spójność wewnętrzna
      • Łańcuch działań
      • Recytacja
      • Metody próbkowania do zapobiegania halucynacjom
      • Dekodowanie przez kontrastowanie warstw
    • Halucynacje kontekstowe
    • Halucynacje spowodowane nieistotnymi informacjami
    • Rozumowanie
      • Rozumowanie dedukcyjne
      • Rozumowanie indukcyjne
      • Rozumowanie abdukcyjne
      • Rozumowanie zdroworozsądkowe
    • Indukowanie rozumowania w LLM-ach
      • Weryfikatory poprawiające rozumowanie
      • Obliczenia w czasie wnioskowania
      • Dostrajanie pod kątem rozumowania
    • Podsumowanie
  • 9. Optymalizacja wnioskowania
    • Wyzwania związane z wnioskowaniem
    • Techniki optymalizacji wnioskowania
    • Techniki ograniczające zużycie mocy obliczeniowej
      • Buforowanie kluczy i wartości
      • Wczesne kończenie
      • Destylacja wiedzy
    • Techniki przyspieszające dekodowanie
      • Dekodowanie spekulacyjne
      • Dekodowanie równoległe
    • Techniki zmniejszające zapotrzebowanie na pamięć
      • Kwantyzacja symetryczna
      • Kwantyzacja asymetryczna
    • Podsumowanie

Część III. Paradygmaty zastosowań LLM-ów

  • 10. Łączenie LLM-ów z narzędziami zewnętrznymi
    • Modele interakcji z LLM-ami
      • Podejście pasywne
      • Podejście jawne
      • Podejście autonomiczne
    • Definicja agenta
    • Agentowy przepływ pracy
    • Komponenty systemu agentowego
      • Modele
      • Narzędzia
      • Magazyny danych
      • Prompt pętli agenta
      • Zabezpieczenia i weryfikatory
      • Oprogramowanie do koordynowania agentów
    • Podsumowanie
  • 11. Uczenie reprezentacji i osadzenia
    • Wprowadzenie do osadzeń
    • Wyszukiwanie semantyczne
    • Miary podobieństwa
    • Dostrajanie modeli osadzeń
      • Modele bazowe
      • Zbiór danych treningowych
      • Funkcje straty
    • Osadzenia instrukcyjne
    • Optymalizacja rozmiaru osadzenia
      • Osadzenia matrioszkowe
      • Osadzenia binarne i całkowitoliczbowe
      • Kwantyzacja iloczynowa
    • Segmentacja tekstu
      • Segmentacja z przesuwającym się oknem
      • Segmentacja uwzględniająca metadane
      • Segmentacja uwzględniająca układ
      • Segmentacja semantyczna
      • Segmentacja późna
    • Wektorowe bazy danych
    • Interpretowanie osadzeń
    • Podsumowanie
  • 12. Generowanie wspomagane wyszukiwaniem
    • Zalety RAG
    • Typowe scenariusze z RAG
    • Kiedy wyszukiwać dane?
    • Potok RAG
      • Przeformułowywanie
      • Wyszukiwanie
      • Ponowne szeregowanie
      • Dopracowywanie
      • Wstawianie
      • Generowanie
    • Zarządzanie pamięcią z użyciem RAG
    • Wybieranie kontekstowych przykładów treningowych z użyciem RAG
    • Trenowanie modeli z użyciem RAG
    • Ograniczenia metody RAG
    • RAG a długi kontekst
    • RAG a dostrajanie modelu
    • Podsumowanie
  • 13. Wzorce projektowe i architektura systemów
    • Architektury wielomodelowe
      • Kaskady LLM-ów
      • Routery
      • LLM wyspecjalizowane w konkretnych zadaniach
    • Paradygmaty programistyczne
      • DSP-y
      • LMQL
    • Podsumowanie
  • Назва:Projektowanie aplikacji LLM. Holistyczne podejście do dużych modeli językowych
  • Автор:Suhas Pai
  • Оригінальна назва:Designing Large Language Model Applications: A Holistic Approach to LLMs
  • Переклад:Grzegorz Werner
  • ISBN:978-83-289-3112-1, 9788328931121
  • Дата видання:2026-01-13
  • Формат:Eлектронна книга
  • Ідентифікатор видання: holprz
  • Видавець: Helion
Завантаження...
Завантаження...