Programowanie
Linux. Programowanie systemowe
Robert Love
Wykorzystaj moc Linuksa i twórz funkcjonalne oprogramowanie systemowe! Jak zarządzać plikowymi operacjami wejścia i wyjścia? Jak zablokować fragmenty przestrzeni adresowej? Jak sterować działaniem interfejsu odpytywania zdarzeń? Dzisiaj systemu Linux nie musimy już nikomu przedstawiać, dzięki swojej funkcjonalności i uniwersalności stał się niezwykle popularny i szeroko wykorzystywany. Działa wszędzie ― poczynając od najmniejszych telefonów komórkowych, a na potężnych superkomputerach kończąc. Z Linuksa korzystają agencje wywiadowcze i wojsko, jego niezawodność doceniły również banki i instytucje finansowe. Oprogramowanie z przestrzeni użytkownika w systemie Linux może być uruchamiane na wszystkich platformach, na których poprawnie działa kod jądra. Czytając książkę "Linux. Programowanie systemowe", dowiesz się, jak utworzyć oprogramowanie, które jest niskopoziomowym kodem, komunikującym się bezpośrednio z jądrem oraz głównymi bibliotekami systemowymi. Opisany został tu sposób działania standardowych i zaawansowanych interfejsów zdefiniowanych w Linuksie. Po lekturze napiszesz inteligentniejszy i szybszy kod, który działa we wszystkich dystrybucjach Linuksa oraz na wszystkich rodzajach sprzętu. Nauczysz się budować poprawne oprogramowanie i maksymalnie je wykorzystywać. Programowanie systemowe Biblioteka języka C Kompilator języka C Interfejs odpytywania zdarzeń Zarządzanie procesami i pamięcią Użytkownicy i grupy Ograniczenia zasobów systemowych Zarządzanie plikami i katalogami Identyfikatory sygnałów Struktury danych reprezentujące czas Konwersje czasu Poznaj i ujarzmij potęgę Linuksa!
Linux. Programowanie systemowe. Wydanie II
Robert Love
Przewodnik po jądrze sytemu Linux! Jądro systemu Linux to jeden z największych projektów rozwijanych przez ogromną społeczność. Setki wolontariuszy dniami i nocami rozwijają najważniejszy element tego systemu operacyjnego. I robią to naprawdę skutecznie! Każde kolejne wydanie Linuksa zawiera dziesiątki nowinek oraz ulepszeń - jest coraz szybsze, bezpieczniejsze i po prostu lepsze. Jednak początkujący programiści mogą mieć problemy z wykorzystaniem usług dostarczanych przez kernel. Masz obawy, że nie odnajdziesz się w gąszczu możliwości współczesnego jądra systemu Linux? Ta książka rozwieje je w mig. Jest to wyjątkowa pozycja na rynku wydawniczym, zgłębiająca właśnie te tajemnice. W trakcie lektury nauczysz się tworzyć niskopoziomowe oprogramowanie, które będzie się komunikowało bezpośrednio z jądrem systemu. Operacje wejścia i wyjścia, strumienie, zdarzenia, procesy to tylko część elementów, które błyskawicznie opanujesz. Ponadto nauczysz się zarządzać katalogami i plikami oraz poznasz koncepcję sygnałów. Książka ta jest niezastąpionym źródłem informacji dla wszystkich programistów pracujących z jądrem Linuksa. Docenisz tę lekturę! Poznaj: metody zarządzania procesami zastosowanie sygnałów zaawansowane interfejsy wejścia i wyjścia jądro systemu od podszewki Poznaj jądro systemu od podszewki! Robert Love - od wielu lat jest użytkownikiem i współtwórcą systemu Linux. Rozwija środowisko graficzne GNOME oraz jądro systemu. Pracuje jako projektant oprogramowania w firmie Google, był też członkiem zespołu projektującego system operacyjny Android. Jest autorem licznych książek poświęconych programowaniu w systemie Linux.
Paul Iusztin, Maxime Labonne, Julien Chaumond, Hamza...
Artificial intelligence has undergone rapid advancements, and Large Language Models (LLMs) are at the forefront of this revolution. This LLM book offers insights into designing, training, and deploying LLMs in real-world scenarios by leveraging MLOps best practices. The guide walks you through building an LLM-powered twin that’s cost-effective, scalable, and modular. It moves beyond isolated Jupyter notebooks, focusing on how to build production-grade end-to-end LLM systems.Throughout this book, you will learn data engineering, supervised fine-tuning, and deployment. The hands-on approach to building the LLM Twin use case will help you implement MLOps components in your own projects. You will also explore cutting-edge advancements in the field, including inference optimization, preference alignment, and real-time data processing, making this a vital resource for those looking to apply LLMs in their projects.By the end of this book, you will be proficient in deploying LLMs that solve practical problems while maintaining low-latency and high-availability inference capabilities. Whether you are new to artificial intelligence or an experienced practitioner, this book delivers guidance and practical techniques that will deepen your understanding of LLMs and sharpen your ability to implement them effectively.
Paul Iusztin, Maxime Labonne, Julien Chaumond, Hamza...
Artificial intelligence has undergone rapid advancements, and Large Language Models (LLMs) are at the forefront of this revolution. This LLM book offers insights into designing, training, and deploying LLMs in real-world scenarios by leveraging MLOps best practices. The guide walks you through building an LLM-powered twin that’s cost-effective, scalable, and modular. It moves beyond isolated Jupyter notebooks, focusing on how to build production-grade end-to-end LLM systems.Throughout this book, you will learn data engineering, supervised fine-tuning, and deployment. The hands-on approach to building the LLM Twin use case will help you implement MLOps components in your own projects. You will also explore cutting-edge advancements in the field, including inference optimization, preference alignment, and real-time data processing, making this a vital resource for those looking to apply LLMs in their projects.By the end of this book, you will be proficient in deploying LLMs that solve practical problems while maintaining low-latency and high-availability inference capabilities. Whether you are new to artificial intelligence or an experienced practitioner, this book delivers guidance and practical techniques that will deepen your understanding of LLMs and sharpen your ability to implement them effectively.
LLM Prompt Engineering for Developers. The Art and Science of Unlocking LLMs' True Potential
Aymen El Amri
LLM Prompt Engineering For Developers begins by laying the groundwork with essential principles of natural language processing (NLP), setting the stage for more complex topics. It methodically guides readers through the initial steps of understanding how large language models work, providing a solid foundation that prepares them for the more intricate aspects of prompt engineering.As you proceed, the book transitions into advanced strategies and techniques that reveal how to effectively interact with and utilize these powerful models. From crafting precise prompts that enhance model responses to exploring innovative methods like few-shot and zero-shot learning, this resource is designed to unlock the full potential of language model technology.This book not only teaches the technical skills needed to excel in the field but also addresses the broader implications of AI technology. It encourages thoughtful consideration of ethical issues and the impact of AI on society. By the end of this book, readers will master the technical aspects of prompt engineering & appreciate the importance of responsible AI development, making them well-rounded professionals ready to focus on the advancement of this cutting-edge technology.
Valentina Alto
Duże modele językowe (LLM) stały się technologicznym przełomem. Ich wszechstronność i funkcjonalność sprawiły, że coraz częściej mówi się o nowej erze inteligentnie działających urządzeń i aplikacji. Umiejętność zastosowania LLM we własnych projektach już dziś jest koniecznością dla wielu projektantów i programistów. Dzięki tej książce opanujesz podstawowe koncepcje związane z użyciem LLM. Poznasz unikatowe cechy i mocne strony kilku najważniejszych modeli (w tym GPT, Gemini, Falcon). Następnie dowiesz się, w jaki sposób LangChain, lekki framework Pythona, pozwala na projektowanie inteligentnych agentów do przetwarzania danych o nieuporządkowanej strukturze. Znajdziesz tu również informacje dotyczące dużych modeli podstawowych, które wykraczają poza obsługę języka i potrafią wykonywać różne zadania związane na przykład z grafiką i dźwiękiem. Na koniec zgłębisz zagadnienia dotyczące ryzyka związanego z LLM, a także poznasz techniki uniemożliwiania tym modelom potencjalnie szkodliwych działań w aplikacji. Najciekawsze zagadnienia: architektura dużych modeli językowych unikatowe funkcje LLM komponenty służące do koordynacji sztucznej inteligencji, w tym tworzenia frontendu użycie wiedzy nieparametrycznej i wektorowych baz danych dostrajanie dużych modeli językowych do własnych potrzeb odpowiedzialność i etyka w systemach korzystających z LLM Odkryj, jak łatwo model generatywnej AI zintegruje się z Twoją aplikacją! O książce w mediach: Eksperyment Myślowy - recenzja książki
Valentina Alto
Duże modele językowe (LLM) stały się technologicznym przełomem. Ich wszechstronność i funkcjonalność sprawiły, że coraz częściej mówi się o nowej erze inteligentnie działających urządzeń i aplikacji. Umiejętność zastosowania LLM we własnych projektach już dziś jest koniecznością dla wielu projektantów i programistów. Dzięki tej książce opanujesz podstawowe koncepcje związane z użyciem LLM. Poznasz unikatowe cechy i mocne strony kilku najważniejszych modeli (w tym GPT, Gemini, Falcon). Następnie dowiesz się, w jaki sposób LangChain, lekki framework Pythona, pozwala na projektowanie inteligentnych agentów do przetwarzania danych o nieuporządkowanej strukturze. Znajdziesz tu również informacje dotyczące dużych modeli podstawowych, które wykraczają poza obsługę języka i potrafią wykonywać różne zadania związane na przykład z grafiką i dźwiękiem. Na koniec zgłębisz zagadnienia dotyczące ryzyka związanego z LLM, a także poznasz techniki uniemożliwiania tym modelom potencjalnie szkodliwych działań w aplikacji. Najciekawsze zagadnienia: architektura dużych modeli językowych unikatowe funkcje LLM komponenty służące do koordynacji sztucznej inteligencji, w tym tworzenia frontendu użycie wiedzy nieparametrycznej i wektorowych baz danych dostrajanie dużych modeli językowych do własnych potrzeb odpowiedzialność i etyka w systemach korzystających z LLM Odkryj, jak łatwo model generatywnej AI zintegruje się z Twoją aplikacją! O książce w mediach: Eksperyment Myślowy - recenzja książki
Ahmed Menshawy, Mahmoud Fahmy
The integration of large language models (LLMs) into enterprise applications is transforming how businesses use AI to drive smarter decisions and efficient operations. LLMs in Enterprise is your practical guide to bringing these capabilities into real-world business contexts. It demystifies the complexities of LLM deployment and provides a structured approach for enhancing decision-making and operational efficiency with AI.Starting with an introduction to the foundational concepts, the book swiftly moves on to hands-on applications focusing on real-world challenges and solutions. You’ll master data strategies and explore design patterns that streamline the optimization and deployment of LLMs in enterprise environments. From fine-tuning techniques to advanced inferencing patterns, the book equips you with a toolkit for solving complex challenges and driving AI-led innovation in business processes.By the end of this book, you’ll have a solid grasp of key LLM design patterns and how to apply them to enhance the performance and scalability of your generative AI solutions.
LLVM Code Generation. A deep dive into compiler backend development
Quentin Colombet, Kristof Beyls
The LLVM infrastructure is a popular compiler ecosystem widely used in the tech industry and academia. This technology is crucial for both experienced and aspiring compiler developers looking to make an impact in the field. Written by Quentin Colombet, a veteran LLVM contributor and architect of the GlobalISel framework, this book provides a primer on the main aspects of LLVM, with an emphasis on its backend infrastructure; that is, everything needed to transform the intermediate representation (IR) produced by frontends like Clang into assembly code and object files.You’ll learn how to write an optimizing code generator for a toy backend in LLVM. The chapters will guide you step by step through building this backend while exploring key concepts, such as the ABI, cost model, and register allocation. You’ll also find out how to express these concepts using LLVM's existing infrastructure and how established backends address these challenges. Furthermore, the book features code snippets that demonstrate the actual APIs.By the end of this book, you’ll have gained a deeper understanding of LLVM. The concepts presented are expected to remain stable across different LLVM versions, making this book a reliable quick reference guide for understanding LLVM.