
عنوان:
Hands-On Large Language Models: Language Understanding and Generation
نویسنده:
Jay Alammar, Maarten Grootendorst
انتشارات:
O'Reilly Media
تاریخ انتشار
2024
حجم:
19.5MB
معرفی کتاب: " مدلهای زبانی بزرگ در عمل: درک و تولید زبان طبیعی "
هوش مصنوعی زبانی (Language AI) طی چند سال اخیر به طرز شگفتانگیزی در تواناییهای زبانی پیشرفت کرده است. به لطف پیشرفتهای سریع در یادگیری عمیق (Deep Learning)، سیستمهای هوش مصنوعی اکنون میتوانند متن را بهتر از همیشه بنویسند و درک کنند. این روند، زمینهساز ظهور قابلیتها، محصولات، و حتی صنایع جدیدی شده است.
در این کتاب، توسعهدهندگان پایتون با ابزارها و مفاهیم عملی آشنا میشوند که برای استفاده از این قابلیتهای مدرن هوش مصنوعی در اختیار دارند.
مطالب کلیدی این کتاب شامل موارد زیر است:
- ✓ استفاده از قدرت مدلهای زبانی بزرگ از پیشآموزشدیده (Pre-trained LLMs) برای کاربردهایی مانند تولید محتوا (Copywriting) و خلاصهسازی متون
- ✓ ساخت سیستمهای جستجوی معنایی (Semantic Search) که فراتر از تطابق کلیدواژهها عمل میکنند
- ✓ توسعهی سیستمهایی برای طبقهبندی (Classification) و خوشهبندی (Clustering) متون، بهمنظور درک مقیاسپذیر مجموعههای عظیم اسناد متنی
- ✓ استفاده از کتابخانهها و مدلهای آماده برای انجام وظایف مختلف مانند دستهبندی، جستجو و خوشهبندی متون
این کتاب همچنین به شما آموزش میدهد که چگونه:
- ✓ پایپلاینهای پیشرفته با مدلهای زبانی بزرگ (LLM Pipelines) بسازید تا بتوانید اسناد متنی را خوشهبندی کرده و موضوعات آنها را تحلیل کنید
- ✓ موتورهای جستجوی معنایی (Semantic Search Engines) طراحی کنید که بر پایه مدلهای زبانی کار میکنند و توانایی درک مفهوم عبارات را دارند، نه صرفاً تطبیق واژهها
- ✓ و همچنین، چطور این ابزارها را در اپلیکیشنهای واقعی پیادهسازی کرده و با دیگر فناوریها مانند پایگاههای داده، APIها و سرویسهای ابری یکپارچه کنید
فهرست مطالب
- Preface
- I. Understanding Language Models
- 1. An Introduction to Large Language Models
- What Is Language AI?
- A Recent History of Language AI
- The Moving Definition of a “Large Language Model”
- The Training Paradigm of Large Language Models
- Large Language Model Applications: What Makes Them So Useful?
- Responsible LLM Development and Usage
- Limited Resources Are All You Need
- Interfacing with Large Language Models
- Generating Your First Text
- Summary
- 2. Tokens and Embeddings
- LLM Tokenization
- Token Embeddings
- Text Embeddings (for Sentences and Whole Documents)
- Word Embeddings Beyond LLMs
- Embeddings for Recommendation Systems
- Summary
- 3. Looking Inside Large Language Models
- An Overview of Transformer Models
- Recent Improvements to the Transformer Architecture
- Summary
- II. Using Pretrained Language Models
- 4. Text Classification
- The Sentiment of Movie Reviews
- Text Classification with Representation Models
- Model Selection
- Using a Task-Specific Model
- Classification Tasks That Leverage Embeddings
- Text Classification with Generative Models
- Summary
- 5. Text Clustering and Topic Modeling
- ArXiv’s Articles: Computation and Language
- A Common Pipeline for Text Clustering
- From Text Clustering to Topic Modeling
- Summary
- 6. Prompt Engineering
- Using Text Generation Models
- Intro to Prompt Engineering
- Advanced Prompt Engineering
- Reasoning with Generative Models
- Output Verification
- Summary
- 7. Advanced Text Generation Techniques and Tools
- Model I/O: Loading Quantized Models with LangChain
- Chains: Extending the Capabilities of LLMs
- Memory: Helping LLMs to Remember Conversations
- Agents: Creating a System of LLMs
- Summary
- 8. Semantic Search and Retrieval-Augmented Generation
- Overview of Semantic Search and RAG
- Semantic Search with Language Models
- Retrieval-Augmented Generation (RAG)
- Summary
- 9. Multimodal Large Language Models
- Transformers for Vision
- Multimodal Embedding Models
- Making Text Generation Models Multimodal
- Summary
- III. Training and Fine-Tuning Language Models
- 10. Creating Text Embedding Models
- Embedding Models
- What Is Contrastive Learning?
- SBERT
- Creating an Embedding Model
- Fine-Tuning an Embedding Model
- Unsupervised Learning
- Summary
- 11. Fine-Tuning Representation Models for Classification
- Supervised Classification
- Few-Shot Classification
- Continued Pretraining with Masked Language Modeling
- Named-Entity Recognition
- Summary
- 12. Fine-Tuning Generation Models
- The Three LLM Training Steps: Pretraining, Supervised Fine-Tuning, and Preference Tuning
- Supervised Fine-Tuning (SFT)
- Instruction Tuning with QLoRA
- Evaluating Generative Models
- Preference-Tuning / Alignment / RLHF
- Automating Preference Evaluation Using Reward Models
- Preference Tuning with DPO
- Summary
- Afterword
- Index
- About the Authors
مشخصات
نام کتاب
Hands-On Large Language Models: Language Understanding and Generation
نویسنده
Jay Alammar, Maarten Grootendorst
انتشارات
O'Reilly Media
تاریخ انتشار
2024
ISBN
9781098150969
تعداد صفحات
575
زبان
انگلیسی
فرمت
حجم
19.5MB
موضوع
Algorithms and Data Structures: Pattern Recognition