Der schnellste Weg, um die Mechanismen von LLMs zu verstehen
- Dieses Buch ist eine sehr komprimierte und gleichzeitig gut verständliche Einführung in die Entwicklung von Large Language Models
- Ideal für alle, die sich schnell und fundiert in die Grundlagen von LLMs einarbeiten wollen
- Vom Bestseller-Autor Andriy Burkov, der in seiner renommierten »Hundred-Page«-Reihe zu Machine-Learning-Themen Konzepte besonders klar und knapp erklärt
Sie möchten in die Welt der Large Language Models eintauchen? Dieses handliche Buch hilft Ihnen, das nötige Grundlagenwissen aufzubauen, um das Innenleben von LLMs zu verstehen und erste praktische Erfahrungen zu sammeln. Es führt Schritt für Schritt in die Sprachmodellierung ein, beginnend mit Machine Learning und neuronalen Netzen über RNNs und Transformern bis zu aktuellen LLM-Architekturen.
Bestseller-Autor Andriy Burkov – bekannt für seine »Hundred-Page«-Reihe zu Machine-Learning-Themen – macht die komplexen Ideen leicht zugänglich, indem er gut verständliche Erklärungen der Mathematik, zahlreiche Illustrationen und den Python-Code ausgewogen einsetzt. Auf der Website zum Buch finden Sie direkt ausführbare Codeschnipsel und PyTorch-Implementierungen in Jupyter Notebooks, die die Konzepte perfekt veranschaulichen.
Das Buch unterstützt Sie dabei:
- die mathematischen Grundlagen des Machine Learnings und der neuronalen Netze zu verstehen und zu beherrschen
- drei Architekturen von Language Models in Python zu erstellen und zu trainieren
- ein Transformer-Sprachmodell von Grund auf in PyTorch zu programmieren
- mit LLMs zu arbeiten und effektive Prompt-Engineering- und Feinetuning-Techniken kennenzulernen
- Halluzinationen zu vermeiden und Modelle zu bewerten