Zum Hauptinhalt springen
Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Praxisbuch Large Language Models

Sprache mit KI verarbeiten und generieren
Buch | Softcover
434 Seiten
2025 | 1. Auflage
O'Reilly (Verlag)
978-3-96009-266-7 (ISBN)

Lese- und Medienproben

Praxisbuch Large Language Models - Jay Alammar, Maarten Grootendorst
CHF 69,85 inkl. MwSt
  • Das Handbuch für das intuitive Verständnis von LLMs: Mit zahlreichen Visualisierungen, die Konzepte schnell zugänglich machen
  • Themen sind die Sprachverarbeitung - Textklassifikation, Suche oder Cluster - und die Sprachgenerierung - vom Prompt Engineering bis zur Retrieval Augmented Generation (RAG)
  • Die Autoren haben mit ihren beliebten Blogs Millionen von Entwickler*innen geholfen, Machine Learning und KI zu verstehen

Alle Werkzeuge und Techniken für die praktische Arbeit mit LLMs

Diese umfassende und anschauliche Einführung in die Welt der LLMs beschreibt sowohl konzeptionelle Grundlagen als auch konkrete Anwendungen und nützliche Tools. Tauchen Sie in das Innenleben von LLMs ein und erkunden Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken.

Mit seiner einzigartigen Mischung aus intuitiv verständlichen Illustrationen und praxisbezogenen Erläuterungen ist dieses Buch die ideale Ausgangsbasis für alle, die die Möglichkeiten von KI-Systemen voll ausschöpfen möchten.

Sie lernen, vortrainierte Transformer-LLMs von Hugging Face für Anwendungsfälle wie das Verfassen von Texten oder für Inhaltszusammenfassungen einzusetzen. Sie erfahren außerdem, wie Sie Suchsysteme erstellen und vorhandene Bibliotheken und vortrainierte Modelle für Textklassifikation, Suche und Clustering nutzen.

  • Verstehen Sie die Architektur von Transformer-basierten Sprachmodellen, die bei der Textgenerierung und -repräsentation hervorragende Ergebnisse liefern
  • Entwerfen Sie fortgeschrittene LLM-Pipelines, um Textdokumente zu clustern und die darin enthaltenen Themen zu erforschen
  • Erstellen Sie semantische Suchmaschinen, die über den Abgleich von Schlagwörtern hinausgehen und auf Methoden wie Dense Retrieval und Reranking basieren
  • Lernen Sie, wie Sie generative Modelle optimal einsetzen - vom Prompt Engineering bis hin zur Retrieval Augmented Generation (RAG)
  • Entwickeln Sie ein tieferes Verständnis dafür, wie LLMs trainiert und für spezifische Anwendungen optimiert werden, beispielsweise durch Feintuning generativer Modelle, Contrastive Fine-Tuning und In-Context-Learning

Jay Alammar ist Direktor und Engineering Fellow bei Cohere, dem Vorreiter bei der Bereitstellung von Large Language Models als API. In dieser Funktion berät und schult er Unternehmen und die Entwicklergemeinschaft bei der Verwendung von Sprachmodellen für praktische Anwendungsfälle. Durch seinen beliebten AI/ML-Blog hat Jay Millionen von Forscherinnen und Softwareengineers geholfen, Tools und Konzepte des Machine Learnings visuell zu verstehen - von den Grundlagen (die in der Dokumentation von Paketen wie NumPy und pandas auftauchen) bis hin zu den neuesten Entwicklungen (Transformers, BERT, GPT-3, Stable Diffusion). Jay ist außerdem Mitgestalter von beliebten Kursen zum Machine Learning und Natural Language Processing auf Deeplearning.ai und Udacity.

Maarten Grootendorst ist Senior Clinical Data Scientist bei IKNL (Netherlands Comprehensive Cancer Organization). Er hat Master-Abschlüsse in Organisationspsychologie, klinischer Psychologie und Data Science, die er nutzt, um komplexe Konzepte des Machine Learning einem breiten Publikum zu vermitteln. Mit seinen beliebten Blogs hat er Millionen von Leserinnen und Lesern erreicht. Darin erklärt er die Grundlagen der künstlichen Intelligenz - oft aus psychologischer Sicht. Er ist Autor und Betreuer mehrerer Open-Source-Pakete, die sich auf die Stärke von Large Language Models stützen, wie BERTopic, PolyFuzz und KeyBERT. Seine Pakete werden millionenfach heruntergeladen und von Datenexperten und Organisationen weltweit genutzt.

Erscheinungsdatum
Reihe/Serie Animals
Übersetzer Marcus Fraaß
Zusatzinfo komplett in Farbe
Verlagsort Heidelberg
Sprache deutsch
Maße 165 x 240 mm
Einbandart kartoniert
Themenwelt Mathematik / Informatik Informatik Software Entwicklung
Informatik Theorie / Studium Künstliche Intelligenz / Robotik
Schlagworte attention • Bert • Embeddings • gpt • KI • LLM • machine learning • Natural Language Processing • NLP • Prompt Engineering • Python • Tokens • Transformer
ISBN-10 3-96009-266-0 / 3960092660
ISBN-13 978-3-96009-266-7 / 9783960092667
Zustand Neuware
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich
Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis …

von Yuval Noah Harari

Buch | Hardcover (2024)
Penguin (Verlag)
CHF 39,95
die materielle Wahrheit hinter den neuen Datenimperien

von Kate Crawford

Buch | Hardcover (2024)
C.H.Beck (Verlag)
CHF 44,75