Praxiseinstieg Large Language Models
Strategien und Best Practices für den Einsatz von ChatGPT und anderen LLMs
Seiten
2024
O'Reilly (Verlag)
978-3-96010-855-9 (ISBN)
O'Reilly (Verlag)
978-3-96010-855-9 (ISBN)
- Titel leider nicht mehr lieferbar
- Artikel merken
Der Schnellstart in die praktische Arbeit mit LLMs
Das Buch bietet einen Überblick über zentrale Konzepte und Techniken von LLMs wie z.B. ChatGPT und zeigt das Potenzial von Open-Source- und Closed-Source-Modellen
Es erläutert, wie Large Language Models funktionieren und wie sie für Aufgaben des Natural Language Processing (NLP) genutzt werden
Auch für interessierte Nicht-Data-Scientists mit Python-Kenntnissen verständlich
Themen z.B.: die ChatGPT-API, Prompt-Engineering, Chatbot-Personas, Cloud-Bereitstellung; deckt auch GPT-4 ab
Large Language Models (LLMs) wie ChatGPT sind enorm leistungsfähig, aber auch sehr komplex. Praktikerinnen und Praktiker stehen daher vor vielfältigen Herausforderungen, wenn sie LLMs in ihre eigenen Anwendungen integrieren wollen. In dieser Einführung räumt Data Scientist und KI-Unternehmer Sinan Ozdemir diese Hürden aus dem Weg und bietet einen Leitfaden für den Einsatz von LLMs zur Lösung praktischer Probleme des Natural Language Processings.
Sinan Ozdemir hat alles zusammengestellt, was Sie für den Einstieg benötigen: Schritt-für-Schritt-Anleitungen, Best Practices, Fallstudien aus der Praxis, Übungen und vieles mehr. Er stellt die Funktionsweise von LLMs vor und unterstützt Sie so dabei, das für Ihre Anwendung passende Modell und geeignete Datenformate und Parameter auszuwählen. Dabei zeigt er das Potenzial sowohl von Closed-Source- als auch von Open-Source-LLMs wie GPT-3, GPT-4 und ChatGPT, BERT und T5, GPT-J und GPT-Neo, Cohere sowie BART.
Lernen Sie die Schlüsselkonzepte kennen: Transfer Learning, Feintuning, Attention, Embeddings, Tokenisierung und mehr
Nutzen Sie APIs und Python, um LLMs an Ihre Anforderungen anzupassen
Beherrschen Sie Prompt-Engineering-Techniken wie Ausgabe-Strukturierung, Gedankenketten und Few-Shot-Prompting
Passen Sie LLM-Embeddings an, um eine Empfehlungsengine mit eigenen Benutzerdaten neu zu erstellen
Konstruieren Sie multimodale Transformer-Architekturen mithilfe von Open-Source-LLMs
Optimieren Sie LLMs mit Reinforcement Learning from Human and AI Feedback (RLHF/RLAIF)
Deployen Sie Prompts und benutzerdefinierte, feingetunte LLMs in die Cloud
Das Buch bietet einen Überblick über zentrale Konzepte und Techniken von LLMs wie z.B. ChatGPT und zeigt das Potenzial von Open-Source- und Closed-Source-Modellen
Es erläutert, wie Large Language Models funktionieren und wie sie für Aufgaben des Natural Language Processing (NLP) genutzt werden
Auch für interessierte Nicht-Data-Scientists mit Python-Kenntnissen verständlich
Themen z.B.: die ChatGPT-API, Prompt-Engineering, Chatbot-Personas, Cloud-Bereitstellung; deckt auch GPT-4 ab
Large Language Models (LLMs) wie ChatGPT sind enorm leistungsfähig, aber auch sehr komplex. Praktikerinnen und Praktiker stehen daher vor vielfältigen Herausforderungen, wenn sie LLMs in ihre eigenen Anwendungen integrieren wollen. In dieser Einführung räumt Data Scientist und KI-Unternehmer Sinan Ozdemir diese Hürden aus dem Weg und bietet einen Leitfaden für den Einsatz von LLMs zur Lösung praktischer Probleme des Natural Language Processings.
Sinan Ozdemir hat alles zusammengestellt, was Sie für den Einstieg benötigen: Schritt-für-Schritt-Anleitungen, Best Practices, Fallstudien aus der Praxis, Übungen und vieles mehr. Er stellt die Funktionsweise von LLMs vor und unterstützt Sie so dabei, das für Ihre Anwendung passende Modell und geeignete Datenformate und Parameter auszuwählen. Dabei zeigt er das Potenzial sowohl von Closed-Source- als auch von Open-Source-LLMs wie GPT-3, GPT-4 und ChatGPT, BERT und T5, GPT-J und GPT-Neo, Cohere sowie BART.
Lernen Sie die Schlüsselkonzepte kennen: Transfer Learning, Feintuning, Attention, Embeddings, Tokenisierung und mehr
Nutzen Sie APIs und Python, um LLMs an Ihre Anforderungen anzupassen
Beherrschen Sie Prompt-Engineering-Techniken wie Ausgabe-Strukturierung, Gedankenketten und Few-Shot-Prompting
Passen Sie LLM-Embeddings an, um eine Empfehlungsengine mit eigenen Benutzerdaten neu zu erstellen
Konstruieren Sie multimodale Transformer-Architekturen mithilfe von Open-Source-LLMs
Optimieren Sie LLMs mit Reinforcement Learning from Human and AI Feedback (RLHF/RLAIF)
Deployen Sie Prompts und benutzerdefinierte, feingetunte LLMs in die Cloud
| Erscheinungsdatum | 21.03.2025 |
|---|---|
| Sprache | deutsch |
| Maße | 165 x 240 mm |
| Themenwelt | Informatik ► Theorie / Studium ► Künstliche Intelligenz / Robotik |
| Schlagworte | AI • attention • Bard • Bart • Bert • Cohere • EleutherAI • Embeddings • GPT-4 • KI • LangChain • Llama • machine learning • Natural Language Processing • NLP • OpenAI • Prompt Engineering • Python • Q&A • question answering • T5 • transfer learning • Transformer |
| ISBN-10 | 3-96010-855-9 / 3960108559 |
| ISBN-13 | 978-3-96010-855-9 / 9783960108559 |
| Zustand | Neuware |
| Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
| Haben Sie eine Frage zum Produkt? |
Mehr entdecken
aus dem Bereich
aus dem Bereich
Buch | Softcover (2025)
Reclam, Philipp (Verlag)
CHF 11,20
die materielle Wahrheit hinter den neuen Datenimperien
Buch | Hardcover (2024)
C.H.Beck (Verlag)
CHF 44,75
Künstliche Intelligenz, Macht und das größte Dilemma des 21. …
Buch | Softcover (2025)
C.H.Beck (Verlag)
CHF 25,20