OReilly (dpunkt) |
|
Autor:innen |
Jay Alammar, Maarten Grootendorst |
448 Seiten, Softcover |
|
Erscheint ca. |
07/2025 |
978-3-96009-266-7 9783960092667 |
Dieses umfassende Handbuch bietet Ihnen einen leichten Einstieg in die faszinierende Welt der Large Language Models (LLMs). Mit zahlreichen anschaulichen, farbigen Visualisierungen werden komplexe Konzepte verständlich aufbereitet und ermöglichen es Ihnen, schnell die Grundlagen und Anwendungen von LLMs zu erfassen.
Die Autoren, die bereits Millionen von Entwickler*innen mit ihren beliebten Blogs unterstützt haben, erklären sowohl konzeptionelle Grundlagen als auch praktische Einsatzmöglichkeiten. Das Buch behandelt zentrale Themen der Sprachverarbeitung wie Textklassifikation, Suche, Clusterbildung und führt Sie darüber hinaus in die Sprachgenerierung ein – von den Grundlagen des Prompt Engineerings bis hin zur Retrieval Augmented Generation (RAG).
Sie erfahren, wie vortrainierte Transformer-LLMs, wie beispielsweise jene von Hugging Face, für Aufgaben wie Sentiment-Analyse, Text Clustering oder Topic Modeling eingesetzt werden können. Weiterhin werden moderne Ansätze wie das LangChain-Framework, Semantic Search und multimodale LLMs praxisnah vorgestellt. Fortgeschrittene Themen wie das Training und die Optimierung von Modellen runden das Angebot ab.
Ein besonderes Highlight des Buches ist die enge Verzahnung von Theorie und Praxis. Um den Lernprozess zu erleichtern, steht der gesamte Code des Buchs auf Google Colab zur Verfügung – so können Sie die vorgestellten Beispiele direkt ausprobieren und in Ihre eigenen Projekte integrieren.
Tauchen Sie ein in das Innenleben der LLMs, lernen Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken kennen und entdecken Sie die spannenden Möglichkeiten, die diese Technologie bietet. Dieses Buch ist die ideale Ausgangsbasis für alle, die sich fundiert und praxisnah mit den Potenzialen der LLMs auseinandersetzen möchten.
Jay Alammar ist Direktor und Engineering Fellow bei Cohere, dem Vorreiter bei der Bereitstellung von Large Language Models als API. In dieser Funktion berät und schult er Unternehmen und die Entwicklergemeinschaft bei der Verwendung von Sprachmodellen für praktische Anwendungsfälle. Durch seinen beliebten AI/ML-Blog hat Jay Millionen von Forscherinnen und Softwareengineers geholfen, Tools und Konzepte des Machine Learnings visuell zu verstehen – von den Grundlagen (die in der Dokumentation von Paketen wie NumPy und pandas auftauchen) bis hin zu den neuesten Entwicklungen (Transformers, BERT, GPT-3, Stable Diffusion). Jay ist außerdem Mitgestalter von beliebten Kursen zum Machine Learning und Natural Language Processing auf Deeplearning.ai und Udacity.
Maarten Grootendorst ist Senior Clinical Data Scientist bei IKNL (Netherlands Comprehensive Cancer Organization). Er hat Master-Abschlüsse in Organisationspsychologie, klinischer Psychologie und Data Science, die er nutzt, um komplexe Konzepte des Machine Learning einem breiten Publikum zu vermitteln. Mit seinen beliebten Blogs hat er Millionen von Leserinnen und Lesern erreicht, indem er die Grundlagen der künstlichen Intelligenz erklärt – oft aus psychologischer Sicht. Er ist Autor und Betreuer mehrerer Open-Source-Pakete, die sich auf die Stärke von Large Language Models stützen, wie BERTopic, PolyFuzz und KeyBERT. Seine Pakete werden millionenfach heruntergeladen und von Datenexperten und Organisationen weltweit genutzt.
OReilly (dpunkt) |
|
Autor:innen |
Jay Alammar, Maarten Grootendorst |
448 Seiten, Softcover |
|
Erscheint ca. |
07/2025 |
978-3-96009-266-7 9783960092667 |