Zum Hauptinhalt navigieren
Zertifizierter Händler seit über 35 Jahren
Mo.–Fr. 8:30 – 17:00 Uhr: 0 21 91 - 99 11 00
Mo.-Fr. 8:30 - 17:00 Uhr: 0 21 91 - 99 11 00
Logo EDV-BUCHVERSAND Delf Michel
Software & Fachbücher vom Experten
Mo.-Fr. 8:30 - 17:00 Uhr: 0 21 91 - 99 11 00
0
PyTorch
KI-Modelle trainieren, tunen und einsetzen
Vielfältige Architekturen wie Autoencoder, RNNs, LLMs, RAG-Syteme etc.
PyTorch

PyTorch

KI-Modelle trainieren, tunen und einsetzen

Vielfältige Architekturen wie Autoencoder, RNNs, LLMs, RAG-Syteme etc.

Rheinwerk Verlag
Autor:in
447 Seiten, Hardcover
Erschienen
02/2026
978-3-367-11129-9
9783367111299
 
 
Best.-Nr.:
PyTorch

Deep Learning mit PyTorch professionell anwenden

Dieses Buch vermittelt einen umfassenden und praxisnahen Einstieg in modernes Deep Learning – von der Datenaufbereitung über das Training und Finetuning bis hin zu Evaluierung und Deployment produktiver Modelle. Im Mittelpunkt steht PyTorch, das in der Praxis meistgenutzte Deep-Learning-Framework. Anhand realer Projektszenarien lernen Sie, wie KI-Modelle für konkrete Aufgaben entwickelt, optimiert und zuverlässig eingesetzt werden. Dabei werden nicht nur einzelne Methoden vorgestellt, sondern auch deren sinnvolle Kombinationen, etwa in komplexen RAG-Systemen oder beim Einsatz großer Sprachmodelle.

Behandelt werden vielfältige Architekturen wie lineare Modelle, Autoencoder, rekurrente neuronale Netze, große Sprachmodelle (LLMs) und Retrieval-Augmented-Generation-Ansätze. Die Beispiele decken Anwendungsfelder wie Computer Vision, Zeitreihenanalysen, Klassifikationen und textbasierte KI-Systeme ab. Alle Verfahren werden verständlich erklärt und mit vollständigen Python-Implementierungen untermauert, die auf handelsüblicher Hardware lauffähig sind.

Blick ins Buch: PyTorch - KI-Modelle trainieren, tunen und einsetzen

Konzepte und Verfahren gezielt einsetzen

Deep Learning ist nicht gleich Deep Learning: Unterschiedliche Aufgaben erfordern unterschiedliche Modelle und Trainingsstrategien. Sie lernen, relevante Verfahren nicht nur zu implementieren, sondern fundiert auszuwählen und zielorientiert einzusetzen – auch in Kombination mehrerer Ansätze. So entsteht ein solides Verständnis dafür, warum bestimmte Architekturen für spezifische Probleme besser geeignet sind als andere.

Daten und Modelle richtig vorbereiten

Ein zentraler Schwerpunkt liegt auf den Daten. Sie erfahren, wie sich die Anforderungen an die Datenaufbereitung je nach Modell und Aufgabe unterscheiden und worauf es bei Klassifikationen, zeitreihenbasierten Vorhersagen oder Computer-Vision-Anwendungen ankommt. Damit schaffen Sie die Grundlage für stabile und leistungsfähige Modelle.

Unüberwachtes Lernen und Autoencoder

Im Bereich des unüberwachten Lernens werden Autoencoder und Variational Autoencoder (VAEs) ausführlich behandelt. Nach einer verständlichen Einführung folgen praxisnahe Beispiele mit einsatzbereitem Code, die zeigen, wie diese Architekturen effektiv trainiert und genutzt werden können.

Große Sprachmodelle, Evaluierung und Deployment

Ein weiterer Fokus liegt auf der Anpassung vortrainierter großer Sprachmodelle mit HuggingFace. Sie lernen, LLMs für spezifische Aufgaben zu finetunen und dabei Speicherbedarf sowie Rechenaufwand zu optimieren. Für Evaluierung und Deployment kommen moderne Tools wie PyTorch Lightning, TensorBoard, Weights & Biases, FlowML, LangChain und FastAPI zum Einsatz – sowohl für den lokalen Betrieb als auch für Cloud-Deployments, etwa mit Heroku.

Aus dem Inhalt

  • Installation und Grundkonzepte
  • Deep Learning und Datenaufbereitung
  • Immer das richtige Vorgehen für Klassifizierung, Zeitreihenvorhersage, Computer Vision u. v. m.
  • Große Sprachmodelle mit HuggingFace
  • Verwendung vortrainierter Modelle
  • PyTorch Lightning
  • Modell-Evaluierung
  • Der vollständige ML-Workflow: TensorBoard, FlowML, WandB, Heroku und mehr
Leseprobe

Leseprobe

In dieser Leseprobe beschreibt Bert Gollnick, wie das Training von Deep-Learning-Modellen mit PyTorch grundsätzlich abläuft. Sehen Sie, wie aus vorbereiteten Daten ein erstes funktionierendes Modell entsteht und warum dieses anschließend noch Optimierungspotenzial bietet. Sie lernen wichtige Konzepte kennen, die das Training strukturierter, effizienter und besser wartbar machen. Lesen Sie auch, wie trainierte Modelle gespeichert und später wiederverwendet werden können.

Wer hat's geschrieben?

Bild von Autor:in Bert Gollnick

Bert Gollnick ist Senior Data Scientist mit Schwerpunkt auf künstlicher Intelligenz. Er unterrichtet Data Science und Machine Learning, insbesondere generativer KI und Verarbeitung natürlicher Sprache (NLP). Bert hat an der Technischen Universität Berlin Luft- und Raumfahrttechnik und an der Universität Hagen Volkswirtschaftslehre studiert. Nach 17 Jahren in der Industrie konzentriert er sich nun auf seine Schulungsfirma und gibt dort seine Kenntnisse zu künstlicher Intelligenz weiter. Er lebt und arbeitet in Hamburg und bietet Präsenzkurse im deutschsprachigen Raum sowie Online-Kurse auch für ein internationales Publikum an.

Weitere Bücher von Bert Gollnick (2)

Bild von Autor:in Bert Gollnick
PyTorch
KI-Modelle trainieren, tunen und einsetzen
Vielfältige Architekturen wie Autoencoder, RNNs, LLMs, RAG-Syteme etc.
PyTorch
PyTorch
KI-Modelle trainieren, tunen und einsetzen
Vielfältige Architekturen wie Autoencoder, RNNs, LLMs, RAG-Syteme etc.
Rheinwerk Verlag
Autor:in
447 Seiten, Hardcover
Erschienen
02/2026
978-3-367-11129-9
9783367111299
 
 
Best.-Nr.:
PyTorch