Verlag |
Rheinwerk Verlag |
Autor:in |
Oliver Liebel (2) |
Fassung |
468 Seiten, Hardcover |
Erschienen |
12/2022 |
ISBN |
978-3-8362-7393-0 |
Verlag: | Rheinwerk Verlag |
Autor:in | Oliver Liebel (2) |
Fassung: | 468 Seiten, Hardcover |
Erschienen: | 12/2022 |
ISBN: | 978-3-8362-7393-0 9783836273930 |
Inhaltsverzeichnis: | Jetzt downloaden |
Vorwort: | Jetzt downloaden |
Leseprobe: | Jetzt downloaden |
Verlag: | Rheinwerk Verlag |
Autor:in | Oliver Liebel (2) |
Fassung: | 468 Seiten, Hardcover |
Erschienen: | 12/2022 |
ISBN: | 978-3-8362-7393-0 9783836273930 |
Inhaltsverzeichnis: | Jetzt downloaden |
Vorwort: | Jetzt downloaden |
Leseprobe: | Jetzt downloaden |
Moderne KI/ML-Modelle stellen hohe Anforderungen an die Infrastruktur. Die Verarbeitung der Daten bei Deep Learning und Analysen ist hochkomplex und erfordert moderne, spezialisierte Recheneinheiten, wie sie NVIDIA mit den Datacenter-GPUs anbietet. Oliver Liebel zeigt in diesem Wegweiser, wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen.
Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.
Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.
Wenn große Datenmengen verarbeitet werden müssen und teure Investitionen anstehen, ist durchdachte Planung unabdingbar. Mit Hintergrundwissen und fundierten Markteinschätzungen treffen Sie richtige Entscheidungen für zukunftssichere KI/ML-Projekte und haben alle Kostenfaktoren im Blick.
In enger Zusammenarbeit mit NVIDIA wurden die vorgestellten Setups getestet und evaluiert. Sie profitieren von dieser Praxiserfahrung und erfahren, wie Sie GPUs in Kubernetes- und OpenShift-Cluster integrieren.
Operator-gestützte Vollautomation ist ein Muss, um KI/ML-Infrastrukturen skalierbar, resilient und kosteneffizient zu betreiben. Zahlreiche Beispiele führen Sie durch praxisnahe Konfigurationen, die für aktuelle und zukünftige Anforderungen gerüstet sind.
Getestete Setups stehen zum Download bereit.
Datacenter-taugliche GPUs werden nach wie vor in grafische Workloads eingesetzt, darüber hinaus gibt es aber zahlreiche verschiedene Möglichkeiten, deren Rechenleistung einzusetzen. Diese Leseprobe befasst sich mit dem technischen Hintergrund der GPUs im Hinblick auf mögliche skalierbare Bereitstellungsarten. Insbesondere die Partitionierung einer physikalischen GPU ist besonders effizient für Workloads, die die Rechenkapazität nicht vollständig auslasten würden.
Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte, Partner von Red Hat und SUSE und steht in engem Kontakt mit NVIDIAs EGX-Abteilung. Er ist seit vielen Jahren als Dozent, Autor, Berater und Systemarchitekt für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Der Spezialist für skalierbare und GPU-beschleunigte Container-Cluster auf Kubernetes-/OpenShift-Basis, High-Availability Cluster, Verzeichnisdienste und Software-Defined Storage greift dabei auf eine 30-jährige Berufserfahrung zurück.
Verlag |
Rheinwerk Verlag |
Autor:in |
Oliver Liebel (2) |
Fassung |
468 Seiten, Hardcover |
Erschienen |
12/2022 |
ISBN |
978-3-8362-7393-0 |