Skalierbare KI/ML-Infrastrukturen / Rheinwerk Computing (ePub)
- Kreditkarte, Paypal, Rechnung
- Kostenloser tolino webreader
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen.
Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.
Aus dem Inhalt:
- KI/ML: Grundlagen und Use Cases
- Infrastruktur planen: On-Premises, Cloud oder Hybrid?
- Technischer Background: KI/ML mit NVIDIA-GPUs
- GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU
- NVIDIA-GPUs auf vSphere On-Prem implementieren
- NVIDIA AI Enterprise
- KI/ML-Cluster mit Kubernetes und OpenShift
- GPU-spezifische Operatoren
- GPU-Cluster mit OpenShift
- Von CI/CD über GitOps zu MLOps
- ML-Pipelines & AI End-to-End
offizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.
- Autor: Oliver Liebel
- 2023, 1. Auflage, 468 Seiten, Deutsch
- Verlag: Rheinwerk Verlag GmbH
- ISBN-10: 3836273950
- ISBN-13: 9783836273954
- Erscheinungsdatum: 05.01.2023
Abhängig von Bildschirmgrösse und eingestellter Schriftgrösse kann die Seitenzahl auf Ihrem Lesegerät variieren.
- Dateiformat: ePub
- Grösse: 11 MB
- Ohne Kopierschutz
- Vorlesefunktion
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Skalierbare KI/ML-Infrastrukturen / Rheinwerk Computing".
Kommentar verfassen