Bücherhallen Hamburg. Skalierbare KI/ML-Infrastrukturen

Seitenbereiche:

Skalierbare KI/ML-Infrastrukturen

Skalierbare KI/ML-Infrastrukturen

Evaluieren, Automatisieren, Praxis

Autor*in: Liebel, Oliver

Jahr: 2023

Sprache: Deutsch

Umfang: 468 S.

Verfügbar

Inhalt:
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen. Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.Aus dem Inhalt:KI/ML: Grundlagen und Use CasesInfrastruktur planen: On-Premises, Cloud oder Hybrid?Technischer Background: KI/ML mit NVIDIA-GPUsGPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPUNVIDIA-GPUs auf vSphere On-Prem implementierenNVIDIA AI EnterpriseKI/ML-Cluster mit Kubernetes und OpenShiftGPU-spezifische OperatorenGPU-Cluster mit OpenShiftVon CI/CD über GitOps zu MLOpsML-Pipelines & AI End-to-End
Biografie:

Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte und offizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.

Titel: Skalierbare KI/ML-Infrastrukturen

Autor*in: Liebel, Oliver

Verlag: Rheinwerk Verlag

ISBN: 9783836273954

Kategorie: Sachmedien & Ratgeber, Computer & Internet, Netzwerke

Dateigröße: 12 MB

Format: ePub

3 Exemplare
3 Verfügbar
0 Vormerker

Max. Ausleihdauer: 21 Tage