3 Stunden EN / DE Max 50

Grundlagen der KI-Infrastruktur

Dieser Kurs bietet einen grundlegenden Überblick über die Hardware-, Software- und Netzwerkkomponenten, die zur Entwicklung und Verwaltung von KI-Modellen in großem Maßstab erforderlich sind. Er befasst sich mit der AI Hypercomputer-Architektur von Google Cloud, vergleicht Computerbeschleuniger wie GPUs und TPUs und untersucht die kritischen Datenpipelines und Speicherlösungen, die zur Maximierung der Trainingsleistung erforderlich sind. Er wurde für IT-Entscheidungsträger und Infrastrukturarchitekten entwickelt, die ein besseres Verständnis für die KI-Bereitstellung auf Unternehmensebene erlangen möchten.

€295,00 exkl. MwSt

Individuelle Terminplanung

Die Kurse finden als dedizierte Gruppen-Sessions statt. Nach Ihrer Buchung koordinieren wir einen Termin, der zu Ihrem Team passt.

Voraussetzungen

  • Vertrautheit mit Cloud-Computing-Konzepten.
  • Verständnis der allgemeinen Rechenzentrumsinfrastruktur.

Was Sie lernen werden

  • Unterscheidung zwischen den Schichten des KI-Hypercomputers.
  • Auswahl geeigneter Beschleuniger für die kostengünstigsten KI-Workloads.
  • Bewertung von Speicher- und Netzwerklösungen zur Maximierung des Trainings-Goodputs.
  • Vergleich verschiedener Bereitstellungs- und Verbrauchsmodelle zur Ressourcenoptimierung.

Kursablauf
Definition von KI-Infrastruktur Die Entwicklung der Computing-Anforderungen Der Bedarf an neuer Rechenleistung
Der AI Hypercomputer Die 3 Schichten des AI Hypercomputer: Überblick
Graphics Processing Units (GPU-Architektur, Google Cloud GPU-Familie, Auswahl von GPUs) Tensor Processing Units (TPU-Architektur, Google Cloud TPU-Familie, Best Practices und Überlegungen)
Maximierung des Goodputs Netzwerk für Datenerfassung und Training Speicher für Datenaufbereitung und Training Architektur für Inferenz.
Bereitstellungsoptionen Flexibler Verbrauch
Zusammenfassung des Kurses Fragen und Antworten Quiz
Grundlagen der KI-Infrastruktur