1 Tag EN / DE Max 16

Anwendungsentwicklung mit LLMs in Google Cloud

In diesem Kurs werden Sie detailliert in die Verwendung von großen Sprachmodellen (LLMs) in Ihren Anwendungen eintauchen. Zunächst werden Sie die Kernprinzipien erkunden, die der Aufforderung von LLMs zugrunde liegen. Anschließend konzentrieren Sie sich auf Googles neueste Modellfamilie, Gemini. Sie werden die verschiedenen Gemini-Modelle und ihre multimodalen Fähigkeiten erkunden. Dies beinhaltet einen tiefen Einblick in effektives Prompt-Design und Engineering innerhalb der Vertex AI Studio-Umgebung. Danach befasst sich der Kurs mit Anwendungsentwicklungs-Frameworks und wie diese Konzepte in Ihren Anwendungen implementiert werden können.

€920,00 exkl. MwSt

Individuelle Terminplanung

Die Kurse finden als dedizierte Gruppen-Sessions statt. Nach Ihrer Buchung koordinieren wir einen Termin, der zu Ihrem Team passt.

Voraussetzungen

Abschluss von „Einführung in die Entwicklereffizienz in Google Cloud“ oder gleichwertige Kenntnisse.

Was Sie lernen werden

  • Erkunden Sie die verschiedenen Optionen zur Nutzung generativer KI auf Google Cloud.
  • Verwenden Sie Vertex AI Studio, um Prompts für große Sprachmodelle zu testen.
  • Entwickeln Sie LLM-gestützte Anwendungen mit generativer KI.
    Wenden Sie fortgeschrittene Prompt-Engineering-Techniken an, um die Ausgabe von LLMs zu verbessern.
  • Erstellen Sie eine Multi-Turn-Chat-Anwendung mit der Gemini API und LangChain.

Kursablauf
What is generative AI Vertex AI on Google Cloud Generative AI options on Google Cloud Introduction to course use case
Introduction to Vertex AI Studio Designing and testing prompts Data governance in Vertex AI Studio
Introduction to grounding Integrating the Vertex AI Gemini APIs Chat, memory and grounding Search principles
Review of few-shot prompting Chain-of-thought prompting and thinking budgets Meta prompting, multi-step, and panel prompts RAG and ReAct
LangChain for chatbots ADK for chatbots Chat retrieval
Anwendungsentwicklung mit LLMs in Google Cloud