Generative AI for DevOps: Build Your Own LLM Server (English) (Virtueel)

Niveau
Tijdsduur

Generative AI for DevOps: Build Your Own LLM Server (English) (Virtueel)

Vijfhart IT-Opleidingen
Logo van Vijfhart IT-Opleidingen
Opleiderscore: starstarstarstarstar_border 8,2 Vijfhart IT-Opleidingen heeft een gemiddelde beoordeling van 8,2 (uit 566 ervaringen)

Tip: meer info over het programma, prijs, en inschrijven? Download de brochure!

Startdata en plaatsen

Er zijn nog geen startdata bekend voor dit product.

Beschrijving

Vijfhart, dat klopt voor jou!

  • Oefenomgeving tot 3 maanden na afronding beschikbaar   
  • Flexgarantie: wissel eenvoudig van virtueel naar fysiek, of andersom  
  • Kennisgarantie: volg jouw cursus gratis nog een keer, fysiek of virtueel  
  • Ontvang een gratis proefexamen bij meerdere opleidingen   

Lesmethode :

Virtueel

Algemeen :

Can you as a DevOps engineer not live without ChatGPT, but is its use prohibited at work due to policy or sensitive data? Are you curious about how you can host your own Large Language Model (LLM)?

During this one-day workshop, Generative AI for DevOps Engineers, you will learn at AT Computing how to set up and use your own local version of "ChatGPT". This will be done completely on the basis of open-source technology, without sending your data to the cloud!

The day will start with an introduction to Generative AI and which LLMs are available and how to use them. We will dive into the hardware aspects and show you how to apply GPU acceleration on Virtual Ma…

Lees de volledige beschrijving

Veelgestelde vragen

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Nog niet gevonden wat je zocht? Bekijk deze onderwerpen: DevOps, ChatGPT, ASL foundation, Agile testen en Reliability Engineering (SRE).

Vijfhart, dat klopt voor jou!

  • Oefenomgeving tot 3 maanden na afronding beschikbaar   
  • Flexgarantie: wissel eenvoudig van virtueel naar fysiek, of andersom  
  • Kennisgarantie: volg jouw cursus gratis nog een keer, fysiek of virtueel  
  • Ontvang een gratis proefexamen bij meerdere opleidingen   

Lesmethode :

Virtueel

Algemeen :

Can you as a DevOps engineer not live without ChatGPT, but is its use prohibited at work due to policy or sensitive data? Are you curious about how you can host your own Large Language Model (LLM)?

During this one-day workshop, Generative AI for DevOps Engineers, you will learn at AT Computing how to set up and use your own local version of "ChatGPT". This will be done completely on the basis of open-source technology, without sending your data to the cloud!

The day will start with an introduction to Generative AI and which LLMs are available and how to use them. We will dive into the hardware aspects and show you how to apply GPU acceleration on Virtual Machines and in Containers.

Through various practical exercises, you will set up your own Large Language Model server and even create your own "model". You will learn how to connect a web-based client to your own Large Language Model, which will essentially create your own ChatGPT clone.

In addition, you will discover how to connect to the LLM API and Python, how to apply Retrieval Augmented Generation to use your own documents with your LLM, and how to analyze images with your own LLM. We will also cover log analysis using your LLM.

Doel :

After following this course, you will have knowledge of the internal workings of GenAI in general and LLMs in particular. You will also learn how to set up a local LLM server without sending your data to a Cloud environment.

Doelgroep :

This course is for IT professionals, system administrators, software developers, Cloud, and DevOps Engineers who want to use large language models in their daily work.

Voorkennis :

To follow the course, experience with the (Linux) command line interface is required, for example, Linux/UNIX Fundamentals or Linux Infrastructure. Knowledge of a programming language, preferably Python, is beneficial.

Onderwerpen :


- What is Generative AI?
- Which LLMs are available and how do you use them?
- Tokens, vectors, and parameters
- Hardware: CPU versus GPU: how to apply GPU acceleration on Virtual Machines and in containers (Docker)
- Setting up an LLM server
- Creating your own LLM model
- Applying a web-based client to your own LLM
- Connecting to the LLM API with Python
- Using your own documents with your own LLM
- Analyzing images with your own LLM
- Log analysis using your LLM

Blijf op de hoogte van nieuwe ervaringen

Er zijn nog geen ervaringen.

Deel je ervaring

Heb je ervaring met deze cursus? Deel je ervaring en help anderen kiezen. Als dank voor de moeite doneert Springest € 1,- aan Stichting Edukans.

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Download gratis en vrijblijvend de informatiebrochure

(optioneel)
(optioneel)
(optioneel)
infoEr is een telefoonnummer vereist om deze informatieaanvraag in behandeling te nemen. (optioneel)
(optioneel)

Heb je nog vragen?

(optioneel)

Aanmelden voor nieuwsbrief

We slaan je gegevens op om je via e-mail en evt. telefoon verder te helpen.
Meer info vind je in ons privacybeleid.