Wdrażanie aplikacji i modeli AI/ML z Dockerem i Kubernetesem – edycja walentynkowa
🟢 Warsztat weekendowy w godz. 9:00-17:00 (8 h) 🟢
Czego się nauczysz?
Szkolenie zostało zaprojektowane z myślą o osobach technicznych (ML Engineer, Data Scientist, DevOps, Backend Engineer, Administratorzy), które chcą przejść od działającego modelu lub aplikacji do stabilnego, skalowalnego wdrożenia produkcyjnego.
Dla kogo jest ten warsztat?
- Administratorów i zespołów utrzymania systemów.
- DevOpsów i inżynierów platformowych.
- Firm, które chcą uporządkować proces deploymentu aplikacji AI.
Wymagania wstępne
Prowadzący
Analityk danych, badacz AI i wykładowca na Uniwersytecie Warszawskim, współpracował z Instytutem Max Planck w Berlinie. Specjalizuje się w uczeniu maszynowym, analizie danych genetycznych i zakresu przetwarzania danych na dużą skalę. Prowadzi kursy z analizy danych i deep learningu. Autor publikacji naukowych i popularnonaukowych, współpracował m.in. z deepsense.ai i Sano Centre for Computational Medicine.
Program warsztatów
Podczas warsztatów uczestnicy krok po kroku przechodzą pełny proces wdrożeniowy i uczą się:
1. Docker – konteneryzacja aplikacji i modeli
– Budowanie lekkich i zoptymalizowanych obrazów Dockerowych dla aplikacji AI/ML,
– Poprawne strukturyzowanie Dockerfile (best practices, multi-stage build),
– Zarządzanie zależnościami i środowiskiem uruchomieniowym,
– Debugowanie aplikacji uruchomionych w kontenerach (logi, shell, healthchecks),
– Diagnozowanie najczęstszych problemów produkcyjnych (wydajność, pamięć, błędy startu).
2. Kubernetes – orkiestracja i skalowanie:
– Wdrażanie serwisów AI/ML na klaster Kubernetes,
– Konfigurowanie Deploymentów, Podów, Serwisów i ConfigMapy,
– Wystawianie aplikacji na zewnątrz (Ingress, LoadBalancer),
– Monitorowanie stanu aplikacji (liveness / readiness probes),
– Zarządzanie zasobami CPU/GPU i pamięcią,
– Automatyczne skalowanie aplikacji (HPA) w zależności od obciążenia,
– Przygotowywanie systemu na realne obciążenie produkcyjne.
3. Produkcja, stabilność i bezpieczeństwo:
– Bezpieczne zarządzać konfiguracją i sekretami,
– Obsługiwanie błędów i restartować aplikacje bez przestojów,
– Przygotowywanie serwisu AI/ML pod długotrwałą pracę i monitoring.
Jak wygląda szkolenie?
– 100% praktyki – praca na realnych przykładach aplikacji i modeli
– ćwiczenia wykonywane krok po kroku razem z prowadzącym
– scenariusze inspirowane prawdziwymi wdrożeniami produkcyjnymi
– możliwość dostosowania przykładów do profilu zespołu (AI, backend)
Uczestnicy nie tylko zobaczą, jak wygląda poprawne wdrożenie, ale samodzielnie je wykonają – od kontenera do działającej usługi w Kubernetesie.
Uwaga
Zakupione certyfikaty zostaną przesłane uczestnikom w formie elektronicznej po warsztacie. Jeśli chcesz otrzymać zakupiony certyfikat w formie papierowej, zgłoś to mailowo na adres kontakt@stacja.it.
Zapisz się na warsztat
Liczba miejsc ograniczona! Organizator zastrzega sobie prawo do odwołania wydarzenia w przypadku niezgłoszenia się minimalnej liczby uczestników. Zakupione certyfikaty zostaną przesłane uczestnikom w formie elektoronicznej po warsztacie oraz za pośrednictwem firmy kurierskiej.