#749

Big Data Streams

Warsztat odbywa się w formie zdalnej za pośrednictwem platformy/komunikatora online, z wykorzystaniem dźwięku, obrazu z kamery, udostępniania ekranu komputera prowadzącego i uczestników.

🟢  Warsztat wieczorny w godz. 17:00-21:00 (4 h) 🟢

Firma Confluent przeprowadziła wśród specjalistów IT badanie z którego wynika, że 56% z nich dostrzega, iż dostęp do strumieni bieżących danych i ich przetwarzanie w czasie rzeczywistym przyczynia się do wzrostu przychodów na tle konkurencji. W dzisiejszym świecie dane są zbyt wartościowe, aby mogły czekać w bazach danych na to, aż ktoś uruchomi raport czy wykona jakieś zapytanie. Dziś to, jak szybko dane zostaną przetworzone, jak szybko uruchomią odpowiednie działania, staje się wręcz kluczowe w osiąganiu zakładanych celów.

Żarówka

Czego się nauczysz?

W ramach warsztatów poznasz fundamenty przetwarzania strumieni danych w systemach Big Data, dowiesz się jak rozumieć strumień danych, jakie są podstawowe techniki i narzędzia przetwarzania strumieni danych. Ponadto napiszemy kilka programów, które strumienie danych przetwarzają. Natomiast Kafka, Spark Structured Streaming czy Flink przestaną być tylko hasłami.
Grupa

Dla kogo jest ten warsztat?

Warsztat przeznaczony jest dla osób mających dobre podstawy w zakresie klasycznego (wsadowego) przetwarzania danych, a chcących poznać mechanizmy oraz narzędzia do przetwarzania danych, które nie czekają, a regularnie, bez przerwy, są dostarczane i wymagają natychmiastowego obsłużenia.
Notatnik

Wymagania wstępne

- Podstawowa wiedza IT,
- Podstawowa wiedza w zakresie języków programowania Java i Scala,
- Podstawowa wiedza w zakresie relacyjnych baz danych,
- Konto Google, dostęp do platformy GCP.

Prowadzący

Krzysztof Jankiewicz:

Konsultant IT i wykładowca akademicki. Absolwent kierunku Informatyka
Specjalista w zakresie ogólnie rozumianego przetwarzania danych. Od relacyjnych systemów baz danych, poprzez architekturę, utrzymanie i wykorzystywanie hurtowni danych, bazy danych NoSQL, systemy danych przestrzennych i semistrukturalnych, po narzędzia i platformy Big Data.
Wykładowca akademicki na kilku wielkopolskich uczelniach wyższych.

Program warsztatów

17:00-17:30 Wprowadzenie do przetwarzania strumieni danych
17:30-17:50 Sprawdzenie i konfiguracja środowiska
17:50-18:00 Przerwa kawowa
18:00-18:20 Kafka jako źródło i ujście
18:20-18:50 Warsztat – producent strumienia danych
18:50-19:00 Przerwa kawowa
19:00-19:20 Spark Structured Streaming – relacyjnie
19:20-19:50 Warsztat – ETL czasu rzeczywistego
19:50-20:00 Przerwa kawowa
20:00-20:30 Kafka Streams – dualnie
20:30-21:00 I co dalej? – podsumowanie i zakończenie

Uwaga

Liczba miejsc ograniczona! Organizator zastrzega sobie prawo do odwołania wydarzenia w przypadku niezgłoszenia się minimalnej liczby uczestników.
Zakupione certyfikaty zostaną przesłane uczestnikom w formie elektronicznej po warsztacie. Jeśli chcesz otrzymać zakupiony certyfikat w formie papierowej, zgłoś to mailowo na adres kontakt@stacja.it.

Zapisy na wybrany warsztat zostały zakończone.