Big Data Streams
🟢 Warsztat wieczorny w godz. 17:00-21:00 (4 h) 🟢
Firma Confluent przeprowadziła wśród specjalistów IT badanie z którego wynika, że 56% z nich dostrzega, iż dostęp do strumieni bieżących danych i ich przetwarzanie w czasie rzeczywistym przyczynia się do wzrostu przychodów na tle konkurencji. W dzisiejszym świecie dane są zbyt wartościowe, aby mogły czekać w bazach danych na to, aż ktoś uruchomi raport czy wykona jakieś zapytanie. Dziś to, jak szybko dane zostaną przetworzone, jak szybko uruchomią odpowiednie działania, staje się wręcz kluczowe w osiąganiu zakładanych celów.
Czego się nauczysz?
Dla kogo jest ten warsztat?
Wymagania wstępne
- Podstawowa wiedza w zakresie języków programowania Java i Scala,
- Podstawowa wiedza w zakresie relacyjnych baz danych,
- Konto Google, dostęp do platformy GCP.
Prowadzący
Konsultant IT i wykładowca akademicki. Absolwent kierunku Informatyka
Specjalista w zakresie ogólnie rozumianego przetwarzania danych. Od relacyjnych systemów baz danych, poprzez architekturę, utrzymanie i wykorzystywanie hurtowni danych, bazy danych NoSQL, systemy danych przestrzennych i semistrukturalnych, po narzędzia i platformy Big Data.
Wykładowca akademicki na kilku wielkopolskich uczelniach wyższych.
Program warsztatów
17:00-17:30 Wprowadzenie do przetwarzania strumieni danych
17:30-17:50 Sprawdzenie i konfiguracja środowiska
17:50-18:00 Przerwa kawowa
18:00-18:20 Kafka jako źródło i ujście
18:20-18:50 Warsztat – producent strumienia danych
18:50-19:00 Przerwa kawowa
19:00-19:20 Spark Structured Streaming – relacyjnie
19:20-19:50 Warsztat – ETL czasu rzeczywistego
19:50-20:00 Przerwa kawowa
20:00-20:30 Kafka Streams – dualnie
20:30-21:00 I co dalej? – podsumowanie i zakończenie
Uwaga
Zakupione certyfikaty zostaną przesłane uczestnikom w formie elektronicznej po warsztacie. Jeśli chcesz otrzymać zakupiony certyfikat w formie papierowej, zgłoś to mailowo na adres kontakt@stacja.it.
Zapisy na wybrany warsztat zostały zakończone.