Szkolenie PySpark
Ustalamy indywidualnie
32h / 4 dni
Ustalamy indywidualnie
Szkolenie z PySpark
PySpark to biblioteka dla Apache Spark, która umożliwia tworzenie i uruchamianie zadań rozproszonych na klastrach w języku Python. PySpark zapewnia interfejs API do pracy z danymi rozproszonymi przez Spark, a także dostęp do wszystkich funkcji Spark, takich jak mapowanie, agregacja, filtrowanie i grupowanie danych. PySpark jest licznie wykorzystywany w Big Data, analizie danych i uczeniu maszynowym.
Dla kogo jest szkolenie z PySpark?
Dla programistów ze znajomością języka Python.
Dla osób, które chcą poznać jedno z najpopularniejszych narzędzi do przetwarzania danych.
Dla analityków ze znajomością języka Python.
Dla specjalistów Data Scientist.
Program szkolenia PySpark
Moduł 1 – Architektura Apache Spark – co jest czym w organizacji, miejsce w rzeczywistości „Big Data”.
Moduł 2 – RDDs – podstawowe zagadnienie związane z pracą na danych w Apache Spark
Moduł 3 – Różnice między składnią Python-a a PySparka; RDD a Pandas DataFrame
Moduł 4 – Zmienne, partycjonowanie oraz inne zagadnienia Spark Project Core
Moduł 5 – Spark SQL (praca na DF, składnia, schematy, agregacje etc.)
Moduł 6 – Spark ML
Moduł 7 – Prototypowanie
Moduł 8 – Uruchamianie i zarządzanie zadaniami w klastrze
Moduł 9 – Testowanie procesów
Moduł 10 – Optymalizacja i konfiguracja zadań
Moduł 11 – Spark Structured Streaming
Moduł 12 – Sesja Q&A
Czego się nauczysz na szkoleniu PySpark
Dowiesz się jakie jest zastosowanie Big Data w organizacji.
Poznasz podstawowe zagadnienie związane z pracą na danych w Apache Spark.
Nauczysz się Spark Project Core i Spark SQL.
Dowiesz się jak wykorzystać Spark M w praktycznych zastosowaniach.
Chcesz dowiedzieć się więcej o szkoleniu z PySpark?
Dowiedz się więcej