Objectifs de la formation
– Comprendre les enjeux du Big Data et de la Data Engineering – Construire des pipelines robustes avec Hadoop et PySpark – Interroger, transformer et charger des données avec SQL et BigQuery – Déployer et gérer des traitements sur GCP avec des outils comme Dataflow ou GKE – Visualiser eicacement les données avec Power BI, Qlik Sense et Looker – Automatiser l’infrastructure avec Terraform et orchestrer avec Kubernetes – Travailler en méthode agile, collaborer avec les Data Analysts, Data Scientists, DevOps et métiers