Contexte

Construction d’un pipeline de données complet sur Google Cloud Platform, de l’ingestion à la visualisation.

Architecture

API publique → Cloud Function → Cloud Storage (raw)
    → Dataflow (transformation) → BigQuery (analytics)
        → Looker Studio (dashboard)

Orchestration : Apache Airflow (scheduling, dépendances, alerting)

Compétences démontrées

  • Ingestion de données depuis une API REST
  • Stockage et organisation dans Cloud Storage
  • Transformation et chargement dans BigQuery
  • Orchestration de tâches avec Airflow
  • Dashboard de visualisation

Stack technique

Python · GCP · BigQuery · Cloud Storage · Dataflow · Airflow · Looker Studio

Résultats

(À compléter quand le projet sera réalisé)

🔗 Voir sur GitHub