Trabajo en tres áreas complementarias, organizadas alrededor de la fiabilidad de los pipelines, la claridad analítica y la automatización.


Data Engineering en GCP

Para equipos que necesitan centralizar fuentes dispersas y hacer que sus flujos sean más operables.

  • Conectar APIs, ficheros, ERP o herramientas operativas en un flujo estructurado
  • Construir pipelines ETL de ingestión, transformación y carga
  • Organizar y optimizar el almacenamiento en BigQuery
  • Orquestar tareas recurrentes con Airflow

Stack: GCP, BigQuery, Cloud Storage, Dataflow, Cloud Run, Airflow, Docker, Python, SQL


Analytics y bases de reporting

Para equipos que tienen datos, pero todavía no cuentan con una capa analítica clara y fiable.

  • Modelar tablas SQL a partir de la lógica de negocio y los KPIs
  • Preparar bases de reporting para dashboards y análisis recurrentes
  • Aclarar definiciones para mantener la coherencia de los indicadores
  • Acompañar análisis operativos, logísticos, comerciales o marketing

Stack: SQL, BigQuery, SQL Server, Power BI, Looker Studio, Python


Automatización de workflows data

Para equipos que pierden demasiado tiempo en actualizaciones, sincronizaciones o controles manuales.

  • Automatizar tareas recurrentes con Python y servicios cloud
  • Reducir trabajo manual en los flujos de reporting operativo
  • Añadir puntos de monitorización y control cuando hace falta
  • Entregar workflows más fáciles de mantener en el tiempo

Stack: Python, Cloud Run, BigQuery, SQL, orquestación ligera


Modalidad

DisponibilidadInmediata
UbicaciónParís, presencial o remoto en Francia
Idiomas de trabajoFrancés, inglés, español
Duración de misiónDesde un mes

¿Te interesa hablar de una misión? Contáctame →