Trabajo en tres áreas complementarias, organizadas alrededor de la fiabilidad de los pipelines, la claridad analítica y la automatización.
Data Engineering en GCP
Para equipos que necesitan centralizar fuentes dispersas y hacer que sus flujos sean más operables.
- Conectar APIs, ficheros, ERP o herramientas operativas en un flujo estructurado
- Construir pipelines ETL de ingestión, transformación y carga
- Organizar y optimizar el almacenamiento en BigQuery
- Orquestar tareas recurrentes con Airflow
Stack: GCP, BigQuery, Cloud Storage, Dataflow, Cloud Run, Airflow, Docker, Python, SQL
Analytics y bases de reporting
Para equipos que tienen datos, pero todavía no cuentan con una capa analítica clara y fiable.
- Modelar tablas SQL a partir de la lógica de negocio y los KPIs
- Preparar bases de reporting para dashboards y análisis recurrentes
- Aclarar definiciones para mantener la coherencia de los indicadores
- Acompañar análisis operativos, logísticos, comerciales o marketing
Stack: SQL, BigQuery, SQL Server, Power BI, Looker Studio, Python
Automatización de workflows data
Para equipos que pierden demasiado tiempo en actualizaciones, sincronizaciones o controles manuales.
- Automatizar tareas recurrentes con Python y servicios cloud
- Reducir trabajo manual en los flujos de reporting operativo
- Añadir puntos de monitorización y control cuando hace falta
- Entregar workflows más fáciles de mantener en el tiempo
Stack: Python, Cloud Run, BigQuery, SQL, orquestación ligera
Modalidad
| Disponibilidad | Inmediata |
| Ubicación | París, presencial o remoto en Francia |
| Idiomas de trabajo | Francés, inglés, español |
| Duración de misión | Desde un mes |
¿Te interesa hablar de una misión? Contáctame →