• Offerte di lavoro
  • >
  • Data Engineer (Data Lake / Integrations / Analytics Platform) in PARTITA IVA - FULL REMOTE

Data Engineer (Data Lake / Integrations / Analytics Platform) in PARTITA IVA - FULL REMOTE

  • Freelance
  • Full time
  • A distanza
  • Dipartimento IT

Siamo Corposostenibile, il principale centro online di Nutrizione Integrativa in Italia, in forte crescita nel settore health & wellness, con un team di oltre 150 professionisti.

Stiamo costruendo una piattaforma tecnologica proprietaria con forte componente data-driven: raccolta, normalizzazione e analisi dei dati provenienti da molteplici sistemi (CRM, marketing, prodotto, AI).

Cerchiamo un Senior Data Engineer responsabile della progettazione e realizzazione della nostra data platform su GCP.
Il focus non è solo analisi: il ruolo prevede la costruzione end-to-end del sistema, dall’acquisizione dei dati alla generazione di dashboard utilizzate in azienda.
Avrai ownership diretta su come i dati vengono raccolti, strutturati e resi disponibili al business.

Modalità di lavoro
Full remote (Europa)
Collaborazione asincrona + allineamenti periodici
Richiesta sovrapposizione operativa: GMT-1 / GMT+3

Responsabilità
Progettare e sviluppare un data lake su GCP (Cloud Storage + BigQuery)
Costruire pipeline di ingestione dati da fonti eterogenee:
API (CRM, marketing tools, SaaS esterni)
database interni
eventi applicativi
Sviluppare pipeline ETL/ELT scalabili e monitorabili
Modellare i dati per analytics (star schema, layer semantico)
Garantire qualità, consistenza e affidabilità dei dati
Esporre dati tramite query layer, API o strumenti BI
Sviluppare dashboard per business e operations
Ottimizzare costi e performance su BigQuery
Definire standard e best practice per la gestione dei dati

Stack Tecnologico (GCP)
Storage: Google Cloud Storage (data lake)
Data Warehouse: BigQuery
Processing: Python (batch jobs), SQL
Orchestrazione: Cloud Composer (Airflow) o equivalenti
Ingestion/Eventi: Pub/Sub (nice to have)
BI: Looker / Metabase / Superset
Infra: Docker, CI/CD

Requisiti

Requisiti Tecnici:

Core
5+ anni di esperienza in data engineering o backend engineering con forte componente dati
Esperienza nella progettazione di data lake o data warehouse
Ottima conoscenza di Python e SQL
Esperienza con pipeline ETL/ELT e integrazione dati da API esterne
Data modeling per analytics (fact tables, dimensioni, ecc.)
Esperienza con database relazionali (PostgreSQL o simili)

Engineering
Esperienza con sistemi distribuiti o scalabili
Versionamento codice (Git)
Esperienza con Docker e pipeline CI/CD
Familiarità con orchestrazione workflow (Airflow o equivalenti)

Nice to have
Esperienza con streaming/event-based systems
Esperienza con strumenti BI (Metabase, Superset, Looker, etc.)
Esperienza con sistemi di tracking (event analytics)
Esperienza in ambienti startup / high-growth

Soft Skills
Forte autonomia e senso di ownership
Capacità di lavorare su problemi poco definiti
Approccio pragmatico e orientato al risultato
Comunicazione chiara con team tecnici e non tecnici

Benefits

Cosa offriamo:
Ownership completa della data platform
Impatto diretto su decisioni di business
Ambiente veloce e senza burocrazia
Collaborazione diretta con leadership tecnica
Full remote in Europa
Retribuzione commisurata all’esperienza e alle competenze del candidato. Disponibilità a discutere nel corso del colloquio.

|
|
Servizio fornito da Factorial
Crea la mia pagina di lavoro