Databricks Architect

agap2 Italia · Piemonte, Italia ·


Descrizione dell'offerta

Chi siamo

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa, parte del MoOngy Group. Con oltre 7.500 dipendenti e presenza in 14 Paesi europei, operiamo in Italia dal 2018 e continuiamo a crescere grazie a professionisti che condividono i nostri valori: ambizione, dinamismo, spirito di squadra, proattività e voglia di mettersi in gioco. Crediamo nello sviluppo continuo delle competenze e in un ambiente di lavoro inclusivo, collaborativo e in costante evoluzione.


Descrizione della posizione

Siamo alla ricerca di un/una Databricks Architect .

La risorsa sarà inserita nel team Data & Analytics e si occuperà della progettazione e dell’evoluzione di architetture dati su piattaforma Databricks. L’attività è focalizzata sulla definizione di soluzioni scalabili e sostenibili in ambito Lakehouse, sull’ottimizzazione delle pipeline dati e sul miglioramento continuo delle performance dei processi esistenti, con particolare attenzione a costi, qualità e manutenibilità del codice.


Responsabilità principali

  • Progettazione e evoluzione di architetture dati in ambiente Databricks e paradigma Lakehouse
  • Definizione e gestione di architetture Medallion (Bronze/Silver/Gold)
  • Ottimizzazione di pipeline e job Spark in ottica di performance, costi e scalabilità
  • Analisi e risoluzione di problematiche legate a performance (shuffle, data skew, caching)
  • Implementazione e gestione di Unity Catalog per governance, permessi e data lineage
  • Supporto all’industrializzazione dei processi tramite CI/CD (Databricks Asset Bundles, Terraform, Git integration)
  • Collaborazione con team tecnici e di business per la traduzione dei requisiti in soluzioni architetturali efficaci
  • Definizione e mantenimento di standard tecnici per lo sviluppo su Databricks


Requisiti

  • Esperienza nella progettazione di architetture dati in ambito Lakehouse / Databricks
  • Conoscenza del modello Medallion e dei principi di data engineering
  • Ottima conoscenza di Spark (PySpark e/o Scala)
  • Capacità di sviluppare codice ottimizzato e performante
  • Conoscenza dei concetti di tuning e ottimizzazione (shuffle, caching, data skew)
  • Esperienza con Unity Catalog o strumenti equivalenti di data governance
  • Familiarità con processi CI/CD (Git, Terraform, Databricks Asset Bundles o equivalenti)
  • Buona attitudine al problem solving e al lavoro in team
  • Inglese tecnico (lettura documentazione e contesto lavorativo internazionale)


Cosa offriamo

  • Sede di lavoro: da remoto, con eventuali rientri periodici in sede a TORINO
  • Contratto a tempo indeterminato o collaborazione in P.IVA
  • Ambiente di lavoro dinamico e in continua evoluzione
  • Contesto tecnico su progetti complessi in ambito Data & Cloud
  • Percorsi di crescita e sviluppo delle competenze in ambito Data Engineering e Architetture Cloud

Candidatura e Ritorno (in fondo)