Databricks Architect
Descrizione dell'offerta
Chi siamo
AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa, parte del MoOngy Group. Con oltre 7.500 dipendenti e presenza in 14 Paesi europei, operiamo in Italia dal 2018 e continuiamo a crescere grazie a professionisti che condividono i nostri valori: ambizione, dinamismo, spirito di squadra, proattività e voglia di mettersi in gioco. Crediamo nello sviluppo continuo delle competenze e in un ambiente di lavoro inclusivo, collaborativo e in costante evoluzione.
Descrizione della posizione
Siamo alla ricerca di un/una Databricks Architect .
La risorsa sarà inserita nel team Data & Analytics e si occuperà della progettazione e dell’evoluzione di architetture dati su piattaforma Databricks. L’attività è focalizzata sulla definizione di soluzioni scalabili e sostenibili in ambito Lakehouse, sull’ottimizzazione delle pipeline dati e sul miglioramento continuo delle performance dei processi esistenti, con particolare attenzione a costi, qualità e manutenibilità del codice.
Responsabilità principali
- Progettazione e evoluzione di architetture dati in ambiente Databricks e paradigma Lakehouse
- Definizione e gestione di architetture Medallion (Bronze/Silver/Gold)
- Ottimizzazione di pipeline e job Spark in ottica di performance, costi e scalabilità
- Analisi e risoluzione di problematiche legate a performance (shuffle, data skew, caching)
- Implementazione e gestione di Unity Catalog per governance, permessi e data lineage
- Supporto all’industrializzazione dei processi tramite CI/CD (Databricks Asset Bundles, Terraform, Git integration)
- Collaborazione con team tecnici e di business per la traduzione dei requisiti in soluzioni architetturali efficaci
- Definizione e mantenimento di standard tecnici per lo sviluppo su Databricks
Requisiti
- Esperienza nella progettazione di architetture dati in ambito Lakehouse / Databricks
- Conoscenza del modello Medallion e dei principi di data engineering
- Ottima conoscenza di Spark (PySpark e/o Scala)
- Capacità di sviluppare codice ottimizzato e performante
- Conoscenza dei concetti di tuning e ottimizzazione (shuffle, caching, data skew)
- Esperienza con Unity Catalog o strumenti equivalenti di data governance
- Familiarità con processi CI/CD (Git, Terraform, Databricks Asset Bundles o equivalenti)
- Buona attitudine al problem solving e al lavoro in team
- Inglese tecnico (lettura documentazione e contesto lavorativo internazionale)
Cosa offriamo
- Sede di lavoro: da remoto, con eventuali rientri periodici in sede a TORINO
- Contratto a tempo indeterminato o collaborazione in P.IVA
- Ambiente di lavoro dinamico e in continua evoluzione
- Contesto tecnico su progetti complessi in ambito Data & Cloud
- Percorsi di crescita e sviluppo delle competenze in ambito Data Engineering e Architetture Cloud