Data Engineer
Descrizione dell'offerta
Selection 4.0 società tecnologicamente all’avanguardia, specializzata nella ricerca e selezione di profili di Middle e Top Management in ambito nazionale e internazionale è alla ricerca di un*:
DATA ENGINEER
Il nostro Cliente è una delle principali web Company Italiane. Con piu' di 1000 dipendenti raggiunge piu' di 10MLN di utenti, in crescita costante, con le proprie piattaforme web e punti fisici sparsi in tutta Italia.
Obiettivo :
Inserito in un team decisamente skillato ti occuperai dell'evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e guidando la creazione di prodotti innovativi per milioni di italiani. Applicando le tue competenze tecniche e collaborando con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, metterai a disposizione di tutta l'organizzazione grandi quantità di dati supportando le Business Unit (come Marketing, Servizi Finanziari, Assicurazioni) che lavorano su analisi e machine learning.
Responsabilità :
- Progettare e sviluppare data pipeline, sia in modalità batch che streaming
- Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps
- Definire e implementare l'orchestrazione dei processi in ambienti containerizzati
- Sviluppare microservizi per l'esposizione e la fruizione dei dati da parte degli stakeholder aziendali
- Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti ad hoc
- Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform)
- Modellare e trasformare i dati attraverso dbt, facilitando la collaborazione e la gestione delle logiche di business
Requisiti:
- Laurea in Informatica, Ingegneria Informatica o campi affini
- 1–3 anni di esperienza in ruoli come Data Engineer o Software Engineer
- Esperienza nello sviluppo in ambienti cloud, idealmente su Google Cloud Platform (GCP)
- Ottima conoscenza di Python (e/o Java, Scala)
- Solida padronanza di SQL, preferibilmente su BigQuery
- Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
- Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub
- Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
- Familiarità con sistemi di versionamento del codice (GIT)
- Attitudine al problem solving, proattività e orientamento al miglioramento continuo
Cosa offriamo:
- Ambiente meritocratico ;
- Welfare Aziendale tra i migliori ;
- Formazione tech e giornate dedicate alla contaminazione reciproca;
- Percorsi di crescita interni;
- cultura aziendale positiva e attenta al benessere delle persone;
- azienda solida, strutturata e in crescita.
Luogo di lavoro: HQ Milano, Possibilità di lavorare full remote (con momenti di incontro)