Big Data Engineer
Descrizione dell'offerta
eGlue è un partner considerato strategico dalle aziende clienti che desiderano innovare e ottimizzare la comunicazione digitale con il proprio customer base. Con oltre 40 anni di esperienza, eGlue affianca i propri clienti in un percorso di trasformazione digitale che abbraccia la comunicazione, la consulenza e l'innovazione tecnologica. L'azienda opera attraverso tre principali aree di business:
- Engagement Services: eGlue connette le aziende e i loro clienti attraverso strumenti innovativi di comunicazione con l’obiettivo di creare e perfezionare l’esperienza del cliente (Customer Journey) e di conseguire gli obiettivi di business dell’azienda.
- CCM Consulting: Grazie a una profonda conoscenza del mercato IT e delle dinamiche di business, eGlue offre consulenza di processo per supportare le aziende nello sviluppo e nell'implementazione di strategie in ambito di digital comunication e digital trasformation
- IT Consulting: eGlue fornisce consulenza IT altamente specializzata in ambito Governance, Cloud & Infrastructure, Big Data & AI e Cyber Security. Con profili verticalizzati sui settori Banking, Insurance, Energy e Utilities, eGlue si propone come un partner in grado di rispondere alle sfide più complesse dei propri clienti, offrendo soluzioni su misura e un supporto di eccellenza.
In ottica di potenziamento della ns divisione IT Consulting stiamo ricercando una figura di:
Big Data Engineer
La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.
Attività:
- Sviluppo di progetti Big Data garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
- Gestione dei layer di integrazione su piattaforma Big Data;
- Contribuire alla definizione degli standard, regole e modelli architetturali;
- Coordinamento operativo degli attori coinvolti.
Requisiti:
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
- Almeno 2-3 anni di esperienza nel ruolo;
- Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
- Linguaggi di programmazione: Java, Python R (Scala preferenziale);
- Conoscenza dei principali pattern architetturali di data-architecture;
- Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (e.g. Spark, Amazon Athena, Google BigQuery, Hadoop, Hive) e storicizzazione (e.g. Amazon S3, Google Cloud Storage, HDFS);
- Strumenti di elaborazione streaming (e.g. Flink, Storm, Spark Streaming, Kafka, e similari);
- Manipolazione, estrazione e trasformazione di database non strutturati;
A completamento del profilo costituiscono requisito preferenziale:
- Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
- Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
- Principali tecniche di data wrangling, cleansing, exploration e featurization.
Sede di Lavoro : Torino
Modalità di Lavoro : alternanza settimanale tra presenza on-site (3 gg) e lavoro da remoto (2gg).
Contratto: Assunzione Diretta a tempo indeterminato con contratto CCNL Metalmeccanico, fino a 55.000€ RAL. L’offerta include buoni pasto da 6,50€ per giorno lavorato.