Big Data Engineer - Technical Leader

Eglue · Bardi, Emilia romagna, Italia · · 50€ - 70€


Descrizione dell'offerta

Luogo e tipologia di contratto

Milano, ibrido (3 giorni di presenza on-site, 2 da remoto). Contratto: fino a 50.000€RAL, a seconda dell'esperienza maturata. Assunzione a tempo indeterminato con contratto CCNL Metalmeccanico. L'offerta include buoni pasto da 6,50€ per giorno lavorato, 200€ Welfare, Assicurazione Sanitaria a copertura del nucleo familiare.

Responsabilità

  • Gestione di progetti Big Data coordinando un team di sviluppo dedicato;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire all’evoluzione del sistema Big Data definendo standard, regole e modelli architetturali, e dando supporto a progetti strategici come il Journey to Cloud;
  • Progettare e successivamente validare le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema.

Requisiti

  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Precedente esperienza professionale nella gestione di progetti Big Data (analisi progettuale, definizione degli obiettivi, monitoraggio avanzamento progetto);
  • Strumenti del framework Cloudera e/o Databricks/AWS;
  • Conoscenza di strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka e similari);
  • Linguaggi di programmazione: Java, Python o Scala;
  • DB NoSQL (HBase, Cassandra, MongoDB e similari);
  • Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
  • Conoscenza dei principali pattern architetturali di data‑architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
  • Ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;
  • Fondamenti di Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
  • Conoscenza di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS e similari);
  • Principali tecniche di data wrangling, cleansing, exploration e featurization.

#J-18808-Ljbffr

Candidatura e Ritorno (in fondo)