Data Engineer
Data Engineer
Milano, IT, 20139 Padova, Padova, IT, 35129 Firenze, IT, 50145 Genova, IT, 16129 Torino, IT, 10152 Siena, IT, 53100
Stiamo cercando un Data Engineer esperto e motivato con un forte background nell'ecosistema Hadoop e una comprovata esperienza con Java Spring Boot (API Rest & Batches) e Oracle DB.
Il candidato ideale avrà almeno 3 anni di esperienza pratica nell'ingegneria dei dati e una passione per la progettazione, la costruzione e la manutenzione di applicazioni complesse e robuste.
L'esperienza nel settore finanziario è un plus, in quanto aiuterà a comprendere meglio le esigenze dei clienti e il dominio funzionale dell'applicazione.
Responsabilità chiave
- Competenza nell'ecosistema Hadoop
- Progettare, implementare e ottimizzare pipeline di dati e flussi di lavoro sfruttando strumenti e tecnologie dell'ecosistema Hadoop, tra cui: HDFS, YARN, Spark, HBase, Impala, HIVE
Esperienza Java per API e processi batch
- Costruire e distribuire API RESTful utilizzando Java Spring Boot per facilitare l'integrazione dei dati e l'interoperabilità tra i sistemi.
- Progettare e mantenere processi batch utilizzando Java, garantendo l'esecuzione efficiente dei flussi di lavoro dei dati e della logica aziendale.
- Implementare soluzioni robuste per la gestione degli errori, la registrazione e il monitoraggio.
Gestione dei database
- Mantenere e ottimizzare soluzioni di database relazionali utilizzando Oracle DB.
- Scrivere query SQL e Spark SQL complesse ed efficienti per garantire prestazioni ottimali del database.
Ottimizzazione delle prestazioni e risoluzione dei problemi
- Monitorare, risolvere i problemi e migliorare le prestazioni dei processi.
- Garantire l'integrità, la qualità e la sicurezza dei dati.
Collaborazione e supporto
- Partecipare attivamente alle pratiche Agile, tra cui stand-up e retrospettive quotidiane, per garantire il raggiungimento efficiente degli obiettivi del progetto.
- Partecipare alle revisioni del codice, alle discussioni sul design e alla collaborazione del team per mantenere standard elevati.
Qualifiche richieste:
- Competenza nei framework di calcolo distribuito e nell'elaborazione dei dati su scala.
- Esperienza con pipeline ETL e modellazione dei dati.
- Solida conoscenza della gestione dei cluster, della risoluzione dei problemi dei big data e dello sviluppo di API con Java Spring.
- Forti capacità analitiche e di risoluzione dei problemi con attenzione ai dettagli.
Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento!
Hai qualche domanda? Non ti ritrovi in questo profilo ma vuoi comunque un confronto con noi? Contattaci alla mail careeritaly@gft.com
Chi siamo?
GFT Technologies SE (GFT) fondata nel 1987, è oggi rappresentata da un team globale di circa 12.000 dipendenti in Europa, Nord e Sud America e Asia. Siamo costantemente impegnati a guidare la trasformazione digitale nel settore dei servizi finanziari, forniamo consulenza alle principali istituzioni finanziarie a livello mondiale e sviluppiamo soluzioni IT su misura – dalle applicazioni bancarie e sistemi di trading fino all’implementazione e al supporto di piattaforme complete, e modernization di sistemi core banking. Il nostro innovation team, che opera a livello globale, sviluppa, inoltre, nuovi modelli di business, focalizzandosi su temi quali blockchain, cloud engineering, intelligenza artificiale e Internet of Things, trasversalmente in tutti i settori.
In GFT potrai lavorare da remoto 5/5. Per informazioni sulle nostre policy sulla Privacy art13 L.679/2016 (GDPR), Diversity Equality & Inclusion, e Sostenibilità vai su: https://www.gft.com/it/it/about-us/Sustainability. GFT Technologies garantisce le pari opportunità nel percorso di selezione, assunzione e nei processi di crescita professionale.