Descrizione:
Chi siamo AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa, parte del Mo Ongy Group. Con oltre 7.500 dipendenti e presenza in 14 Paesi europei, operiamo in Italia dal 2018 e continuiamo a crescere grazie a professionisti che condividono i nostri valori: ambizione, dinamismo, spirito di squadra, proattività e voglia di mettersi in gioco. Crediamo nello sviluppo continuo delle competenze e in un ambiente di lavoro inclusivo, collaborativo e in costante evoluzione. Descrizione della posizione Siamo alla ricerca di un/una Databricks Expert. La risorsa sarà inserita nel team Data & Analytics e si occuperà della progettazione e dell'evoluzione di architetture dati su piattaforma Databricks. L'attività è focalizzata sulla definizione di soluzioni scalabili e sostenibili in ambito Lakehouse, sull'ottimizzazione delle pipeline dati e sul miglioramento continuo delle performance dei processi esistenti, con particolare attenzione a costi, qualità e manutenibilità del codice. Responsabilità principali
Progettazione e evoluzione di architetture dati in ambiente Databricks e paradigma Lakehouse Definizione e gestione di architetture Medallion (Bronze/Silver/Gold) Ottimizzazione di pipeline e job Spark in ottica di performance, costi e scalabilità Analisi e risoluzione di problematiche legate a performance (shuffle, data skew, caching) Implementazione e gestione di Unity Catalog per governance, permessi e data lineage Supporto all'industrializzazione dei processi tramite CI/CD (Databricks Asset Bundles, Terraform, Git integration) Collaborazione con team tecnici e di business per la traduzione dei requisiti in soluzioni architetturali efficaci Definizione e mantenimento di standard tecnici per lo sviluppo su Databricks Requisiti
Esperienza nella progettazione di architetture dati in ambito Lakehouse / Databricks Conoscenza del modello Medallion e dei principi di data engineering Ottima conoscenza di Spark (Py Spark e/o Scala) Capacità di sviluppare codice ottimizzato e performante Conoscenza dei concetti di tuning e ottimizzazione (shuffle, caching, data skew) Esperienza con Unity Catalog o strumenti equivalenti di data governance Familiarità con processi CI/CD (Git, Terraform, Databricks Asset Bundles o equivalenti) Buona attitudine al problem solving e al lavoro in team Inglese tecnico (lettura documentazione e contesto lavorativo internazionale) Cosa offriamo
Sede di lavoro: da remoto, con eventuali rientri periodici in sede a TORINO Contratto a tempo indeterminato o collaborazione in P. IVA Ambiente di lavoro dinamico e in continua evoluzione Contesto tecnico su progetti complessi in ambito Data & Cloud Percorsi di crescita e sviluppo delle competenze in ambito Data Engineering e Architetture Cloud