Azienda/Istituzione
Il Gruppo Mediaset è un editore multipiattaforma leader nei propri mercati di riferimento e attivo nell’ambito della produzione e distribuzione di contenuti televisivi, cinematografici e multimediali, oltre che della raccolta pubblicitaria.
Posizione lavorativa
Siamo alla ricerca di un Data Architect con una solida esperienza nella progettazione di piattaforme dati moderne e nell’adozione di pratiche DataOps/MLOps, che voglia contribuire alla trasformazione data-driven del Gruppo in un contesto dinamico e altamente innovativo. Nel ruolo guiderai iniziative strategiche, definirai standard e linee guida architetturali condivise tra i Paesi, collaborerai con team cross-funzionali e contribuirai alla costruzione delle future piattaforme dati del Gruppo.
Attività e responsabilità:
- Progettare, definire e validare l’architettura dati di Gruppo (Italia + Spagna) per Data Platform, Analytics, BI, ML/AI e GenAI;
- Governare l’evoluzione delle pipeline dati (ingestion, transformation, integration) adottando un approccio DataOps;
- Definire reference architecture, standard tecnologici e linee guida condivise;
- Supportare la progettazione e gestione delle piattaforme ML/MLOps/GenAI, incluse pratiche di CI/CD, versioning e automazione;
- Collaborare con Data Engineering, Data Science e Analytics nella realizzazione di data product e soluzioni cross-country;
- Supportare l’adozione di pratiche di data governance (cataloghi, lineage, metadata management, qualità del dato) e principi di sicurezza e compliance del dato;
- Attività di technology evangelism, mentorship e sviluppo delle competenze interne;
- Scouting e valutazione di tecnologie, vendor e piattaforme cloud/AI.
Profilo ricercato
Requisiti e competenze richieste:
- Solida conoscenza di tecnologie, framework e metodologie in ambito Data Management, Data Architecture e Data Analytics;
- Capacità di progettazione architetturale e integrazione con ecosistemi enterprise complessi;
- Esperienza con almeno un hyperscaler (preferibilmente AWS);
- Ottima conoscenza SQL e Data Modeling;
- Esperienza con piattaforme dati e/o cloud DWH (Snowflake, Redshift, SAP Datasphere);
- Competenze DataOps/MLOps (CI/CD, Git, orchestrazione workflow, test automation);
- Conoscenza dei pattern di integrazione dati (batch, streaming, event-driven).
Modalità di invio della candidatura
Per maggiori informazioni sulle modalità di accesso alla procedura selettiva clicca sul tasto CANDIDATI.