Moteur de recherche d'offres d'emploi AG2R LA MONDIALE

INGENIEUR SOCLE BIG DATA GCP F/H


Détail de l'offre

Informations générales

Référence

2023-29913  

Description du poste

Famille / Métier

DONNEE - EXPERT DE LA GOUVERNANCE ET DE L'EXPLOITATION

Intitulé du poste

INGENIEUR SOCLE BIG DATA GCP F/H

Type de contrat

C.D.I

Finalité du poste

Rattaché(e) au Service Data Hub, au sein du Département « Solution Data et Usages » de la Direction des Systèmes d'Information et du Digital, vous contribuerez à la construction de la plateforme Data Hub sur GCP (S3ns).

Vous participerez à la mise en œuvre du Framework technique sur GCP, à sa maintenance et à son optimisation, dans le respect des principes, règles et normes du Groupe.

 

Vous vous inscrirez dans un mode de fonctionnement Agile, à l’intérieur du Train Data (SAFe), dans un contexte de transformation fort et ambitieux pour l'ensemble du groupe AG2R La Mondiale (Programme de Plateformisation).

Contenu du poste

A ce titre, vous contribuerez aux développements des différentes capacités techniques mises à disposition des équipes de développement Métier, permettant :

- d’intégrer des données en provenance de différents types de sources, dans le DataHub,

- de transformer ces données sur le DataHub,

- d’exposer ces données pour différents types d’exploitation (API, outils BI, mise à disposition de données vers des applications externes),

en respectant les normes, prinipes et patterns construits avec les architectes fonctionnels et techniques et en répondant aux exigences d’industrialisation, de sécurisation, de logs & de supervision.

 

Vous participerez également aux activités :

- de Support & Assistance aux utilisateurs de la plateforme sur les capacités du Socle,

- de Développement de prototypes sur de nouvelles capacités mises en œuvre sur GCP,

- de type DevOps, sur les aspects CI/CD, Terraform, automatisation des tests,

- en lien avec le FinOps, en contribuant à la mise en place d’actions en rapport avec le monitoring, la supervision et l’optimisation des services sur la plateforme.

Expérience et compétences attendues

attendues

De formation supérieure en informatique (BAC+5), vous avez enrichi vos connaissances pendant au moins 3 ans dans le cadre de votre parcours professionnel, avec des expériences significatives dans le développement de pipelines de données (batch, microbatch et événementiel), de préférence sur des plateformes Big Data Cloud, idéalement GCP, et le développement de composants génériques de Framework.

 

Vous maitrisez :

- Python et SQL/ BQL

- Plusieurs services GCP : BigQuery (Mise en œuvre & Optimisation (partitionnement, clustering)), Cloud Storage, Dataflow, Composer, PubSub, Cloud Logging, Cloud Run, Cloud Functions.

- Terraform, GitLab, Jenkins/Cloudbees

 

Compétences complémentaires appréciées :

- Certifications GCP Data Engineer

- Docker, GKE, Cloud KMS, BigTable, Firestore, Dataplex, Analytics Hub.

- Connaissance d’outils ETL/ELT (DBT, Semarchy, Talend, …) et d’outils BI / Datavizualization.

Qualités requises

Vous vous caractérisez par votre rigueur, votre capacité d’écoute et d’analyse, votre sens du service et vous faites preuve de pédagogie.

 

Doté(e) d'ouverture d'esprit et de curiosité, vous avez de bonnes qualités relationnelles et de communication écrite et orale.

 

Vous savez travailler en équipe, en mode collaboratif, Agile.

Vous êtes proactif(ve) et dynamique.

 

Le poste peut être basé à Esvres (Tours) ou à Paris.

Localisation du poste

Pays / Région / Département

France, Centre Val de Loire, INDRE ET LOIRE (37)

Ville

ESVRES SUR INDRE

Lieu de travail / Etablissement

Esvres sur Indre