Recherchez une offre d'emploi
Data Engineer Senior Python - Secteur Défense H/F - 13
Description du poste
-
ALTEN
-
Vitrolles - 13
-
CDI
-
Publié le 16 Janvier 2026
« Notre développement international et notre position de leader sur le marché de l'Ingénierie et du conseil en Technologies nous confèrent une responsabilité sociale, sociétale et environnementale envers l'ensemble de nos interlocuteurs et parties prenantes », Simon Azoulay - Président Directeur Général d'ALTEN.
ALTEN accompagne la stratégie de développement de ses clients dans les domaines de l'innovation, de la R&D et des systèmes d'information technologiques.
Plus qu'un poste, découvrez l'aventure ALTEN !Contexte
Au sein d'un environnement défense à fortes contraintes (sécurité, traçabilité, disponibilité), vous intégrez une équipe data en charge de construire et fiabiliser une plateforme de données et des pipelines industrialisés pour des cas d'usage à fort impact opérationnel.
Vos missions
- Concevoir et développer des pipelines d'ingestion / transformation robustes (batch et selon besoin, streaming).
- Industrialiser l'orchestration (planification, dépendances, relances, SLA) via un orchestrateur type Airflow.
- Traiter et transformer la donnée à l'échelle via Spark / PySpark (performance, partitionnement, optimisation).
- Structurer les couches de transformation et la qualité des données avec une approche data products (tests, documentation, règles de qualité), potentiellement via dbt si pertinent.
- Mettre en place l'observabilité : logs, métriques, alerting, dashboards, suivi de qualité et traçabilité.
- Contribuer aux choix d'architecture (formats, stockage, modèles, conventions, outillage), en gardant en tête les contraintes sécurité / conformité.
- Travailler en transverse avec les équipes logiciel, infra et cyber (revues, durcissement, bonnes pratiques).
Environnement technique
On s'aligne sur des briques éprouvées data engineering modernes; le mix exact dépendra de l'archi projet, mais l'ADN reste : Python / industrialisation / data platform.
- Langages : Python (expert), SQL
- Orchestration : Apache Airflow (DAGs, scheduling, monitoring)
- Processing : Apache Spark / PySpark (batch + éventuel streaming)
- Transformation : dbt (optionnel mais très apprécié)
- Data stack : formats colonne (Parquet), lake/lakehouse (selon contexte), API / fichiers / bases
- Ops : Git, CI/CD, Docker (Kubernetes apprécié), tests (pytest), qualité (Great Expectations apprécié)
- Monitoring : Grafana/Prometheus/ELK
Compétences requises
- Python
- ELK
- Prometheus
Offres similaires
Déposez votre CV
Soyez visible par les entreprises qui recrutent à Marseille.
Chiffres clés de l'emploi à Marseille
- Taux de chomage : 11%
- Population : 870731
- Médiane niveau de vie : 19370€/an
- Demandeurs d'emploi : 101720
- Actifs : 364468
- Nombres d'entreprises : 78745
Sources :
Un site du réseaux :