Data Engineer (KPOSDE3) (H/F)
Offre publiée le 13/05/2025
💼 Offre d'emploi
- Type de contrat
- Contrat à durée indéterminée
- Durée de travail
- Expérience
- Débutant accepté
- Salaire
- Permis demandé
- Aucune information
📍 Entreprise
- Employeur
- Non renseigné
Lieu de travail
94 - Val de Marne Voir sur une carte
Description de l'offre
Axone Data est un éditeur de logiciels spécialisé dans les domaines du Big Data, Data Science, Text Mining et Deep Learning. Nous activités sont axées sur le Churn en temps réel, la détection de fraudes, le dédoublonnage de stocks, la prédiction de pannes, la réduction de coûts et bien d'autres applications.
Ainsi, pour développer davantage notre activité, nous recrutons un Data Engineer
Vos missions:
En tant que Data Engineer, vous jouerez un rôle central dans la conception, la mise en œuvre et le maintien de pipelines de données robustes, scalables et industrialisés.
Vos principales missions incluent :
* Concevoir, construire et déployer des pipelines de traitement de données (batch & temps réel)
* Intégrer et transformer des données issues de sources variées (API, web scraping, bases SQL / NoSQL.)
* Participer à la containerisation et au déploiement d'applications via Docker
* Développer et exposer des API via FastAPI ou Flask
* Implémenter des workflows d'automatisation avec Apache Airflow
* Participer à la gestion des flux de données avec Apache Kafka
* Collaborer avec les équipes Data Science et Produit sur des projets innovants
* Documenter et assurer la qualité du code et des solutions déployées
Votre profil
* Vous êtes à l'aise avec Python
* Vous avez déjà travaillé avec Docker (ex. containerisation d'une application et sa base de données)
* Vous maîtrisez un ou plusieurs frameworks Web comme FastAPI ou Flask pour déployer des APIs
* Vous connaissez les bibliothèques de web scraping comme BeautifulSoup, Selenium ou Scrapy
* Vous avez déjà manipulé des bases de données SQL (Postgres) et NoSQL (MongoDB) dans vos projets
* Vous comprenez les différences entre ces deux types de bases
* Vous avez déjà utilisé Airflow pour la gestion de workflows ETL
* Vous connaissez Kafka pour la gestion de flux en temps réel
* Vous êtes capable de décrire un projet data concret sur lequel vous avez travaillé : problématique, stack, démarche
* Vous savez analyser un problème technique, chercher, tester, demander et apprendre en autonomie
Type d'emploi : CDI
Rémunération : à partir de 30¿000,00€ par an
Avantages :
* Prise en charge du transport quotidien
* RTT
* Travail à domicile occasionnel
Formation:
* Bac +5 (Master / MBA) (Optionnel)
Lieu du poste : En présentiel
Identifiant de cette offre d'emploi sur France Travail : 6639241
Libellé ROME de l'offre d'emploi : Chargé / Chargée d'études socio-économiques (Code ROME : M1403)
Autre appellation de l'offre : Data analyst
Offre d'emploi et contenus récupérés en partenariat avec France Travail. Cojob n'est pas responsable des informations fournies.