Data scientist (H/F)
Offre publiée le 24/07/2025
💼 Offre d'emploi
- Type de contrat
- CDD - 18 Mois
- Durée de travail
- 38H40/semaine Travail en journée (38H40/semaine Travail en journée)
- Expérience
- Débutant accepté
- Salaire
- Mensuel de 2244.79 Euros à 2599.23 Euros sur 12.0 mois
- Permis demandé
- Aucune information
📍 Entreprise
- Employeur
- INRAE BOURGOGNE-FC DIJON SULLY
- Secteur d'activité
- Recherche-développement en autres sciences physiques et naturelles (Code NAF 72.19Z)
Centre de Recherche INRA composé de 5 unités de recherche, 1 unité expérimentale, et une unité Service Déconcentré d'Appui à la Recherche (SDAR)
Lieu de travail
21 - DIJON (Code postal 21000) Voir sur une carte
Formations nécessaires
-
Bac+5 et plus ou équivalents
Data science
Description de l'offre
L'Institut national de recherche pour l'agriculture, l'alimentation et l'environnement (INRAE) est un établissement public de recherche rassemblant une communauté de travail de 12 000 personnes, avec plus de 270 unités de recherche, de service et expérimentales, implantées dans 18 centres sur toute la France. INRAE se positionne parmi les tout premiers leaders mondiaux en sciences agricoles et alimentaires, en sciences du végétal et de l'animal, et en écologie-environnement. Ses recherches visent à construire des solutions pour des agricultures multi-performantes, une alimentation de qualité et une gestion durable des ressources et des écosystèmes.
Environnement de travail, missions et activités
Vous exercerez votre activité au sein de du pôle "Ingénierie logicielle, statistiques et sciences des données" de la plateforme ChemoSens, rattachée au Centre des Sciences du Goût et d'Alimentation (CSGA).
Le pôle, à taille humaine, est actuellement composé de trois membres aux profils complémentaires, alliant expertise en statistique, data science et ingénierie logicielle.
Vous évoluerez dans un environnement stimulant, à l'interface entre la recherche académique et les applications concrètes en sciences des données, avec un fort ancrage dans le domaine de l'alimentation.
Votre mission consistera à développer des solutions basées sur des systèmes experts et/ou des algorithmes de machine learning et de deep learning visant à extraire des informations sur des aliments (désignation commerciale / nom de l'aliment) à partir de différents supports (scan ou fichiers PDF de factures, photos d'aliments), puis à les apparier avec des référentiels d'aliments (Ciqual, OpenFoodFacts, FoodEx, etc.), afin d'automatiser (par exemple) le calcul d'indicateurs de qualité nutritionnelle et environnementale.
Ces modèles seront intégrés dans des pipelines ETL afin d'automatiser le workflow de traitement.
L'inférence et l'exploitation des résultats se feront via des interfaces développées en interne ; une contribution à ces aspects pourra être envisagée si le profil du candidat le permet.
Vous serez plus particulièrement en charge de :
1. Mettre en œuvre des modèles d'extraction d'information à partir de documents (OCR, NLP, LLM, etc.)
2. Intégrer et consommer des API pour l'échange de données (récupération, envoi, mise à jour)
3. Concevoir et déployer des pipelines ETL pour automatiser les flux de données
4. Déployer les modèles/algorithmes sous forme d'API sécurisées
5. Conteneuriser les modèles/algorithmes dans des environnements Docker/Kubernetes
6. Développer des interfaces front-end (Streamlit, Shiny, Angular ou autre) pour l'inférence et la visualisation des résultats
7. Mettre en place des mécanismes de suivi de performance et de détection de dérive des modèles
Compétences indispensables :
- Maîtrise de Python, R.
- Une première expérience avec Docker, Git et Github.
- Une première expérience avec les SGBD (SQL, No SQL).
Compétences appréciées :
- Connaissances JavaScript (Angular).
- Initiation à Kubernetes
Expérience appréciée :
- Participation à un projet de traitement de données non structurées (ex : documents PDF, images, textes bruts, audio).
- Mise en œuvre de modèles d'OCR, NLP, ou LLM pour l'extraction d'information.
- Intégration de modèles ML/DL dans des pipelines de traitement (ETL, data pipelines).
- Déploiement de modèles sous forme d'API, idéalement dans des environnements conteneurisés (Docker, Kubernetes).
- Développement d'interfaces web (Angular, ou technologies équivalentes) permettant l'inférence ou la visualisation des résultats.
- Sensibilité aux problématiques de monitoring, versioning et dérive des modèles.
Aptitudes recherchées :
- Travail en équipe.
- Rigueur.
- Adaptabilité.
Aptitude appréciée :
- Curiosité pour les recherches sur les comportements alimentaires.
Identifiant de cette offre d'emploi sur France Travail : 195SBXH
Libellé ROME de l'offre d'emploi : Data scientist (Code ROME : M1405)
Autre appellation de l'offre : Data scientist
Offre d'emploi et contenus récupérés en partenariat avec France Travail. Cojob n'est pas responsable des informations fournies.