63527055918dda2ca055d6f4

« L’analyse de données au coeur de la performance »

La digitalisation fait souffler un vent de renouveau sur le plus grand site de production de vaccins en Europe de Sanofi, situé au Val-de-Reuil, en Normandie. La collecte et l’analyse pertinente des données de production, en particulier grâce à l’intelligence artificielle, sont des moteurs de performance. Haifa Rabai, Digital Booster Leader de Sanofi Pasteur et membre du comité de programmation du 5ème Congrès Polepharma Industrie du Futur, revient sur l’impact de la data et de la transformation digitale du site depuis deux ans.

Quel est votre rôle en tant que Digital Booster Leader chez Sanofi Pasteur ?

Je suis arrivée chez Sanofi il y a deux ans comme Digital Booster Leader, intégrée à l’équipe Manufacturing 4.0 en charge de la transformation digitale du site du Val-de-Reuil, le plus grand site européen de production de vaccins de Sanofi avec les différentes étapes : fabrication d’antigènes, formulation, remplissage des seringues ou flacons et conditionnement, puis distribution (+150 pays). Au sein du groupe, le projet s’inscrit dans le cadre d’un programme global d’évolution vers l’industrie 4.0, qui donne à chaque site une autonomie et des ressources pour engager une transformation digitale profonde, notamment en connectant les équipements et en rendant leurs données accessibles. En tant que Digital Booster Leader, ma mission est de superviser et de mettre en place les outils d’analyse de données du programme vaccins, principalement développés en interne. J’interviens à la fois sur la gestion et le déploiement du projet (budget, planning et ressources), mais aussi le management du changement, en formant les utilisateurs sur le terrain et en travaillant à la simplifier les processus. 

Quel bilan peut-on faire aujourd’hui de ces deux dernières années de transformation ?

Dans notre roadmap 4.0, le programme a été initié en 2019 et nous avons commencé à déployer les premières solutions en 2021 et 2022. Concrètement, nous avons équipé nos lignes de production de vaccins avec des capteurs pour collecter un maximum de données et mettre en avant des cas d’usage pour le site du Val-de-Reuil. Dans le même temps, et au niveau de Sanofi, a été créé un data lake (lac de données) pour réunir les données de production des sites les plus avancés dans leur démarche de transformation au niveau mondial. Ce data lake permet de structurer les données, au même format, pour les rendre exploitables, travailler dessus pour identifier des cas d’usage, et d’en faciliter l’accessibilité pour les utilisateurs.

Quels sont les bénéfices obtenus pour l’entreprise ?

Ils sont déjà significatifs ! Nous avons aujourd’hui connecté plus de 80% de nos bases de données au data lake, ce qui permet d’en exprimer tout le potentiel au service de nos métiers et de l’excellence opérationnelle. En installant des capteurs sur nos lignes, nous sommes ainsi en mesure de compter le nombre de bonnes pièces et de rejets, ce qui permet de dégager un taux de rendement synthétique par ligne et des moyens de l’améliorer.

D’autres outils ont été déployés au niveau des déviations avec la mise en place d’une intelligence artificielle pour regrouper les anomalies similaires entre elles. L’idée était de ne plus travailler sur chaque anomalie, individuellement, mais sur un groupe d’anomalies, pour en diminuer le temps de traitement et optimiser les actions correctives et préventives (CAPA). Résultat : nous avons changé le processus de gestion de nos anomalies et des déviations mineures en l’espace de 3 mois. Notre objectif était de diminuer le temps de traitement des anomalies de 30%. Et nous l’avons dépassé !

Un troisième axe vise le déploiement d’un système de contrôle statistique des procédés (SPC) qui permet de suivre les paramètres de production. Par exemple, sur un vaccin, que le niveau de Ph ne dépasse pas les limites cibles souhaitables pour garantir une qualité constante.

Quelles sont les priorités aujourd’hui ?

On s’intéresse plus particulièrement à la maintenance prédictive qui permet de détecter des anomalies sur les machines avant qu’elles ne deviennent trop graves. La force de la maintenance prédictive est donc d’anticiper les pannes. Ce qui évite tout arrêt de la ligne de production et minimise les coûts. Pour cela, nous avons connecté les équipements de maintenance tels que les incubateurs, pour la conservation des œufs nécessaires à la fabrication des vaccins, et les membranes d’osmose, qui permettent de purifier l’eau de ville en eau pharmaceutique. Nous avons travaillé avec les équipes de maintenance à identifier des cas d’usage à partir des données collectées. Résultat : nous avons aujourd’hui identifié deux cas d’usage à étudier dans le cadre de la maintenance prédictive.

Un premier axe de travail concerne les membranes d’osmose, qui sont nombreuses dans nos bâtiments du Val-de-Reuil, et sur lesquelles on ne peut se permettre d’avoir une panne. On essaie donc de mettre en place des algorithmes d’intelligence artificielle pour prédire les pannes potentielles, à partir des paramètres collectés sur les machines.

Un second axe de travail vise l’hygrométrie, un paramètre de conservation des œufs dans l’incubateur. Les conditions de stockage des œufs (pression, humidité, température…) sont encadrées pour chaque type de vaccin afin que leurs qualités soient conservées. Mais il est très difficile aujourd’hui de suivre l’hygrométrie. On a donc mis en place un modèle de régression par l’intelligence artificielle, qui permet d’étudier l’évolution dans le temps de l’hygrométrie en fonction des autres paramètres de l’incubateur. L’objectif est de mettre en évidence une corrélation statistique significative pour un meilleur contrôle de ce paramètre clé. Bien entendu, d’autres chantiers sont prévus dans la roadmap 4.0 pour améliorer le rendement de production et seront mis en place au fur et à mesure.

Avez-vous rencontré des difficultés ?

Derrière la révolution engendrée par l’essor des intelligences artificielles, se cache aussi la nécessaire appropriation de la donnée, l’essence même du « machine learning » (ou machine apprenante), qui nécessite un accompagnement fin des équipes dans la conduite du changement. Nous l’avons expérimenté lorsque l’on a installé des capteurs sur les lignes de production pour mesurer le taux de rendement synthétique et expliquer aux utilisateurs comment fonctionnait la remontée de données. Lors de cette phase projet, nous avons formé des utilisateurs clés (key users) pour prendre notre relais dans le support utilisateur lors du passage en routine. Mais dans la réalité, le transfert de responsabilité ne se fait pas si facilement. Et pour mieux gérer cette étape, nous impliquons aujourd’hui l’équipe de la routine, dès la phase initiale des projets, pour sensibiliser très tôt les utilisateurs clés à leur rôle.

Il est également difficile et parfois frustrant pour les utilisateurs de passer d’un outil qui fonctionne à un autre que l’on développe en mode agile, c’est-à-dire qu’il n’a pas toutes les fonctionnalités et n’est pas complet dès le démarrage du projet. C’est un autre axe de la conduite du changement qui mérite d’y porter attention pour embarquer nos collaborateurs pleinement dans la transformation.

Que reste-t-il à faire aujourd’hui ?

Trois des cinq bâtiments inclus dans le programme de notre site du Val-de-Reuil sont aujourd’hui connectés. Il est prévu que le quatrième bâtiment soit connecté en 2024 et le cinquième en 2025. Ce dernier concerne le tout nouveau bâtiment de 8.700 m2, inauguré en septembre dernier, pour le vaccin de la grippe, qui fait du Val-de-Reuil le plus grand site européen de production de Sanofi en la matière avec une hausse de 40% des capacités.

Concernant notre roadmap 4.0, nous allons continuer de valoriser les nouvelles données qui remontent et trouver des cas d’usage pertinents et sources de gains potentiels. Parmi les nouveaux outils à mettre en place, nous travaillons sur le déploiement d’un outil de planning dynamique de la formulation et de suivi en temps réel des recettes pour le laboratoire de formulation. L’année prochaine, nous allons aussi gérer un nouveau programme de digitalisation du contrôle qualité de nos laboratoires (CQU). Et dans le même temps, d’autres chantiers sont en cours sur le site notamment l’installation d’AGV (véhicules autonomes) en 2024 et la finalisation de la mise en place d’un MES en 2026.

Vous faites partie du comité de programmation de l’édition 2023 du congrès Polepharma Industrie du Futur. Quel message la data scientist que vous êtes souhaiterait-elle faire passer sur cet événement ? 

Ce congrès m’intéresse au plus haut point, en venant de la data, pour faire de la veille technologique et rencontrer les acteurs du digital spécialisés dans la donnée. Néanmoins, le sujet du moment est l’intelligence artificielle, l’entrée dans l’ère de la digitalisation, du machine learning et des intelligences artificielles génératives, ces puissants algorithmes créateurs de contenus dont fait partie ChatGPT. Ce mouvement qui s’accélère s’accompagne également de craintes, de méfiance et de résistance de la part des salariés. Quel sera le prix de cette transition numérique pour les sites ? Des emplois sont-ils menacés ? Comment assurer le stockage et la confidentialité des données ? In fine, quel compromis trouver entre digitaliser et être responsable ? C’est le rôle de ce congrès d’ouvrir les yeux et de poser les bonnes questions pour l’avenir, en particulier sur le numérique responsable, qui sera au cœur de nos échanges.

Propos recueillis par Marion Baschet Vernet

Cet article vous a plu ? Partagez-le avec vos collègues