Marc Bouissou - IMdR
Gilles MOTET (INSA Toulouse)
Jean-Pierre Signoret (TotalEnergies Professeurs Associés)
• Francis CLAUDE, Enseignant-Chercheur, ESTP
• Frédéric MOTTA, Directeur du pôle national Durable, SOCOTEC
Animée par Myriam MERAD, CNRS
- Christian CHICOT, Commune de Gonfreville l'Orcher
- Jean-Christophe ERARD, Secrétariat général de la défense et de la sécurité national
- Arthur JOBERT, sociologue chercheur, EDF-R&D
- Lionel LACROIX, Conseiller Territorial Risques Majeurs (CD33)
- Jacques REPUSSARD, Président de l’IMdR
- Laura HALTER, Arthur JEANTON et Andréa COSSA, Élèves en Ingénierie de la Gouvernance des Risques à l’INSA CVL
Table ronde en partenariat avec l'AFPCNT
Mots d’ouvertures et de bienvenue :
- M. Jacques REPUSSARD, Président de l’Institut pour la Maîtrise des Risques (IMdR)
- M. Yann CHAMAILLARD, Directeur INSA Centre Val de Loire
- M. Joël ALLAIN, Maire-Adjoint délégué aux Finances, à l'Administration Générale, aux Ressources Humaines
- M. Patrick BARNIER, Vice-Président du conseil départemental du Cher. Vice-Président de la communauté d'agglomération Bourges Plus
Présentation du programme par Francis CLAUDE, ESTP, Président du comité de programme
Me Marcela MANTILLA, Direction des affaires européennes (RTE)
Cet article est issue d’une expérimentation qui a consisté à inviter une IA générative aux Comité de Programme du Congrès Lambda Mu 24 à Bourges. Après un survol historique rapide des avancées de l’IA, la problématique à résoudre est présentée ainsi que le verrou de cette recherche et l’hypothèse de travail retenue. Les travaux, résultats et tests sont présentés avant de les discuter et d’ouvrir des perspectives d’approfondissement complémentaires.
Les LLM révolutionnent l’innovation en Intelligence Artificielle, en mettant à disposition des composants génériques de traitement du langage naturel utilisables facilement dans de multiples applications. Une des applications cible est l’utilisation d’un LLM pour interroger une base documentaire en dialoguant en langage naturel et ouvert, révolutionnant ainsi les solutions de ChatBots précédentes. Néanmoins, ces nouveaux composants comportent un certain nombre de limitations technologiques qui impactent directement la confiance et la robustesse de ces systèmes.
L’apprentissage automatique à partir de données provenant de campagnes de mesure ou de systèmes de surveillance permet d’entraîner un modèle à estimer les signaux provenant de capteurs d’intérêts lorsque ceux-ci ne sont plus disponibles. L'utilisation de ce type de méthodologie soulève cependant plusieurs défis. L’une des principales problématiques est la quantification de l’incertitude. Par exemple, pour les déformations des aubes d’une turbine de groupe turbine-alternateur qui sont difficiles et coûteuses à mesurer, ces valeurs sont directement liées aux dommages de fatigue et leur incertitude au risque de fissuration des pales. Ces valeurs constituent donc une information importante pour réduire la probabilité de pannes imprévues. Cependant, ces mesures ne sont pas disponibles pour la surveillance à long terme; elles ne sont disponibles que lors de campagnes de mesure effectuées à la mise en service de l’équipement. Afin d’utiliser cette information pour la surveillance et la planification de la maintenance, nous proposons la création de capteurs virtuels avec une architecture de type long short-term memory (LSTM) combiné à une méthodologie permettant d’évaluer les incertitudes adaptées à la maintenance et l’évaluation des risques industriels. Pour ce faire, nous proposons une méthode d’ensemble de modèles combinés avec une approche d’estimation conforme pour obtenir une incertitude calibrée sur des données d’entraînement. De plus, un auto-encodeur est utilisé pour détecter lorsque les mesures
d’intrants sont significativement en dehors des données d’entraînement. La méthodologie est appliquée à la fissuration des aubes de la turbine d’un groupe turbine-alternateur afin de mettre en évidence les difficultés liées à l’utilisation de l’apprentissage automatique pour la maintenance et l’évaluation des risques dans un contexte industriel.
Les méthodes d'intelligence artificielle (IA), notamment le traitement automatique du langage (NLP), offrent des possibilités révolutionnaires pour l'analyse des retours d’incidents en clientèle, qui permettent en particulier d’évaluer la fiabilité réelle d’un système en clientèle et de faire une projection de fiabilité à partir de l’identification préalable d’une loi de Weibull sur les incidents. Le présent article détaillera un outil d'IA développé pour attribuer automatiquement un mode de défaillance à chaque retour client, en exploitant des techniques de NLP et de modélisation par Machine Learning (ML). L’approche proposée de prétraitement des données et de classification des retours clients sera décrite. Les résultats obtenus démontreront l'efficacité de notre approche pour faciliter le travail des ingénieurs FMDS et fournir un traitement des réclamations clients précis et rapide.
STPA (System-Theoretic Process Analysis) est une méthode d’analyse du risque qui se base sur le cadre méthodologique STAMP (System-Theoretic Accident Model and Processes) et son modèle de boucle de contrôle. Cette méthode devient de plus en plus présente notamment dans les phases amont du cycle en V. STAMP s’illustrant par sa vision axée sur la théorie des systèmes, la méthode est ainsi en lien étroit avec l’ingénierie système bien que ce cadre propose son propre modèle différent du MBSE (Model-Based System Engineering). Afin de réduire le temps de réalisation de l’étude STPA et d’assurer une cohérence entre les ingénieurs système et les ingénieurs sûreté de fonctionnement, ce papier propose une manière d’exploiter les modèles MBSE fournit par la méthodologie ARCADIA pour l’application de STPA.
Ainsi dans cet article est décrit une méthode permettant de passer d’un modèle ARCADIA réalisé sur Capella a un modèle reprenant les caractéristiques de STAMP. Grâce à l’exploitation des modèles MBSE, la phase d’identification des interactions de contrôle gagne un aspect plus systématique qui permet un gain de temps dans l’application de la méthode STPA.
Dans le cadre contrats en cours et à venir, Thales s’engage à contribuer au maintien voire à l’amélioration de la disponibilité globale du parc déployé ce qui représente plusieurs centaines de systèmes différents. Ce travail requiert une gestion efficace et optimisée de
la chaîne logistique, englobant plusieurs facettes du processus, depuis la mise en place jusqu’à la maîtrise totale des opérations logistiques.
Cet article vise à discuter de la complexité de cette tâche et propose une nouvelle méthode de modélisation plus performante et plus adaptable afin de renforcer l'analyse de la disponibilité de ces systèmes complexes. Cette méthode s’appuie sur l’utilisation de différents types de modèles interconnectés permettant une analyse plus complète et détaillée menant à l’atteinte des objectifs de disponibilité opérationnelle.
Les outils actuels d’évaluation de risques manquent souvent de concepts et de fonctionnalités pour aider les utilisateurs à au- tomatiser les tâches. Une tâche au sens large est toute activité liée à l’ingénierie des modèles ou à l’évaluation des risques : modélisation, validation des modèles (cohérence des modèles), quantification, génération de rapports, etc. Les utilisateurs effectuent principalement les tâches manuellement, ce qui peut être chronophage et source d’erreurs.
Cet article présente une approche pour automatiser certaines tâches récurrentes liées à l’ingénierie des modèles, à la qualification et à la quantification. Bien que l’accent soit mis sur les modèles d’études probabilistes de sûreté (EPS) pour les événements internes, l’approche est également applicable à d’autres types de modèles (tels que les diagrammes de séquence fonctionnelle ou les modèles de risques spécifiques).
Les objectifs principaux sont de décharger les analystes de sécurité des tâches pouvant être exécutées automatiquement, de permettre un retour d’information fréquent et précoce sur les modifications des modèles, la cohérence des modèles et les résultats de quantification, et d’assurer une cohérence continue entre les modèles et les résultats.
La propulsion électrique distribuée est une solution potentielle pour améliorer significativement l'efficacité de la chaîne de propulsion des avions et réduire leurs émissions de gaz à effet de serre. Afin de faire mûrir cette technologie, le concept de recherche DRAGON a été défini. Nous avons réalisé une étude pour vérifier au plus tôt que l'architecture du système électrique en cours de conception pour DRAGON satisfait les exigences de sécurité. L’objectif de cette communication est de présenter notre démarche et de montrer les résultats obtenus. Les nouveautés de l’architecture DRAGON nous ont obligé à maintenir un dialogue permanent avec les équipes de conception. Nous détaillons dans l’article les principales étapes de ce dialogue telles que la définition des événements redoutés et la sélection des propagations de défaillances et des reconfigurations à modéliser.
Cette communication présente l’amélioration et le développement d’outils supplémentaires d’analyse de résultats, associés à des études probabilistes de sûreté basées sur une méthodologie de modélisation dynamique avec réseaux de Petri, chez Orano. Les problématiques liées à l’identification des principaux contributeurs au risque global dans le cadre des modélisations dynamiques y seront abordées.
Le travail de recherche présenté dans cet article est une preuve de concept pour l’utilisation d’un moteur de calcul de dégradations et de défaillances dans le cadre du projet « Réacteur Numérique » au travers d’un démonstrateur développé pour le projet. Ce moteur utilise le concept des Automates Stochastiques Hybrides Basés sur des Profils pour modéliser, dans ce démonstrateur, un Relais de Commande à Main contrôlant l’ouverture d’une vanne ayant une incidence sur la pression au sein d’une cuve. Ce démonstrateur est constitué du moteur de calculs développé au sein du laboratoire CRAN en lien avec le projet « Réacteur Numérique » et le simulateur d’entraînement du « Réacteur Numérique » développé par CORYS. Ce simulateur d’entraînement est basé sur le simulateur d’EDF SIRENE en utilisant des modèles d’un réacteur de 1300MWe. Ces travaux sont effectués dans le cadre d’une thèse ayant pour objectif le développement d’un outil permettant la représentation des dégradations, de leurs impacts et des défaillances pour une intégration dans un jumeau numérique. Cet article présente une session d’entraînement dans laquelle le scénario suit un opérateur devant contrôler la pression au sein d’une cuve en utilisant un Relais de Commande à Main (RCM) pour envoyer des commandes d’ouverture à une vanne. Cette session est découpée en trois phases afin de présenter les deux modules majeurs du moteur de calcul de dégradation et de défaillances. Dans la première phase l’opérateur manipule un RCM, possédant une dégradation négligeable, grâce au module de simulation d’entraînement. Lors de la seconde phase l’opérateur lance le module de vieillissement pour faire vieillir le RCM pendant une durée prédéfinie. Enfin, dans la dernière phase, le module de simulation d’entraînement récupérera les données du module de vieillissement pour que l’opérateur puisse manipuler le RCM dégradé et observer un phénomène de dérive sur les commandes envoyées ; ces trois phases se passant dans la même session d’entraînement.
Dans le cadre du programme simulation permettant de garantir la fiabilité et la sûreté des armes nucléaires françaises, le CEA / DAM réalise en toute sécurité des expériences hydrodynamiques dans des dispositifs de confinement mettant en œuvre de la matière nucléaire au sein de l’installation EPURE. Ces expériences permettent de valider par partie des codes de calcul de simulation sans réaliser d’essais nucléaires conformément au Traité d’Interdiction Complète des Essais nucléaires (TICE). Pour ce type d’installations mettant en œuvre de la matière nucléaire, le cadre de sûreté nucléaire doit être établi et les études de justification doivent être réalisées et indiscutables.
Cet article décrit la mise en œuvre spécifique des différentes approches et méthodes d’analyse nécessaires pour démontrer le niveau de sûreté de l’équipement « dispositif de confinement ». Il s’agit notamment de montrer la diversité des analyses nécessaires, les choix d’adaptation réalisés et les marges volontairement prises.
Failure mechanism-based endurance tests are usually used for industrial products qualification. JEDEC test standard is used for semiconductor products qualification. The standard is the reference for applications like cellphone, personal computer, electronic gadgets etc. The electronic components working condition is more severe in automotive field thus a dedicated test standard AEC-Q is used as reference for automotive application. This standard is defined by Automotive Electronics Council for qualification propose. Semiconductor products, which can successfully pass AEC-Q test, can be automotive graded. In the standard, the components are classified into different families in respect of their electronic characteristic and applications. Specific tests and test flows are defined to each component family.
The thermal stress is one of main reliability factors. It is taken into consideration in test standards. The related tests include, but not limited to, high temperature operation, power thermal cycling, and temperature humidity bias. These tests are explained below.
Cet article rend compte du projet P23-4 lancé par l’IMdR en coopération avec EDF, INERIS, GRTgaz et AIRBUS-PROTECT. L’objectif de ce projet est triple :
1. Initialiser une ontologie des méthodes de traitement des systèmes complexes, basée sur les états de l’art des projets IMdR P11-4 et P20-1. Outre un état des lieux synthétique, il permettra aussi d’identifier les couplages possibles entre elles.
2. « Benchmarquer » quelques-unes de ces méthodes sur deux cas d’application intégrants des composantes techniques, cyber, humaines et environnementales.
3. Évaluer et traiter ces deux cas à l’aide de méthodes différentes : intégratrices (MBSE-MBSA, STPA…) et réseaux multicouches.
Ces méthodes sont susceptibles d’alimenter des jumeaux numériques ou de prendre en compte certaines informations produites. On comparera les résultats et évaluera un niveau d’assurance, mettant en évidence l’intérêt et les difficultés. Cet article présentera
les phases 1 et 2 de la manière suivante : nous évoquerons les éléments les plus innovants d’une ontologie possible des systèmes complexes, notamment à la lumière de ce qu’apportent les sciences du vivant, puis nous évoquerons les méthodes STPA et réseaux multicouches qui doivent inspirer la production des modèles de systèmes dont la conception est optimisée du point de vue de leur résilience cyber physique et environnementale.
Les inondations en Europe de l’Ouest en juillet 2021 ont mis en exergue une gestion lacunaire des inondations. Plus que jamais témoin des événements extrêmes qui peuvent toucher les territoires dans ce contexte de dérèglements climatiques, l’Allemagne et la Belgique ont été frappées directement par des inondations dévastatrices provoquant des dizaines de milliards d’euros de dégâts matériels, et des centaines de morts. La violence de la catastrophe a été très exposée médiatiquement, permettant de dresser un retour d’expérience complet des événements afin d’identifier les points lacunaires dans la gestion du risque. Un travail de concaténation des sources a permis de mettre en avant une phase de la gestion de la crise particulièrement pointée du doigt : l’alerte.
Cette phase de la gestion du risque est spéciale car soumise à la contraction du temps et à l’improvisation des choix et des décisions. Ainsi, en partant de la législation sur la gestion de l’alerte en Allemagne, nous tenterons de comprendre quel est le gap entre le prescrit dans les textes de loi, et la réalité du terrain qui pourrait expliquer certaines défaillances dans le système de gestion. La coopération et la communication entre les acteurs sont les compétences fondamentales pour une transmission optimale des informations, ainsi, réside peut-être ici la clé d’une gestion intégrée de l’alerte.
L'étude examine la sécurité du réseau urbain des Grands Lacs en Afrique de l'Est, soulignant son importance face à divers défis. Elle utilise une approche combinée, incluant la systémique pour saisir la complexité du réseau, une analyse cindynique pour détecter les risques et les déficits, ainsi qu'une enquête qualitative et quantitative auprès des villes membres. Les résultats mettent en évidence des risques transfrontaliers, des déficits cindynogènes et des dissonances, appelant à la nécessité d'un mécanisme d'alerte précoce. En conclusion, la méthodologie développée offre des perspectives pour renforcer la résilience des systèmes urbains complexes.
Cette démarche d’interconnexion entre les processus Safety et Cybersecurity a été élaborée dans le but de garantir un niveau de protection sécuritaire maximal des systèmes, tout en conservant les bases de chacune des disciplines ainsi que leurs processus classiques.
La méthode se décompose en 9 points d’étapes : Réunion de lancement, Partage des événements redoutés, Socle commun, Vérification croisée, Solution design, Evolutions, Tests, Réunion de clôture et Suivi. Un cas pratique de mise en œuvre réelle et complète de la démarche a été réalisé sur un système de type Air Defense. Le résultat a été jugé concluant pour le projet et Thales souhaite dorénavant procéder à la généralisation de son application sur l’ensemble des systèmes Air Defense et Air Traffic Management concernés.
Les transports sont responsables d’une part non négligeable des émissions de gaz à effet de serre, et ce sont les véhicules des particuliers (54 %) et les poids lourds (21 %) qui émettent la grande majorité du CO2 générée par ce secteur.
Pour faire face à cette accélération des phénomènes de dérèglement climatique, le secteur automobile traverse actuellement une phase de réindustrialisation afin de s’orienter vers des technologies plus respectueuses de l’environnement et l’hydrogène est au cœur de cette évolution. Avec la possibilité de faire le plein en quelque minutes d’un carburant zéro émissions, les véhicules à hydrogène facilitent cette transition vers un avenir plus écologique. L’un des avantages de l’hydrogène réside notamment dans la possibilité d’en obtenir à partir de divers éléments présents dans la nature grâce à son abondance en tant que source d’énergie.
Cependant, malgré le potentiel prometteur de l'hydrogène, il est important de ne pas sous-estimer les risques qu'il présente. Il est essentiel de trouver un équilibre entre les avantages indéniables de cette technologie et les préoccupations légitimes concernant sa sûreté afin d’assurer un avenir automobile plus sûr, plus propre et plus durable.
Dans le cadre de ses études de Maîtrise des Risques dans l'industrie automobile, SECTOR intervient dans de nombreux projets liés aux véhicules à hydrogène. En accompagnant plusieurs acteurs industriels du secteur automobile dans le développement de systèmes sûrs liés à la propulsion hydrogène dont les piles à combustible elles-mêmes, SECTOR a pu au travers de ses travaux établir une cartographie des performances et risques associés et les comparer aux véhicules thermiques.
Les solutions face aux enjeux actuels liés à la réduction des émissions de gaz à effet de serre, ainsi que les nouvelles innovations technologiques en réponse au changement climatique, engendrent de nouveaux risques qui nécessitent d’être maîtrisés par les démarches de Sûreté de Fonctionnement (SdF), accompagnées la plupart du temps de la mise en œuvre de systèmes instrumentés de sécurité.
Par exemple, les risques de départ de feu ou de choc électrique provoqués par l’électrification des véhicules pour des transports plus « vert » doivent être contrôlés par la mise en œuvre de protections de sécurité, accompagnées des méthodologies SdF adaptées à leur développement.
Autre cas de figure : le drone aérien (UAV - Unmanned Aerial Vehicle) est devenu un incontournable pour surveiller les feux de forêt à répétition du fait des températures qui augmentent ou encore les cultures agricoles qui souffrent des conditions climatiques changeantes. Son exploitation entraîne néanmoins le risque évident de chute sur la population, qui nécessite d’être maîtrisé à travers l’implémentation de sécurités spécifiques et l’utilisation d’une méthodologie de SdF adaptée.
La Sûreté de Fonctionnement est un outil indispensable pour faire face à ces évolutions engendrées par la transition écologique et sans aucun doute l’une des clés en réponse aux enjeux d’aujourd’hui et de demain. Cela passe notamment par l’intégration de protections spécifiques de sécurité et l’adaptation des méthodologies SdF existantes, pour assurer l’utilisation en sécurité des technologies émergentes.
Cet article présente l'intégration d'un indicateur de sécurité incendie dans les études d'éco-conception. L'objectif principal de cet outil est de développer une méthode capable de mutualiser le travail entre les études d'éco-conception et de sécurité incendie, dans le but de gagner du temps. La mutualisation de ces études nous permet, dans un second temps, de trouver le meilleur compromis entre les performances environnementales de fin de vie (valorisation) et la gestion du risque en cas d'incendie (charge calorifique embarquée). L'article présente les différentes étapes de développement de l'indicateur et explique comment il peut être utilisé pour l'analyse des impacts environnementaux des équipements ferroviaires. Un exemple concret d'application de cette méthode est présenté, démontrant l'efficacité de l'outil développé. Les résultats montrent que l'intégration de cet indicateur dans les études d'éco-conception peut améliorer la sécurité incendie et réduire l'impact environnemental des équipements ferroviaires. Enfin, l'article conclut en présentant les perspectives pour des améliorations futures de cette méthode et de son application dans la valorisation des équipements ferroviaires.
Cet article s’interroge sur la prise en compte de la soutenabilité écologique par les ingénieurs dans les systèmes à ingéniérer grâce aux outils conceptuels et méthodologiques de l’architecture des systèmes et de l’ingénierie des systèmes. En matière de sûreté de fonctionnement, la durabilité concerne l’aptitude d’un système technique à fonctionner tel que requis, dans des conditions données d’utilisation et de maintenance, jusqu’à sa fin de vie utile. En ce qui concerne le développement économique et social, depuis 1980, l’expression en anglais « sustainable developement » a été traduite par « développement durable » et non par « développement soutenable ». Or, l’Union européenne (UE) souhaite à l’horizon 2050 « une économie moderne, efficace dans l’utilisation des ressources et compétitive, garantissant à horizon 2050 : la neutralité carbone, une croissance économique dissociée de l’utilisation des ressources et que personne ne soit laissé de côté ». Ainsi, au-delà d’un développement exprimé comme un état qui dure et qui plus est dans une vision intergénérationnelle, il est davantage attendu, aujourd’hui, un développement économique et social avec une utilisation soutenable des ressources (notamment énergétiques, minérales, biologiques et l’eau) ainsi qu’une décarbonation des activités humaines de production et de consommation. C’est le sens de la feuille de route de l’Union européenne avec le Pacte Vert et de la stratégie nationale bas carbone de la France (SNBC) pour atteindre, pour la France, la neutralité carbone à l’horizon 2050 et réduire l’empreinte carbone de la consommation des Français. L’architecture des systèmes et l’ingénierie des systèmes sont directement concernées par les enjeux de celle nouvelle économie.
Pour l’AFNOR, les normes volontaires, lancées à l’initiative d’acteurs de marché, offre un cadre de référence pour fournir des lignes directrices, des prescriptions techniques ou qualitatives pour des produits, services ou pratiques au service de l’intérêt général. Ainsi, il est possible de trouver des normes qui tiennent compte de principes d’architecture et d’ingénierie des systèmes. L’article, après un état de l’art de ce nouveau système réglementaire européen et de la SNBC, étudie des normes de différents secteurs dans leur prise en compte de la complexité, des impacts positifs et négatifs, des risques et opportunités ainsi que de la soutenabilité écologique toujours malheureusement exprimée dans la traduction de l’ensemble des textes par « « durabilité » ou « facteurs de durabilité ». L’enjeu pour les auteurs étant de se placer du point de vue d’ingénieurs-managers qui souhaitent répondre aux enjeux de ces nouvelles réglementations grâce aux différents dispositifs normatifs étudiés et notamment dans leur prise en compte de la « double importance relative » où « double matérialité ». Ce nouveau concept d’importance relative est envisagée de deux points de vue : celui des risques et des opportunités pour l’entreprise (matérialité financière) et celui des incidences des activités de l’entreprise sur son environnement économique, social et naturel (matérialité d’impact) ainsi globalement, sur la manière dont les questions de durabilité influencent l’entreprise et celles dont elle dépend.
Salle D
Naval Group a développé un module complémentaire, pour le logiciel Arbre-Analyst, permettant de réaliser des allocations, globales ou partielles, à partir d’un objectif de haut niveau (navire) en répartissant les valeurs selon certaines caractéristiques des événements concernés. Ce module est capable d’allouer des probabilités ou des lambdas en fonction d’objectifs de probabilité de défaillances, de nombre de pannes ou de défiabilité. Les résultats sont obtenus rapidement et sont en tous points conformes à ceux obtenus avec une résolution théorique.
Salle A
Ce papier est un résumé d’un article paru dans le Journal of Air Transport Management, Vol.115 : 0969-6997 (2024), Elsevier (Sciau, et al., 2024a) et qui a fait l’objet d’une communication aux Journées Francophones de Programmation Par Contraintes (JFPC) 2024 (Sciau, et al., 2024b).
Les compagnies aériennes cherchent à optimiser leur maintenance pour maximiser le potentiel opérationnel de leur flotte.
Leurs objectifs sont de réduire les coûts de maintenance et d’optimiser la gestion des ressources. La maintenance dite « en ligne » est une perspective qui permet de réaliser les tâches de maintenance au fur et à mesure sur les créneaux lorsque l’avion est au sol entre deux vols. Toutefois, cette gestion de la maintenance induit une plus grande complexité dans l’élaboration des plannings et des outils sont nécessaires pour assister les planificateurs. Le problème de planification opérationnelle de la maintenance en ligne aéronautique peut être décrit comme un problème à ressources restreintes (Resource Constrained Project Scheduling Problem (RCPSP)) et un modèle de Programmation Par Contraintes (PPC) est utilisé pour résoudre ce problème. Une comparaison avec un solveur industriel est proposée sur des instances réelles de maintenance pour illustrer les améliorations et limites de cette approche.
Salle E
La sûreté de fonctionnement (SdF) est la science permettant d’assurer les fonctions requises des systèmes, dans des conditions données. Au-delà des systèmes industriels où elle est mise en œuvre classiquement, elle est aussi utile au cycle de vie des systèmes sociotechniques dont les défaillances auraient des conséquences graves. Le but de cet article est de montrer la pertinence des apports de la SdF au cycle de vie des systèmes de formation en ligne (MOOC - Massive Online Open Course). Il met en valeur les événements redoutés, analyse leurs causes et propose des moyens de les maitriser, en tirant parti des approches de la sûreté de fonctionnement.
Salle C
L’objectif de cette communication est de montrer comment de profonds changements, pour partie liés à la transition énergétique, ont pu affecter l’activité d’une entité industrielle du domaine de l’énergie et comment une approche ancrée dans l’ergonomie et la sociologie d’intervention (orientée sur les questions sociotechniques de sécurité industrielle) a aidé à aborder ces questions. Prenant pour acquis que le travail au plus près des installations à risque est un produit organisationnel, et misant sur l’importance de la qualité des interactions humaines, la démarche empirique menée à la fois dans une perspective de diagnostic, d’ingénierie et d’accompagnement, aura aidé chacun à se repenser dans son nouveau rôle, à reconsidérer avec plus de réalisme celui des autres, et à se projeter dans d’autres formes de relations pour certaines plus apaisées, au bénéfice de la santé de chacun, de davantage de réactivité et de souplesse dans les modes de fonctionnement et d’une maîtrise des risques renforcée.
Salle B
L’approche par les modèles tend à prendre une part importante dans les analyses de sureté de fonctionnement afin de répondre à la complexité croissante des systèmes étudiés. Le contexte normatif Ferroviaire demande une grande maitrise des approches afin de répondre aux besoins de certification. L’approche par les modèles n’y est pas encore déployée à grande échelle. L’objectif de cette publication est de présenter un cas pratique d’une modélisation utilisée dans le cadre de la démonstration d’un niveau d’intégrité SIL2 pour une fonction sécuritaire et en modélisant les tests périodiques (tests automatiques ou en maintenance préventive). Elle présentera également les enjeux de l’utilisation de cette méthodologie dans le contexte normatif ferroviaire.
Avec l’industrie du futur, les machines industrielles peuvent être de plus en plus connectées et échanger des données à l’aide de différents canaux de communication, ouvrant la porte à une plus grande vulnérabilité face à des cyberattaques. L’aspect risque professionnel n’est pas souvent évoqué comme risque suite à une cyberattaque. Cependant, la publication du règlement machine 2023/1230 introduit les actes malveillants dans les exigences essentielles de santé et sécurité, ce qui va nécessiter sa prise en compte lors de la conception des machines. Le travail présenté au travers de cette communication est de faire un état des lieux, à l’aide d’une enquête par questionnaires, auprès des entreprises. Cette enquête a pour but d’appréhender la connectivité des machines, de recueillir les pratiques des entreprises en matière de cybersécurité ainsi que le ressenti des travailleurs sur le risque de cyberattaque et ses impacts pour leur santé et leur sécurité au travail.
Les premiers résultats, présentés ici, permettent de voir les tendances, dans l’industrie, de la considération du risque de cyberattaque. Ils seront utilisés en support à la construction d’une méthode d’analyse de risque cyber pour les machines et permettront aussi de caractériser les vulnérabilités des machines. A terme, ils serviront ainsi à prendre en compte ce risque dans l’évaluation des risques professionnels.
Les entreprises qui intègrent actuellement des technologies opérationnelles sont conscientes des opportunités qu’elles offrent aux exploitants d'installations industrielles. Ces opportunités permettent d’augmenter la productivité, réduire les coûts et d’assurer le partage en temps réel d'informations entre divers systèmes industriels et d'entreprise.
Malgré ces opportunités, il existe une préoccupation croissante concernant les cyberattaques. Les infrastructures industrielles sont devenues des cibles pour des cybercriminels déterminés et des entités hostiles étrangères. Ces acteurs malveillants constituent une menace réelle pour les processus industriels, les systèmes qui les supervisent et les systèmes de Sûreté (Safety).
Les opérateurs et les ingénieurs se retrouvent donc pris entre la nécessité d'isoler les systèmes industriels et les demandes des gestionnaires qui souhaitent une interconnexion avec les systèmes informatiques et internet.
Face à ce dilemme, comment les entreprises peuvent-elles évaluer le niveau de sécurité de leurs systèmes de contrôle industriel tout en assurant une certaine isolation entre les technologies de l'information (IT) et les technologies opérationnelles (OT), en tenant compte à la fois des menaces numériques et physiques?
L'objectif de cet article est de proposer une approche visant à évaluer les niveaux de sécurité des systèmes industriels et à concevoir une architecture intrinsèquement sécurisée. Cette méthodologie permet d'intégrer des considérations de sécurité dès les premières étapes de conception, assurant ainsi une protection robuste et proactive des infrastructures industrielles
The modernization of railway systems with the introduction of autonomous trains and digitalization has revolutionized transportation, significantly enhancing connectivity and efficiency. However, this advancement has also exposed the railway network to a multitude of cybersecurity threats. Unlike other sectors, the railway industry was initially designed without considering cybersecurity measures, leaving it particularly susceptible to such risks. As connectivity becomes increasingly essential for improving services, the prevalence of cyberthreats poses significant safety concerns for the industry. This article delves into a comprehensive investigation of the safety and security mechanisms deployed to mitigate cyber threats within the railway sector. Specifically, the focus is on understanding the vulnerabilities inherent in the ERTMS/ETCS transmission system and the potential impact on overall system safety if exploited by malicious actors. By proposing cyberattack scenarios targeting the ERTMS/ETCS signalling system, this study aims to shed light on the critical cybersecurity challenges confronting modern railway networks.
S’inscrivant dans le chantier du renouvellement patrimonial et de la modernisation de l’infrastructure au sein de la Business Unit RATP Infrastructures, l’étude du comportement des relais N.S1, organes élémentaires et fondamentaux de la signalisation du système de transport urbain, est confiée au groupe Homologation et Suivi des Produits (HSP). La construction et la fabrication des relais N.S1 sont strictement encadrées par la série de normes NF F 70-030/31/32. Ainsi les caractéristiques des relais à l’état neuf sont parfaitement maîtrisées.
C’est à l’intégration des relais dans un système de signalisation disposés de plusieurs interfaces techniques, communément appelés organes de commande et de charges, que leur comportement serait amené à évoluer. C’est la raison pour laquelle l’étude des relais en situation représentative des conditions d’exploitation est privilégiée. Pour cela, un banc d’essai constitué de 10 relais N.S1 monostables, de 3 types de charges représentatifs du réseau est construit pour réaliser l’essai d’endurance des relais N.S1. L’essai en cours, lancé début 2023, a franchi la première étape à 4,5 millions de manœuvres sans que les relais présentent des signes de vieillissement. L’expérience se poursuit jusqu’à ce que ce seuil soit atteint. Les données obtenues seraient utilisées pour comprendre l’usure des contacts et des relais en faisant appel à une modélisation statistique par la loi de Weibull. Le résultat est attendu par le Comité technique de signalisation de la RATP pour décision concernant une potentielle adaptation de sa politique de maintenance.
Confrontés à des menaces nouvelles et de fortes intensités, la disponibilité opérationnelle des systèmes d’armes terrestres devient une priorité d’amélioration continue pour KNDS France. La mise en place d’une maintenance prévisionnelle pour l’ensemble des industriels concernés (systémiers, intégrateurs et équipementiers) est de ce fait nécessaire et doit s’inscrire dans une logique de niveau système. Partagés étroitement avec leurs clients, les innovations technologiques dans ce domaine sont nombreuses et s’inscrivent pour l’essentiel dans le cadre d’une maintenance dite 4.0, avec l’avènement du numérique et la démocratisation des outils d’intelligence artificielle.
Soucieux de maintenir efficacement les fonctions techniques très complexes de ses produits, KNDS France met en place une stratégie HUMS au niveau des équipements critiques, dont les performances de fiabilité sont largement altérées par des conditions d’usage incertaines et de sévérités accrues.
Cette politique HUMS équipement est gouvernée autour d’un processus d’ingénierie d’essais, normalisé à l’AFNOR sur la période 2011-2021 et intégrée récemment dans les référentiels normatifs internationaux OTAN et EDSTAR pour le secteur défense.
Dans un atelier industriel, la détection d’une non-conformité entraine automatiquement son enregistrement et un arrêt de production pour une analyse de premier niveau qui décidera des actions de sécurisation à mettre en place. Une des actions de sécurisation consiste à identifier les causes racines avant la poursuite des opérations de production. Cette phase d’analyse de recherche de causes racines peut être plus ou moins longue et potentiellement bloquante pour la production. Il est donc nécessaire d’anticiper la connaissance des instants d’apparition des non-conformités grâce à l’analyse des dérives afin de commencer au plus tôt la recherche des causes racines avant l'apparition des non-conformités et préparer en temps masqué les interventions correctives sur le système de production. Dans un premier temps nous avons formalisé le problème adressé dans ce papier puis présenter le modèle de série chronologique SARIMAX ainsi que les sous modèles dérivés : AR, MA, ARMA, ARIMA, SARIMA et SARIMAX. Un exemple d’application a été présenté à titre exploratoire sur des données aléatoires et n’a pas pu révéler les bénéfices escomptés des séries chronologiques : aucun modèle sous-jacent pertinent n’a pu être identifié, ce qui explique une mauvaise aptitude à la prédiction. Il nous a cependant, permis d’appréhender la méthodologie de mise en œuvre de ces modélisations et de proposer une feuille de route sur poursuivre les études sur des données présentant des dérives ou des cycles de production.
Au sein d’EDF, les programmes de maintenance préventive actuels appliqués aux équipements des centrales nucléaires ont été développés à l'aide de deux méthodes successives : une méthode OMF (RCM) et une méthode basée sur le procédé INPO AP913. Sur une centrale en démarrage (EPR), il a été mis en place une méthode d’optimisation de programmes de maintenance initiaux, en mixant les deux méthodes. Lors de cet exercice, un audit réalisé par la R&D d’EDF a montré la non-régression avec les méthodes actuelles et a été prise en compte comme données d’entrée pour une méthode AP913 simplifiée décrite dans cet article. Cette méthode a été utilisée pour revoir les volumes de maintenance des vannes et des équipements de ventilation. Elle a fourni des résultats encourageants, notamment en termes d'allégements de programme, de clarification du sens de chaque tâche de maintenance, et d’implication du personnel de maintenance local dans l’optimisation des programmes de maintenance. Cette méthode de l’AP913 optimisée va normalement être mise en œuvre sur une nouvelle centrale en démarrage. La description en détail des différentes étapes de la méthode mise en œuvre initialement va permettre d’expliciter les liens réalisés entre les deux méthodes OMF/RCM et AP913 mais aussi la prise en compte des contraintes de planification de la maintenance décrites dans l’AP928. Des exemples concrets vont illustrer la méthode avec un focus sur les difficultés rencontrées à l’époque. Enfin, un état des lieux de la méthode actuelle après près de dix ans soulignera les améliorations de la méthode avec une justification de ces changements. En conclusion, les travaux sur la méthode initiale ont montré un intérêt certain via un audit qui a souligné la non-régression et la reprise des grands principes dans une méthode optimisée. Une analyse à froid de la méthode initiale avec l’identification des difficultés rencontrées et la description de l’état actuel de la méthode permettra de préparer au mieux la mise en œuvre de la méthode AP913
optimisée sur une nouvelle centrale nucléaire.
Le domaine de la Défense met en œuvre de nombreux matériels COTS (Components Off The Shelf) pour réduire les coûts et délais de développement. Cependant la fiabilité prévisionnelle de ces équipements n’est que très rarement communiquée par le fabricant, et dans les rares cas où il y a une donnée il est impossible d’en apprécier la pertinence. Ceci constitue un problème important dans le cas de systèmes constitués en majorité de COTS et dont la fiabilité globale va principalement dépendre. Afin d’améliorer cette situation, il a été décidé de mener deux expérimentations pour évaluer l’aspect coût versus apport de la réalisation d’une étude de fiabilité prévisionnelle avec le guide FIDES 2009A sur des équipements dont la définition n’est pas connue.
Pour ce faire, nous avons sélectionné deux types d’équipements très couramment utilisés dans nos systèmes d’armement (un PC durci et une lame serveur) afin de calculer leur fiabilité prévisionnelle à l’aide des méthodologies Composants et Cartes COTS du guide FIDES 2009A.
Pour s’assurer de la pertinence des études de fiabilité prévisionnelle (donnée d’entrée pour les études de sécurité et de soutien logistique intégré), la DGA réalise une veille des différentes méthodes qui peuvent être utilisées dans certains programmes en coopération ou dans le cadre d’achat FMS (Foreign Military Sales). Afin d’être en mesure d’évaluer la pertinence des études livrées, une veille des différents standards est réalisée.
Au travers de cet article, nous proposons un partage macroscopique de travaux d’études menés sur les méthodes 217+ (2015), et IEC 61709 (avec TR63162) par rapport à FIDES 2009A et 2022A, qui sont les documents de référence au sein de notre entité. Une étude de couverture des modèles de composants de chacun des différents guides ainsi que l’analyse des principaux paramètres est proposée, en essayant d’identifier les points marquants de chaque méthodologie. Ensuite, il est présenté une étude de quelques modèles au niveau composant pour identifier les variations et différences entre les méthodes.
Pour finir, nous proposons les résultats obtenus suite à la modélisation d’une carte électronique selon les 4 méthodologies pour un profil de vie défini.
Les prévisions de fiabilité permettent en phase de développement d’identifier les performances de différentes architectures, ainsi que les contributeurs prépondérants dans l’optique de robustifier le design d’un produit ou d’un système devant répondre à des attentes Clients. Elles permettent également de définir des engagements de fiabilité ou des conditions de sortie de garantie et représente donc un métrique de comparaison et/ou de choix mais aussi de différenciation.
La plupart des équipements ferroviaires sont soumis à des environnements sévères avec des durées de vie (exploitation) de l’ordre de 30 ans.
Pour les équipements électroniques, notamment de signalisation ferroviaire, ALSTOM réalisait ses analyses de fiabilité prévisionnelles suivant l’IEC/TR 62380. Fort de plus de 15 ans de retour d’expérience sur ce standard et sur le suivi de ses équipements en opération, ALSTOM a acquis une expertise et une confiance dans ce standard.
À la suite de l’annulation de l’IEC/TR 62380, un groupe de travail multisites au sein d’Alstom a été mis en place afin d’identifier la méthodologie à appliquer pour déterminer la fiabilité prévisionnelle de nos électroniques d’aujourd’hui et de demain.
Dans le cadre du passage de l’IEC/TR62380 vers la FIDES au sein d’Alstom, cette publication présente la méthodologie, les points clés différenciants entre les différents standards de fiabilité, la méthode retenue ainsi que les impacts méthodologiques et quantitatifs de ce changement.
Les industriels de l'électronique en Europe font face à des coûts de production souvent supérieurs à ceux d'autres régions du monde. Il est nécessaire pour eux de trouver un positionnement les démarquant et leur permettant d'assoir leur marché. Pour cela, un
positionnement centré sur des produits de haute fiabilité est une approche possible, mais comment mettre en place concrètement ce positionnement, sur quels guides s'appuyer et comment le valoriser ? Cette publication propose une réflexion autour de ces sujets à partir de divers retours d'expérience en audit, en accompagnement de stratégie de DfR (Design for Reliability) et d'études de fiabilité. Les approches de qualité, fiabilité prévisionnelle et pratique sont discutées. À ce sujet, une utilisation du facteur Process de la méthodologie FIDES est envisagée et suite à une justification de ce choix et à une explication de ce qu'il représente, une proposition d'approche à mettre en œuvre,
ainsi que différentes manières de le valoriser est proposée. Les considérations de cet article permettent de faire un état de l'art des approches d'assurance fiabilité et de justifier pourquoi le facteur Process de FIDES est une piste intéressante, ainsi qu'un potentiel usage qui peut en être fait.
Une crise se caractérise par des informations incomplètes, contradictoires ou inadéquates, des objectifs changeants, desvpressions temporelles et organisationnelles. Le crash du vol AF447 (2009), l’explosion de la plateforme Deepwater Horizon (2010) ou la catastrophe nucléaire de Fukushima (2011) révèlent les limites des dispositions organisationnelles existantes pour la gestion de crise ; qu’il s’agisse des plans (plan de continuité, plan d’intervention), des procédures d'urgence ou des programmes de formation et d’entraînement.
Lors d'une crise, les décisions peuvent s'appuyer sur l'expérience du décideur ou consister en l'application d'une procédure spécifique, mais elles résultent souvent d'un processus créatif dans un contexte émotionnel de stress et de fatigue exacerbé (Guarnieri & Travedel, 2018). Dans le cadre de la formation, il est difficile voire impossible de reproduire les effets physiques et psychiques des crises sur les individus. Cela constitue un défi pour les enseignements et la formation à la gestion de crise (Lagadec, 2010). Pour répondre à ce défi, le Centre de recherche sur les Risques et les Crises (CRC) de Mines Paris - PSL a conçu et testé un dispositif immersif, coconstruit avec un collectif d’artistes, visant à perturber la cognition des apprenants et leur faire prendre conscience de l'importance des sens, des émotions et de leurs représentations imaginaires dans le processus de décision (Larouzée et al., 2023). Dans cette communication, nous présentons ce dispositif et son ingénierie pédagogique associée. Puis, nous présentons les résultats d’une première expérimentation, réalisées en 2023 avec un public d’étudiants de Mastère Spécialisé en prévention des risques et en gestion des crises dans l’industrie (MS ERC de Mines Paris - PSL). Les premières données sont ensuite présentées et discutées. Elles confirment l’originalité et la force du dispositif, en particulier pour sa capacité à ébranler les imaginaires et faire éprouver des émotions. Au terme de la discussion, nous présentons les chantiers de recherche que nous entendons adresser dans le cadre d’un programme sur trois à cinq ans.
Les effets domino désignent des chaînes d’accidents à faible fréquence ayant des conséquences dévastatrices. Modéliser et évaluer leur sécurité représente un défi considérable en raison de leur rareté, de leur complexité et du manque de données disponibles.
Différentes approches de modélisation existent, mais aucune n'est largement reconnue. Le choix de la méthode dépend du contexte et des résultats attendus. Les méthodes graphiques sont toutefois prometteuses car elles sont visuelles et peuvent inclure des aspects temporels, probabilistes et dynamiques. Ces travaux visent dans un premier temps à réaliser une étude comparative de ces méthodes afin de tirer les avantages et inconvénients de chacune. L'utilisation conjointe de différentes méthodes pourra alors être mis en exergue afin de combiner au mieux leurs avantages.
Le contexte actuel, marqué par l’évolution profonde de nos modèles de production (transition écologique, réindustrialisation) et d’un certain nombre de contextes opérationnels (catastrophes naturelles et sanitaires, fragilisation des systèmes politiques, etc.) tend à multiplier les situations incertaines et ambiguës, porteuses de danger pour les organisations… Cette communication a pour objectif de présenter une approche de détection des signaux précurseurs de crises potentielles, par l’hybridation d’un type spécifique de modélisation couplé à l’intelligence collective, développée en partenariat avec la Principauté de Monaco. Nous explicitons les principes à l’origine du développement de la modélisation, puis les processus organisationnels associés. Enfin, nous présentons sa mise en œuvre dans le cadre du dispositif de gestion des événements importants de la Principauté de Monaco.
Cette communication traite de l’articulation entre heuristiques et raisonnements et de la manière dont cette articulation se manifeste dans les actions de directeurs de cellule de crise nationale (DCCN) lors de dix exercices de gestion de crise, au Commissariat à l’Energie Atomique et aux énergies alternatives (CEA). Il est couramment admis en littérature, selon le modèle des Systèmes Duels de la pensée, qu’on mobilise indépendamment les heuristiques ou raisonnements. Ce constat est questionné dans notre communication. En effet, dans un environnement dynamique comme les exercices de gestion de crise, les paramètres situationnels conditionnant l’adéquation des heuristiques et raisonnements évoluent. L’influence de cette articulation, sur les actions résultantes, n’est que peu étudiée dans la littérature théorique, et moins encore en pratique. Cela est dû en partie au manque de mesures fiables de cette articulation et aux faibles possibilités d’accès à des terrains empiriques. Notre étude propose de surmonter ces difficultés en fournissant une méthodologie pour identifier et mesurer l’articulation entre heuristiques et raisonnements, in situ. En s’appuyant sur des marqueurs lexicaux, nous mettons en évidence l’existence de trois combinaisons types, permettant, de la part des DCCN, des réponses ajustées lors des phases de la gestion de crise. L’emploi adapté de ces combinaisons s’est révélé être dépendant de l’environnement et de l’expertise des DCCN. Nous développons des propositions relatives à nos résultats sous deux volets : la formation et la modification environnementale des architectures de décision. Nous terminons en proposant des pistes de recherche à approfondir.
Le Power-to-Gas est le procédé par lequel de l’énergie électrique est convertie en énergie chimique, sous forme gazeuse. Le Power-to-Gas repose en premier lieu sur l’électrolyse, produisant de l’hydrogène (Power-to-H2) à partir d’électricité et d’eau. L’électrolyse peut être complétée par une étape de méthanation, permettant de faire réagir l’hydrogène avec du CO2 pour produire du méthane (Power-to-CH4). S’agissant de technologies encore émergentes, la gestion de la fiabilité, de la maintenance et de la sécurité de ces installations doit faire face à des problématiques spécifiques, encore peu documentées. Jupiter 1000 est un démonstrateur industriel de Power-to-Gas, mis en service en 2019 par GRTgaz. Les installations comprennent deux technologies d’électrolyse et une de méthanation. Pour la première fois en France, l’échelle du mégawatt a été atteinte pour la production d’hydrogène « vert ». Un des objectifs du projet est de démontrer la faisabilité de ce type de procédé et d’en partager les premiers retours d'expérience pour favoriser le développement de la filière industrielle du Power-to-Gas.
Cette communication présente plus spécifiquement les retours d’expérience et résultats d’études de Jupiter 1000 sur les sujets de fiabilité, maintenance et maîtrise des risques pour ce type d’installation.
Le développement durable est un besoin vital pour les entreprises. Le but de ce papier est d’explorer les interactions entre des pratiques souvent traitées en silos, en vue de créer plus de valeur pour l’utilisateur. Le but est de tirer parti des investissements en développement durable, pour compléter les travaux en sûreté de fonctionnement. Le papier développe une série d’exemples où les recommandations améliorent le développement durable du site tels que l’allongement de la durée de vie d’un disjoncteur basse tension, la maintenance prédictive pour améliorer l’efficacité énergétique d’installation photovoltaïques, ou encore l’optimisation du remplacement d’onduleurs.
La complexité de la modélisation d’un parc éolien offshore repose sur la précision de la simulation, notamment sur la manière dont l’impact météorologique est pris en compte. En effet, tous les effets induits sur les temps de mobilisation des navires d’intervention, la
puissance des turbines et la stratégie de maintenance doivent être pris en compte correctement car ils peuvent avoir un impact significatif sur les résultats. Face à de telles contraintes et suite à une étude comparative des logiciels et méthodes existants, il est apparu qu’une technique de modélisation type MBSA (Model-Based Safety Assessment) développée en interne était la meilleure solution. Dans le cadre de l’analyse de sûreté de fonctionnement des systèmes, le MBSA est une approche qui consiste à construire des modèles de haut niveau, donc plus proches des descriptions d’architectures fonctionnelles et physiques des systèmes, tout en permettant d’évaluer des indicateurs RAM (Reliability, Availability, Maintainability) par des moteurs de calcul (Batteux, 2022). Chez TotalEnergies, ce type de travaux a déjà été mené pour l’industrie pétrolière et gazière à travers le module Petro de la suite logicielle GRIF (GRaphiques Interactifs pour la Fiabilité), technologie de TotalEnergies (GRIF, 2023a), qui supporte l’approche MBSA (Batteux, 2016). Cependant, ce module n’étant pas en mesure de répondre pleinement aux nouveaux défis et contraintes O&M (Opérations et Maintenance) apportés par le marché de l’éolien offshore, il a été décidé de proposer une alternative avec le module Flex.
Ces travaux font partie du programme de recherche MULTHYFUEL visant à permettre la mise en place de bornes de recharge d’hydrogène sous pression dans les stations-service. Un défi important est de pouvoir éviter les accidents dont on sait qu’ils pourraient être graves en cas de fuite importante d’hydrogène. Les travaux présentés portent sur la quantification des scénarios de fuite en termes de fréquence et de débit. Un exercice de comparaison a montré de très grands écarts entre les fréquences de fuites calculés qui proviennent du choix des bases de données de défaillances choisies. L’écart provient notamment des différences importantes entre la structure des organes qui composent les bornes et celle des objets répertoriés dans les bases de données. Et malheureusement, il n’y a pas encore suffisamment de retour d’expérience sur les composants hydrogène. Une nouvelle méthode est proposée pour calculer les fréquences et le débit de fuite sur la base d’une description précise de chaque composant et de chaque situation dangereuse. Par exemple, la possibilité qu’un raccord se desserre en raison d’un cycle de pression est modélisée sur la base de la mécanique de contact. Les erreurs humaines peuvent également être introduites en décrivant les tâches et assemblées dans un arbre des défaillances pour estimer la probabilité de défaut. La méthode a été confrontée à des résultats de campagnes expérimentales pour vérifier (au mieux) les aspect fréquences (essais de longue durée de cyclage par exemple) et débits de fuite (sur des composants placés dans la situation de fuite correspondant au scénario étudié). L’application à une borne de recharge est proposée. On conclut que les sections de fuite peuvent être plus grandes que prévu (par les bases de données classiques).
Le projet PRISSMA vise, en réponse à l’appel lancé par le Grand Défi IA du Conseil de l’Innovation et le Ministère de la Transition Ecologique et Solidaire, à proposer la définition et la conception d’une méthodologie, de procédures, d’outils, et de plateformes permettant l’évaluation, la validation, et potentiellement l’homologation de systèmes de systèmes et de systèmes à base d’IA impliqués dans les moyens et les services de mobilité automatisée ou autonome (MMAA). Regroupant une vingtaine de partenaire français, le projet PRISSMA se place particulièrement dans le cadre de la « démonstration de sécurité » des moyens de mobilité utilisant des techniques d’Intelligence Artificielle (pour l’évaluation et la validation de la sécurité et de la sûreté des MMAA).
Ce projet propose un référentiel d’activités structuré (spécification processus, définition et élaboration de domaines d’emplois, définitions des exigences, audits, mise en œuvre de campagnes de tests virtuels, contrôlés ou réels…) et des méthodologies adaptées dont la pertinence est illustrée au travers de leur application à des preuves de concept sur des expérimentations.
Enfin, PRISSMA élabore une méthode de démonstration globale de la sécurité d’un MMAA.
Dans le domaine automobile, la sécurité fonctionnelle est régie par la norme ISO 26262 : 2018. Cette norme établit un processus et définit des exigences concernant la conception et le déploiement des systèmes électriques/électroniques (E/E) embarqués sur les véhicules afin de garantir leur sécurité. Le principal focus des différentes parties de cette norme concerne les défaillances aléatoires (du matériel) et systématiques (matérielles et logicielles) des systèmes E/E embarqués. Avec l’arrivée des véhicules autonomes, et leurs problématiques sécuritaires, une extension normative (ISO 21448 :2022) nommée SOTIF (Safety Of The Intended Functionality) a été élaborée pour adresser principalement les risques liés à la mauvaise interaction du système avec les acteurs externes, les défaillances liées aux insuffisances en termes de spécifications, ainsi que les limitations en termes de performances des E/E systèmes. Dans le domaine ferroviaire, la spécification et la démonstration de la sûreté de fonctionnement des systèmes ferroviaires sont régies par la série de normes EN50126/8/9, ainsi que la méthode de sécurité commune relative à l’évaluation des risques (CSM-RA) au niveau européen. Aujourd’hui, l’automatisation et l’autonomisation des systèmes ferroviaires (i.e., trains autonomes) incitent à réévaluer l’adéquation de s’appuyer (uniquement) sur les normes actuelles pour assurer un niveau de sécurité acceptable des systèmes ferroviaires autonomes. Ainsi, le besoin de l’étude de la faisabilité (ainsi que la méthodologie) de consolider les normes EN5012x avec les aspects de la SOTIF est bien justifié. L’objet de cette communication est de contribuer à établir un cadre générique permettant d’intégrer la SOTIF dans le processus de spécification et de démonstration de sécurité des systèmes ferroviaires autonomes. En outre, nous présentons une analyse de cas portant sur le système de monitoring de l'environnement afin de décrire l'application pratique de la SOTIF dans le contexte spécifique des trains autonomes.
En vue de l'intégration de systèmes autonomes dans le secteur ferroviaire, garantir un niveau de sécurité équivalent à celui des systèmes classiques pilotés par des opérateurs humains constitue un enjeu critique. L'exploitation de trains entièrement autonomes implique le déploiement de solutions avancées capables, sans perception humaine du contexte opérationnel, d’analyser et évaluer les risques en temps réel et de prendre des décisions complexes. Cet article présente une approche innovante pour la prise de décision orientée risques dans les trains autonomes, en se basant sur la mise en œuvre
de Processus Décisionnels de Markov Partiellement Observables (POMDPs). La méthodologie développée permet une évaluation et un suivi continus des risques de collision avec des obstacles de l'environnement, en veillant à ce que le système
de conduite autonome des trains maintienne systématiquement un niveau de risque acceptable, caractérisé par une probabilité d'occurrence et un degré de sévérité spécifiques. Cette approche renforce les capacités décisionnelles du système autonome
en favorisant l'adoption de décisions sécuritaires face aux incertitudes liées à l'état opérationnel du train et aux variables environnementales. La validité et l'efficacité de cette approche sont démontrées à travers son intégration dans un dispositif d’anticollision destiné aux trains autonomes.
Dans le contexte actuel de réindustrialisation qui touche divers secteurs, l’industrie ferroviaire est en train de vivre une transformation majeure, l'automatisation des trains en particulier est en plein essor. Dans ce contexte, les exigences industrielles se renforcent et les innovations émergent, ce qui soulève la question de la Sûreté de Fonctionnement de manière essentielle.
Dans le cadre du développement d’un système de détection d’obstacle pour un projet de train autonome, SECTOR a utilisé une approche d’analogie en s’inspirant du secteur automobile qui a introduit une nouvelle norme pour les véhicules autonomes et leurs systèmes associés, à savoir l'ISO 21448 - Road Vehicles - Safety Of the Intended Functionality, également connue sous le nom de norme SOTIF [1]. Etant donné qu’en l’absence de conducteur humain l'application du critère de « Contrôlabilité du conducteur » n'est plus aussi pertinente pour les trains ou les systèmes de mobilité autonomes, il a été impératif de développer une méthode d'évaluation des risques adaptée à ce contexte spécifique.
Les travaux menés par SECTOR ont permis de proposer une méthode de spécification d‘exigences de sécurité à destination d’une fonction automatisée, de caractériser la performance du facteur humain du conducteur (qui présente un haut niveau de variabilité en fonction des situations) et d’établir une cartographie des écarts entre la performance atteinte par le conducteur et les niveaux de sécurité requis par une fonction automatisée, considérant le risque dans l’absolu.
Cet article expose une méthodologie pour la conception, la validation et la vérification d’un modèle MBSA (Model-Based Safety Analysis), en s’appuyant sur l’outil SimfiaNeo d’Airbus Protect. Nous revenons sur la nécessité pour un industriel aéronautique de mettre en place des processus permettant de renforcer la confiance dans les analyses de sûreté de fonctionnement complexes portées par des modèles à propagation de panne. Au-delà de la méthode, nous nous attardons également sur l’implémentation de cette dernière, et la manière dont l’outil de modélisation permet d’articuler les besoins d’un motoriste comme Safran Aircraft Engines. Un exemple d’une étude de zone vient illustrer les synergies qui peuvent être trouvées entre la méthode et l’outil pour servir les études de sécurité. Enfin, les résultats permettent d’ouvrir sur le travail restant à accomplir dans la mise en place de cette synergie.
Le présent article détaille la méthodologie d'accompagnement à la réalisation du MBSA chez MBDA. La simple existence d’un modèle MBSA ne paraît pas suffisant pour satisfaire les ambitions de l’approche. Effectivement, le MBSA aspire à terme à être une alternative très prometteuse pour certains cas d’analyse vis-à-vis des arbres de défaillances « traditionnels », en intégrant la prise en compte des aspects séquentiels. Si l'ingénierie par les modèles s'installe peu à peu dans le quotidien des industriels, il reste primordial de pouvoir accorder une confiance au modèle, ceci étant rendu possible par une démarche claire et précise d’encadrement du modèle et du process de réalisation. Pour se faire, il est primordial de mettre en œuvre un processus ciblé permettant :
• D’accompagner l'utilisateur dans la modélisation : en fournissant des directives, en optimisant au mieux son efficacité et en guidant ses premiers pas dans l'outil.
• D’accompagner le modèle dans son cycle de vie : en identifiant des exigences auxquelles le modèle devra se confronter, en cadrant la réponse à ces exigences et en permettant au modélisateur de tracer les choix de modélisation au cours de sa réalisation.
Concrètement, il est suggéré dans cette proposition la réalisation de plusieurs documents venant accompagner le modèle, avec comme objectif de guider l'utilisateur tout au long de sa réalisation, mais également faciliter la modélisation au cours de son évolution. L'enjeu principal est d'implémenter cette démarche tout en assurant que la potentielle augmentation de la charge de travail reste mesurée. Des opportunités d’optimisation globales de la méthode sont également explorées. Les apports et bénéfices finaux de cette démarche sont en cours d'évaluation mais paraissent être multiples : uniformiser les pratiques au niveau société, renforcer le niveau de confiance dans les résultats obtenus, cadrer la démarche et assurer un bon niveau de traçabilité.
La prise en compte de la cybersécurité lors des opérations de conception est une opération délicate, oscillant entre compromis et succès en demi-teinte. L’émergence des outils du MBSE ouvre une nouvelle façon de traiter cette question, mais comment en tirer profit ? Pour y répondre, il a été étudié la capacité àidentifier les vulnérabilités à partir des modèles et à réaliser une simulation de cyberattaque. Concernant plus spécifiquement la cybersécurité, les modèles se sont montrés pertinents pour l’étude et la simulation de cyberattaque et la production d’un corpus de connaissance, dont la mise à disposition très en amont des activités de conception pourrait faciliter l’intégration des questions de cybersécurité.
Cet article explore la méthodologie MBSA (Model Based Safety Analysis) pour une conception sûre des systèmes à hydrogène embarqués pour les véhicules. Le développement MBSA est basé sur des modèles de circuits électriques équivalents avec des paramètres multi-physiques pour assurer la sécurité d'une pile à combustible à hydrogène dans son environnement. Cette approche établit un lien clair entre les paramètres du modèle et la caractérisation de la pile à combustible, validée par des données expérimentales pour différents états de vieillissement. En outre, la possibilité de coupler le modèle avec une analyse de fiabilité pour détecter les défauts pendant la durée de vie opérationnelle de la pile à combustible est discutée.
AltaRica 3.0 est un langage de modélisation dédié aux analyses probabilistes de sécurité de systèmes techniques complexes. L’équation « S2ML + GTS = AltaRica 3.0 » est une bonne façon de le présenter. AltaRica 3.0 résulte en effet de la combinaison de S2ML (System Structure Modelling Language), un ensemble de primitives orientées objet et orientées prototype permettant de structurer les modèles avec le cadre mathématique des GTS (Guarded Transition Systems). L’atelier de modélisation AltaRica 3.0 fournit plusieurs outils de traitement de modèles AltaRica 3.0 : un simulateur interactif, un simulateur stochastique, un générateur de séquence critiques ainsi qu’un compilateur vers les systèmes d’équations Booléennes stochastiques, le cadre mathématique sous-jacent aux arbres de défaillance et aux blocs diagrammes de fiabilité. L’objectif de cette communication est de présenter les améliorations que nous avons récemment apportées à ce dernier outil.
AltaRica Wizard est un environnement de modélisation intégré dédié aux analyses probabilistes de risque et de sécurité des systèmes techniques complexes. La nouvelle version d’AltaRica Wizard prend en charge deux langages de modélisation : AltaRica 3.0 et S2ML+SBE. Les deux langages appartiennent à la famille S2ML+X : S2ML signifie langage de modélisation de structure des systèmes (‘System Structure Modeling Language’ en anglais), c'est-à-dire un ensemble complet de constructions génériques orientées objet à classes et à prototypes pour structurer les modèles ; X représente tout cadre mathématique adapté pour décrire le comportement (stochastique) des systèmes. Dans S2ML+SBE, SBE signifie systèmes d'équations booléennes stochastiques (systems of Stochastic Boolean Equations), qui constituent le cadre mathématique sous-jacent des formalismes de modélisation populaires tels que les arbres de défaillances et les schémas bloc de fiabilité. S2ML+SBE généralise ces deux formalismes, sans introduire de complexité supplémentaire dans la création de modèles et le calcul des indicateurs de sécurité qualitatifs et quantitatifs. L'objectif de cet article est de présenter AltaRica Wizard, en tant qu'environnement de modélisation intégré pour l'évaluation de systèmes d'équations booléennes (stochastiques). Cela inclut l'éditeur pour créer les modèles S2ML+SBE, le compilateur d'équations booléennes (arbres de défaillance) et l'intégration du moteur de calcul XFTA.
Les analyses déterministes et les Études Probabilistes de Sûreté (EPS) sont réalisées pour les centrales nucléaires existantes afin de démontrer leurs marges de sûreté et/ou d'identifier des améliorations en matière de sûreté. Compte tenu de l'émergence de nouvelles et futures conceptions de réacteurs, notamment de Génération III+, de Génération IV et de Petits Réacteurs Modulaires (SMR), des approches innovantes peuvent être proposées pour mieux intégrer les EPS et les analyses déterministes pour la quantification de la marge de sûreté dans les analyses d'accidents de dimensionnement (DBA) et les analyses d’accidents hors dimensionnement (DEC), pour l’objectif d'optimiser la démonstration de sûreté au stade conceptuel. Concernant les analyses DBA, il est proposé d'incorporer les données sur la disponibilité des systèmes issues d’EPS et de s'inspirer des pratiques de fiabilité dynamique pour traiter les incertitudes liées à l'évolution dynamique d'un accident. Dans le cas des analyses DEC, il s'agit de fournir une méthodologie globale, guidée par les données et les résultats d’EPS, et qui couvre l'ensemble du processus d'analyse depuis la définition et la classification des scénarios, en passant par les analyses prenant en compte les incertitudes, jusqu'à la quantification des marges. La quantification et la démonstration des marges de sûreté ont été réalisées pour les deux types d'analyses, révélant également leurs différents objectifs tout au long des processus d'analyse.
Dans le domaine de la maintenance prédictive, l'approche « data-driven » s'est largement imposée et la réussite des projets dépend fortement de la disponibilité et de la qualité des données capitalisées. Or, l'absence de données peut représenter un obstacle à l'initiation de tels projets. Ce document introduit une méthode visant à contourner cet écueil que rencontrent bien souvent les industriels, en tirant profit de la digitalisation des systèmes fonctionnels. Sur la base d’un jumeau numérique, de l’expertise technique des systémiers et du retour d’expérience, cette méthode propose de simuler des données pour entraîner un modèle d'estimation de la durée de vie utile restante (RUL). Dans le cas présent, cette démarche sera mise en œuvre de bout en bout sur une application simple : un système de trappe activée à distance. Les premières leçons tirées de cette expérimentation nous permettent de dresser un premier bilan et de présenter les avantages ainsi que les défis soulevés par cette approche. Enfin nous aborderons les perspectives et synergies nouvelles qu'elle peut offrir aux parties prenantes des organisations industrielles.
L’emploi de solutions techniques, notamment de processus automatisés, permet de soulager la charge de travail d’opérateurs devant conduire un système complexe (on pense notamment à l’équipage d’un avion de ligne, aidé par le pilote automatique). Cependant, en situations réelles l’intervention humaine est susceptible d’éviter une catastrophe, là où les automatismes n’ont pas été prévus pour agir. A contrario, une solution technique verrouillée, en ne laissant pas l’humain intervenir, a pu provoquer une catastrophe.
Il faut revenir sur un constat : les solutions techniques sont le fruit d’actions humaines tout au long de leur cycle de vie, depuis la phase la plus amont jusqu’à leur utilisation : étapes de conception, de réalisation, de mise en service, qui conduit à l’exploitation opérationnelle.
La présente étude se propose d’analyser, à chaque étape d’élaboration d’une solution technique, les différents intervenants, leur rôle et les types d’erreurs et d’insuffisances susceptibles d’advenir, de façon pas toujours manifeste, et dont les conséquences surgissent en phase d’exploitation ; mais aussi, les actions positives de l’opérateur dans cette même phase d’exploitation.
Il émerge une notion de facteur humain prospectif (conception, réalisation), et de facteur humain actualisé (exploitation) qui vont se compléter. Et certaines qualités sont propices aux actions positives : connaissance étendue du système, intérêt pour le système.
La conclusion amène à considérer la nécessité, dans la conception d’un système, d’assurer, à l’opérateur, un accès pour rétablir une situation non prévue (par une solution de contournement, par exemple), et comment former l’opérateur pour y parvenir.
Cette communication propose de revenir sur l’une des plus graves cyberattaques de ces dernières année, qui impressionna par sa complexité technique et sa capacité à s’immiscer dans un système technique, mais également par la manière dont le vers Stuxnet parvint à attaquer directement des outils industriels à risques, en l’occurrence des centrifugeuses nucléaires dans une usine iranienne.
Nous proposons ici une approche mettant en lumière les Facteurs Organisationnels et Humains (FOH) de cette attaque hors-normes, dans le but d’en tirer un Retour d’Expérience utile à l’ensemble industries à risques et Opérateurs d’Importance Vitale (OIV).
Dans les industries à risques, la sécurité s'effectue grâce à la combinaison d'une sécurité basée sur des règles et d'une sécurité gérée. Le développement de la sécurité qui intègre ces deux facettes mène à une sécurité constructive. Une compétence majeure à développer dans le cadre de la sécurité constructive est la capacité à effectuer les bons arbitrages en situation. Cependant, il est toujours perçu comme difficile de mettre en œuvre des discussions ouvertes sur la gestion de la sécurité dans les organisations à risques qui sont très réglementées.
Dans cette contribution, nous suggérons que les séances de débriefing constituent un espace-temps adéquat pour superviser et développer une sécurité constructive. Cette contribution s'appuie sur l'analyse de débriefings post-simulation dans le domaine nucléaire (N=8) et de l'anesthésie-réanimation (N=10). L'analyse thématique orientée par la sécurité constructive fait apparaître les sujets abordés lors du débriefing tels que le partage de bonnes pratiques, l'application des règles, le travail en équipe et le retour d'expériences. Nos résultats montrent qu’il est possible d’avoir une connaissance de la sécurité gérée mise en œuvre lors des débriefings. Notamment, il est possible d’accéder à la mise en œuvre de la sécurité gérée dans l'action et si la situation le permet de corriger les actions non acceptables. L'attitude du formateur lors du débriefing est essentielle pour permettre ou non une discussion ouverte sur les pratiques réelles de travail. De plus, l’attitude du formateur illustre la perception que l’organisation a de la sécurité. C'est pourquoi nous affirmons que les débriefings post-simulation sont des sondes organisationnelles pour la gestion de la sécurité
Le retour d’expérience (REX ou RETEX) fournit une contribution fondamentale à une prise de décision informée quant au risque (« risk-informed decision making ») et à la maîtrise des risques. Si son importance est reconnue par l’ensemble des parties prenantes, des limites dans l’efficacité des processus de REX sont observées, ce qui compromet la sûreté de fonctionnement et le management des risques. Ces processus sur différents événements ou objets sont difficiles à mettre en œuvre notamment en regard des contraintes de ressources, des bénéfices parfois peu visibles et des obstacles politiques rencontrés. Ces limites conduisent à des REX différés, omis, voire négligés. Cette situation questionne la dimension managériale et politique des REX plus que son ingénierie qui a été améliorée ces dernières décennies.
Les objectifs de cette communication sont de revenir sur des définitions et des caractéristiques du REX, d’évoquer quelques grandes évolutions en cours, avant de s’arrêter sur les défis actuels et de présenter des pistes afin de « renverser l’approche »,
c’est-à-dire d’éviter que le REX soit négligé, mais qu’il soit au contraire mieux « sacralisé » !
Cet article présente la méthodologie d’un calcul de fiabilité suivant la méthode Bloc Diagramme grâce au Retour d’expérience (REX) illustré par les premiers résultats obtenus. L’objectif de cette démarche est de mettre à disposition un recueil de fiabilité des composants aux équipes projets pour répondre aux exigences clients en termes de fiabilité prévisionnelle et aussi de pouvoir mettre à jour les AMDEC produit.
The use of new electronic hardware technologies is a challenge for the development of reliable equipment in aeronautic and space. The absence of flight heritage on the performances of new technologies hinders the spread of their use to highly demanding environments, where they could be a game changer. This paper describes a mathematical approach as well as a test methodology to assess the reliability of electronic equipment subjected to a set of different aeronautic or space mission profiles (thermal cycling, humidity cycling, vibrations and so on). The objective is to be able to assert whether the selected components of the boards composing an equipment comply with the reliability expectations or not, while taking into account both the mission profile of the equipment as well as the targeted assembly process of the product. The approach can be divided into 5 steps:
- listing the critical components and assessing their failure mode,
- allocate a reliability objective, design an accelerated test considering the mission profile of the equipment,
- design a zero-failure-test to integrate reliability requirements
- and finally the test itself.
The strategy consists in deriving the reliability requirement assigned to the equipment by the customer at the component level. It allows a more accurate reliability assessment than the same approach at equipment or board level.
Many components can be tested, increasing the statistic consistency of the test. The test vehicle can be designed as soon as a preliminary Bill of Material (BOM) is released making a reliability assessment possible during the first phases of the project (before the Preliminary Design Review). This methodology has been applied successfully during the development of an equipment for aeronautic application. Finally, Thales has implemented the whole approach in a software briefly presented in order to design a test in a click.
Salle A
The degradation of industrial systems is a natural and often inevitable process. Among the methods employed to estimate this degradation, the Hidden Markov Model (HMM) stands out for its wide application. This paper focuses on maintenance strategies for rotating machines, introducing a comprehensive framework for preprocessing methods alongside a novel adaptation of the HMM known as the Extended Multi-Branch HMM (EMB-HMM). To illustrate its efficacy, the FEMTO bearing dataset was specifically selected. Initially, abnormal signals, often identifiable by their pronounced noise in frequency zones, are pinpointed. Subsequent preprocessing steps are then executed. Moving forward, the EMB-HMM framework, distinguished by its four branches and five hidden states per branch, is applied. The determination of the active branch relies on both prior and posterior probabilities, with these probabilities and branch topologies linked to the four fault frequencies. Finally, the EMB-HMM serves as the assessment model, facilitating the evaluation of bearing performance degradation and the detection of the First Predicting Time (FPT) of initial degradation.
Salle E
Dans les études d'évaluation probabiliste de sûreté (EPS) à EDF, les diagrammes de séquence d'événements synthétisent tous les scénarios identifiés dans l'analyse qualitative de séquences à la suite d’un initiateur. Ils identifient tous les chemins passant par des missions en succès ou en échec des systèmes de sauvegarde ou du Facteur Humain. Les missions systèmes analysés dans des études de fiabilité amènent à générer les arbres de défaillances à l'aide d'un outil à base de système expert. Une des difficultés rencontrées par les analystes est la modélisation des systèmes à partir de schémas mécaniques souvent dans des formats qui nécessitent un travail laborieux.
Dans ce papier, nous présentons un prototype qui permet de lire de nombreuses sources (électriques, hydrauliques et de contrôle commande) avec la gestion du périmètre par la définition des chemins. Il permet aussi de réaliser la compression des systèmes de contrôle commande mais aussi hydraulique comme électrique. Nous illustrons avec des exemples concrets sur les différentes sources la faisabilité de traiter des données de procédure de conduite accidentelle avec une compression sur un système. La gestion multi-source de cet outil permet d’appliquer la compression sans perte de généralité, ce qui concourt à l'effort de réduction de la complexité de modèles EPS initié dans le cadre de l'EPS zoomable. Des éléments de réflexions seront présentés pour identifier comment peut se passer l'accostage entre la compression au niveau de la lecture des données de conception et les principes identifiés au niveau des EPS zoomables. Enfin, l'utilisation
de cet outil permet de tracer la topologie d’un réseau complexe en affichant non pas les modules ou composants du système mais des attributs comme le local, l'altitude, la fonction ou les supports dédiés. Cette représentation permet de réaliser des analyses de redondance sur les supports.
Salle B
L’utilisation des systèmes d’armes ne doit pas induire de risques pour les utilisateurs et les personnels présents à proximité du système.
Deux phases d’utilisation sont définies sur le système d’arme : une phase dite « temps de paix » qui est la phase d’utilisation du matériel en entrainement, exercice et une phase dite « temps de guerre ». La sécurité d’un système tourelle (système complexe placé sur un porteur qui intègre une arme et permet de l’orienter) est étudiée en temps de paix car c’est la seule phase qui est caractérisée en termes de profil d’emploi. En temps de guerre, la disponibilité opérationnelle est primordiale pour l’utilisateur qui doit se sortir de situations d’agression majeures.
Le principe général de l’analyse est d’identifier et de traiter les risques liés à des défaillances fonctionnelles du produit et les risques liés aux agressions directes internes et externes. Ces analyses permettent de démontrer et de justifier le niveau de sécurité sur une définition d’un produit.
Pour les éléments critiques (identifiés Article de sécurité), des exigences spécifiques supplémentaires en phase de fabrication sont définies (contrôle d’approvisionnement, tests supplémentaires,) et sont exportées vers la phase de fabrication pour garantir que le niveau de sécurité des exemplaires de série est conforme au prototype validé.
Salle C
L’explosion du 4 août 2020 a remis sur le devant la scène les vulnérabilités de la ville de Beyrouth face à des risques d’ordres multiples : technologiques, naturels, ou encore liés aux contextes géopolitiques et économiques. Cet article présente les résultats du projet ANR-21-LIBA-0005 BUILDBACKBEIRUT qui vise à développer une approche multirisque de la résilience urbaine, avec une application spécifique à Beyrouth et ses réseaux techniques suite à l'explosion du port. L'objectif est de proposer une méthodologie intégrée favorisant une reconstruction urbaine améliorée, prenant en compte divers risques et assurant une résilience accrue. La méthodologie repose sur une approche englobant les risques sismiques, climatiques, liés aux conflits, crises socio-économiques et politiques. Des approches géospatiales et des indicateurs variés ont été utilisées pour déterminer les vulnérabilités et les interconnexions entre aléas et réseaux techniques critiques. L'étude intègre des consultations avec des responsables et des experts locaux. Les résultats montrent que l'approche est efficace pour obtenir une cartographie détaillée des vulnérabilités urbaines, identifiant les zones critiques et les infrastructures sensibles. Elle permet de déterminer les scénarios de risques les plus probables et d'évaluer l'impact cumulatif sur la résilience urbaine. Un travail de recherche spécifique au sujet émergeant du Build Back Better permet d’alimenter des recommandations pour planifier une meilleure reconstruction des réseaux susceptible d’améliorer significativement la résilience urbaine face aux risques.
La progression du numérique dans le domaine des infrastructures ferroviaires conduit à l'adoption du BIM (Building Information Modeling soit la Modélisation des Informations du Bâtiment). Initialement porté par le secteur du bâtiment, qui est de plus en plus intégré par les experts métiers dans toutes les étapes du cycle de vie d’un bâtiment. Il est de nos jours en démocratisation dans d’autres domaines, notamment dans les projets d'infrastructure critique, dont les activités sont hautement encadrées.
Par notre expertise métier, notre recherche se focalise sur les projets d’infrastructures ferroviaires, étant donné qu’ils exigent de fournir des démonstrations de sécurité ferroviaire. Nos travaux visent à proposer une méthodologie structurée de modélisation en BIM 3D pour répondre à cette exigence, notamment pour la validation des tests sur site (c’est-à-dire effectués sur le terrain réel). Cet article présente une revue de littérature des avancées récentes en termes d’intégration du BIM dans ce secteur, accompagnée d’une veille technologique des solutions et des processus existants pour la démonstration de sécurité / sûreté de fonctionnement (SdF). Dans cette étude, nous suivons un processus défini nous permettant d'examiner la méthodologie « classique » du BIM, que nous complétons alors par notre analyse des retours d'expérience des enquêtes que nous avons menées auprès des experts métiers de ce secteur afin d'adapter cette méthodologie à leurs problématiques réelles de SdF sur site.
Cette méthodologie BIM vise à faciliter un usage du BIM dans la gestion de démonstration de sécurité / sûreté de fonctionnement d'une infrastructure ferroviaire.
Malgré la volonté mondiale de limiter la hausse des températures à 1,5°C [1], les effets dévastateurs du changement climatique sont évidents, il entraînera toutes sortes de risques et affectera les chemins de fer.
Les travaux présentés ici s'inscrivent dans le cadre du projet de recherche européen pour un système ferroviaire durable, Rail4EARTH et de son Work Package 2 (WP2) Adaptation to Climate Change (ACC), qui vise à accroître la résilience du système ferroviaire européen aux conditions climatiques actuelles et futures.
La méthode consiste à mettre en œuvre la stratégie d'adaptation de l'UE au secteur ferroviaire, structurée à ce stade autour de ses deux premiers objectifs "Smarter adaptation" (adaptation plus intelligente) et "Faster adaptation" (adaptation plus rapide).
L'approche choisie consiste à collecter, partager et comparer les connaissances existantes sur les outils d'évaluation et les solutions d'adaptation. Ces connaissances sont acquises par le biais d'analyses documentaires, de présentations détaillées du retour d'expérience et d'initiatives internes des entreprises du consortium.
L'analyse de la base de connaissances a mis en évidence la nécessité de réaliser des études de vulnérabilité pour l'ensemble des actifs ferroviaires.
L'approche de corrélation entre les données de maintenance, les événements d'exploitation et les données climatiques est confirmée comme une méthodologie pertinente et robuste pour évaluer la vulnérabilité des actifs ferroviaires, y compris le
matériel roulant.
L’intégration de systèmes de conduite automatisée, ou ADS (Automated Driving Systems), au sein de la circulation ne peut se faire sans garantir des performances de sécurité au moins équivalente à une conduite humaine et l’absence d’accidents raisonnablement prévisibles et évitables. La vérification de ces propriétés exige de tester le système dans un grand nombre de situations pour en couvrir le maximum. Le recours à la simulation, permettant de décliner rapidement et sans danger des scénarios multiples et variés, est envisagé.
Cependant, celle-ci se doit d’apporter une preuve de sa crédibilité et de sa capacité à être suffisamment représentative du comportement réel du système, une opération désignée par « credibility assessment » dans la réglementation. Au sein de l’IRT SystemX, le projet CVH a été monté pour apporter des réponses à cette problématique, dans la continuité des précédents travaux sur l’utilisation de la simulation pour la validation. Le projet s’articule autour de deux tâches principales, la génération de plan de tests optimisés et couvrants à partir de la spécification du système et l’amélioration de la représentativité de la simulation par la production de modèles de capteur dits « phénoménologiques bruités » intégrant l’influence des perturbations environnementales sur les capteurs ainsi que les métriques de corrélation associées pour vérifier la cohérence du modèle avec le phénomène réel caractérisé. Ces deux tâches contribuent à supporter la validation d’un ADS et à apporter des preuves de confiance lors de l’audit de son dossier de sécurité, à la fois dans l’emploi des « bons scénarios » permettant de couvrir les situations rencontrées en pratique et l’emploi de « scénarios bons », suffisamment représentatifs pour transposer les résultats de simulation à la réalité.
La transition écologique a accentué l'intérêt d’utiliser l'hydrogène comme vecteur énergétique, en particulier dans le domaine ferroviaire, où son utilisation est encore émergente. Le développement de systèmes de stockage d'hydrogène à bord des trains pose des défis techniques significatifs, notamment en raison des réglementations strictes qui régissent le secteur ferroviaire. L’absence de retour d’expérience de l’utilisation de ce vecteur énergétique dans le ferroviaire et l’existence encore limitée de standards l’encadrant représentent un défi supplémentaire pour en exploiter les avantages écologiques. Ce document décrit une approche stratégique visant à concilier les règlementations relatives à l'hydrogène (notamment Règlement UNECE No.134) avec la norme ferroviaire EN 50126. Le règlement UNECE No.134 détermine et liste les requis nécessaires pour garantir une intégration de l’hydrogène dans le domaine automobile (et adapté ici pour le ferroviaire), en maîtrisant les risques associés à l’exploitation de ce gaz. Face aux limites actuelles des standards existants sur l'hydrogène, cette approche se positionne comme une étape importante vers une adoption élargie de cette source d'énergie. Cette communication cherche à illustrer la double contrainte hydrogène et ferroviaire, par une étude de cas concret. Elle présente une approche méthodologique pour les acteurs de l'industrie, en offrant une suggestion type d’analyses de risques destinées à assurer un niveau de confiance suffisant dans la sécurité d'un système de stockage d’hydrogène.
Ce document présente les enjeux pour l’État et les concessionnaires dans la préservation et la pérennité des infrastructures en France, avec un accent particulier sur les secteurs de l’eau, du transport ferroviaire et l’énergie.
Nous évoquerons les démarches mises en place pour la discipline de la gestion d’actifs (ou gestion du patrimoine) permettant de supporter les décisions ou de justifier des priorités dans des secteurs ou les contraintes sont énormes face aux enjeux sécuritaires, financiers, environnementaux ou plus généralement des ressources disponibles pour faire.
Ensuite, nous proposons d’apporter des éléments de discussions relatifs à la mise en œuvre de l’approche dans les secteurs industriels et celui des infrastructures pour finir par une conclusion générale.
Le document s’intéresse principalement aux enjeux opérationnels de la démarche ; c’est-à-dire relevant des besoins de pragmatisme des décisions du monde des infrastructures basées sur des approches relevant d’applications pratiques de la recherche fondamentale effectuée dans les différents laboratoires universitaires.
La production de données numériques (puissance, courant, tension, vibration, régime, images, vidéo) par des capteurs, des machines ou des êtres humains augmente considérablement de jour en jour. Le traitement, l'analyse et l'interprétation des données, ainsi que l'acquisition de connaissances à partir des données, sont des éléments essentiels dans notre société. Dans un tel contexte technologique, l'utilisation de la reconnaissance de formes (RP) et de l'intelligence artificielle (IA) est devenu importante. Les données des capteurs, la parole, les images, le langage et les documents peuvent être analysées grâce aux domaines du traitement du signal, de la reconnaissance des formes et de l'intelligence artificielle. Il est donc plus que jamais nécessaire de mettre en évidence les spécificités et les complémentarités de ces domaines afin de résoudre ces problèmes.
La plupart des chercheurs se sont consacrés au développement et à l'amélioration d'algorithmes d'identification et de classification. Pour prédire à partir d'énormes quantités de données, les méthodes de modélisation sont fondées sur l'apprentissage automatique. Les méthodes de classification comprennent les réseaux neuronaux (NN) (Gong et al.,2021), la régression à vecteur de support (SVR) (Qiu et al. ,2020) et les machines à vecteur de support (SVM) (Li et al.,2021).
Dans le cas d'événements séquentiels (dans le temps ou dans l'espace), l'utilisation de modèles de Markov cachés (MMC) est efficace et a été appliquée avec succès dans le domaine de l'identification. En raison de leurs puissantes capacités de reconnaissance des formes, de nombreux chercheurs ont appliqué les MMC dans plusieurs domaines : reconnaissance de caractères, reconnaissance vocale, reconnaissance faciale (Kim et al.,2003), caractérisation en médecine (toux) (Liu et al. ,2015), reconnaissance du comportement, ainsi que dans le diagnostic et le pronostic des défaillances (Lee et al.,2004). Dans certains travaux, les chercheurs ont contribué à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle, comme dans les travaux de (Aupetit et al.,2007), qui ont introduit les algorithmes génétiques, l'algorithme de fourmis artificielles pour améliorer l'apprentissage des modèles de Markov cachés. Les MMC ont également été utilisés dans des problèmes multi-classes en les combinant avec d'autres classificateurs, comme dans (Martín-Iglesias et al.,2005), pour effectuer une reconnaissance vocale multi-classes fondée sur un SVM avec une segmentation guidée par un MMC, ou (Wang et al., 2022) qui ont fusionné un réseau neurone profond et un MMC pour reconnaître le comportement multi-classes anormal des personnes âgées. Les MMC ont également été utilisés dans les problèmes de clustering, comme dans le travail de (Smyth,1997), mais dans notre étude, l'objectif n'est pas de faire du clustering à l'aide de MMC, mais de résoudre des problèmes multi-classes. Pour ce faire, nous introduirons une nouvelle stratégie d'apprentissage. Cette stratégie s'inspire des principes de non-comportement (NBA) (Cao et al.,2015).
Cet article expose une démarche à l’état-de-l’art de la fiabilité en gestion d’actifs, avec une attention particulière portée sur l’évaluation quantitative des risques, dont les méthodes sont implémentées dans ReLife, une bibliothèque Python open source. La
méthodologie repose sur une modélisation probabiliste des durées de vie des actifs, et est fondée sur des technologies statistiques pointues telles que les Processus Non-Homogènes de Poisson et les processus Gamma. Cette modélisation, distinguant pannes réparables de non réparables, sert de base à la définition et à la comparaison, grâce à ReLife, de politiques de maintenance variées, allant du remplacement préventif au monitoring, afin de choisir l'alternative la plus avantageuse. La projection des politiques de maintenance s'appuie sur la théorie du renouvellement, offrant une vision prospective des exigences de remplacement et de l'impact financier. L'article souligne l'importance
d'une approche méthodique et éclairée par des données probantes pour une gestion des actifs optimale, favorisant la résilience et la durabilité des infrastructures.
L’analyse de survie est une branche des statistiques utilisée pour caractériser le temps avant l’apparition d’un événement unique à partir des données issues du retour d’expérience. Dans le domaine de la fiabilité, cet événement correspond le plus souvent à la défaillance non réparable d’un matériel. L’information du temps avant cette défaillance joue un rôle crucial dans de nombreux domaines industriels, en particulier pour les gestionnaires d’actifs. Ces derniers cherchent à appliquer l’analyse de survie en se basant sur leurs données industrielles issues du leur système d’information opérationnel d’entreprise, notamment les outils de Gestion de Maintenance Assistée par Ordinateur (GMAO). Dans ce contexte, cet article soulève les difficultés les plus courantes rencontrées lors de la constitution d’un échantillon de données de durées de vie et présente des moyens de détecter et corriger certaines erreurs. Chaque étape est illustrée par des cas d’applications sur données réelles et simulées d’actifs électriques haute tension. Une méthodologie itérative, synthétisée dans un logigramme, est proposée afin de s’assurer de la pertinence du jeu de données constitué.
L’Agence Spatiale Européenne (ESA) a pour but principal la promotion du Spatial parmi les états membres et la fourniture de moyens et ressources en termes de recherche et technologie pour application dans le Spatial.
L’équipe RAMS de l’ESA (section TEC-QQD) est composée d’ingénieurs qui interviennent au niveau système pour aider et guider les industriels dans le développement des projets. Mais leur rôle est aussi de proposer des sujets d’études pour recherche et développement dans le but d’améliorer le contexte global de la fiabilité et de la sécurité de la communauté spatiale européenne.
Ces dernières années, les sujets suivants ont été confiés a l’industrie/aux universitaires pour études :
- Développement d’un nouveau manuel de l’European Cooperation for Space Standardization (ECSS) sur la fiabilité dans le spatial,
- Augmentation de l’utilisation des RAMS pour les petits satellites,
- Intégration des RAMS dans le Model-Based System Engineering (MBSE),
- Failure Detection Isolation and Recovery (FDIR) basée sur l’Intelligence Artificielle (IA)
- Capture des anomalies vues en orbite et analyse du Retour d’Expérience (REX) des projets ESA.
Le but de ce papier est de présenter les contextes et objectifs initiaux de ces études ainsi que les résultats finaux et les perspectives.
Traditionnellement, les analyses de risques sont dominées par les défaillances matérielles, et elles s'appuient sur des données de fiabilité accessibles, et utilisées en arbre de défaillance . Le STPA (Systems-Theoretic Process Analysis) est une méthode d'analyse de risque qui se focalise sur l'investigation de causes plus larges que les seules défaillances matérielles. L'approche STPA se concentre sur un problème de contrôle, en accordant une importance aux échanges de données et au temps. Les actions de contrôle indésirables sont analysées sur une structure de contrôle via une méthodologie rigoureuse qui prend notoirement en compte des omissions et des dysfonctionnements des logiciels et des données.
Cet article se concentre sur la méthodologie STPA appliquée à une mission de service en orbite à l'aide d'un outil MBSE (Model Based System Engineering). Thales TRT a développé un viewpoint STPA dans Capella, une suite logicielle open source MBSE basée sur la méthodologie Arcadia. L'analyse est effectuée sur des phases spécifiques de rendez-vous en orbite. Les avantages de l'utilisation de ce MBSE pour effectuer une STPA et les résultats supplémentaires de la STPA sont évalués. Le but est d’ améliorer la compréhension des causes sur une mission complexe. Les missions de service en orbite comprennent un client, un véhicule de service , un segment sol et des tiers à proximité de l'orbite. En aboutissant à des contre-mesures contre les scénarios identifiés, les étapes finales de la STPA augmentent le nombre de contrôles de risques, via des spécifications, ce qui permet ensuite une poursuite avec un processus de sécurité traditionnel.
En effectuant une STPA tôt pendant le processus de conception, elle peut fournir des informations précieuses à une équipe RAMS et d'ingénierie, tant pour les contrôles de sécurité que pour les besoins de la mission. La construction d'un processus complet de système de sécurité avec MBSE, les diagrammes associés permettent de traiter la STPA plus facilement et plus précisément qu'une étude STPA faite sur Excel, comme montré dans un chapitre dédié. Ce travail aborde l'utilité de la STPA pour la spécification en pré-conception et la spécification d'unités et de sous-systèmes avancés spécifiques. Le visuel de l’approche, la traçabilité entre les scénarios de perte et les contre-mesures, la connexion à une structure de contrôle évolutive, la compatibilité multi-utilisateurs et l'amélioration de la spécification des logiciels en matière de sécurité opérationnelle sont les résultats positifs discutés dans cette démonstration de concept.
Cet article définit la méthode de calcul de la défiabilité des lanceurs sur la base d’échecs observés en vol, ci-après appelée « défiabilité empirique ». Par opposition à la fiabilité prévisionnelle basée sur des méthodes de calcul théoriques (standards avioniques, application de règles de design fluidiques et structurelles, méthodologie pyrotechnique, etc.), la fiabilité empirique s’appuie sur des données a priori tirées du retour d’expérience des lanceurs comparables et sur des données a posteriori c’est-à-dire sur les données d’observation du lanceur étudié. Cette méthode a deux atouts principaux : elle s’affranchit du besoin d’avoir des entrées détaillées sur la conception du lanceur et elle reflète plus fidèlement la réalité, en captant des sources de défiabilité qui ne sont pas ou mal prises en compte par les méthodes de fiabilité prévisionnelle classiques, notamment les erreurs humaines, les dérives de production et les évènements de niveau système lanceur. Ne cherchant pas à se soustraire à la démarche de défiabilité prévisionnelle utile et reconnue pendant le développement d’un produit, d’un sous–système ou d’un système de lancement, il est pertinent de faire appel à la défiabilité empirique dans les situations où le point de départ est l’utilisation de l’observé des lanceurs en vol (échec ou réussite) afin de se rapprocher le plus possible de la réalité.
CALLISTO est un démonstrateur en vol de premier étage de lanceur réutilisable. Le défi est de développer les compétences des agences spatiales nationales (CNES, JAXA et DLR) nécessaires à la récupération puis réutilisation d’un étage de lanceur : la conception du véhicule et de ses produits, la mise au point du segment sol et des opérations post-vol de récupération et de réutilisation. Comme tout projet conduit depuis le CSG, la réglementation française sur les aspects sécurité s’applique pour les opérations avant et après vol réalisées sur le site et la gestion de la sécurité des personnes et des biens pendant le vol. Les niveaux de fiabilité, disponibilité et maintenabilité à atteindre sont à l’appréciation des projets. Le projet CALLISTO a décidé de ne pas spécifier de niveau de fiabilité quantitatif à atteindre. Ce papier décrit donc comment la fiabilité est prise en compte pour garantir un niveau de fiabilité et de sécurité lors des opérations au sol, permettre l’autorisation de vol et l’évaluation du niveau de sécurité en vol. Ce papier s’appuie sur des exemples d’application concret.
La maîtrise des risques suppose d’adopter la meilleure stratégie basée sur une compréhension claire du problème de risque. Ceci nécessite d’optimiser la stratégie dans ses composantes réparatrices (curative, après l’évènement redouté), réactives (pendant celui-ci) et préventives (en amont pour empêcher sa survenance ou matérialisation). L’expérience industrielle privilégie la prévention, généralement considérée comme plus efficace et moins coûteuse en argent, temps et délai, si elle est bien calibrée. Pour autant, les décideurs et les financeurs restent à convaincre. Devant l’incertitude, la tendance est d’écarter un projet qui peut représenter un investissement conséquent. C’est pourquoi il est nécessaire de présenter une démonstration quantifiée, supposée solide. Mais certains outils, comme la matrice des risques, présentent des résultats sans nuance, sans connaître la solidité des hypothèses qui les sous-tendent. Le choix des solutions est alors un pari dangereux. L’article souligne l’importance d’un cadre pour la prise de décision éclairée par les risques soutenant la connaissance et les préoccupations des parties prenantes qui deviennent des dimensions fondamentales de la maîtrise des risques.
Les crues lentes représentent un défi particulier pour les collectivités locales qui doivent faire face aux dysfonctionnements des réseaux techniques urbains (électricité, transports, télécommunications, eau potable, …) et aux conséquences en termes de gestion des services publics pour leurs administrés. En témoignent les deux épisodes successifs des crues de 2016 et 2018 sur le bassin de la Seine qui ont touché des communes d’Ile-de-France et du Loiret. Selon le rapport de la Cour des Comptes (2022) : ils ont respectivement occasionné 1,4 milliard d’euros de dommages pour les crues de mai-juin 2016 et 150 à 200 millions d’euro pour les crues de janvier-février 2018. Nous présentons ici les résultats d’une enquête approfondie menée auprès de 28 collectivités locales d’Ile-de-France (IDF) reconnues sinistrées par arrêté de catastrophe naturelle des crues de mai-juin 2016 et/ou de janvier-février 2018. L’enquête a permis d’appréhender localement l’impact des crues sur les coupures de réseau, les solutions alternatives utilisées pour la continuité d’activité et les types de données (cartographiques et géomatiques) échangées en crise. Complété par des entretiens auprès d’ acteurs locaux de métiers divers, le RETEX a permis de mettre en avant le caractère déjà très significatif des atteintes aux réseaux pour des crues de moyenne ampleur à l’échelle de la région IDF, l’hétérogénéité de la temporalité des coupures de réseaux à bien prendre en compte en termes de gestion de crise sur le plan organisationnel et humain, ou encore les besoins prioritaires en données SIG et cartographiques plus précises sur les zones de fragilité des réseaux (notamment eau potable et assainissement).
L’actualité illustre la multiplication des phénomènes extrêmes et l’importance de la mobilisation collective pour éviter et, à défaut, limiter les impacts des crises. L’objectif de la communication est de mettre en perspective les apports des démarches de continuité d’activité pour une meilleure résilience des organisations et les conditions de leur optimisation. La résilience, au sens où elle est employée ici, couvre la prévention, la réaction (gestion de l’urgence ou de la crise) et le relèvement en post-crise.
Nous nous appuyons sur les travaux de l’Institut pour la maîtrise des risques (IMdR) et en particulier les publications de son groupe de travail et de réflexion consacré au plan de continuité d’activité (GTR PCA), sur les échanges lors du séminaire « La résilience est-elle une mode durable ? Les jalons vers une résilience collective », qui s’est tenu le 19 octobre 2023 en partenariat entre l’IMdR et l’Association française pour la prévention des catastrophes naturelles et technologiques (AFPCNT), ainsi que sur des documents normatifs pertinents de l’AFNOR et de l’ISO.
Cette communication esquisse des voies d’amélioration pour coordonner les disciplines contribuant à la résilience, dont fait partie la continuité d’activité, et pour faciliter une diffusion cohérente entre les acteurs structurés et les acteurs néophytes ou à ressources limitées.
L’objectif de cette communication est de mettre en perspective les investissements nécessaires au niveau des collectivités territoriales pour renforcer la résilience des territoires. Des dispositifs règlementaires ont été mis en place pour faire face aux impacts croissants des risques naturels et technologiques. Dans quelle mesure sont-ils efficaces pour réussir à maîtriser et réduire les dommages présents et futurs ? Les contraintes imposées par ces dispositifs briment-elles les initiatives ou faut-il au contraire les appréhender comme des leviers sur lesquels s’appuyer, quitte à lever les imperfections manifestes ? Cette communication se veut optimiste en considérant que l’essentiel est d’investir dans l’humain, pour implanter dans les organisations les compétences nécessaires afin d’utiliser au mieux et d’améliorer ces outils. Cela passe par un effort de formation massif, visant à la fois des compétences métiers et des compétences distribuées, aptes à travailler en réseau.
Lors du congrès Lambda Mu 23, compte tenu des enjeux en matière de réindustrialisation et de transition écologique des entreprises, une extension de la sûreté de fonctionnement à la sûreté de fonctionnement soutenable, a été étudié afin d’intégrer aux systèmes techniques, en sus des propriétés traditionnelles, la propriété de soutenabilité écologique. Ces travaux ont donné lieu à l’identification d’un modèle de détermination de la valeur d’un système technique, à la fois du point de vue des performances financières et extra-financières.
Afin de continuer à développer ce modèle, notamment sur les performances extra-financières, le présent article restitue une analyse des connaissances existantes sur les modèles de quantification d’impacts environnementaux tout en portant un regard critique sur ce qu’ils peuvent dire sur la notion de risque écologique. Cette analyse est menée à travers plusieurs prismes tels que la disponibilité des données structurées, le caractère multicritère et la localisation des impacts quantifiés. Enfin, une mise en perspective des différents modèles de quantifications est faite à la lumière des niveaux systémiques entrant en jeu dans la fourniture d’un système ingéniéré : composants, système technique, socio-technique, socio-économique et socio-écologique.
Dans le cas d’un lanceur réutilisable, dont l’objectif est de réduire les coûts de production récurrents et les impacts écologiques, la réutilisation du premier étage rend le système de propulsion liquide plus complexe étant donné que la durée de vol est plus longue et que les stress dus aux cycles moteurs (modulation de poussée, allumages et arrêts) sont répétés pour mener à bien une mission depuis le décollage jusqu’à l’atterrissage. Ainsi, la nécessité d’avoir une connaissance avancée de la dégradation physique et de l’état de l’étage, du moteur et des équipements durant un vol (traitement en temps réel) et après atterrissage (analyse post-vol) est un besoin vital dans le développement des prochaines générations de lanceurs.
C’est dans ce contexte que l’« Integrated Vehicle Health Management » (IVHM), traduit par « Véhicule à gestion de santé intégrée », en tant que démarche et concept, est un levier fondamental car participant à l’ingénierie et à la définition des exigences pour assurer la sauvegarde, la réussite de la mission et la disponibilité du lanceur. Ce concept a également une incidence sur l’établissement d’une stratégie de maintenance entre les vols, en particulier la maintenance conditionnelle voire prédictive basée sur l’état des moteurs à ergols liquides et de la vie résiduelle estimée.
Cette communication rappelle en premier lieu un historique de l’évolution du Health Monitoring System (HMS) sur des véhicules spatiaux. Puis, en regard des réglementations applicables et spécifications liées à la sécurité et fiabilité, les opportunités de l’IVHM sont discutées dans un contexte de réutilisation de moteurs à propulsion liquide au sein d’une baie multi-moteurs. Enfin, ce document se termine par des recommandations et perspectives de travail pour un développement futur de l’IVHM.
Salle A
L’atelier vise à présenter les travaux du Groupe de travail et de Réflexion “Facteurs Organisationnels et Humains (FOH), Systémique et Maîtrise des Risques”. Il aura pour but de montrer et mettre en discussion en quoi les éléments de la systémique sont utiles à la réalisation et au développement d’actions FOH.
Salle G
L’atelier vise à présenter les travaux du Groupe de travail et de Réflexion “Les
cindyniques à la portée de tous”. L’atelier présentera succinctement les
principes et modes opératoires des cindyniques avec des exemples d’application.
Salle B
L’atelier vise à présenter les travaux du Groupe de travail et de Réflexion “GTR gestion d'actifs”.
Salle C
L’atelier vise à présenter les travaux réalisés dans le cadre du “GTR FIDES” et du “Centre Français de Fiabilité”. Il vise aussi à aborder l’avancement de l’IEC 63142 Ed. 1, le Guide FIDES 2022 et l’étude ESA NRPM – rédaction document ECSS
Salle D
L’atelier vise à présenter les travaux du Groupe de travail et de Réflexion “Sécurité et sûreté des structures (3S)”. Il vise également à donner un aperçu global de l’impact de la dégradation sur la fiabilité des structures.
Salle E
L’atelier vise à présenter les travaux du Groupe de travail et de Réflexion “Maîtrise des systèmes complexes par des innovations de rupture transdisciplinaires (MSC-IRT)”.
Salle F
L’atelier vise à présenter le projet d’ouvrage collectif issu des travaux du Groupe de travail et de Réflexion “Gestion intégrée des Risques et de la Complexité”.
M. Jérôme BOUTANG, Directeur général (Citepa)
M. Maxence CLÉMENT, Chef du service d'économie agricole (Direction départementale des Yvelines)
Inscrivez-vous à la visite de la ville de Bourges organisée par l'office de tourisme.
https://www.imdr-lambdamu.eu/visites-industrielles
Rendez-vous à 18h30 à l'office de tourisme Rue Simone Veil, 18000 Bourges
Salle du Duc Jean de Berry - Pl. Marcel Plaisant, 18000 Bourges
Cette communication présente une étude sur la survivabilité des systèmes de systèmes (SdS) dans des contextes où des agressions intentionnelles peuvent survenir. L'objectif principal est d'évaluer la capacité du système de systèmes à préserver sa mission et à maintenir la survie de ses composants. Pour cela, l'étude se concentre sur l'utilisation des réseaux de Pétri, un formalisme de modélisation qui permet de représenter graphiquement et mathématiquement le comportement dynamique des systèmes. En utilisant des simulations et des analyses temporelles, l'étude compare deux architectures de système de systèmes, centralisée et distribuée, face à trois événements redoutés liés à la communication. Les premiers résultats indiquent que l'architecture distribuée est plus robuste dans ces scénarios spécifiques, mais soulignent également la nécessité d'explorer davantage de paramètres et de considerations comme l’exploration d’architectures mixtes et en augmentant le nombre de systèmes examinés pour parvenir à des conclusions définitives. Enfin, l'étude identifie les limites des outils de recherche et envisage l'utilisation d'outils commerciaux pour des analyses plus poussées.
L’énergie électrique est essentielle pour nos usages quotidiens et industriels. Les besoins en énergie électrique augmentant constamment, le système qui assure sa fourniture doit être sûr. Ainsi, le système électrique a évolué vers le concept de Réseau Intelligent pour faire face à ces divers usages. Dès lors, la définition de modèles de systèmes électriques se standardise.
Cependant, un défi pour les acteurs industriels persiste : comment assurer la cohérence d'un système électrique plus fiable, interopérable et intégrant les exigences liées aux métiers, normes et technologies du secteur de l’énergie électrique ? Cette cohérence questionne les mécanismes d’échange de données facilitant les interactions à différents niveaux de l’infrastructure.
Pour le métier de la sûreté de fonctionnement, EDF a développé le langage FIGARO et l'outil KB3-K6 utilisant une approche basée sur des modèles de Markov, pour vérifier les exigences de fiabilité et de disponibilité de ses réseaux. Dans les domaines du transport et de la distribution de l’électricité, le standard CIM (Common Information Model) a été développé afin d’échanger des informations de réseaux électriques. Dans cet article, nous proposons une démarche pour identifier les correspondances entre des concepts du modèle CIM décrit en UML (Unified Modelling Language) et les concepts de la sûreté de fonctionnement décrits en langage FIGARO afin de définir une future transformation de modèles. Pour cela, il est nécessaire d’identifier le niveau sémantique des concepts des deux domaines.
L’objectif est de définir une approche pour construire des modèles de fiabilité à partir de données et éléments d’architecture de systèmes existants, sur la base de modèles standards de description de réseaux électriques. Le principal résultat est un ensemble de règles de transformation entre les concepts d’un modèle CIM et les concepts d’un modèle FIGARO.
La future norme IEC 63187-1 (IEC, 2022) est une instanciation de la safety dans l’ingénierie système représentée par l’ISO / IEC / IEEE 15288:2023 (ISO et al. 2023). Son domaine d’application regroupe les systèmes et les systèmes de systèmes liés aux activités de défense qui sont de plus en plus complexes et présentent, du point de vue safety, certaines particularités rendant difficile l’application des normes existantes. Il n’est pas pertinent pour ces systèmes de limiter le nombre de couches de décomposition et d’allocation à 2 ou 3 niveaux bien que cette limitation soit implicitement présente dans les normes de safety existantes, au travers des métriques d’importance largement employées par l’industrie (SIL (IEC, 2010), DAL (EASA et SAE, 2023), ASIL (ISO, 2011), etc…). De plus, les normes existantes ne fournissent pas les outils permettant d’adapter ces métriques par rapport à leurs principes et hypothèses sous-jacents. Ces hypothèses sont souvent implicites et ne sont pas compatibles ce qui rends hasardeuse l’intégration d’un système utilisant des sous-systèmes répondant à des métriques d’importance provenant de normes différentes.
L’IEC 63187-1 s’est fixé certains objectifs tels que de pouvoir unifier la démarche de safety des systèmes de défense, adresser les limitations des métriques d’importance existantes et être applicable à toute la diversité des systèmes et systèmes de systèmes. Pour cela la future norme rationalise la prise en compte des objectifs de safety tout au long du cycle de vie au travers d’un concept de Mesure d’Importance.
Cette publication présente une méthode de comparaison de performances de fiabilité de différents matériels roulants qui supprime le biais introduit par des profils de mission kilométriques et de vitesses qui sont nécessairement différents. Une fois le périmètre de l’étude établi, son point de départ est de réaliser des modèles de croissance de fiabilité sur des données de terrain pour chacun des produits sélectionnés. Alstom recommande le modèle de Crow-AMSAA pour sa capacité à ajuster les données, spécialement les derniers points d’observation. Dès lors, il devient possible de tracer les courbes de croissance de fiabilité sur un profil de mission kilométrique unique dit de référence. De manière analogue, on doit corriger l’influence des vitesses moyennes qui influent sur l’intensité de fiabilité (mesurée en km-1) ; la comparaison se déroule « comme si » les flottes de trains avaient la même vitesse moyenne. Au final, cette comparaison vise à lancer une analyse de causes qualitative devant déterminer les bonnes pratiques et les solutions pour garantir la fiabilité.
Répondant à un besoin en optoélectronique dans le domaine spatial, ce guide est devenu générique et multisectoriel. Outre l’électronique, il couvre la mécanique, traite des architectures de systèmes, des essais accélérés et même des composants monocoups. Précis mais synthétique (108 pages), il donne immédiatement aux lecteurs l’information
nécessaire à la bonne résolution de sa problématique, sans nécessité de prérequis. Il propose la méthode la plus adaptée à chaque situation, avec une description claire de son principe et de ses limitations et la délivrance systématique d’un exemple d’application (32 fichiers de calcul Excel sont fournis avec l’ouvrage). Ce guide pratique devrait ainsi trouver sa place auprès des concepteurs, qui ne disposent pas tous de la culture de la fiabilité, pour réaliser des produits fiables et économes en ressources. S’appuyant sur les nombreuses publications scientifiques et ouvrages de référence, il constitue, par ailleurs, un "garde-fou" méthodologique susceptible d’éviter les erreurs trop souvent rencontrées dans notre métier.
La surveillance des indicateurs implique la collecte en continu et l'analyse de métriques, ce qui permet d'éclairer la prise de décision. Cependant, des erreurs de mesure peuvent entacher la collecte d'indicateurs et conduire à une décision erronée. Cette contribution
propose une approche probabiliste pour la prise en compte de telles erreurs de mesure. Notre travail est réalisé dans le contexte de l'industrie manufacturière, où la métrologie est un outil clé pour le tolérancement car elle est utilisée pour déterminer si les dimensions sont dans leurs intervalles de tolérance. Cependant, la méthode proposée peut facilement être appliquée à d'autres problème, tant que l'indicateur considéré implique une plage de valeurs acceptables. La densité de probabilité de l'erreur de mesure est supposée connue; ce travail est inclus dans un projet de recherche en collaboration avec une entreprise de métrologie, où les ingénieurs sont en mesure de nous fournir ces informations.
Cet article décrit une stratégie pour tenir compte de ces erreurs de mesure et corriger (partiellement) ou atténuer leurs effets. À travers l'inférence bayésienne, la vraisemblance des vraies valeurs données des valeurs mesurées est estimée, permettant une correction probabiliste.
La méthode proposée est appliquée à des exemples numériques avec des données simulées et sa pertinence est discutée.
Le déploiement de l’ingénierie dirigée par les modèles pour la réalisation d’évaluation de sûreté de fonctionnement (MBSA) amène à devoir réaliser des modèles dynamiques de grande taille, fortement connexe et comprenant des boucles fermées (représentatives de boucles d’asservissement de nos systèmes industriels). Pour ces modèles de grandes tailles, les moteurs d'évaluation existants ont des difficultés à obtenir les performances de Sûreté de Fonctionnement dans des temps raisonnables. Pour répondre à cela, nous avons initié des travaux pour la conception et le développement de nouveaux moteurs de simulations qui sont librement distribués avec l’outil MBSA « System-Analyst ». Cette communication vise à présenter succinctement les concepts sous-jacents, les types d’évaluations disponibles aujourd’hui et les travaux prévus par la suite sur ces nouveaux moteurs d’évaluations. Nous présenterons deux applications réelles industrielles l’une en lien avec les activités de Naval Group et l’autre en lien avec les activités de Thales DMS. Ces deux applications nous permettrons de comparer d’une part les résultats obtenus et, d’autre part, le temps nécessaire pour obtenir ces résultats, avec deux outils MBSA disponibles sur le marché : SIMFIA NEO et AltaRica Wizard de l’association OpenAltaRica.
Ce papier propose une méthode d’estimation de la probabilité de défaillance cachée des relais de protection numériques des réseaux électriques de transport. Pour accompagner l’électrification croissante de l’industrie et de différents usages, il est nécessaire de
garantir une fiabilité maximale du réseau électrique avec le moins de coupure de clients possible. Or, il est admis que les défaillances des systèmes de protection, dont les relais et les disjoncteurs font partie, jouent un rôle dans la cascade d’événements qui peuvent conduire à un blackout. Toutefois, les modèles de défaillances de ces relais, particulièrement ceux donnant la probabilité de mauvais déclenchements, ont été développés à partir du fonctionnement des relais électromécaniques, dont le nombre encore en service est très faible. C’est pourquoi ce papier présente une méthodologie cherchant à quantifier la probabilité de mauvais déclenchement des relais de protection numériques actuellement utilisés par les gestionnaires de réseaux. Ce papier montre que la probabilité de ce mode de défaillance n’est pas uniforme sur un réseau donné et n’augmente pas nécessairement avec le niveau de charge de la ligne protégée, contrairement à ce qui est prédit par les modèles électromécaniques
Le parc de production ainsi que le réseau électrique Sud Katanga sont vieux de plus d’un demi-siècle. Depuis une dizaine d’années, il y a une forte augmentation de la demande énergétique due à l’accroissement des activités industrielles (principalement minières) dans la région où est implanté le réseau sud Katanga.
L’objectif de cette communication est d’évaluer la stabilité transitoire en fréquence du Réseau Sud Katanga selon diverses contingences liées à la production, aux charges et aux transits. L’étude de la fréquence nous permet de prédire les conséquences de chaque contingence sur l’adéquation entre la production et la consommation. Les scenarios simulés sont la perte brusque de production de chaque centrale, la perte brusque des charges importantes, les courts-circuits et les défauts de ligne à fort transit.
Pour atteindre notre objectif nous avons proposé un modèle réduit du réseau et avons simulé différentes contingences. La particularité de cette recherche réside dans la prédiction du comportement en fréquence d’un réseau vulnérable ayant un déficit important car la demande est forte par rapport au parc de production.
La règlementation européenne REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals) a été mise en place en 2007 et a pour objectif d’assurer un niveau élevé de protection de la santé humaine et de l'environnement en contrôlant l'utilisation de produits et de substances chimiques. Pierre angulaire du Plan d’Action Zéro Pollution du Green Deal européen - un ensemble d’initiatives politiques de la commission européenne – REACH, malgré un système pensé robuste et qui a posé les bases de la protection contre les substances chimiques, possède des failles indéniables. La réglementation fait l’objet d’une révision ayant pour objectif de la rendre plus efficace dans son but initial. Un groupe de travail de la commission Européenne s’est emparé du sujet et a formulé en ce sens des propositions pour amender le règlement. Malgré ces proposition et l’appui direct du Green Deal, la discussion politique de cette révision au parlement européen a été repoussée le 17/10/2023, preuve que maîtriser l’usage des substances chimiques est un sujet complexe tant il y a des parties prenantes. L’étude souligne diverses limites établies de la réglementation et livre une analyse sur les propositions de révision formulées et sur leurs impacts sur la santé humaine, l’environnement et l’industrie.
Alors que la dépendance actuelle envers les méthodes déclaratives demande une certaine confiance dans les fiches techniques transmises par les fournisseurs, elle ne capture pas de manière adéquate l'ensemble des substances présentes dans leurs produits. Pour surmonter cette limitation, il est impératif de passer à une approche basée sur la preuve, permettant une compréhension complète et transparente des substances utilisées. Cette étude aborde les défis rencontrés dans la conformité réglementaire, en particulier dans le cadre des règlementations REACH et des exigences de la base de données SCIP lors de la déclaration d'informations sur les substances par les fournisseurs. L'étude explore la faisabilité de la mise en œuvre de méthodes évaluées par des pairs pour valider les déclarations des fournisseurs, assurant ainsi la précision et réduisant le risque de substances non divulguées qui sont souvent très dangereuses. À travers cet article, l'objectif est de trouver un équilibre entre la protection des informations propriétaires des fournisseurs et la promotion d'une chaîne d'approvisionnement plus responsable et transparente.
La valeur juridique des normes de sécurité est aussi variable qu’incertaine. La cour de justice européenne vient de préciser la nature et la portée des normes harmonisées concernant la sécurité des produits. Les domaines du management du risque et de la sécurité font dorénavant l’objet de nombre uses normes dont des normes système à vocation certifiante. Cela concerne la résilience, la continuité d’activité et bien d’autre sujets développés par l4ISO TC 292 Security and Resilience Les normes de management telle l’ISO 9001 sont appelées par la réglementation comme normes harmonisée. Dès lors se pose la question de la nature et de la portée juridique et de l’applicabilité des normes de management en général et des normes de systèmes de management en matière de sécurité en particulier. Nous essayons d’apporter une réponse à cette question.
Pour assurer leur souveraineté, un nombre croissant d’organisations s’engagent dans une stratégie de Transformation Digitale (TD). Le but de nos travaux est l’amélioration de l’efficacité et de l’efficience de l’organisation et de son réseau par la gestion des risques de sa TD. Cette dernière doit permettre de traiter certains risques présents dans le fonctionnement actuel de l’organisation (risques primaires).
Cependant, de nouveaux risques apparaissent lorsqu’elle décide de s’engager dans une TD (risques secondaires). Les sources de risque sont multiples: technologiques, humaines, organisationnelles et environnementales. Ces risques peuvent apparaître à la fois dans le fonctionnement interne de l’organisation mais également lors des interactions avec son réseau. La perte de visibilité sur les effets des risques primaires et secondaires est d’autant plus probable que le nombre de parties prenantes est grand. Les travaux présents dans la littérature se limitent souvent aux risques primaires. L’originalité des travaux présentés dans cet article est de proposer une approche permettant d’établir un diagnostic de l’organisation et de son réseau lui permettant de réussir sa TD en développant une stratégie appropriée de gestion des risques associés à cette TD. Pour caractériser la situation initiale, le niveau de maturité de chaque organisation/réseau est évalué sur les différents domaines de la TD. Un projet de TD est proposé en sélectionnant un ensemble pertinent et cohérent d’actions caractérisées par leurs impacts ainsi que les risques associés à ces actions à plusieurs niveaux (réseau, organisation, projet). La modélisation des risques primaires et secondaires, des actions primaires et secondaires et des interdépendances entre tous ces éléments permet ainsi de déterminer un plan de réponse aux risques adapté à la complexité à la fois du système impacté, l’organisation, et du système impactant, le projet de TD.
L'article examine la quête d'une gouvernance des risques efficace dans un contexte de poly-crises. Il souligne l'importance de la performativité de la gouvernance dans les processus de décision publique, en particulier dans le contexte de crises complexes telles que le dérèglement climatique et la raréfaction des ressources. Alors que les approches centralisées dirigées par un leader charismatique étaient historiquement privilégiées, les modèles participatifs et délibératifs sont désormais considérés comme des moyens plus efficaces et légitimes de prendre des décisions face à des enjeux complexes. Cependant, le choix entre les modèles représentatifs et participatifs reste sujet à débat, et il y a un manque de recherche sur leur efficacité et leur performativité. L'article souligne également l'importance de l'évaluation des décisions et des processus pour comprendre leur impact réel. En adoptant une approche holistique et écosystémique, la gouvernance des risques vise à transcender l'anthropocentrisme et à prendre en compte la spatialité et la temporalité pour assurer à la fois l'efficacité et la robustesse des systèmes de gouvernance face aux défis contemporains.
Malgré les progrès considérables réalisés pour assurer la sûreté grâce à diverses barrières techniques, les organisations à haut risque et fortement réglementées n'ont pas été épargnées par les accidents majeurs mettant en jeu les accidents mortels. De plus en plus d'éléments indiquent que ces accidents ne sont pas uniquement imputables aux limites des barrières techniques, mais plutôt au défi que représente la résolution de multiples tensions résultant d'interactions complexes entre les facteurs techniques, humains et organisationnels. Reconnaissant cette complexité, la littérature et les cadres réglementaires ont récemment mis l'accent sur le rôle du leadership. Cependant, même si le rôle du leadership dans la gestion des tensions organisationnelles est de plus en plus reconnu, la littérature sur le leadership en sûreté continue de considérer le leadership comme la capacité individuelle à définir et à atteindre des objectifs de sûreté, en ignorant sa nature processuelle et intégrée dans l'organisation. Nous mobilisons la théorie du leadership de la complexité et plus particulièrement son concept de leadership habilitant pour fournir une analyse plus nuancée des tensions à plusieurs niveaux et de leurs interrelations, qui va au-delà de la représentation des différentes logiques, mécanismes ou processus comme des extrêmes polaires irréconciliables. Grâce à une revue intégrative de la littérature scientifique et à une approche d'élicitation des connaissances des experts, nous développons un cadre conceptuel de tensions dynamiques et intégrées dans l'organisation, que les dirigeants devraient adopter pour améliorer la sûreté. En décryptant les dimensions de la complexité liées au leadership en sûreté, nos résultats contribuent au développement de futures pistes de recherche sur le leadership et guident des politiques et des réglementations plus nuancées dans les industries à haut risque.
Salle D
Salle B
L’article propose une démarche méthodologique pour déterminer des modèles de comportements humains, techniques ou organisationnels et les simuler afin d’en vérifier la cohérence et de prévenir des risques potentiels en vue d’améliorer la résilience des futurs systèmes sociotechniques en se focalisant sur trois paramètres: les compétences, les disponibilités des ressources ou les possibilités d’action ou d’interaction. Des modèles holistiques et spécifiques sont implémentés avec les réseaux de Petri pour simuler l’implication de facteurs humains, techniques ou organisationnels dans le déroulé de ces comportements, et avec les arbres de défaillances pour déterminer des comportements indésirables. Un modèle holistique correspond à un comportement générique pouvant être associé à différentes entités humaines, techniques ou organisationnelles, un modèle spécifique est propre à une entité donnée et les comportements d’une même entité
peuvent impliquer plusieurs modèles. L’analyse de ces modèles permet d’obtenir différents scénarios modélisés à partir d’arbres de causes.
La démarche est appliquée au domaine des transports et des modèles numériques prenant en compte différentes entités telles que des automobilistes, des conducteurs de tramway, des piétons ou des systèmes d’aide à la conduite ont pu être identifiés. Certains scénarios issus des arbres de causes obtenus ont été implémentés, simulés et validés avec la plateforme MissRail.
Salle A
La fiabilité d'un système dépend des effets conjoints du vieillissement et de l’efficacité des maintenances. Le vieillissement intrinsèque est modélisé à l'aide de lois de probabilité pour la durée de fonctionnement d'un système non maintenu. L’effet d’une maintenance est souvent compris entre parfait et minimal, on parle alors de maintenance imparfaite. L'évaluation de la fiabilité des systèmes nécessite l'application de modèles de maintenance imparfaite et l'estimation statistique de leurs paramètres, au vu des données. Les modèles de maintenance imparfaite considérés ici sont les modèles d'âge virtuel de type ARA (Arithmetic Reduction of Age). Cet article se concentre sur l'estimation des paramètres dans un cadre de censure à gauche pour les modèles ARA.
Dans notre cadre, les maintenances préventives (MP) sont planifiées. Lorsque des défaillances surviennent, elles ne sont détectées que lors des MP. Ainsi, la maintenance corrective (MC) correspondante n'est effectuée qu'au moment de la prochaine MP. L’effet d’une MP est donc différent selon qu'il y a eu ou non une défaillance depuis la MP précédente. Deux types de maintenance sont alors considérés: la MP classique lorsqu'il n'y a pas eu de défaillance depuis la dernière MP et la maintenance préventive corrective (MPC) s'il y a eu au moins une défaillance. Tous les effets de ces maintenances sont supposés imparfaits. Nous avons présenté au lambda-mu 2022 (Cousino et al., 2022) l’estimation des paramètres pour ce modèle ARA particulier dans le cas où les données sont censurées par intervalle. Dans la pratique, les données sont souvent, en plus, censurées à gauche. Le but de cette présentation est de proposer différentes méthodes statistiques adaptées à cette situation.
Avant la date de censure à gauche, les instants de défaillance ne sont pas connus. Ainsi, pendant cette période, il est impossible de savoir si les précédentes maintenances ont été des MP ou des MPC. L’âge virtuel du système ne peut donc pas être calculé à l’instant initial des observations. Nous proposons différentes méthodes pour traiter ce problème, basées sur le maximum de vraisemblance et l’algorithme EM.
La qualité des estimations est évaluée sur des données simulées pour montrer l'efficacité de nos méthodes. Enfin les différentes méthodes seront appliquées pour évaluer le vieillissement et l’efficacité des maintenances sur des systèmes réels provenant de GRTgaz.
Salle E
La prévision de la fiabilité des composants ou équipement est une étape indispensable pour évaluer la fiabilité des systèmes lorsqu’il n’existe pas de retour d’expérience suffisant et que la réalisation d’essais en nombre suffisant n’est pas possible. Le Guide FIDES définit une méthodologie basée à la fois sur la nature des composants, le retour des essais de fiabilité des fabricants et le retour d’expérience des industriels ayant contribué à la méthode. Mettre en oeuvre ce guide nécessite de réaliser une décomposition fine du système d’intérêt. S’il existe à présent plusieurs « outils » permettant la réalisation d’évaluation d’un taux de défaillance conformément à la méthodologie FIDES, il n’existe aujourd’hui aucune manière standardisée pour échanger ce type de données, ce qui rend impossible l’interopérabilité des logiciels s’appuyant sur cette norme. L’objectif du format OpenFides est à la fois de servir de format d’échange « pivot » pour les logiciels existants mais également de servir de format de stockage par défaut des futurs outils [1]. Le guide disposant d’un niveau de détail parfois très élevé, nous avons sélectionné les données à sauvegarder en fonction des choix fait par le groupe de travail. La sélection a été faite à partir des informations nécessaires dans le cadre d’un échange de données (au juste niveau, sans forcément demander un niveau de détail trop important). Pour l’interopérabilité, le choix c’est naturellement porté sur un format XML. Nous avons arbitré à chaque étape pour proposer des solutions génériques quand cela ne nuisait pas à la compréhension du format. En effet, bien que destiné à des logiciels, il était impératif qu’il soit lisible et compréhensible par des informaticiens mais aussi des fiabilistes. Le format a été défini de manière incrémentale au cours d’une dizaine d’ateliers de travail de 4 à 10 personnes (utilisateurs réguliers de FIDES et de développeurs logiciel). Ce nouveau format sert désormais de modèle de sauvegarde au nouvel outil FIDES ExperTool qui sera présenté.
Salle C
L'Analyse du Soutien Logistique demande de gérer des masses de données importantes. Ces données sont structurées selon différents textes (normes et spécifications). Les industriels possèdent des bases de données comportant plusieurs centaines de milliers de données au format 1388 et doivent basculer suivant les exigences clients au format de la nouvelle spécification S3000L. SOM LIGERON a développé ce module de conversion et l’a étendu en un outil complet 1388-S3000L.
Le but de cet outil est de générer des fichiers de sortie conformes aux textes applicables, de maitriser le code source pour permettre d’adapter l’outil à la politique de maintenance de chaque projet, de ne pas être pénalisé par le changement de textes applicables, de pouvoir intégrer à terme les données ASL avec les autres S-séries et dans une GMAO.
Salle A
Pour évaluer la défaillance due à la fatigue, il est courant en ingénierie mécanique d'utiliser des courbes S-N, où S représente la contrainte et N le nombre de cycles jusqu'à la rupture. Notre travail porte sur le développement de techniques statistiques visant à améliorer l'ajustement des courbes de fatigue aux données expérimentales. Les recherches que l’on expose maintenant visent à quantifier la variabilité des essais en fonction des différentes approches statistiques et lois de fatigue. On réalise des analyses en utilisant les lois traditionnelles telles que Basquin et Strohmeyer, ainsi que la loi plus récente de Stüssi, combinées à différentes méthodes statistiques, principalement basées sur la distribution log-normale. Cette approche nous permet de comparer les courbes de fatigue pour un même échantillon, mais avec 2 méthodes statistiques différentes.
Salle D
Cet article s’interroge sur la mise en œuvre de la Stratégie Nationale Bas Carbone de la France à l’échelle d’une organisation.
Les principaux textes de lois sont étudiés ainsi que les documents publiés par le gouvernement de façon à bien identifier les hypothèses et les objectifs de cette stratégie. En l’absence de système de mesure de la performance et des gains de productivité à réaliser, notre motivation a alors été de projeter les hypothèses et les objectifs au niveau national jusqu’en 2050 de façon à pouvoir les retranscrire à l’échelle d’une organisation qui souhaite disposer de différents ordres de grandeur associé à cette stratégie nationale. En effet, cette stratégie est définie au niveau global de l’économie puis déclinée pour sa mise en œuvre, en termes de gouvernance (à l’échelle nationale et territoriale) et en termes d’orientations transversales et sectorielles. Ainsi, à l’échelle d’une organisation la problématique à résoudre est de définir les profils des différentes hypothèses et objectifs à horizon 2050 et de les transcrire en termes d’objectifs de performance et de gains de productivité à réaliser à l’échéance et tout au long de la période.
La méthode générale de résolution de problèmes complexes s’appuie sur celle de H.A Simon à laquelle nous avons adossé une technique actuarielle de façon à projeter les hypothèses et les objectifs à l’échéance. Les résultats, concernant les hypothèses et les objectifs, sont présentés sous forme de profils de trajectoires à l’échelle nationale desquels nous pouvons en inférer des taux annuels sur la période considérée. Ainsi, il devient possible de spécifier, pour une unité de 1 million d’euros de création de valeur ajoutée, avec comme base les années 1990 et 2022, les objectifs en termes de gains de performance et de productivité à réaliser jusqu’en 2050. La discussion qui suit se
propose d’ouvrir les travaux de prospectives menés au niveau macroéconomique à l’échelle microéconomique de façon à tenir compte dans les modèles des prédictions de comportements.
Le multirisque peut être défini comme un système complexe composé de différents aléas (naturels et/ou technologiques), qui peuvent agir en combinaison - avec ou sans coïncidence dans le temps - et avoir un impact sur des enjeux et leur vulnérabilté, potentiellement dépendants. En effet, dans certaines conditions, différentes combinaisons de risques sont susceptibles de se produire. Des événements de moindre ampleur peuvent également entraîner des cascades d'événements très dommageables pour les communautés. Pour mieux comprendre et prévenir ce type d'événement, il est important de formaliser des connaissances et notamment de fournir une représentation sous la forme de scénarios. Les défis scientifiques à relever concernent principalement la représentation des interactions entre les nombreuses composantes de ce système complexe et la compréhension de sa dynamique. Pour y répondre, les approches basées sur les réseaux de Petri et leur dépliage constituent une solution pertinente. Elles permettent de représenter des dynamiques entre les causes et leurs effets. Dans cette approche possibiliste, les événements statistiquement improbables (souvent les plus destructeurs) sont autant représentés que les événements les plus probables. Dans cette communication, nous nous penchons sur le cas d’un événement NaTech provoqué par un incendie de forêt. L'objectif est de comprendre la dynamique et les interactions entre les variables lors d’un incendie de forêt afin de prévenir et éventuellement d'éviter les impacts majeurs. Cette étude de faisabilité est réalisée sur un système simplifié mais réaliste, en utilisant les outils ECCO et Ecofolder. Au-delà des aspects industriels caractéristiques des événements NaTech, nous considérons également les impacts sur la forêt. En termes de gestion des multirisques, les dépliages des réseaux de Petri ont permis d’identifier les scénarios dont l’issue est défavorable. Ainsi, cela permet d’identifier les étapes menant aux évènements dévastateurs.
L’objectif de cette étude et de montrer l’intérêt de l'approche STPA (System Theoretic Process Analysis) et ses capacités à améliorer nos analyses de sécurité des systèmes ATM (Air Trafic Management). STPA offre une perspective holistique qui étend les approches standards centrées uniquement sur les défaillances matérielles ou logicielles et se distingue par son approche proactive, plaçant l'accent sur la compréhension des interactions entre les éléments du système plutôt que sur la simple détection de défaillances.
Dans le contexte ATM, cette méthodologie permet d'explorer les dimensions humaines, organisationnelles et technologiques, offrant ainsi une vision complète des facteurs contributifs à la sécurité qui ne sont pas toujours causés par des défaillances, mais potentiellement par des interactions complexes entre les systèmes, les opérateurs et l'environnement.
Une contribution majeure de cette approche réside donc dans sa capacité à anticiper les défaillances potentielles et à proposer des mesures d'atténuation avant qu'un incident ne se produise.
La maîtrise des risques de manutention est une préoccupation majeure dans l’industrie nucléaire; d’autant plus depuis la chute d’un générateur de vapeur en cours de manutention sur le site de Paluel en 2016. Dans ce contexte, la sécurisation des chaînes des appareils de levage est devenue une nécessité pour garantir l’intégrité de la charge manutentionnée. En conséquence, la recherche d’architectures basées sur une approche multi-critères a pour objectif d’obtenir les niveaux de fiabilité les plus élevés sans pénaliser l’exploitabilité de ces appareils de levage. La conception des appareils de levage basée sur cette approche multi-critère est devenue une spécialité de nos sociétés TechnicAtome et le groupe REEL. La méthodologie a consisté à définir tout d’abord les critères à retenir dans cette étude et de les évaluer par rapport à une architecture de référence soit par une approche quantitative soit par une approche qualitative. L’ensemble des évaluations a été synthétisé dans un tableau permettant de voir la cotation de chaque critère pour chaque architecture étudiée en relatif à une architecture de référence. L’analyse des résultats a ensuite permis d’identifier la complémentarité de certains critères et de dégager les critères prépondérants dans le choix d’une architecture. Au final, cette démarche a abouti à des préconisations d’architectures en fonction du niveau de fiabilité recherché et des critères les plus impactant. Cette approche peut être poursuivie en intégrant de nouveaux critères, voire de nouvelles architectures.
Les systèmes de protection d'intégrité élevée (HIPS en anglais) agissent comme barrières ultimes et uniques pour protéger les installations pétrolières et gazières contre des scénarios dangereux (notamment le scénario de surpression) entraînant des événements aux conséquences « catastrophiques » ou « désastreuses » selon le référentiel TotalEnergies. Dans ces circonstances, la règle interne de TotalEnergies spécifie qu'un « SIL3 permanent » (SIL = Niveau d'Intégrité de Sécurité, selon la norme IEC 61508/511) doit être atteint pour les HIPS, c'est-à-dire PFD(t) < 10-3 pendant toute la période de calcul (PFD = Probabilité de Défaillance à la Demande).
Cet objectif n'étant pas atteint pour le système étudié ici, les options conventionnelles pour atteindre la cible de SIL entraînent soit une augmentation des dépenses d'exploitation (OPEX) et des pertes de production (augmentation de la fréquence des tests), soit une augmentation des dépenses d'investissement (CAPEX) (ajout d'une troisième valve).
Les conditions de fonctionnement et la configuration du système nous ont amenés à utiliser les réseaux de Petri pour sa modélisation (selon le technical report ISO/TR 12489 Figure 2). Cela nous a permis d'évaluer une troisième option désignée sous le nom de « fréquence de test adaptée ». Elle consiste à augmenter la fréquence de test uniquement lorsque le système fonctionne en mode dégradé suite à la détection de l'une ou plusieurs défaillances (capteurs ou valves).
La « fréquence de test adaptée » s'est avérée être une solution efficace pour atteindre le niveau de SIL requis et pour réduire l'impact sur la disponibilité par rapport à une fréquence de test fixe augmentée.
En ce qui concerne l'approche en elle-même, modifier la stratégie de test d'un système de sécurité dans des conditions données pendant/à l'intérieur de la simulation ne peut être modélisé que par des techniques de modélisation dynamique. Les réseaux de Petri étant l'un des outils les plus flexibles et puissants, il a été facile de traiter cette spécificité correctement.
Le problème de la détermination des séquences de tests pour détecter les défauts et les possibles pannes dans l’ingénierie des systèmes est un problème majeur. En effet, chaque composant est assujetti à des défaillances aléatoires.
Cependant, la vérification de l’état d’un composant ou d’un sous-système est effectuée à l’aide de tests. Cependant, toute solution qui permet d’obtenir un pronostic fiable et économique est essentielle, cela permet à toute industrie d’être viable, sécuritaire et compétitive. Dans le cadre de cette étude, nous proposons un modèle de calcul qui permet de nous fournir des séquences de tests simples à générer et optimales sur la base du coût de déploiement. Cette méthode de calcul est articulée sur un algorithme efficace qu’on propose pour déterminer les coupes minimales. L'algorithme procède en déterminant l'ensemble des chemins minimaux (MPS) et à partir desquels des coupes minimales (MCS) sont générées par l’utilisation du concept de diagrammes de décision binaire réduits et ordonnés et de manipulations de termes. Le processus de manipulation consiste en une série de transformations, de réductions et d'opérations de filtrage des coupes minimales ainsi générées. L'approche a permis de réduire le temps de calcul et l'espace mémoire et a été appliquée à l'évaluation de la fiabilité de plusieurs réseaux complexes.
En outre, nous avons testé la méthode proposée en utilisant un algorithme qui permet de détecter les séquences de tests d’un système industriel bien défini. Les résultats obtenus sont intéressants et ouvrent la voie vers d’autres systèmes à tester plus complexes.
Le catalogue de modes de panne est une donnée usuelle utilisée dans les études de Sûreté de Fonctionnement (SdF). Il décrit, pour chaque type de composant, les pannes, symptômes de sa défaillance et propose des ratios d’occurrence. Ces listes sont particulièrement utilisées pour la réalisation des AMDEC ou les Arbres de Défaillances (AdD). En tout état de cause, ces listes de modes de panne sont également très utiles aux concepteurs de carte électroniques afin de rendre les conceptions plus robustes aux défauts les plus prévisibles. De la même façon, ces éléments sont très intéressants pour traiter du diagnostic en cas de dysfonctionnement constaté. Cependant, si ces catalogues sont utiles, ils diffèrent potentiellement entre applications industrielles. Il est naturel que le catalogue (ses ratios) ne soit pas fixe mais dépende de l’utilisation du composant, du profil de vie qu’il subit ainsi que des stress auxquels il est soumis. Un composant, dans un profil de vie « automobile » ne subira pas les mêmes stress que s’il est intégré en baie avionique d’un long courrier ou embarqué dans un missile en soute d’un navire. Il est donc normal que les mécanismes de défaillance sollicités ne soient pas les mêmes et que les modes de panne les plus probables diffèrent. La plupart des industriels ont donc généré leur propre catalogue, issu de leur expérience. Une alternative au catalogue dogmatique statique est possible à l’aide de la méthodologie FIDES. Elle évalue un taux de défaillance basé sur les stress environnementaux au travers d’un profil de vie (PdV) détaillé et ce, famille de composants par famille de composants. Quelques lois adaptées et simplifiées issues de la physique des défaillances (PoF) permettent ce lien. Il est ainsi possible de faire le lien entre PdV, stress du composant et, à l’aide d’analyse de faits techniques observés, le mode de panne constaté opérationnellement. De là à établir efficacement une relation entre PdV, famille de composants et catalogue de modes de panne, il n’y a qu’un pas que cette publication se propose d’aider à franchir.
Le marché des dispositifs médicaux implantables actifs (DMIA) devrait connaître une croissance importante, mais il n'existe actuellement aucun consensus sur une norme de qualité médicale pour la qualification des composants électroniques qu'ils contiennent. Cet article propose une méthodologie de qualification des composants électroniques pour les DMIAs, basée sur le profil de mission des DMIA et la physique de la défaillance des composants électroniques. Des méthodes conventionnelles telles que les essais accélérés de durée de vie et les plans d'expérience sont utilisées. L’originalité ou l’intérêt de l'étude réside dans la combinaison des essais de durée de vie accélérés et des plans d’expérience de type plan produit de Taguchi. Les protocoles de tests de durée de vie accélérée ont été définis pour détecter les défauts plutôt que le vieillissement dans les chips résistifs hautement fiables. L’analyse statistique des résultats démontrent que les tests de surcharge électrique (Eletrical Overload) sont une méthode efficace pour détecter des défaillances et que le processus de fabrication peut influencer la robustesse des chips résistifs miniatures face aux facteurs environnementaux.
La base de données pour les calculs de fiabilité chez Valeo Powertrain était la norme IEC/TR 62380. Malgré toutes ses faiblesses, l'utilisation d'une seule norme permettait à Valeo Powertain de réaliser des études comparatives et d’alimenter les analyses de sécurité pour le calcul des métriques d’architectures selon la norme ISO26262. Depuis, cette norme a été retirée et remplacée par IEC61709:2017. Lors de la recherche d'une norme pour remplacer l'IEC/TR62380, Valeo Powertrain a évalué différentes bases de données sur la base de critères qualitatifs : ancienneté, reconnaissance internationale, disponibilité du taux de défaillance de base, … Le choix s'est porté sur la norme FIDES : 2009.
La force des modèles méthodologiques FIDES est de couvrir les défaillances dues à des causes intrinsèques (la technologie ou la qualité de fabrication et de distribution des articles étudiés) ainsi qu'à des causes extrinsèques (la spécification, la conception, l'approvisionnement, la production ou l'intégration des équipements). ). Cependant, c'est aussi une faiblesse puisque cela signifie qu'il y a un grand nombre de paramètres à ajuster ce qui pourrait générer une grande diversité sur le résultat. De plus, la dynamique de projet ne permet pas toujours d'analyser en détail chaque paramètre pour une carte complète.
L’objectif était donc d’analyser chacun des paramètres et d’identifier s’il était possible de définir une valeur par défaut. Ce travail s'est fait principalement en deux étapes. La première a commencé avec les paramètres liés au processus : Fabrication des pièces, Processus et Application et pour proposer en fonction du système de gestion de la qualité ou de la qualification des pièces une valeur par défaut. La seconde, toujours en cours, consiste à définir, à partir de règles de conception internes comme le rapport de tension maximum par exemple ou une analyse sensible, une valeur par défaut.
Les gains attendus résident dans la réduction du nombre de paramètres à régler pour une optimisation du temps de réalisation des calculs de fiabilité mais aussi une reproductibilité d'un ingénieur à l'autre ainsi Valeo Powertrain pourra continuer à réaliser des études comparatives.
La version anglaise de la norme IEC62380, traditionnellement utilisée pour le calcul de la fiabilité électronique dans le domaine ferroviaire, est désormais obsolète. Le secteur tend à migrer vers de nouveaux référentiels, dont le guide FIDES en cours de standardisation (IEC63142). A l’image de ce qui a été réalisé dans d’autre secteurs, l’objet de cette publication est de proposer des profils de vie FIDES typiques adaptés aux applications ferroviaires, avec pour but de définir un référentiel commun et facilement adaptable pour le développement de nouveaux produits.
L’industrie de défense, comme beaucoup d’autres industries, fait face à une forte complexification de ses systèmes et systèmes de systèmes intégrant l’humain. En outre, l’humain, qui a toujours eu un rôle central dans la safety de ces systèmes, voit sa perception de l’environnement et son rôle évoluer fortement (la perception de l’environnement par l’humain est remise en question par les Technologies Emergentes Disruptives).
En tenant compte de ces évolutions, la safety ne peut plus être pertinente si elle se limite à prendre en compte l’humain et le facteur humain uniquement par le prisme d’un contrôleur potentiellement défaillant et externe au système. La safety doit considérer l’humain comme un élément à part entière du système et intégrer dans ses analyses l’impact de l’humain sur les activités réalisées par le système.
Face à ces constats, l’IEC 63187 intègre la prise en compte du facteur humain dans ses exigences ainsi qu’au travers d’une annexe explicative de manière à permettre la prise en compte de l’humain et du facteur humain comme un élément à part entière du système et à pointer vers les études et méthodologies permettant de le faire. Le but de l’article est de développer la manière dont l’humain et le facteur humain sont pris en compte dans l’IEC 63187 et quels en sont les résultats attendus par rapport à la safety du système.
Exposés aux imprévus et aux aléas, le transport et la logistique présentent de nombreuses sources d’embolies. Dans une économie mondialisée qui privilégie le flux tendu au flux poussé, ces risques rendent essentielle la réduction des effets de ces dysfonctionnements. Mais les marges réduites et les coûts d’investissement des équipements conduisent au sous-dimensionnement des capacités de production pour les pics d’activité et le partage de la route, la variabilité des situations et les volumes à traiter rendent l’automatisation souvent inenvisageable.
Sur la base de résultats de recherches portant sur la gestion des opérations au sein de différents nœuds de la chaine de transport (plateforme multimodale, opérateur de transport combiné et entrepôt logistique), cette communication présente l’activité de régulation de l’encadrement de proximité et sa gestion des travailleurs de statuts différents, qui constituent la principale variable d’ajustement du système. A partir de recueils de documents, de traces de l’activité et d’observations in situ complétées d’entretiens, les résultats soulignent la place prépondérante des agents humains dans la résilience du système de transport.
S’il apparait dans toutes les situations la même gestion synchronique et diachronique du processus et des ressources. Il résulte de ces organisations, qui s’appuient sur la flexibilité interne via la polyvalence et/ou la flexibilité externe via la sous-traitance ou l’intérim, des spécificités dans la construction, le maintien, l’entretien et la restauration des ressources humaines. Leurs recours distincts exposent à de nouveaux risques et entrainent des stratégies de gestion spécifiques des imprévus.
La communication se propose d’étudier les apports d’une perspective sociotechnique dans la conception de systèmes à risques. Il s’agit d’examiner plus particulièrement en quoi certaines caractéristiques des processus de conception des systèmes sociotechniques (SST) peuvent permettre à ces derniers de fonctionner plus efficacement lors de leur exploitation et d’améliorer leur sécurité en évitant de faire apparaître des évènements critiques comme la destruction ou l’endommagement d’un élément de leur sous-système technique (engins spatiaux, canalisations…). Cette communication se fera en trois temps.
Premièrement, deux types de systèmes sociotechniques (SST), poursuivant des objectifs similaires, seront décrits ainsi que leur processus de conception. Chacun des deux SST vise à assurer une trajectoire adéquate à l’un des éléments du sous-système technique qui compose ce SST. Dans un deuxième temps, trois principes des processus de conception des deux précédents SST seront décrits. Enfin, dans un troisième temps, des conditions organisationnelles propices à la mise en place de ces trois principes de conception seront présentées.
Former les salariés à la sécurité est essentiel pour prévenir les risques en entreprise. Malgré la multiplication des formations, le désengagement des salariés envers celles-ci est souvent considéré comme un obstacle majeur à leur efficacité. Ainsi, une approche intégrant des éléments à la fois ludiques et éducatifs a été proposée pour stimuler l'implication des salariés dans leur propre sécurité. Cette méthode, qualifiée de « ludo-éducative », instaure une dynamique grâce à laquelle le salarié cesse d'être un simple spectateur pour devenir un véritable acteur de sa formation. Elle sollicite les sens du salarié et active divers mécanismes de mémorisation pour favoriser l'apprentissage. Une
expérience a été menée avec succès pour valider cette approche, dans le cadre de formations annuelles obligatoires, à l’aide d’une course d'orientation destinée aux Equipiers de Seconde Intervention (ESI) sur un site industriel. Cette activité combine les éléments classiques de la course d'orientation couplés à des questions portant sur la sécurité incendie. La démarche a été saluée pour son caractère complémentaire à la formation théorique, sa capacité à renforcer la collaboration et l'esprit d'équipe, ainsi que pour l'engagement et la satisfaction suscités chez les participants. Les observations et les résultats confirment l'efficacité de l'approche ludo-éducative en tant qu'outil enrichissant les méthodes traditionnelles de formation à la sécurité. Toutefois, certaines limites demeurent, en particulier, cette approche n’est pas auto-suffisante et doit être intégrée dans une stratégie globale cohérente avec les objectifs initiaux de formation.
L’article présente une méthode innovante permettant de prendre en compte et de modéliser les interdépendances entre les différents risques d’une organisation, en s’appuyant sur son SIGR et sur les avis d’experts. La méthode est appliquée au cas de la RATP.
Il existe des méthodes matures et robustes d'estimation des incertitudes spécialement adaptées à la gestion des sites et sols pollués.
Malgré les efforts déployés pour les promouvoir, elles sont fortement sous-utilisées pour gérer les risques liés à pollution des sols, notamment des friches urbaines en reconversion. Le projet POLIVAL part du postulat que les blocages dépassent le cadre strictement technique et scientifique. Au travers d'une enquête menée au printemps 2024 avec le prisme de la théorie de l'acteur-réseau, nous avons identifié six « brèches » à partir desquelles nous proposons des pistes pour améliorer ces processus de décision.
À l’ère du changement climatique et de l’augmentation de la fréquence et de l’ampleur des catastrophes naturelles, il existe une attente croissante et pressante envers les autorités publiques pour garantir la sécurité des personnes. Les risques sociétaux complexes sont transférés à un niveau plus gérable grâce au processus d’individualisation. Dans cet article, nous examinons le processus d'individualisation en tant que processus de traduction du risque dans le contexte environnemental risqué qu’est la montagne. Nous identifions qu’un tel processus d’individualisation repose sur deux dynamiques que nous qualifions de « délictualisation » et de « responsabilisation » pour refléter leur logique sous-jacente concurrente bien qu’elles visent le même objectif. Nos résultats permettent de construire un cadre théorique d’individualisation des risques décryptant ce processus et en mettant en lumière de nouvelles formes d’organisation des risques.
Maîtriser les risques (menaces ou opportunités) afin de les rendre acceptables, constitue un objectif pour chaque organisme. La maîtrise des risques et son niveau doivent être pris en compte dans la stratégie globale de l’organisme. La maîtrise des risques est un enjeu à la fois individuel et collectif, il est souhaitable de disposer de références communes.
Cependant la multiplicité des risques de toute nature et la diversité des domaines d’activité, des ressources disponibles et des capacités des organismes rend difficile la mise au point d’un schéma de référence partageable. Cette communication, partant de l’expérience des membres de l’IMdR et de ses partenaires, tente de fournir des pistes. Elle propose ainsi d’identifier un ensemble cohérent de leviers pour la maitrise des risques en général. Elle les inscrit dans les démarches internationales, notamment celles de la normalisation ISO/IEC et de l’ONU pour la réduction des risques de catastrophes.
• M. Gilles THING LEO, enseignant-chercheur, ESTP
• M. Jean-Pierre SIGNORET, Auteur de Reliability Assessment of Safety and Production Systems, TPA
• M. Marcel CHEVALIER, System Analytics & Reliability Senior Group Expert, Schneider Electric
• M. Laurent DEHOUCK, Directeur de formation, Ensam