Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Jumeaux numériques.

Dissertationen zum Thema „Jumeaux numériques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-22 Dissertationen für die Forschung zum Thema "Jumeaux numériques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Hammoumi, Adam. „Analysis-Driven Design of Digital Multi-scale Microstructures of Materials“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG083.

Der volle Inhalt der Quelle
Annotation:
La demande globale d'énergie augmente rapidement dans le monde entier. La catalyse hétérogène est à l'origine de la plupart des principes de la chimie verte : procédés d'économie d'énergie, efficacité de l'atome, procédés de nettoyage, etc. La catalyse en général, et la catalyse hétérogène, est très vite devenue un outil essentiel pour le développement de la chimie industrielle. Actuellement, 85 % des procédés industriels utilisés dans le monde sont catalytiques. Dans ce contexte, de nombreux efforts sont déployés pour optimiser les catalyseurs hétérogènes afin de répondre à la demande croissante d'énergie tout en réduisant l'impact environnemental des carburants. Pour ces raisons, et bien d'autres, la conception de nouveaux matériaux catalytiques est aujourd'hui un sujet de grande importance. L'approche actuelle concernant la conception de catalyseurs tend vers une élaboration contrôlée de matériaux dont la texture est maîtrisée, ordonnée et hiérarchisée de l'échelle nanométrique à l'échelle micrométrique. Ces catalyseurs devront être plus actifs, stables (efficacité énergétique), et plus sélectifs (économie d'atomes, moins de rejets). Dans ce cadre, ce travail de recherche se concentre sur la création de jumeaux numériques de microstructures visant in-fine le rétro-design de matériaux poreux pour des propriétés d'usage optimales. Les applications concernent les supports de catalyse et les matériaux de construction, avec une priorité donnée à l'amélioration des propriétés multi-physiques en considérant les propriétés texturales de ces matériaux. La contribution de cette thèse est un nouveau cadre numérique permettant la modélisation et la caractérisation de ces matériaux. Cette nouvelle approche s'appuie sur des modèles aléatoires pour représenter des microstructures réalistes multi-échelles et complexes. Pour extraire les propriétés texturales de ces microstructures, deux méthodes numériques ont été développées dans un premier temps. La première nous permet de caractériser le réseau de porosité d'une microstructure et de calculer sa distribution de taille de pore, et la seconde nous permet de calculer la tortuosité géométrique de ces matériaux avec une approche rapide de recherche sur graphe. Sur le même sujet, notre contribution majeure est un modèle morphologique qui simule de manière originale la physisorption par gaz au moyen de la morphologie mathématique et des opérateurs de percolation. La physisorption par gaz est l'une des techniques expérimentales les plus utilisées pour la caractérisation des propriétés texturales des matériaux poreux. Le modèle a été validé sur des matériaux réels conçus pour cette thèse. L'apprentissage profond a également été largement exploré. Tout d'abord, une nouvelle approche s'appuyant sur les réseaux de neurones convolutifs a été proposée. Cette dernière propose une solution pour améliorer la qualité de l'apprentissage lorsque les données d'entraînement en entrée sont peu nombreuses. Une deuxième contribution nous a permis de stocker les informations morphologiques du modèle précédent dans un volume 3D, et de capturer les informations inter-coupes dans des coupes 2D. L'ensemble du processus a transformé le problème initial en un problème d'apprentissage profond, ce qui a considérablement réduit le temps de calcul du modèle de physisorption par gaz
The global demand for energy is increasing rapidly around the world. Heterogeneous catalysis is behind most of the principles of green chemistry: energy saving processes, atom efficiency, cleaning processes, etc. Catalysis in general, and heterogeneous catalysis, has very quickly become an essential tool for the development of industrial chemistry. Currently, 85 % of the industrial processes used throughout the world are catalytic. In this context, many efforts are being made to optimize heterogeneous catalysts to meet the increasing demand for energy while reducing the environmental impact of fuels. For these reasons, and many others, the design of new catalytic materials today is a hot topic. The current approach regarding the design of catalysts tends towards a controlled elaboration of materials whose texture will be controlled, ordered, and hierarchically structured from the nanometer to the micrometer scale. These catalysts will have to be more active, and stable (energy efficiency), and more selective (saving atoms, less rejects). Within this framework, this research work focuses on the creation of numerical twins of microstructures aiming in-fine the retro-design of porous materials for optimal usage properties. The applications concern catalysis supports and construction materials, with priority given to the improvement of multi-physical properties considering textural properties of these materials. The contribution of this thesis is a new numerical framework allowing the modeling and characterization of these materials. This new approach builds upon random models to represent realistic multi-scale and complex microstructures. To extract the textural properties of these microstructures, two numerical methods have been developed in a first step. The first one allows us to characterize the porosity network of a microstructure and to compute its pore size distribution, and the second one allows us to compute the geometrical tortuosity of these materials with a fast graph search approach. Regarding the same topic, our major contribution is a morphological model that simulates in an original way gas physisorption by means of mathematical morphology and percolation operators. Gas physisorption is one of the most used experimental techniques for the characterization of the textural properties of porous materials. The model has been validated on real materials designed for this thesis. Deep learning has also been widely explored. First, a new approach building upon convolutional neural networks has been proposed. The latter proposes a solution to improve the learning quality when there is little input training data. A second contribution allowed us to store the morphological information of the previous model in a 3D volume, and to capture inter-slice information into 2D slices. The overall process transformed the initial problem into a deep learning problem, which considerably reduced the computation time of the gas physisorption model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Chabanet, Sylvain. „Contributions aux ombres et jumeaux numériques dans l’industrie : proposition d’une stratégie de couplage entre modèles de simulation et d’apprentissage automatique appliquée aux scieries“. Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0131.

Der volle Inhalt der Quelle
Annotation:
Ces travaux de thèses s'inscrivent dans le projet ANR Lorraine-Intelligence Artificielle qui se veut un projet multi-disciplinaire promouvant la recherche à la fois sur l'intelligence artificielle elle-même et sur ses applications à d'autres domaines de recherche. A ce titre, cette thèse s'intéresse au développement et à l'utilisation de modèles d'apprentissage automatique comme modèles de substitution a des modèles de simulation. L'intérêt pour ce sujet de recherche est, en particulier, porté par l'engouement des milieux académiques et industriel pour le concept d'ombres et jumeaux numériques, vus comme une évolution des modèles de simulation pour une utilisation pérenne au cœur des systèmes et des processus. La contribution principale de ces travaux de thèse est la proposition d'une stratégie de couplage entre un modèle de simulation et un modèle de substitution réalisant une même tâche de prédiction de manière répétée sur un flux de données. Le modèle de simulation est supposé avoir un haut niveau de fidélité mais être trop lent ou coûteux en calcul pour être utilisé seul pour réaliser l'intégralité des prédictions requises. Le modèle de substitution est un modèle d'apprentissage automatique qui approxime le modèle de simulation. L'objectif premier de la stratégie de couplage proposée est l'utilisation efficiente des ressources en calcul limitées par l'allocation intelligente de chaque prédiction à effectuer à un des deux modèles. Cette allocation est, en particulier, inspirée de l'apprentissage actif et basée sur l'évaluation de niveaux de confiance dans les prédictions du modèle d'apprentissage automatique. Des expériences numériques sont d'abord menées sur huit jeux de données de la littérature scientifique. Une application à l'industrie du sciage est ensuite développée
This thesis is part of the ANR project Lorraine-Artificial Intelligence, a multi-disciplinary project promoting research into both artificial intelligence itself, and its applications to other fields. As such, this thesis focuses on the development and use of machine learning models as a substitute for simulation models. Interest in this research topic is fueled by academic and industrial interest in the concept of digital shadows and twins, seen as an evolution of simulation models for long-term use at the heart of systems and processes. The main contribution of this thesis is the proposal of a coupling strategy between a simulation model and a surrogate model performing the same prediction task repeatedly on a data stream. The simulation model is assumed to have a high level of fidelity, but to be too slow or computationally expensive to be used alone to perform the full range of prediction required. The surrogate model is a fast machine-learning model that approximates the simulation model. The primary objective of the proposed coupling strategy is the efficient use of limited computational resources by intelligently allocating each prediction request to one of the two models. This allocation is, in particular, inspired by active learning and based on the evaluation of the level of confidence in the predictions of the machine learning model. Numerical experiments are first carried out on eight datasets from the scientific literature. An application to the sawmilling industry is then developed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Haoua, Abdoulaye affadine. „Smart Machining pour l’assemblage aéronautique“. Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE090.

Der volle Inhalt der Quelle
Annotation:
Les empilements hybrides composés des couches composites CFRP, du TA6V et d'alliage d'aluminium, appelés multi-matériaux, sont largement utilisés dans les composants aérospatiaux. Le perçage one-shot, au moyen d'une Unité de Perçage Automatique (UPA), de ces empilements pose des défis majeurs en raison de la différence d'usinabilité entre les différents matériaux présents dans l'empilement. Pour répondre aux exigences de qualité, améliorer la tenue des outils et atteindre une pleine productivité lors du perçage de multi-matériaux sur UPA électrique, l’adaptation des paramètres de coupe au cours de l’usinage s’impose. Cela implique une détection fiable des matériaux usinés, la détection de l'usure de l'outil, ainsi que la détection d'incidents (bris d’outil, bourrage copeaux, problème de lubrification, écaillage des arêtes de coupe). Cependant, il n’existe pas actuellement des outils permettant de répondre à ce besoin. Le travail effectué dans cette thèse propose donc des solutions basées sur l’apprentissage automatique pour le développement des méthodologies robustes et fiables d’identification des matériaux, de détection de l'usure de l'outil, ainsi que de détection des incidents pour la mise en en place des stratégies de perçage intelligent (smart-drilling) intégrant de l’usinage auto-adaptatif. Dans un premier temps, une nouvelle approche de détection des incidents a été proposée en s’appuyant sur des données industrielles non étiquetées et des algorithmes de clustering : le K-means et la classification hiérarchique ascendante. Cette approche a permis d’identifier un certain nombre d’incidents et a mis en évidence les difficultés liées au traitement des données industrielles (rareté d’incidents et absence des étiquettes) et les difficultés liées à la définition des paramètres optimaux des algorithmes d’ apprentissage automatique. Dans un second temps, des essais sur un banc expérimental multi-instrumenté dédié et sur des empilements Al7175/CFP et CFRP/Al7175 ont permis de développer et de valider une méthodologie originale d’identification des matériaux basée sur les forêts aléatoires (Random Forest ou RF). Les résultats obtenus en termes de classification par types de matériaux (Al7175, CFRP), ont permis une extension du modèle RF sur différentes configurations d’empilements (CFRP/Al7175/TA6V, TA6V/Al7175/CFRP), avec différents diamètre outils et un large domaine de conditions de coupe. Cette méthodologie permettra d’envisager la mise en œuvre d’un processus d’usinage adaptatif sur UPA électrique pour le perçage de multi-matériaux.Mots clés : Usinage auto-adaptatif, Perçage multi-matériaux, Reconnaissance des matériaux, Forêts aléatoires, Usure outil, Apprentissage non supervisé, UPA électrique, Analyse des signaux
Hybrid stacks comprising of composite CFRP layers, TA6V, and aluminum alloy, referred to as multi-material, are widely used in aerospace components. One-shot drilling, using an Automatic Drilling Unit (UPA), of these stacks poses major challenges due to the difference in machinability among the various materials within the stack. To meet quality requirements, improve tool life and achieve optimal productivity during the drilling of multi-material stacks with an electric UPA, it is essential to adapt cutting parameters during machining. However, there are currently no tools available to meet this need. This theisis conerns machine learning-based solutions for the implementation of smart drilling strategies incorporating adaptive machining. These solutions focus on the development of robust and reliable methodologies for identifying materials, detecting tool wear, and detecting multi-material drilling-related incidents (tool breakage, chip jamming, lubrication issues, cutting edges chipping). Fristly, a new approach to incident detection was proposed, based on unlabeled industrial data and clustering algorithms: K-means and hierarchical ascending classification. This approach enabled us to identify a number of incidents, and highlighted the difficulties associated with processing industrial data (rarity of incidents and absence of labels) and the difficulties associated with defining the optimum parameters for machine learning algorithms. Subsequently, experiment are performed on an specialized instrumented drilling bench and on Al7175/CFP and CFRP/Al7175 stacks. This led to the development and validation of an original material identification methodology based on Random Forest (RF). The results, in terms of material classification (Al7175, CFRP), enabled the extension of the RF model to different stack configurations with various tool diameters and a wide range of cutting conditions. This methodology will enable the implementation of an adaptive machining process on an electric UPA for multi-material drilling.Keywords : Adaptive drilling, Multi-material stacks drilling, Material recognition, Random Forest, Tool Wear, Unsupervised learning, Electric UPA, Signals analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Leclerc, Lucas. „Quantum computing with Rydberg atoms : control and modelling for quantum simulation and practical algorithms“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP046.

Der volle Inhalt der Quelle
Annotation:
Améliorer sa compréhension d'un système en le modélisant permet d'espérer le contrôler de manière plus optimale et ouvre la voie à une myriade d'applications potentielles, exploitant les effets jusqu'alors énigmatiques de ce système désormais familier. Cette thèse applique ce paradigme au calcul quantique analogique avec des atomes de Rydberg, montrant comment à l'aide d'une modélisation minutieuse du bruit, de protocoles de contrôle optimaux et de techniques d'apprentissage automatique, on peut espérer améliorer des expériences de simulation de magnétisme quantique ou la résolution de problèmes d'optimisation et de classification de graphes. Après avoir décrit la plateforme expérimentale permettant de contrôler les atomes de Rydberg, nous introduisons des outils classiques tels que les jumeaux numériques de systèmes enclins à des erreurs, la modélisation d'un grand nombres d'atomes par réseaux de tenseurs, le contrôle optimal robuste et l'optimisation bayésienne pour les algorithmes variationnels. Nous appliquons ces outils à plusieurs applications prometteuses. Nous améliorons la préparation d'états antiferromagnétiques dans le modèle d'Ising et réalisons une évaluation détaillée de l'influence d'erreurs sur l'étude de phases magnétiques du modèle dipolaire XY et lors de la tomographie d'états quantiques. En utilisant des techniques d'optimisation et des méthodes d'apprentissage automatique, nous abordons également des cas d'usage industriels tels que la résolution du problème de stable maximum sur des graphes représentant des tâches de planification de charge de batteries de voitures électriques, la classification de composés moléculaires toxiques ou inoffensifs, et des tâches de prédiction dans la gestion des risques financiers
Refining our understanding of an unknown system through modelling lays the groundwork for optimally controlling it and opens the door to a myriad of potential applications, exploiting the once enigmatic and unpredictable effects of this now-known system. This thesis applies this paradigm to analog quantum computing with Rydberg atoms, showcasing how careful noise modelling, optimal control and machine learning frameworks can support and enhance the simulation of quantum magnetism and the solving of graph-based optimisation and classification problems. After describing the experimental platform enabling the control of Rydberg atoms, we introduce classical tools such as digital twins of noisy systems, tensor network modelling, robust optimal control, and Bayesian optimisation for variational algorithms. We apply the latter to several applications. We improve the preparation of antiferromagnetic state in the Ising model and benchmark the noisy behaviour of a dipolar XY quantum simulator when probing continuous symmetry breaking and performing quantum state tomography. Using optimisation techniques and machine learning methods, we also tackle industrial use cases such as maximum independent set on graphs representing smart charging tasks, binary classification of toxic or harmless molecular compounds, and prediction of fallen angel companies in financial risk management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Coupry, Corentin. „Approche mixte RV/RA, couplée au concept de jumeau numérique, comme support d’opérations de maintenance collaborative à distance : application aux équipements techniques de bâtiment“. Electronic Thesis or Diss., Angers, 2023. http://www.theses.fr/2023ANGE0066.

Der volle Inhalt der Quelle
Annotation:
Les avancées technologiques de l’Industrie 4.0 ont ouvert la voie à la mise en place de nouvelles méthodologies et technologies, notamment les jumeaux numériques (DT) et les outils de réalité étendue (XR). Bien que ces innovations soient déjà largement exploitées dans la maintenance industrielle, leur potentiel reste à démontrer dans le secteur de la construction. Elles promettent d’aider à la prise de décision en donnant accès à des informations spécifiques, via la XR, lors d’opérations de maintenance et en permettant des simulations de comportement grâce au DT. Cependant, la complexité croissante des installations, associée à l’impératif de recourir à une expertise externe lors des opérations de maintenance, appelle à repenser les méthodes d’assistance à distance, en particulier à la lumière des préoccupations environnementales et sanitaires. Pour répondre à ces enjeux, nos travaux de recherche basés sur un état de l’art approfondi de la littérature scientifique et technologique, se concentrent sur l’exploitation de ces technologies pour améliorer les procédures de maintenance. Tout d’abord, une revue de littérature a permis d’évaluer comment les outils XR et les jumeaux numériques peuvent enrichir les informations utilisées lors des opérations de maintenance. Cette analyse souligne l’intérêt de tirer parti des données du BIM (Building Information Modeling) pour créer un jumeau numérique, ainsi que les améliorations apportées à la visualisation de ces données par les outils XR. De plus, une étude des solutions de collaboration existantes a révélé les exigences et les contraintes inhérentes au travail collaboratif entre un opérateur sur le terrain et un expert distant, telles que la nécessité d’un environnement de travail commun et les difficultés de synchronisation des échanges. Dans une deuxième phase de notre recherche, en nous appuyant sur ces constats, nous avons développé une architecture permettant d’améliorer la collaboration lors des inspections entre un opérateur sur site et un expert à distance, en utilisant les capacités de visualisation des outils XR et les données du jumeau numérique de l’installation. Cette démarche a abouti à la création de la solution DT-RAMCoRE, permettant le partage d’informations via la manipulation indirecte du jumeau numérique de l’installation par la méthode RAMCoRE. Conscients de la diversité des dispositifs XR et de l’évolution rapide de la technologie, nous avons conçu cette solution avec l’objectif d’assurer sa pérennité et son interopérabilité entre les différents supports disponibles, grâce à la norme OpenXR. En analysant une étude de cas, nous avons démontré que l’utilisation de la solution DT-RAMCoRE lors d’une inspection collaborative permet à l’opérateur de comprendre plus rapidement les informations transmises par un expert par rapport à une approche classique basée sur un appel vidéo, tout en réduisant les erreurs liées à l’identification des composants de l’installation. En conclusion, nous formulons des recommandations pour optimiser les informations fournies aux acteurs de la collaboration. Enfin, nous avons développé un concept de simulation, composant du DT, permettant de fournir à l’opérateur sur le terrain et l’expert à distance des outils d’analyses avancées facilitant le travail d’inspection. En perspectives à ces travaux, nous présentons une méthodologie pour exploiter les modèles de simulation du DT via les outils de XR
Technological advances in Industry 4.0 have paved the way for new methodologies and technologies, including digital twins (DT) and extended reality (XR) tools. While these innovations are already widely exploited in industrial maintenance, their potential in the construction sector remains to be demonstrated. They promise to help decision-making by providing access to specific information, via XR, during maintenance operations, and by enabling behavioral simulations thanks to the DT. However, the growing complexity of installations, combined with the need to call on external expertise during maintenance operations, calls for a rethinking of remote assistance methods, particularly in the light of environmental and health concerns. To explore these challenges, our research work, based on an in-depth review of scientific and technological literature, focuses on exploiting these technologies to improve maintenance procedures. Firstly, a literature review explored how XR tools and digital twins can enrich the information used during maintenance operations. This analysis highlights the value of leveraging BIM (Building Information Modeling) data to create a digital twin, as well as the improvements XR tools bring to the visualization of this data. In addition, a study of existing collaboration solutions revealed the requirements and constraints inherent in collaborative work between a field operation and a remote expert, such as the need for common work environment and difficulties in synchronizing exchanges. In a second phase of our research, based on these findings, we developed an architecture to enhance collaboration during inspections between an on-site operator and a remote expert, using the visualization capabilites of XR tools and data from the system’s digital twin. This led to the creation of the DT-RAMCoRE solution, enabling Information to be shared via indirect manipulation of the system’s digital twin usingthe RAMCoRE method. Aware of the diversity of XR devices and the rapid evolution of the technology, we designed this solution with the aim of ensuring its durability and interoperability between the different media available, thanks to the OpenXR standard. By analyzing a case study, we have demonstrated that using the DT-RAMCoREsolution during a collaborative inspection helps the operator to understand the information transmitted by an expert more quickly than with a conventional approach based on a video call, while reducing errors linked to the identification of system components. In conclusion, we formulate recommendations for optimizing the information provided to collaborative users. Finally, we have developed a simulation concept, a key component of the DT, to provide the field operator and the remote expert with advanced analysis tools to facilitate inspection work. As a perspective to this work, we present a methodology for exploiting DT simulation models via XR tools
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Kherbache, Mehdi. „Toward Optimized 802.15.4 Industrial Wireless Networks : Harnessing Machine Learning and Digital Twins“. Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0253.

Der volle Inhalt der Quelle
Annotation:
L'Internet Industriel des Objets (IIoT) offre un paysage complexe avec de nombreuses contraintes, notamment en raison de son utilisation pour piloter des applications critiques dans l'Industrie 4.0. Les exigences dans un tel contexte, en termes d'efficacité énergétique et de qualité de service (délai, fiabilité, déterminisme et robustesse), sont strictes et d'une importance capitale. Il en découle un besoin impératif de mécanismes de gestion sophistiqués tout au long de leur cycle de vie pour répondre à ces exigences. Cette thèse explore deux axes technologiques pour relever ce défi : l'ordonnancement basé sur l'Apprentissage par Renforcement pour le protocole TSCH (Time Slotted Channel Hopping) et le Jumeau Numérique du Réseau (JNR). L'ordonnancement TSCH dans l'IIoT est identifiée comme un domaine essentiel pour optimiser la performance de ces réseaux. Plusieurs travaux ont proposé des techniques d'ordonnancement basées sur l'Apprentissage par Renforcement pour les protocoles MAC TDMA (Time Division Multiple Access) , et plus particulièrement pour TSCH. Toutefois, l'utilisation de cette approche dans un réseau contraint comme l'IIoT présente le risque d'une consommation énergétique accrue. Cela est dû au processus d'apprentissage continu et à la coordination entre les nœuds nécessaire pour gérer le problème de non-stationnarité du réseau, considéré comme un Système Multi-Agents. Cette thèse présente un nouvel algorithme d'ordonnancement distribué basé sur l'Apprentissage par Renforcement, nommé QL-TSCH-plus. Cet algorithme est conçu pour être adaptatif et efficace, avec des objectifs de réduction de la consommation d'énergie et des délais propres aux environnements IIoT. En parallèle du développement de l'ordonnancement pour TSCH, cette thèse adopte le concept de JNR comme solution viable pour une gestion efficace de l'IIoT. Les jumeaux numériques sont de plus en plus utilisés pour optimiser les performances des systèmes industriels. En capitalisant sur cette technologie, une architecture JNR holistique pour l'IIoT est proposée, où le réseau est intégré avec d'autres composants industriels. L'architecture exploite les réseaux définies par logiciel (SDN) pour permettre une gestion en boucle fermée du réseau tout au long de son cycle de vie (de la conception au service). Cette architecture facilite la validation rapide des solutions réseau dans un environnement industriel grâce au lien continu entre le JNR et le réseau IIoT physique. De plus, nous proposons de modéliser l'IIoT dans le JNR en utilisant des réseaux de Petri, permettant des réseaux de Petri basés sur les données. Ces modèles servent de modèles formels à gros grains, permettant une simulation rapide pour l'exécution de scénarios hypothétiques et une détection des fautes en temps réel, essentielle dans les applications industrielles critiques
The Industrial Internet of Things (IIoT) presents a complex landscape with numerous constraints, particularly due to their use to control critical applications in Industry 4.0. The requirements in such a context in terms of energy efficiency and quality of service (delay, reliability, determinism and robustness) are strict and of paramount importance. Consequently, there is a pressing need for sophisticated management mechanisms throughout their entire lifecycle to meet these needs. This thesis explores two technological fronts to address this challenge: Reinforcement Learning-based Time Slotted Channel Hopping (TSCH) scheduling and Network Digital Twin (NDT). TSCH scheduling in IIoT, is identified as a crucial area to optimize the performance of these networks. Several works proposed Reinforcement Learning-based scheduling techniques for TDMA (Time Division Multiple Access ) MAC protocols, and particularly for TSCH. However, using this approach in a constrained network like the IIoT carries the risk of elevated energy consumption. This is due to the continuous learning process and coordination among the nodes necessary to manage the non-stationarity issue in the network, which is viewed as a Multi-Agent System. This thesis introduces a novel Reinforcement Learning-based distributed scheduling algorithm, QL-TSCH-plus. This algorithm has been designed to be adaptive and efficient, with reduced energy consumption and delay targets inherent to IIoT environments. Parallel to the development of TSCH scheduling, this thesis adopts the concept of NDT as a viable solution for effective IIoT management. Digital twins have been increasingly used to optimize the performances of industrial systems. Capitalizing on this technology, a holistic NDT architecture for the IIoT is proposed, where the network is integrated with other industrial components. The architecture leverages Software Defined Networking to enable closed-loop network management across the entire network life-cycle (from design to service). This architecture enables quick validation of networking solutions in an industrial environment because of the continuous link between the NDT and the physical IIoT network. Moreover, we propose to model the IIoT in the NDT using Petri-nets, enabling data-driven Petri-nets. These serve as coarse-grained formal models enabling fast simulation time for what-if scenarios execution, and real-time fault detection that is crucial in mission-critical industrial applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Rifi, Léah. „Digital twin-based decision support system for the prospective and the retrospective analysis of an operating room under uncertainties“. Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2023. http://www.theses.fr/2023EMAC0020.

Der volle Inhalt der Quelle
Annotation:
Avec l'augmentation de la demande de soins dans le monde, les services hospitaliers sont de plus en plus sollicités. Leur performance est étroitement liée à la performance de leur bloc opératoire. En effet, le bloc opératoire est un important centre de revenus et de dépenses puisqu'il représente 40% du budget de l'hôpital (Macario et al. 1997), et que 60% des patients viennent à l'hôpital pour une intervention chirurgicale (Fugener et al. 2017). Il est donc nécessaire que les blocs opératoires soient efficients. Cependant, cela est rendu difficile par la complexité de leur organisation due à la diversité des parcours patients, la multiplicité des métiers, les liens étroits avec les services amont et aval, la synchronisation de plusieurs ressources et flux logistiques (personnels, médicaments et dispositifs médicaux), etc. D'autre part, la variabilité des durées et les perturbations inhérentes à la pratique médicale, comme les cas d'urgence, sont les principaux facteurs et événements qui dégradent le programme opératoire et impliquent que le personnel prenne de fréquentes décisions pour maintenir l'activité du bloc opératoire de manière optimale. Par conséquent, les activités de planification et d'ordonnancement du bloc opératoire intéressent de plus en plus la communauté scientifique. Dans cette thèse de doctorat, nous nous concentrons sur les niveaux opérationnels hors ligne et en ligne (Hans et Vanberkel 2012). Ceci nous amène aux questions de recherche suivantes : (1) Comment évaluer la robustesse et la résilience du programme opératoire avant son exécution (dimension prospective) ? (2) Comment rejouer le programme opératoire pour avoir un retour d'expérience et évaluer les décisions prises lors de son exécution (dimension rétrospective) ? La contribution de ce manuscrit est triple : (1) Nous proposons un système d'aide à la décision basé sur un jumeau numérique pour la simulation et l'analyse prospectives et rétrospectives de l'exécution du programme opératoire. (2) Nous décrivons une méthodologie standardisée pour concevoir, construire et mettre en œuvre cet outil dans n'importe quel bloc opératoire. (3) Cette méthodologie est appliquée à un bloc opératoire inspiré de l'Hôpital Privé de La Baie (groupe Vivalto Santé), afin de disposer d'une preuve de concept permettant de simuler un programme opératoire de façon prospective et rétrospective
With healthcare demand rising worldwide, hospital services are increasingly needed. Hospitals' performance is tightly linked to their surgical suite performance. Indeed, the surgical suite is an important revenue and expense center with over 40% of the hospital's budget dedicated to it (Macario et al. 1997) and 60% of the patient coming into the hospital for surgical intervention (Fugener et al. 2017). This makes it necessary for surgical suites to be efficient. However, running a profitable surgical suite is quite hard and requires a methodological approach due to the complexity of its functioning: the diversity of patient pathways, the multiplicity of professions, the tight link with upstream and downstream wards, the synchronization of several resources and logistic flows (drug and medical devices), etc. On the other hand, durations variability and disruptions inherent in medical care like emergency cases are the main factors and events that degrade the scheduled execution and involve the staff making decisions frequently to preserve the surgical suite activity in an optimal way. Therefore, OR planning and scheduling activities are of increasing interest to the scientific community. In this PhD thesis, we focus on offline operational and online operational levels (Hans and Vanberkel 2012). This leads us to the following research questions: (1) How can we assess the robustness and the resilience of the schedule before its execution (prospective way)? (2) How can we replay the schedule to have feedback and assess the decisions made during its execution (retrospective way)? The contribution of this manuscript is threefold: (1) we propose a digital twin-based decision support system for the prospective and retrospective simulation and analysis of the operating room schedule execution, (2) we describe a standardized methodology to conceive, build and implement this tool in any surgical suite, (3) This methodology is applied to an operating room inspired by the Private Hospital of La Baie (Vivalto Santé group, France), in order to have a proof of concept allowing to simulate an operating program prospectively and retrospectively
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Nerlikar, Vivek. „Digital Twin in Structural Health Monitoring for Aerospace using Machine Learning“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG080.

Der volle Inhalt der Quelle
Annotation:
Les systèmes industriels modernes utilisent souvent une combinaison de matériaux tels que les métaux, le béton et les composites, soigneusement optimisés pour obtenir des performances supérieures tout en minimisant les coûts. Les structures sont principalement soumises à des charges dynamiques pendant leur durée de vie. Les problèmes de fabrication et/ou les sollicitations perpétuelles entraînent souvent des changements dans un système qui ont un impact négatif sur ses performances actuelles et/ou futures; ces changements peuvent être définis comme des dommages. L'identification des dommages est un processus crucial qui garantit le bon fonctionnement des équipements ou des structures tout au long de leur cycle de vie. Elle alerte le service de maintenance pour qu'il prenne les mesures nécessaires à la réparation. Le Structural Health Monitoring (SHM) est une technique potentielle d'identification des dommages qui a attiré plus d'attention au cours des dernières décennies. Elle permet de surmonter les inconvénients des méthodes traditionnelles de contrôle non destructif. Dans cette thèse, nous avons utilisé la technique des ondes guidées ultrasoniques (GW) pour le SHM. La sensibilité des ondes guidées aux conditions environnementales et opérationnelles (EOC) modifie les signaux de réponse et peut masquer les signatures de défauts. Il est donc difficile d'isoler les signatures de défauts à l'aide de méthodes telles que la comparaison à une référence, qui consiste à comparer des signaux GW sans dommages avec les acquisitions actuelles. Les méthodes sans état de référence peuvent constituer une alternative, mais elles sont limitées à des géométries simples. En outre, la grande sensibilité des ondes guidées aux variations des EOC et au bruit de mesure constitue un défi pour la modélisation des ondes guidées. Les récentes avancées en matière d'apprentissage automatique ont créé de nouveaux axes de modélisation, notamment la modélisation basée sur les données et la modélisation basée sur la physique, souvent désignée sous le nom d'apprentissage automatique scientifique. La modélisation basée sur les données est extrêmement utile pour modéliser les phénomènes qui ne peuvent être expliqués par la physique, ce qui permet d'isoler les signatures de défauts subtils et de développer des procédures robustes de détection des dommages. Toutefois, les méthodes de ML basées sur la modélisation nécessitent davantage de données pour capturer toutes les informations permettant d'améliorer la capacité de généralisation des modèles ML. Le SHM, quant à lui, tend à générer des données généralement exemptes de dommages, car les épisodes de dommages sont rares. Cette lacune particulière peut être comblée par une modélisation basée sur la physique. Dans cette approche, les capacités de modélisation physique sont combinées avec des données de mesure pour expliquer des phénomènes inexplicables à l'aide de la modélisation physique. L'objectif principal est de développer une méthodologie de détection des défauts dans les panneaux composites. Cette méthodologie est conçue pour surveiller des structures similaires, telles que des pales d'éoliennes ou de turbines à réaction, sans exiger des états sans dommages de toutes les structures, évitant ainsi le besoin de comparaisons directes à un état de référence. Le deuxième objectif est de développer un modèle de ML basé sur la physique pour intégrer des simulations avec des données expérimentales. Le développement de ce modèle implique une modélisation multi-fidélité et métamodélisation. Pour valider ce modèle, nous utilisons un ensemble de données expérimentales et de simulation sur une plaque en aluminium. En outre, le modèle développé est utilisé pour générer des réponses GW réalistes à la taille de l'endommagement et à la position des capteurs. Ces signaux générés sont ensuite utilisés pour calculer une courbe de probabilité de détection (POD), afin d'évaluer la fiabilité d'un système SHM basé sur le GW
Modern engineering systems and structures often utilize a combination of materials such as metals, concrete, and composites, carefully optimized to achieve superior performance in their designated functions while also minimizing overall economic costs. Primarily, engineering structures are subjected to dynamic loads during their operational life. The manufacturing issues and/or the perpetual dynamic operations often lead to some changes into a system that adversely impact its present and/or future performance; these changes can be defined as damage. The identification of damage is a crucial process that ensures the smooth functioning of equipment or structures throughout their life cycle. It alerts the maintenance department to take the necessary measures for repair. Structural Health Monitoring (SHM) is a potential damage identification technique which has attracted more attention in the last few decades. It has the capability to overcome the downsides of traditional Non-Destructive Testing (NDT). In this thesis, we used Ultrasonic Guided Waves (GW) technique for SHM. However, sensitivity of GW to Environmental and Operational Conditions (EOC) modify the response signals to mask defect signatures. This makes it difficult to isolate defect signatures using methods such as baseline comparison, where damage-free GW signals are compared with current acquisitions Baseline-free methods can be an alternative, but they are limited to simple geometries. Moreover, high sensitivity of GW to EOC and measurement noise poses a challenge in modelling GW through physics-based models. The recent advancements in Machine Learning (ML) has created a new modelling axis, including data-driven modelling and physics-based modelling, often referred to as Scientific ML. Data-driven modelling is extremely helpful to model the phenomena that cannot be explained by physics, allowing for the isolation of subtle defect signatures and the development of robust damage detection procedures. However, ML-based methods require more data to capture all the information to enhance the generalization capability of ML models. SHM, on the other hand, tends to generate mostly damage-free data, as damage episodes seldom occur. This particular gap can be filled through physics-based modeling. In this approach, the modeling capabilities of physics-based models are combined with measurement data to explain unexplainable phenomena using ML. The primary objective of this thesis is to develop a data-driven damage detection methodology for identifying defects in composite panels. This methodology is designed for monitoring similar structures, such as wind or jet turbine blades, without requiring pristine (damage-free) states of all structures, thereby avoiding the need for direct baseline comparisons. The second goal is to develop a physics-based ML model for integrating physics-based simulations with experimental data within the context of a Digital Twin. The development of this physics-based ML model involves multi-fidelity modeling and surrogate modeling. To validate this model, we utilize an experimental and simulation dataset of an Aluminium panel. Furthermore, the developed model is employed to generate realistic GW responses at the required damage size and sensor path. These generated signals are then used to compute a Probability of Detection (POD) curve, assessing the reliability of a GW-based SHM system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hosni, Houssem. „Conception d’un jumeau numérique pour un procédé d’aspiration industrielle“. Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS031.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à la conception d’un jumeau numérique pour système de ventilation industriel dans un contexte de surveillance et de diagnostic. Les mesures d’entrées du modèle sont exclusivement électriques et aucun capteur mécanique n’est utilisé. Les cas particuliers de la vitesse fixe et variable sont étudiés. À vitesse constante, la démodulation des courants électriques est particulièrement étudiée et un algorithme original, basé sur un générateur de signaux orthogonaux est proposé, comparé aux principales méthodes connues, et validé expérimentalement. À vitesse variable, l’approche proposée est basée sur les méthodes d’order tracking sans capteur mécanique dans lesquelles les signaux d’analyse sont échantillonnés en fonction de l’angle mécanique. Dans ce cas, les composantes spectrales deviennent indépendantes de la vitesse de rotation et l’analyse fréquentielle peut être exploitée. Une méthode originale est présentée. Elle est basée sur la définition d’un observateur à partir d’un nombre réduit d’informations sur le moteur considéré. La vitesse estimée est exploitée pour déduire la position mécanique et réaliser le ré-échantillonnage angulaire. Une généralisation de la notion d’order tracking est par ailleurs présentée, permettant de définir des angles de ré-échantillonnages adaptés aux défauts surveillés. Cette méthode est testée sur un banc d’essai du LIAS et sur le procédé de ventilation industriel
This thesis is devoted to the design of a digital twin for industrial ventilation systems in a monitoring and diagnostic context. The input measurements of the model are exclusively electrical and no mechanical sensors are used. The particular cases of fixed and variable speed are studied. At constant speed, the demodulation of electrical currents is particularly studied and an original algorithm, based on an orthogonal signal generator, is proposed, compared to the main known methods, and validated experimentally. At variable speed, the proposed approach is based on order tracking methods without mechanical sensor in which the analysis signals are sampled as a function of the mechanical angle. In this case, the spectral components become independent of the rotation speed and the frequency analysis can be exploited. An original method is presented. It is based on the definition of an observer from a reduced number of information on the considered motor. The estimated speed is used to deduce the mechanical position and to perform the angular resampling. A generalization of the concept of ordertracking is also presented, allowing to define resampling angles adapted to the monitored faults. This method is tested on a LIAS test bench and on the industrial ventilation process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Tchana, De Tchana Yvan. „Proposition d’un jumeau numérique pour soutenir la gestion de l'exploitation d'une infrastructure linéaire“. Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0012.

Der volle Inhalt der Quelle
Annotation:
La croissance du numérique au sein l'industrie de la construction conduit au BIM (Building Information Modeling). Inspiré du bâtiment, le BIM est adopté plus tard sur des projets d’infrastructure linéaire. Ces projets nécessitent une maitrise de bout en bout de la chaîne d’information. Le PLM (Product Lifecycle Management) favorise cette continuité numérique dans l’industrie manufacturière. Des études expérimentent une utilisation complémentaire des approches BIM et PLM pour ce type de projet. Adaptant des méthodes développées pour la construction de bâtiments, ces études se limitent à l’élaboration de référentiels de données. Cela rend difficile la gestion de l’infrastructure dans sa phase d’usage, où la maquette numérique doit devenir un jumeau numérique. Ces travaux consistent à développer une stratégie pour la conception, la mise en œuvre et l’exploitation d’une infrastructure linéaire. Cible de la démarche, le jumeau numérique intégrera non seulement BIM et PLM, mais aussi toute autre source d’information qui resitue l’infrastructure dans son environnement. Agrégateur de données, il devrait permettre d’assurer la gestion du cycle de vie d’une infrastructure linéaire. Ce système est éprouvé sur une infrastructure linéaire particulière, un passage à niveau. La continuité numérique et la traçabilité des données sont des facteurs importants pour un tel ouvrage. Notre proposition permet de suivre l’évolution de la donnée, et de lier des données d’exploitation aux données de conception et de construction de l’infrastructure
The digital growth of the construction industry led to BIM (Building Information Modeling). Developed for buildings, BIM is later used on linear infrastructure projects. Such projects require end-to-end control of information. PLM (Product Lifecycle Management) supports digital continuity in the manufacturing industry. Studies evaluate the relevance of a complementary use of the BIM and PLM approaches for linear infrastructure projects. With an adaptation of methods used for building construction, those studies are mostly restricted to the implementation of data repositories. This makes it difficult to consider the infrastructure post-construction phase, where the 3D model is no longer a digital model, but a digital twin. This research work consists in developing a strategy for the design, the implementation and the operations and maintenance of a linear infrastructure. The digital twin of the infrastructure is the target of our approach. It will take into consideration not only BIM and PLM methodologies, but also any other data source positioning the infrastructure in its geographical environment. Data aggregator, our digital twin should make it possible to manage the lifecycle of a linear infrastructure. This system is tested on a specific linear infrastructure, a level crossing. Digital continuity and data traceability are important factors for those constructions. Through the digital twin, our proposal helps to follow the data, and thus to link operational data to the design and construction data of the linear infrastructure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Bouzid, Sami. „Jumeau numérique temps réel de machines électriques basé sur la méthode des éléments finis“. Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40132.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Vallet, Yves. „Contribution à la caractérisation et à la modélisation de l'accouchement instrumenté par ventouse“. Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0134.

Der volle Inhalt der Quelle
Annotation:
Lors d'un accouchement par voie basse, la phase d'expulsion est une période où les risques de complications maternelles et fœtales sont élevées. Les praticiens peuvent être amenés à réaliser une extraction instrumentale par ventouse (EIV) obstétricale. Comme tout instrument d'extraction, son utilisation comporte des risques en cas de pratique inadaptée, pour la mère comme pour le bébé. En ce qui concerne le bébé, les différentes couches du scalp sont, en effet, hautement sollicitées, ce qui peut engendrer quelques rares complications, telles que : des bosses sero-sanguines, des céphalohématomes ou des hémorragies sous-galéales. Afin de limiter ces risques, les praticiens doivent être formés à l'utilisation de la ventouse et doivent respecter les recommandations en vigueur. Cependant, les paramètres liés à son utilisation comme l'amplitude de la force de traction, le placement de la ventouse ou encore le geste d'extraction, restent opérateur-dépendant. Une meilleure compréhension des paramètres physiques et mécaniques mis en jeux lors d'une EIV est alors nécessaire afin de faire évoluer cette pratique. Pour répondre à cet objectif, ce travail de thèse est construit en deux axes qui correspondent à deux échelles distinctes, et qui présentent des aspects expérimentaux et numériques. Le premier, à l'échelle macroscopique, il prend en compte le fœtus dans son environnement. Le deuxième, à une échelle plus mésoscopique des tissus fœtaux, il considère la tête du bébé isolée dans son environnement. Les travaux du premier axe ont permis de faire l'acquisition du geste des praticiens sur un mannequin d'entraînement et de mettre en place un jumeau numérique de cet outil didactique, afin d'investiguer les différents paramètres de l'EIV. Pour le deuxième axe, les travaux de thèse ont permis de mettre au point une modélisation de l'interaction peau/os du scalp. Un modèle numérique qui utilise une modélisation "fine" de la tête fœtale a ensuite été implémenté et mis en œuvre pour l'investigation des paramètres de l'EIV. Des perspectives d'améliorations des travaux des deux axes sont finalement proposées en fin de manuscrit. De manière connexe, une revue de littérature sur les ventouses présentes dans la nature permet d'ouvrir des perspectives prometteuses en vue de l'évolution du design des ventouses obstétricales actuellement utilisées
During vaginal delivery, the expulsion phase is associated with risks of maternal and fetal complication. Practitioners may need to perform a vacuum assisted delivery (VAD). As with any operational instrument, there are risks associated with its use, for the baby and the mother, if it is not carried out correctly. For the fetus, the various layers of the scalp are solicited with great strain, which can lead to rare complications such as caput succedaneum, cephalohaematomas and subgaleal haemorrhage. To limit these risks, practitioners must be trained to use suction cups, and must comply with current recommendations. However, the parameters associated with its use, such as the amplitude of the traction force, the placement of the suction cup and the extraction procedure, remain operator-dependent. A better understanding of the physical and mechanical parameters involved in VAD is therefore needed to improve this practice. In order to achieve this objective, this thesis is structured around two axes, corresponding to two different scales and including experimental and numerical work. The first, at the macroscopic scale, considers the fetus in its environment. The second, at the mesoscopic scale, considers the isolated fetal head within its environment. The work of the first part has allowed to capture gesture of the the practitioners on a training dummy and to create a digital twin of this didactic tool in order to study the various parameters of VAD. In the second part, the work has led to the development of a model of the interaction between the scalp's skin and skull. A numerical model was then designed and implemented using a refined" modelling of the fetal head to study the parameters of the VAD. In parallel, a review of the literature on suction cups found in nature open up promising prospects for the evolution of the obstetric suction cup design used nowadays
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Lehmann, Fanny. „A surrogate model of elastic wave propagation to quantify uncertainties in seismic hazard analysis“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST074.

Der volle Inhalt der Quelle
Annotation:
La propagation des ondes sismiques dans le sol est soumise à de nombreuses sources d'incertitudes, allant de l'activité incertaine des failles géologiques à notre connaissance imparfaite des propriétés mécaniques à l'intérieur de la croûte terrestre. Pour évaluer correctement l'aléa sismique, il est donc essentiel de quantifier l'influence des incertitudes sur l'intensité des mouvements du sol générés par les séismes.Dans les zones à sismicité faible à modérée, comme la plupart des régions de France métropolitaine, les enregistrements sismiques ne sont pas suffisants pour évaluer les incertitudes des mouvements du sol. Dans cette situation, les simulations numériques sont la seule option pour estimer l'intensité du mouvement du sol, mais les coûts de calcul élevés rendent impossible la plupart des analyses d'incertitude. Dans cette thèse, on propose un méta-modèle qui permet de remplacer le solveur numérique en réduisant considérablement les coûts de calcul tout en conservant sa flexibilité et une précision satisfaisante.On illustre tout d'abord l'influence des hétérogénéités géologiques sur l'intensité du mouvement du sol dans le contexte du séisme du Teil (Mw4.9, Ardèche, France, 2019). Des hétérogénéités sont ajoutées à un modèle géologique régional sous la forme de champs aléatoires et on montre que le mouvement sismique ainsi généré est plus réaliste. Cependant, les hétérogénéités induisent également une grande variabilité entre les réalisations.Pour étudier cette variabilité de manière systématique, on élabore une base de données de 30 000 modèles géologiques hétérogènes en 3D et à l'intérieur de chaque géologie, des ondes sismiques sont propagées à partir d'une source aléatoire en utilisant le code d'éléments spectraux SEM3D. La base de données est ensuite utilisée pour entraîner le méta-modèle.Notre méta-modèle est une extension de l'opérateur neuronal de Fourier appelée opérateur neuronal de Fourier à entrées multiples (MIFNO). Le MIFNO prend en entrée une géologie 3D et un vecteur de paramètres de source pour prédire le mouvement du sol en 3D. Le mouvement du sol est un champ d'ondes enregistré à la surface du domaine en fonction du temps. Il est prédit en une seule itération grâce à une conversion profondeur-temps. On caractérise ensuite l'erreur de prédiction du MIFNO et on explore sa capacité de généralisation aux données hors de la distribution d'entraînement.Enfin, on utilise l'apprentissage par transfert pour améliorer la précision du MIFNO dans le contexte du séisme du Teil. Avec ce méta-modèle spécifique, on obtient des distributions statistiques de plusieurs quantités d'intérêt pour l'aléa sismique. Ces distributions sont cohérentes avec les simulations numériques et fournissent des intervalles de confiance qui étaient hors de portée avec les méthodes précédentes
The propagation of seismic waves in the ground is subject to many sources of uncertainties, ranging from the uncertain activity of geological faults to the incomplete knowledge of mechanical properties inside the Earth's crust. To properly assess seismic hazard, it then becomes essential to quantify how uncertainties influence the intensity of ground motion generated by earthquakes.In areas with low-to-moderate seismicity, like most regions in metropolitan France, seismic records are too sparse to evaluate ground motion uncertainties. In this situation, numerical simulations are the only option to estimate ground motion intensity, but their high computational costs prevent most uncertainty analyses. In this thesis, we design a surrogate model that can replace the numerical solver by drastically reducing the computational costs while preserving its flexibility and a satisfying accuracy.We first illustrate the influence of geological heterogeneities on ground motion intensity in the context of the Mw4.9 Le Teil earthquake (Ardèche, France, 2019). Heterogeneities are added to a regional geological model in the form of random fields, and we show that it generates more realistic ground motion. However, heterogeneities also lead to a large variability between samples.To study this variability systematically, we build a database of 30,000 heterogeneous 3D geological models, and inside each geology, seismic waves are propagated from a random source using the spectral element code SEM3D. The database is then used to train a surrogate model in a purely data-driven framework.To design the surrogate model, we propose an extension of the Fourier Neural Operator called the Multiple Input Fourier Neural Operator (MIFNO). The MIFNO takes as inputs a 3D geology and a vector of source parameters to predict 3D ground motion. Ground motion is a time-dependent surface wavefield, but we do not need any time iteration thanks to a depth-to-time conversion. We characterize the MIFNO prediction error and explore the MIFNO generalization ability to out-of-distribution data.We finally take advantage of transfer learning to further improve the MIFNO accuracy in the context of the Le Teil earthquake. With this fine-tuned surrogate model, we obtain statistical distributions of several quantities of interest in seismic hazard assessment. They are coherent with numerical simulations and provide confidence intervals that were out of reach with existing methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Gregorio, Jean-Loup. „Contribution à la définition d'un jumeau numérique pour la maîtrise de la qualité géométrique des structures aéronautiques lors de leurs processus d'assemblage“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN008.

Der volle Inhalt der Quelle
Annotation:
Les opérations d'assemblage de structures aéronautiques font aujourd'hui appel à une planification particulière se basant sur la maquette numérique des produits considérés. Pour permettre une bonne réalisation de ces opérations, la géométrie du produit physique doit rester aussi fidèle que possible à la géométrie de référence contenue dans la maquette numérique. Du fait de la complexité des produits considérés, des écarts géométriques non-anticipés peuvent cependant apparaitre et occasionner un allongement des délais et une augmentation des coûts d’assemblage.L’intégration croissante de systèmes de traitement de l’information ouvre des perspectives nouvelles quant à la façon d’organiser les systèmes de production. Ces perspectives incluent notamment la possibilité d’optimiser les opérations de fabrication et d’assemblage en temps réel à travers l’utilisation de jumeaux numériques des produits manufacturés. Nous proposons dans ces travaux la mise en place d’un jumeau numérique géométrique, capable de refléter la géométrie du produit physique en cours d’assemblage et d’optimiser la géométrie de certains composants restant à assembler.Dans cette optique, la maquette numérique initiale est actualisée afin d’obtenir une représentation dite hybride du produit. Cette représentation inclut les différents états des composants, que nous nommons textit{as-designed}, textit{as-built} et textit{interface}. Les composants textit{as-built} sont plus particulièrement actualisés de manière à refléter la géométrie du produit physique en cours d’assemblage. Une méthode d’actualisation, s’appuyant sur des données numérisées est proposée. A partir de là, la géométrie de composants dits textit{interfaces} est également actualisée afin de garantir le respect des exigences fonctionnelles sur le produit assemblé. Une méthode d’actualisation est également proposée à cet effet.La faisabilité de l’approche ainsi que des outils proposés est évaluée à travers deux cas d’application, dont un est directement représentatif du contexte industriel des travaux. Les résultats obtenus permettent notamment d’envisager d’enrichir l’approche proposée avec la prise en compte de contraintes non-géométriques dans le but d’optimiser le déroulement des opérations d’assemblage
Assembly operations of aerostructures are nowadays planned using the Digital Mock Up of the considered products. To allow a good realization of the aforementioned operations, the geometry of the physical product must remain as faithful as possible to the reference geometry contained in the Digital Mock Up. Because of the complexity of the considered products, unanticipated geometrical deviations may however appear. These geometrical deviations lead to longer cycle times and higher assembly costs.The increasing integration of data processing system gives new prospects on how to organize production systems. These prospects include the possibility to optimize the manufacturing and assembly operations in real time thanks to the use of digital twins of the manufactured products. In this work, we propose the implementation of a geometrical digital twin. This digital twin is capable of mirroring the geometry of the physical product being assembled and optimizing the geometry of some components remaining to be assembled.With this in mind, the initial Digital Mock Up is updated in order to obtain a hybrid representation of the product. This representation includes the different states of the components, which are called as-designed, as-built and interface. The as-built components are more particularly updated in order to mirror the geometry of the physical product being assembled. A method using digitized data is proposed. From there, the geometry of interface components is updated so that the final product complies with the functional requirements which were defined. A method is also proposed for this purpose.The feasibility of the approach as well as the proposed tools is evaluated through two application cases, one of which is directly representative of the industrial context of the works. The obtained results allow to consider enriching the proposed approach by considering non-geometrical constraints in order to optimize assembly operations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Chaufer, Martin. „Développement d’un substitut physique de thorax humain et de son jumeau numérique dédiés à la prédiction du risque lésionnel lors d'impacts balistiques non pénétrants“. Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA015.

Der volle Inhalt der Quelle
Annotation:
Au cours des dernières années, l'utilisation d'armes à létalité réduite a augmenté. Ces armes, conçues pour neutraliser des individus présentant un comportement dangereux, peuvent causer des blessures, voire la mort. Des mécanismes de lésions similaires sont observés lors de la déformation arrière des gilets pare-balles au cours d'impact avec projectiles d’arme à feu. Afin de protéger les citoyens et les forces de l’ordre, il est nécessaire de prévenir de tels scénarios. Or aujourd'hui peu d'outils sont disponibles pour aider au dimensionnement de tel équipements. Dans cette optique, ce travail de thèse vise à développer des outils de prédiction du risque de lésion thoracique lors d'impact balistique non pénétrant. Ainsi, un substitut physique de thorax humain et son jumeau numérique sont développés. Dans un premier temps, le modèle numérique HUByx est utilisé comme référence pour construire un modèle numérique simplifié pouvant être fabriqué avec des matériaux disponibles dans le commerce. Les différents matériaux sont caractérisés et leurs lois de comportement sont établies. Une fois validé, ce modèle numérique sert de base pour construire le substitut physique appelé SurHUByx. Celui-ci est équipé de différents capteurs permettant d'enregistrer les données au niveau des côtes et des organes internes lors d'impact. Des cas d'impact précisément décrits dans des rapports sont reproduits sur SurHUByx pour relier les données issues des capteurs à un bilan lésionnel. Enfin, une approche statistique est utilisée pour développer des courbes de probabilité de lésion, permettant d'estimer le risque de lésion suite à un impact sur SurHUByx ou son jumeau numérique SurHUByx FEM
In recent years, the use of less-lethal weapons has increased. These weapons, designed to neutralise individuals exhibiting dangerous behaviour, can cause injuries or even death. Similar injury mechanisms are observed in the rear deformation of bulletproof vests during impacts. To protect citizens and law enforcement personnel, it is necessary to prevent such scenarios. However, today there are few tools available to assist in the sizing of such equipment. In this context, this thesis aims to develop tools for predicting thoracic injury risk during non-penetrating ballistic impacts. Accordingly, a physical substitute of the human thorax and its numerical twin are developed. Initially, the HUByx numerical model is used as a reference to construct a simplified numerical model that can be manufactured using readily available materials. Different materials are characterised, and their material laws are established. Once validated, this numerical model serves as a basis for constructing the physical substitute called SurHUByx. It is equipped with various sensors to record data over the rib and in internal organs during ballistic impacts. Specific impact cases described in case reports are replicated on SurHUByx to correlate sensor data with injury assessments. Finally, a statistical approach is used to develop injury prediction curves, allowing to estimate of the risk of injury following an impact on SurHUByx or its numerical twin, SurHUByx FEM
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Levy, Benjamin. „Étude numérique et expérimentale pour le développement d’un nouveau procédé de tribo-grenaillage“. Thesis, Paris, HESAM, 2021. http://www.theses.fr/2021HESAE018.

Der volle Inhalt der Quelle
Annotation:
Le grenaillage de précontrainte est un traitement de surface couramment appliqué dans les secteurs aéronautique, automobile et biomédicale afin d’améliorer les performances mécaniques des pièces. Ce traitement consiste à introduire des contraintes résiduelles de compression en sub-surface. Cependant, les avancées technologiques, accompagnées de l’évolution des matériaux, ont généré de nouvelles demandes en terme de traitement de grenaillage. En particulier, le besoin industriel d’un traitement capable à la fois d’assurer un niveau de performance mécanique suffisant tout en fonctionnalisant la surface se fait ressentir de manière croissante. L’objectif de ce travail est de montrer dans quelle mesure ce besoin peut être comblé par un nouveau traitement appelé tribo-grenaillage. Les deux fonctions visées par le tribo-grenaillage nécessitent une caractérisation des états surfaciques (fonctionnalisation) et sub-surfaciques (contraintes résiduelles) des pièces traitées. Ces états sont le résultat d’interactions mécaniques entre des médias, de nature et de forme différentes, et la surface traitée. L’approche du tribo-grenaillage consiste à contrôler ces interactions et les transferts de texture et d’énergie mis en jeu afin de maitriser la signature fonctionnelle implantée. Par conséquent, une caractérisation multi-échelle de la surface et de la sub-surface de la cible est réalisée simultanément à celle de la surface des médias. Cette étape de caractérisation repose sur l’évaluation d’une surface tribo-grenaillée élémentaire représentative de la texturation globale. Le contrôle et l’optimisation du procédé sont envisagés au travers de la mise en place d’un jumeau numérique alimenté par les données de caractérisation multi-échelle, de modélisation par éléments finis ainsi que celles issues de l’instrumentation du jumeau physique
Shot peening is a surface treatment commonly applied in the aerospace, automotive and biomedical industries to improve the mechanical performance of parts. This treatment consists in introducing residual compressive stresses in the sub-surface. However, technological advances, accompanied by the evolution of materials, have generated new demands in terms of shot peening treatment. In particular, the industrial need for a treatment capable of both ensuring a sufficient level of mechanical performance while functionalizing the surface is increasingly felt. The aim of this work is to show to what extent this need can be met by a new treatment called tribo-peening. The two functions targeted by tribo-peening require a characterization of the surface states (functionalization) and sub-surface (residual stresses) of the treated parts. These states are the result of mechanical interactions between media, of different nature and shape, and the treated surface. The tribo-peening approach consists of controlling these interactions, the texture and energy transfers involved in order to master the implanted functional signature. Therefore, a multi-scale characterization of the target surface and sub-surface is performed simultaneously with that of the media surface. This characterization step is based on the evaluation of tribo-peened surface representative of the overall texturing, the so-called Elementary Representative Areal Surface. The control and optimization of the process are envisaged through the establishment of a digital twin fed with multi-scale characterization data, finite element modeling as well as data from the instrumentation of the physical twin
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Ledezma, Lopez Gabriel Alejandro. „Suitable representations of gamma alumina porous structures by computational modeling“. Thesis, Lyon, 2021. https://tel.archives-ouvertes.fr/tel-03789640.

Der volle Inhalt der Quelle
Annotation:
Les matériaux poreux sont largement utilisés en génie chimique. À l'échelle mésoporeuse, les effets de confinement influencent la thermodynamique et les conditions de transport. En effet, l'architecture du matériau poreux peut augmenter les limitations de transfert de masse à l'intérieur du catalyseur. Par conséquent, comprendre non seulement les propriétés texturales mais aussi la topologie du solide est important pour améliorer les performances du catalyseur et la précision des différents modèles permettant de concevoir et d'évaluer les performances des réacteurs hétérogènes. L'alumine gamma est un matériau poreux désordonné à tortuosité élevée très souvent utilisé dans le raffinage du pétrole et la pétrochimie, dont la topologie n'est pas encore totalement comprise (1, 43, 44). Des articles de recherche récents suggèrent que ce matériau a différents domaines de pores, chacun caractérisé par sa propre distribution de taille de pores et sa propre fraction de vide (45). L'interaction entre ces différents niveaux joue clairement un rôle dans une diffusion efficace. En créant des jumeaux numériques d'échantillons réels d’alumine, il est possible de mieux comprendre comment les propriétés texturales et la topologie du réseau influencent la diffusion à travers le réseau à un niveau fondamental. Dans ce travail, un modèle de génération de réseau de pores rapide et flexible est créé. Ensuite, différents algorithmes pour caractériser le réseau de pores numériques sont développés. Ces algorithmes simulent la porosimétrie à l'azote, la porosimétrie au mercure, la cryoporométrie et la résonance magnétique nucléaire à gradient de champ pulsé (PFG-RMN). Un jumeau numérique d'alumine gamma est finalement créé en optimisant les paramètres d'entrée du modèle de réseau de pores pour s'adapter à une isotherme de sorption mesurée expérimentalement. En utilisant des simulations de diffusion sur le modèle de réseau de pores ajusté aux courbes de sorption d'azote, un facteur de tortuosité a été prédit qui diffère de moins de 20 % du facteur de tortuosité mesuré par PFG-RMN. Cela illustre comment un jumeau numérique permet de fournir une estimation raisonnable du facteur de tortuosité à partir d'expériences de porosité à l'azote facilement disponibles
Porous materials are widely used in chemical engineering. At the mesoporous scale, confinement effects influence the thermodynamic of the system and the transport conditions. Indeed, the architecture of the pore network is the origin of mass transfer limitations within disordered porous materials. Therefore, it is important to understand not just the textural properties of the solid but also its pore network characteristics. Gamma-alumina is a disordered porous material with an elevated tortuosity very often used in the oil refining and petrochemistry, whose topology is not yet fully understood (1, 43, 44). Recent research articles propose that this material has different pore domains, each one characterized by its own pore size distribution and void fraction (45). The interplay among these different levels clearly plays a role in effective diffusion. This work intends to better understand the textural and topological descriptors of gamma alumina by creating a digital representation of it. The catalyst is represented using a pore network model. The pore network representation is then characterized using originally developed computational equivalents of textural and mass transfer characterization techniques. The experimental validation was done through the generation of digital twins for real gamma alumina samples. Using diffusion simulations on the pore network model fitted to the nitrogen sorption curves, a tortuosity factor was predicted that differs by less than 20% from the tortuosity factor measured by PFG-NMR. This illustrates how a digital twin allows to provide a reasonable estimate for the tortuosity factor from readily available nitrogen porosity experiments. The research work in this thesis is the start of the path to ultimate goal of improving the catalytic performance of disordered porous catalyst by the digital optimal design of the material architecture. At the same time, the accuracy of the models used to design and evaluate heterogeneous reactor performance will be improved
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Somera, Audrey. „On the effective elasticity of quasi-periodic lattice materials : From microscopic foundations to experimental validation“. Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0037.

Der volle Inhalt der Quelle
Annotation:
Les matériaux architecturés ont suscité un intérêt croissant au fil des années, notamment en permettant d’atteindre de nouvelles zonesdes diagrammes d’Ashby. Les lattices quasipériodiques semblent combiner les avantages des structures aléatoires et périodiques : il s’agit de structures déterministes, leur comportement est isotrope et ils ont une meilleure ténacité que les matériaux périodiques. L’étude du comportement mécanique de telle structure n’en est cependant qu’à ses balbutiements. Ainsi cette thèse proposed’étudier le comportement élastique effectif des lattices quasi-périodiques. Dans un premier temps, les mécanismes de déformations locaux de différents motifs ont été étudiés. Il a ainsi été montré qu’on pouvait séparer les motifs en trois catégories : les motifs à dominance énergétique totale en traction ou flexion et les motifs à dominance variable. L’influence de ces mécanismes locaux sur lecomportement mécanique global des structures a ensuite été étudié. Pour ce faire, une procédure d’identification du comportement effectif équivalent des lattices, basée sur une méthode de type FEMU, a été mise en place. D’abord validée en utilisant un jumeau numérique, un dispositif expérimental a ensuite été conçu afin de mettre en oeuvre expérimentalement la procédure et confirmer les résultats numériques. Il a ainsi été montré que le modèle de comportement le plus adapté dépend du motif considéré : alors qu’uneloi classique de type Cauchy semble suffisante pour décrire le comportement des motifs à dominance énergétique totale en traction et à dominance variable, il est nécessaire d’utiliser un modèle de type Cosserat pour les motifs à dominance énergétique totale en flexion
Architectured materials have received increasing interest over the years, especially by allowing new areas of the Ashby diagrams to bereached. Quasi-periodic lattices combine the advantages of both random and periodic structures: they are deterministic structures, their behaviour is isotropic, and they have better toughness than periodic lattices. However, the study of the mechanical behaviour of such structures is still in its infancy. Thus, this thesis proposes to study the effective elastic behaviour of quasi-periodic lattices. First, the local deformation mechanisms of different patterns have been studied. It is shown that the patterns could be separated into three categories: the completely stretching and bendingdominated patterns and the variable dominance ones. The influence of these local mechanisms on the overall mechanical behaviour was then investigated. For this purpose, an identification procedure of the lattice equivalent effective behaviour, based on a FEMU-type method, was implemented. First performed using a numerical twin, an experimental set-up was then designed to carry out the procedure and validate the numerical results experimentally. It is shown that the most suitable behaviour model depends on the pattern considered. While a classical Cauchy-type law seems sufficient to describe the behaviour of completely stretching-dominated and variable dominance patterns, it is necessary to use a Cosserat-type model for completely bending-dominated ones
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Guillot, Matthieu. „Le problème du plus court chemin stochastique et ses variantes : fondements et applications à l'optimisation de stratégie dans le sport“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM024.

Der volle Inhalt der Quelle
Annotation:
Un parcours de golf est composé de dix-huit trous. Sur chaque trou, le problème du golfeur est de déplacer la balle d'un point de départ prédéfini jusqu'au drapeau en un minimum de coups. Sous certaines hypothèses, ce problème peut se modéliser comme un problème de plus court chemin stochastique (PCCS). Le problème du PCCS est un processus de Markov particulier dans lequel un agent évolue dynamiquement dans un ensemble fini d'états. En chaque état, l'agent choisis une action, induisant un coût, qui le mène en un autre état en suivant une distribution de probabilité connue. Il existe également un état `puits' particulier dans lequel, une fois atteint, on reste avec une probabilité un et un coût de zéro. Le but de l'agent est, depuis un état initial, d'atteindre l'état puits en un coût moyen minimal. Dans un premier chapitre, nous étudions de manière théorique le problème du PCCS. Après avoir redéfini un cadre d'étude dans lequel nous avons affaibli les hypothèses d'existence d'une solution optimale, nous avons prouvé que les algorithmes classiques de résolution convergent dans ce nouveau cadre. Nous avons également défini un nouvel algorithme de résolution basé sur l'algorithme primal-dual. Dans le deuxième chapitre, nous détaillons la modélisation du problème d'optimisation de stratégies au golf en un problème de PCCS. Grâce à la base de données Shotlink, nous définissons des `clones numériques' de joueurs que nous pouvons faire jouer artificiellement sur différents parcours de golf afin de prédire les scores des joueurs. Nous avons appliqué ce modèle à deux compétitions : le master d'Augusta en 2017 et la Ryder Cup en 2018. Dans un troisième et dernier chapitre, nous étudions l'extension naturelle à deux joueurs du problème du PCCS : les jeux de plus courts chemins stochastiques. Nous étudions particulièrement les formulations programmation linéaire de ces jeux et de deux cas particuliers de ceux-ci
A golf course consists of eighteen holes. On each hole, the golfer has to move the ball from the tee to the flag in a minimum number of shots. Under some assumptions, the golfer's problem can be modeled as a stochastic shortest path problem (SSP). SSP problem is a special case of Markov Decision Processes in which an agent evolves dynamically in a finite set of states. In each state, the agent chooses an action that leads him to another state following a known probability distribution. This action induces a cost. There exists a `sink node' in which the agent, once in it, stays with probability one and a cost zero. The goal of the agent is to reach the sink node with a minimum expected cost. In the first chapter, we study the SSP problem theoretically. We define a new framework in which the assumptions needed for the existence of an optimal policy are weakened. We prove that the most famous algorithm still converge in this setting. We also define a new algorithm to solve exactly the problem based on the primal-dual algorithm. In the second chapter we detail the golfer's problem model as a SSP. Thanks to the Shotlink database, we create `numerical clones' of players and simulate theses clones on different golf course in order to predict professional golfer's scores. We apply our model on two competitions: the master of Augusta in 2017 and the Ryder Cup in 2018. In the third chapter, we study the 2-player natural extension of SSP problem: the stochastic shortest path games. We study two special cases, and in particular linear programming formulation of these games
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Garcia, David. „Études exploratoires dédiées au diagnostic de corrosion assisté par ordinateur des structures de génie civil“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30247.

Der volle Inhalt der Quelle
Annotation:
La thèse "Études exploratoires dédiées au diagnostic de corrosion assisté par ordinateur des structures de génie civil" traite de la phénoménologie et de la modélisation de la corrosion de l'acier de construction. Le poids sécuritaire, sociétal, environnemental du vieillissement des infrastructures fait de ce thème un enjeu économique majeur de développement de tout pays. Les développements proposés portent principalement sur la corrosion des armatures dans le béton armé. La corrosion des structures métalliques enterrées est également adressée concernant les problématiques relatives aux couplages galvaniques induits par l'hétérogénéité des sols et aux courants vagabonds. Les méthodes d'investigation usuelles (mesures de potentiel des aciers, de résistivité du béton ou de résistance de polarisation), jointes à des hypothèses empiriques consacrées par l'usage, conduisent à des interprétations souvent incertaines ou n'ayant qu'une valeur qualitative. L'ambition de cette thèse, motivée par les enjeux évoqués, est de montrer comment une meilleure compréhension de la physique de la corrosion, conjuguée à la puissance du calcul aux éléments finis, permet de construire des modèles élaborés et robustes, utiles pour poser un diagnostic et/ou un pronostic quantifié et fiable. La thèse est abondamment illustrée par des études de cas réels ou numériques et étayée par des essais originaux conduits en laboratoire. Afin d'améliorer la compréhension des phénomènes prévalant dans le processus de corrosion, les concepts-clés de thermodynamique et de cinétique électrochimique sont rappelés et contextualisés. L'assemblage de différentes lois physiques, chimiques et électrochimiques permet d'élaborer une approche de modélisation avancée, intégrant notamment la diffusion du dioxygène jusqu'aux armatures en contexte insaturé, mais aussi la production et la précipitation des produits de la corrosion et leur influence sur l'équilibre dynamique d'un système de corrosion. Cette approche de modélisation, nécessairement tridimensionnelle ou a minima bidimensionnelle, donne lieu à une transcription dans un code de calcul par éléments finis. Elle est appliquée dans un premier temps à l'étude numérique d'un premier cas typique de corrosion : pile en béton armé partiellement immergée en mer. L'influence du rôle du dioxygène (disponibilité et diffusion) sur la cinétique de dissolution de l'acier et sur la nature des produits de corrosion formés est notamment étudiée. Afin d'illustrer l'apport effectif de la modélisation 3D dans le processus de diagnostic de la corrosion, une étude de cas réelle est proposée concernant un ouvrage métallique enterré, en l'occurrence des palplanches servant au soutènement des culées d'un passage supérieur d'autoroute, situées à proximité d'une conduite enterrée sous protection cathodique. Des mesures effectuées in-situ mais aussi en laboratoire à partir d'échantillons judicieusement choisis, permettent d'alimenter le modèle de calcul. Le modèle numérique ainsi construit, qualifié de jumeau numérique, permet de mettre en évidence l'existence de courants vagabonds circulant dans la structure, mais également le risque de corrosion galvanique induit par l'hétérogénéité du sol. Le jumeau numérique électrochimique constitue alors un outil puissant pour estimer la cinétique et le faciès de corrosion de l'ouvrage et poser un pronostic en termes de durée de vie. [...]
The PhD thesis "Exploratory studies dedicated to computer-assisted corrosion diagnosis of civil engineering structures" deals with the phenomenology and modeling of corrosion of structural steel. The safety, societal and environmental impact of aging infrastructures makes this theme a major economic issue for the development of any country. The proposed developments focus mainly on the corrosion of reinforcements in reinforced concrete. The corrosion of buried metallic structures is also addressed concerning the problems related to galvanic couplings induced by the heterogeneity of soils and stray currents. The usual methods of investigation (measurements of steel potential, concrete resistivity or polarization resistance), combined with empirical hypotheses established by experience, lead to interpretations that are often uncertain or have only a qualitative value. The ambition of this thesis, motivated by the issues at stake, is to show how a better understanding of the physics of corrosion, combined with the power of finite element calculation, allows the construction of elaborate and robust models, useful for a quantified and reliable diagnosis and/or prognosis. The thesis is abundantly illustrated by real or numerical case studies and supported by original laboratory tests. In order to improve the understanding of the phenomena prevailing in the corrosion process, the key concepts of thermodynamics and electrochemical kinetics are recalled and contextualized. The assembly of different physical, chemical and electrochemical laws allows the elaboration of an advanced modeling approach, integrating in particular the diffusion of oxygen to the reinforcement in an unsaturated context, but also the production and precipitation of corrosion products and their influence on the dynamic equilibrium of a corrosion system. This modeling approach, necessarily three-dimensional or at least two-dimensional, gives rise to a transcription in a finite element calculation code. It is first applied to the numerical study of a first typical case of corrosion: a reinforced concrete pile partially submerged in the sea. The influence of the role of oxygen (availability and diffusion) on the dissolution kinetics of the steel and on the nature of the corrosion products formed is studied in particular. In order to illustrate the effective contribution of 3D modeling in the process of corrosion diagnosis, a real case study is proposed concerning a buried steel structure, in this case sheet piles used to support the abutments of a freeway overpass, located near a pipe buried under cathodic protection. Measurements carried out in-situ but also in the laboratory from judiciously chosen samples are used to feed the calculation model. The numerical model thus constructed, qualified as a digital twin, makes it possible to highlight the existence of stray currents circulating in the structure, but also the risk of galvanic corrosion induced by the heterogeneity of the soil. The electrochemical digital twin is then a powerful tool for estimating the kinetics and the corrosion facies of the structure and making a prognosis in terms of service life. Within a concrete structure, the presence of chlorides is associated with various effects, notably associated with the local electric field. If this phenomenon is ignored, the interpretation of field data, for example potential maps, can lead to a biased diagnosis. This thesis addresses the question of corrosion initiation.[...]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Tahiri, Imane. „Contribution à la conception d'une commande reconfigurable et tolérante aux fautes pour les Systèmes Automatisés de Production“. Thesis, Reims, 2020. http://www.theses.fr/2020REIMS008.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire de thèse entrent dans le cadre de la reconfiguration de la commande des systèmes automatisés de production (SAP) vus comme une classe de Systèmes à Evénements Discrets (SED). La reconfiguration est basée sur la théorie de contrôle par supervision (SCT) et déclenchée suite à une détection des défauts sur la partie opérative (commande tolérante aux fautes). La contribution de ce mémoire est basée sur une synthèse de contrôle sûre fondée sur des propriétés temporisées. Si un défaut de capteur est détecté, le contrôleur du comportement normal est reconfiguré en un comportement dégradé où les informations temporisées compensent les informations perdues sur le capteur défectueux. Le basculement entre le comportement normal et le comportement dégradé est assuré par des règles de reconfiguration. L'objectif principal de notre méthode est d'implémenter le contrôle obtenu dans un automate programmable industriel (API). L'approche développée dans la thèse repose sur une architecture de contrôle distribuée des systèmes automatisés de production pour éviter l'explosion combinatoire récurrente des approches à base de SCT. Pour répondre aux différents objectifs, nous proposons une méthode pour traduire les contrôleurs distribués des deux modes de fonctionnement, ainsi que les règles de reconfiguration en différents grafcets implantables dans un API. L’implémentation de ces différents modèles est vérifiée par une technique de model-checking avant d’être testé sur un jumeau numérique. Enfin, nous appliquons notre contribution à un système réel pour illustrer nos résultats
The research results presented in this thesis falls within the framework of control reconfiguration of Automated Production Systems (APS) seen as a class of Discrete Event Systems (DES). The reconfiguration is based on Supervisory control theory (SCT) and triggered following a plant fault detection (fault tolerant control). The faults considered in this report are sensor faults (a sensor which remains blocked on reading 1 or on reading 0). The main contribution is based on a safe control synthesis founded on timed properties. In fact, if a sensor fault is detected, the controller of the normal behavior is reconfigured to a timed one where the timed information compensates the information lost on the faulty sensor. The switch between normal and reconfigured behaviors is ensured using reconfiguration rules. The main objective of our method is to implement the obtained control into a PLC. To meet the different objectives, we propose a method to translate the distributed controllers of the two operating modes, as well as the reconfiguration rules into different Grafcets implantable in a PLC. The implementation of these different models is verified by a model-checking technique before being tested on a digital twin. Finally, we apply our contribution to a real system to illustrate our results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Ranjbar, Gigasari Roza. „Model Predictive Controller for large-scale systems - Application to water networks“. Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Lille Douai, 2024. http://www.theses.fr/2024MTLD0002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse aborde le défi de l’optimisation de la gestion des ressources en eau au sein des canaux. Il s’agit d’une tâche particulièrement complexe en raison de leur échelle étendue et de la nature diverse de leurs composants, mais également de leurs dynamiques complexes caractérisées par des retards importants et parfois des pentes nulles. En ce qui concerne les réseaux de voies navigables, l’objectif principal est de mettre en œuvre des techniques issues de la théorie du Contrôle afin d’assurer la navigabilité du réseau, garantissant le respect des niveaux d’eau pour la navigation. Plus précisément, les niveaux d’eau doivent demeurer dans une plage prédéfinie autour d’un point de consigne. D’autres objectifs visent en la réduction des coûts opérationnels et l’amélioration de la durabilité des équipements. A cet égard, une alternative dans la gestion de tels réseaux est de remplacer les capteurs le long des canaux par un robot mobile qui effectue les mesures requises en se déplaçant, limitant l’ensemble des tâches de déploiement et de maintenance des capteurs et des systèmes de transmission de l’information. Pour parvenir à une gestion efficiente, il est impératif de garantir un contrôle efficace des structures hydrauliques telles que les vannes, les pompes et les écluses tout en limitant leur utilisation. A cette fin, un algorithme de contrôle est introduit, basé sur un modèle existant dérivé des équations de Saint-Venant. Le modèle simplifié offre une facilité d’intégration des informations actuelles et retardées du système dynamique en simplifiant sa complexité originale. L’utilisation de ce modèle nécessite cependant certaines extensions aux outils standards de contrôle et d’estimation d’état standard. Des méthodes de contrôle prédictif, de type MPC, et des méthodes d’estimation de l’état du système, de type MHE, sont adaptées à ce modèle. Elles permettent de considérer les contraintes physiques et opérationnelles des canaux contrôlés. Le MPC centralisé offre une résilience grâce à son couplage avec la technique MHE. Sa nature déterministe limite cependant sa capacité à aborder systématiquement les incertitudes. Pour relever efficacement ces incertitudes, la mise en œuvre du MPC stochastique (SMPC) a ensuite été proposée. Le SMPC intègre des descriptions probabilistes dans la conception du contrôle, offrant une approche tenant compte des incertitudes. Dans ce contexte d’études, le SMPC est interconnecté avec un robot mobile dont l’usage vise à limiter le nombre de capteurs répartis le long du canal. Par conséquent, une partie de cette thèse se concentre sur la conception du SMPC en intégrant un robot mobile. Cette approche a été appliquée à un canal de test ASCE pour en évaluer l’efficacité. Compte tenu de la nature étendu et de la complexité des interactions des canaux avec leur environnement, une conception d’un jumeau numérique a été entreprise avec pour objectifs de répondre aux besoins d’outils d’analyse avancée de leur gestion. En exploitant les capacités des jumeaux numériques, nous avons cherché à améliorer notre compréhension des dynamiques des canaux, en considérant des scénarios passés, mais également à projeter les avantages de nouvelles stratégies de gestion et de contrôle. Cette évaluation vise à combler le fossé entre la théorie et la mise en œuvre pratique, offrant un moyen tangible de rejouer les événements passés, de tester diverses approches de gestion et, finalement, de proposer aux gestionnaires des outils et des critères conduisant à une gestion efficace des réseaux hydrographiques. Les méthodologies présentées dans cette thèse sont appliquées à un cas réel, un canal situé dans la région des Hauts de France, avec l’objectif de tester et de valider leur efficacité dans un contexte réel
This thesis addresses the challenge of optimizing the management of canals, a complex task due to their extensive scale and distinctive attributes, including intricate dynamics, considerable time delays, and minimal bottom slopes. Specifically, the central goal is to ensure the navigability of the network, which involves maintaining safe water levels for vessel travel, through control theory. More precisely, the water levels must remain within a predefined range around a setpoint. Additionally, typical aims encompass reducing operational costs and enhancing the equipment’s life expectancy. In this regard, another objective in the management of such networks is replacing the possible sensors across canals by applying a moving robot to take the required measurements. To accomplish effective management, it becomes imperative to ensure efficient control over hydraulic structures such as gates, pumps, and locks. To this end, a control algorithm is introduced based on an existing model derived from the Saint-Venant equations. The modeling approach simplified the original complex description providing adaptability and facilitating the systematic integration of both current and delayed information. However, the resulting model formulation falls within the category of delayed descriptor systems, necessitating extensions to standard control and state estimation tools. Model predictive control and moving horizon estimation methods can be readily tailored for this formulation, while also adapting physical and operational constraints seamlessly. Given the extensive nature of canals, an evaluation of the digital twin was untaken to address the critical need for advanced tools in the management of such networks. By harnessing the capabilities of digital twins, we aimed to enhance our understanding of canal dynamics, past scenarios, and management strategies. This evaluation sought to bridge the gap between theory and practical implementation, offering a tangible means to playback past events, test diverse management approaches, and ultimately equip decision-makers with robust criteria for informed and effective network management.The methodologies presented above are applied to a practical case study, a canal in the northern region of France. The objective is to validate the efficacy of these approaches in a real-world context.While centralized MPC provides resilience through its receding-horizon approach, its deterministic nature limits its ability to systematically address uncertainties. To effectively tackle these system uncertainties, the implementation of Stochastic MPC (SMPC) has been adopted. SMPC integrates probabilistic descriptions into control design, offering a methodical approach to accommodating uncertainties. In this context, the application of SMPC is interconnected with a mobile robot aimed at replacing existing sensors along the canal to capture measurements. Consequently, a part of this thesis focuses on the design of SMPC in conjunction with a mobile robot. This approach has been applied to an ASCE Test canal to evaluate its effectiveness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie