Tesis sobre el tema "Jumeaux numériques"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Jumeaux numériques.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 19 mejores tesis para su investigación sobre el tema "Jumeaux numériques".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Hammoumi, Adam. "Analysis-Driven Design of Digital Multi-scale Microstructures of Materials". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG083.

Texto completo
Resumen
La demande globale d'énergie augmente rapidement dans le monde entier. La catalyse hétérogène est à l'origine de la plupart des principes de la chimie verte : procédés d'économie d'énergie, efficacité de l'atome, procédés de nettoyage, etc. La catalyse en général, et la catalyse hétérogène, est très vite devenue un outil essentiel pour le développement de la chimie industrielle. Actuellement, 85 % des procédés industriels utilisés dans le monde sont catalytiques. Dans ce contexte, de nombreux efforts sont déployés pour optimiser les catalyseurs hétérogènes afin de répondre à la demande croissante d'énergie tout en réduisant l'impact environnemental des carburants. Pour ces raisons, et bien d'autres, la conception de nouveaux matériaux catalytiques est aujourd'hui un sujet de grande importance. L'approche actuelle concernant la conception de catalyseurs tend vers une élaboration contrôlée de matériaux dont la texture est maîtrisée, ordonnée et hiérarchisée de l'échelle nanométrique à l'échelle micrométrique. Ces catalyseurs devront être plus actifs, stables (efficacité énergétique), et plus sélectifs (économie d'atomes, moins de rejets). Dans ce cadre, ce travail de recherche se concentre sur la création de jumeaux numériques de microstructures visant in-fine le rétro-design de matériaux poreux pour des propriétés d'usage optimales. Les applications concernent les supports de catalyse et les matériaux de construction, avec une priorité donnée à l'amélioration des propriétés multi-physiques en considérant les propriétés texturales de ces matériaux. La contribution de cette thèse est un nouveau cadre numérique permettant la modélisation et la caractérisation de ces matériaux. Cette nouvelle approche s'appuie sur des modèles aléatoires pour représenter des microstructures réalistes multi-échelles et complexes. Pour extraire les propriétés texturales de ces microstructures, deux méthodes numériques ont été développées dans un premier temps. La première nous permet de caractériser le réseau de porosité d'une microstructure et de calculer sa distribution de taille de pore, et la seconde nous permet de calculer la tortuosité géométrique de ces matériaux avec une approche rapide de recherche sur graphe. Sur le même sujet, notre contribution majeure est un modèle morphologique qui simule de manière originale la physisorption par gaz au moyen de la morphologie mathématique et des opérateurs de percolation. La physisorption par gaz est l'une des techniques expérimentales les plus utilisées pour la caractérisation des propriétés texturales des matériaux poreux. Le modèle a été validé sur des matériaux réels conçus pour cette thèse. L'apprentissage profond a également été largement exploré. Tout d'abord, une nouvelle approche s'appuyant sur les réseaux de neurones convolutifs a été proposée. Cette dernière propose une solution pour améliorer la qualité de l'apprentissage lorsque les données d'entraînement en entrée sont peu nombreuses. Une deuxième contribution nous a permis de stocker les informations morphologiques du modèle précédent dans un volume 3D, et de capturer les informations inter-coupes dans des coupes 2D. L'ensemble du processus a transformé le problème initial en un problème d'apprentissage profond, ce qui a considérablement réduit le temps de calcul du modèle de physisorption par gaz
The global demand for energy is increasing rapidly around the world. Heterogeneous catalysis is behind most of the principles of green chemistry: energy saving processes, atom efficiency, cleaning processes, etc. Catalysis in general, and heterogeneous catalysis, has very quickly become an essential tool for the development of industrial chemistry. Currently, 85 % of the industrial processes used throughout the world are catalytic. In this context, many efforts are being made to optimize heterogeneous catalysts to meet the increasing demand for energy while reducing the environmental impact of fuels. For these reasons, and many others, the design of new catalytic materials today is a hot topic. The current approach regarding the design of catalysts tends towards a controlled elaboration of materials whose texture will be controlled, ordered, and hierarchically structured from the nanometer to the micrometer scale. These catalysts will have to be more active, and stable (energy efficiency), and more selective (saving atoms, less rejects). Within this framework, this research work focuses on the creation of numerical twins of microstructures aiming in-fine the retro-design of porous materials for optimal usage properties. The applications concern catalysis supports and construction materials, with priority given to the improvement of multi-physical properties considering textural properties of these materials. The contribution of this thesis is a new numerical framework allowing the modeling and characterization of these materials. This new approach builds upon random models to represent realistic multi-scale and complex microstructures. To extract the textural properties of these microstructures, two numerical methods have been developed in a first step. The first one allows us to characterize the porosity network of a microstructure and to compute its pore size distribution, and the second one allows us to compute the geometrical tortuosity of these materials with a fast graph search approach. Regarding the same topic, our major contribution is a morphological model that simulates in an original way gas physisorption by means of mathematical morphology and percolation operators. Gas physisorption is one of the most used experimental techniques for the characterization of the textural properties of porous materials. The model has been validated on real materials designed for this thesis. Deep learning has also been widely explored. First, a new approach building upon convolutional neural networks has been proposed. The latter proposes a solution to improve the learning quality when there is little input training data. A second contribution allowed us to store the morphological information of the previous model in a 3D volume, and to capture inter-slice information into 2D slices. The overall process transformed the initial problem into a deep learning problem, which considerably reduced the computation time of the gas physisorption model
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Chabanet, Sylvain. "Contributions aux ombres et jumeaux numériques dans l’industrie : proposition d’une stratégie de couplage entre modèles de simulation et d’apprentissage automatique appliquée aux scieries". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0131.

Texto completo
Resumen
Ces travaux de thèses s'inscrivent dans le projet ANR Lorraine-Intelligence Artificielle qui se veut un projet multi-disciplinaire promouvant la recherche à la fois sur l'intelligence artificielle elle-même et sur ses applications à d'autres domaines de recherche. A ce titre, cette thèse s'intéresse au développement et à l'utilisation de modèles d'apprentissage automatique comme modèles de substitution a des modèles de simulation. L'intérêt pour ce sujet de recherche est, en particulier, porté par l'engouement des milieux académiques et industriel pour le concept d'ombres et jumeaux numériques, vus comme une évolution des modèles de simulation pour une utilisation pérenne au cœur des systèmes et des processus. La contribution principale de ces travaux de thèse est la proposition d'une stratégie de couplage entre un modèle de simulation et un modèle de substitution réalisant une même tâche de prédiction de manière répétée sur un flux de données. Le modèle de simulation est supposé avoir un haut niveau de fidélité mais être trop lent ou coûteux en calcul pour être utilisé seul pour réaliser l'intégralité des prédictions requises. Le modèle de substitution est un modèle d'apprentissage automatique qui approxime le modèle de simulation. L'objectif premier de la stratégie de couplage proposée est l'utilisation efficiente des ressources en calcul limitées par l'allocation intelligente de chaque prédiction à effectuer à un des deux modèles. Cette allocation est, en particulier, inspirée de l'apprentissage actif et basée sur l'évaluation de niveaux de confiance dans les prédictions du modèle d'apprentissage automatique. Des expériences numériques sont d'abord menées sur huit jeux de données de la littérature scientifique. Une application à l'industrie du sciage est ensuite développée
This thesis is part of the ANR project Lorraine-Artificial Intelligence, a multi-disciplinary project promoting research into both artificial intelligence itself, and its applications to other fields. As such, this thesis focuses on the development and use of machine learning models as a substitute for simulation models. Interest in this research topic is fueled by academic and industrial interest in the concept of digital shadows and twins, seen as an evolution of simulation models for long-term use at the heart of systems and processes. The main contribution of this thesis is the proposal of a coupling strategy between a simulation model and a surrogate model performing the same prediction task repeatedly on a data stream. The simulation model is assumed to have a high level of fidelity, but to be too slow or computationally expensive to be used alone to perform the full range of prediction required. The surrogate model is a fast machine-learning model that approximates the simulation model. The primary objective of the proposed coupling strategy is the efficient use of limited computational resources by intelligently allocating each prediction request to one of the two models. This allocation is, in particular, inspired by active learning and based on the evaluation of the level of confidence in the predictions of the machine learning model. Numerical experiments are first carried out on eight datasets from the scientific literature. An application to the sawmilling industry is then developed
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Haoua, Abdoulaye affadine. "Smart Machining pour l’assemblage aéronautique". Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE090.

Texto completo
Resumen
Les empilements hybrides composés des couches composites CFRP, du TA6V et d'alliage d'aluminium, appelés multi-matériaux, sont largement utilisés dans les composants aérospatiaux. Le perçage one-shot, au moyen d'une Unité de Perçage Automatique (UPA), de ces empilements pose des défis majeurs en raison de la différence d'usinabilité entre les différents matériaux présents dans l'empilement. Pour répondre aux exigences de qualité, améliorer la tenue des outils et atteindre une pleine productivité lors du perçage de multi-matériaux sur UPA électrique, l’adaptation des paramètres de coupe au cours de l’usinage s’impose. Cela implique une détection fiable des matériaux usinés, la détection de l'usure de l'outil, ainsi que la détection d'incidents (bris d’outil, bourrage copeaux, problème de lubrification, écaillage des arêtes de coupe). Cependant, il n’existe pas actuellement des outils permettant de répondre à ce besoin. Le travail effectué dans cette thèse propose donc des solutions basées sur l’apprentissage automatique pour le développement des méthodologies robustes et fiables d’identification des matériaux, de détection de l'usure de l'outil, ainsi que de détection des incidents pour la mise en en place des stratégies de perçage intelligent (smart-drilling) intégrant de l’usinage auto-adaptatif. Dans un premier temps, une nouvelle approche de détection des incidents a été proposée en s’appuyant sur des données industrielles non étiquetées et des algorithmes de clustering : le K-means et la classification hiérarchique ascendante. Cette approche a permis d’identifier un certain nombre d’incidents et a mis en évidence les difficultés liées au traitement des données industrielles (rareté d’incidents et absence des étiquettes) et les difficultés liées à la définition des paramètres optimaux des algorithmes d’ apprentissage automatique. Dans un second temps, des essais sur un banc expérimental multi-instrumenté dédié et sur des empilements Al7175/CFP et CFRP/Al7175 ont permis de développer et de valider une méthodologie originale d’identification des matériaux basée sur les forêts aléatoires (Random Forest ou RF). Les résultats obtenus en termes de classification par types de matériaux (Al7175, CFRP), ont permis une extension du modèle RF sur différentes configurations d’empilements (CFRP/Al7175/TA6V, TA6V/Al7175/CFRP), avec différents diamètre outils et un large domaine de conditions de coupe. Cette méthodologie permettra d’envisager la mise en œuvre d’un processus d’usinage adaptatif sur UPA électrique pour le perçage de multi-matériaux.Mots clés : Usinage auto-adaptatif, Perçage multi-matériaux, Reconnaissance des matériaux, Forêts aléatoires, Usure outil, Apprentissage non supervisé, UPA électrique, Analyse des signaux
Hybrid stacks comprising of composite CFRP layers, TA6V, and aluminum alloy, referred to as multi-material, are widely used in aerospace components. One-shot drilling, using an Automatic Drilling Unit (UPA), of these stacks poses major challenges due to the difference in machinability among the various materials within the stack. To meet quality requirements, improve tool life and achieve optimal productivity during the drilling of multi-material stacks with an electric UPA, it is essential to adapt cutting parameters during machining. However, there are currently no tools available to meet this need. This theisis conerns machine learning-based solutions for the implementation of smart drilling strategies incorporating adaptive machining. These solutions focus on the development of robust and reliable methodologies for identifying materials, detecting tool wear, and detecting multi-material drilling-related incidents (tool breakage, chip jamming, lubrication issues, cutting edges chipping). Fristly, a new approach to incident detection was proposed, based on unlabeled industrial data and clustering algorithms: K-means and hierarchical ascending classification. This approach enabled us to identify a number of incidents, and highlighted the difficulties associated with processing industrial data (rarity of incidents and absence of labels) and the difficulties associated with defining the optimum parameters for machine learning algorithms. Subsequently, experiment are performed on an specialized instrumented drilling bench and on Al7175/CFP and CFRP/Al7175 stacks. This led to the development and validation of an original material identification methodology based on Random Forest (RF). The results, in terms of material classification (Al7175, CFRP), enabled the extension of the RF model to different stack configurations with various tool diameters and a wide range of cutting conditions. This methodology will enable the implementation of an adaptive machining process on an electric UPA for multi-material drilling.Keywords : Adaptive drilling, Multi-material stacks drilling, Material recognition, Random Forest, Tool Wear, Unsupervised learning, Electric UPA, Signals analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Coupry, Corentin. "Approche mixte RV/RA, couplée au concept de jumeau numérique, comme support d’opérations de maintenance collaborative à distance : application aux équipements techniques de bâtiment". Electronic Thesis or Diss., Angers, 2023. http://www.theses.fr/2023ANGE0066.

Texto completo
Resumen
Les avancées technologiques de l’Industrie 4.0 ont ouvert la voie à la mise en place de nouvelles méthodologies et technologies, notamment les jumeaux numériques (DT) et les outils de réalité étendue (XR). Bien que ces innovations soient déjà largement exploitées dans la maintenance industrielle, leur potentiel reste à démontrer dans le secteur de la construction. Elles promettent d’aider à la prise de décision en donnant accès à des informations spécifiques, via la XR, lors d’opérations de maintenance et en permettant des simulations de comportement grâce au DT. Cependant, la complexité croissante des installations, associée à l’impératif de recourir à une expertise externe lors des opérations de maintenance, appelle à repenser les méthodes d’assistance à distance, en particulier à la lumière des préoccupations environnementales et sanitaires. Pour répondre à ces enjeux, nos travaux de recherche basés sur un état de l’art approfondi de la littérature scientifique et technologique, se concentrent sur l’exploitation de ces technologies pour améliorer les procédures de maintenance. Tout d’abord, une revue de littérature a permis d’évaluer comment les outils XR et les jumeaux numériques peuvent enrichir les informations utilisées lors des opérations de maintenance. Cette analyse souligne l’intérêt de tirer parti des données du BIM (Building Information Modeling) pour créer un jumeau numérique, ainsi que les améliorations apportées à la visualisation de ces données par les outils XR. De plus, une étude des solutions de collaboration existantes a révélé les exigences et les contraintes inhérentes au travail collaboratif entre un opérateur sur le terrain et un expert distant, telles que la nécessité d’un environnement de travail commun et les difficultés de synchronisation des échanges. Dans une deuxième phase de notre recherche, en nous appuyant sur ces constats, nous avons développé une architecture permettant d’améliorer la collaboration lors des inspections entre un opérateur sur site et un expert à distance, en utilisant les capacités de visualisation des outils XR et les données du jumeau numérique de l’installation. Cette démarche a abouti à la création de la solution DT-RAMCoRE, permettant le partage d’informations via la manipulation indirecte du jumeau numérique de l’installation par la méthode RAMCoRE. Conscients de la diversité des dispositifs XR et de l’évolution rapide de la technologie, nous avons conçu cette solution avec l’objectif d’assurer sa pérennité et son interopérabilité entre les différents supports disponibles, grâce à la norme OpenXR. En analysant une étude de cas, nous avons démontré que l’utilisation de la solution DT-RAMCoRE lors d’une inspection collaborative permet à l’opérateur de comprendre plus rapidement les informations transmises par un expert par rapport à une approche classique basée sur un appel vidéo, tout en réduisant les erreurs liées à l’identification des composants de l’installation. En conclusion, nous formulons des recommandations pour optimiser les informations fournies aux acteurs de la collaboration. Enfin, nous avons développé un concept de simulation, composant du DT, permettant de fournir à l’opérateur sur le terrain et l’expert à distance des outils d’analyses avancées facilitant le travail d’inspection. En perspectives à ces travaux, nous présentons une méthodologie pour exploiter les modèles de simulation du DT via les outils de XR
Technological advances in Industry 4.0 have paved the way for new methodologies and technologies, including digital twins (DT) and extended reality (XR) tools. While these innovations are already widely exploited in industrial maintenance, their potential in the construction sector remains to be demonstrated. They promise to help decision-making by providing access to specific information, via XR, during maintenance operations, and by enabling behavioral simulations thanks to the DT. However, the growing complexity of installations, combined with the need to call on external expertise during maintenance operations, calls for a rethinking of remote assistance methods, particularly in the light of environmental and health concerns. To explore these challenges, our research work, based on an in-depth review of scientific and technological literature, focuses on exploiting these technologies to improve maintenance procedures. Firstly, a literature review explored how XR tools and digital twins can enrich the information used during maintenance operations. This analysis highlights the value of leveraging BIM (Building Information Modeling) data to create a digital twin, as well as the improvements XR tools bring to the visualization of this data. In addition, a study of existing collaboration solutions revealed the requirements and constraints inherent in collaborative work between a field operation and a remote expert, such as the need for common work environment and difficulties in synchronizing exchanges. In a second phase of our research, based on these findings, we developed an architecture to enhance collaboration during inspections between an on-site operator and a remote expert, using the visualization capabilites of XR tools and data from the system’s digital twin. This led to the creation of the DT-RAMCoRE solution, enabling Information to be shared via indirect manipulation of the system’s digital twin usingthe RAMCoRE method. Aware of the diversity of XR devices and the rapid evolution of the technology, we designed this solution with the aim of ensuring its durability and interoperability between the different media available, thanks to the OpenXR standard. By analyzing a case study, we have demonstrated that using the DT-RAMCoREsolution during a collaborative inspection helps the operator to understand the information transmitted by an expert more quickly than with a conventional approach based on a video call, while reducing errors linked to the identification of system components. In conclusion, we formulate recommendations for optimizing the information provided to collaborative users. Finally, we have developed a simulation concept, a key component of the DT, to provide the field operator and the remote expert with advanced analysis tools to facilitate inspection work. As a perspective to this work, we present a methodology for exploiting DT simulation models via XR tools
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Kherbache, Mehdi. "Toward Optimized 802.15.4 Industrial Wireless Networks : Harnessing Machine Learning and Digital Twins". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0253.

Texto completo
Resumen
L'Internet Industriel des Objets (IIoT) offre un paysage complexe avec de nombreuses contraintes, notamment en raison de son utilisation pour piloter des applications critiques dans l'Industrie 4.0. Les exigences dans un tel contexte, en termes d'efficacité énergétique et de qualité de service (délai, fiabilité, déterminisme et robustesse), sont strictes et d'une importance capitale. Il en découle un besoin impératif de mécanismes de gestion sophistiqués tout au long de leur cycle de vie pour répondre à ces exigences. Cette thèse explore deux axes technologiques pour relever ce défi : l'ordonnancement basé sur l'Apprentissage par Renforcement pour le protocole TSCH (Time Slotted Channel Hopping) et le Jumeau Numérique du Réseau (JNR). L'ordonnancement TSCH dans l'IIoT est identifiée comme un domaine essentiel pour optimiser la performance de ces réseaux. Plusieurs travaux ont proposé des techniques d'ordonnancement basées sur l'Apprentissage par Renforcement pour les protocoles MAC TDMA (Time Division Multiple Access) , et plus particulièrement pour TSCH. Toutefois, l'utilisation de cette approche dans un réseau contraint comme l'IIoT présente le risque d'une consommation énergétique accrue. Cela est dû au processus d'apprentissage continu et à la coordination entre les nœuds nécessaire pour gérer le problème de non-stationnarité du réseau, considéré comme un Système Multi-Agents. Cette thèse présente un nouvel algorithme d'ordonnancement distribué basé sur l'Apprentissage par Renforcement, nommé QL-TSCH-plus. Cet algorithme est conçu pour être adaptatif et efficace, avec des objectifs de réduction de la consommation d'énergie et des délais propres aux environnements IIoT. En parallèle du développement de l'ordonnancement pour TSCH, cette thèse adopte le concept de JNR comme solution viable pour une gestion efficace de l'IIoT. Les jumeaux numériques sont de plus en plus utilisés pour optimiser les performances des systèmes industriels. En capitalisant sur cette technologie, une architecture JNR holistique pour l'IIoT est proposée, où le réseau est intégré avec d'autres composants industriels. L'architecture exploite les réseaux définies par logiciel (SDN) pour permettre une gestion en boucle fermée du réseau tout au long de son cycle de vie (de la conception au service). Cette architecture facilite la validation rapide des solutions réseau dans un environnement industriel grâce au lien continu entre le JNR et le réseau IIoT physique. De plus, nous proposons de modéliser l'IIoT dans le JNR en utilisant des réseaux de Petri, permettant des réseaux de Petri basés sur les données. Ces modèles servent de modèles formels à gros grains, permettant une simulation rapide pour l'exécution de scénarios hypothétiques et une détection des fautes en temps réel, essentielle dans les applications industrielles critiques
The Industrial Internet of Things (IIoT) presents a complex landscape with numerous constraints, particularly due to their use to control critical applications in Industry 4.0. The requirements in such a context in terms of energy efficiency and quality of service (delay, reliability, determinism and robustness) are strict and of paramount importance. Consequently, there is a pressing need for sophisticated management mechanisms throughout their entire lifecycle to meet these needs. This thesis explores two technological fronts to address this challenge: Reinforcement Learning-based Time Slotted Channel Hopping (TSCH) scheduling and Network Digital Twin (NDT). TSCH scheduling in IIoT, is identified as a crucial area to optimize the performance of these networks. Several works proposed Reinforcement Learning-based scheduling techniques for TDMA (Time Division Multiple Access ) MAC protocols, and particularly for TSCH. However, using this approach in a constrained network like the IIoT carries the risk of elevated energy consumption. This is due to the continuous learning process and coordination among the nodes necessary to manage the non-stationarity issue in the network, which is viewed as a Multi-Agent System. This thesis introduces a novel Reinforcement Learning-based distributed scheduling algorithm, QL-TSCH-plus. This algorithm has been designed to be adaptive and efficient, with reduced energy consumption and delay targets inherent to IIoT environments. Parallel to the development of TSCH scheduling, this thesis adopts the concept of NDT as a viable solution for effective IIoT management. Digital twins have been increasingly used to optimize the performances of industrial systems. Capitalizing on this technology, a holistic NDT architecture for the IIoT is proposed, where the network is integrated with other industrial components. The architecture leverages Software Defined Networking to enable closed-loop network management across the entire network life-cycle (from design to service). This architecture enables quick validation of networking solutions in an industrial environment because of the continuous link between the NDT and the physical IIoT network. Moreover, we propose to model the IIoT in the NDT using Petri-nets, enabling data-driven Petri-nets. These serve as coarse-grained formal models enabling fast simulation time for what-if scenarios execution, and real-time fault detection that is crucial in mission-critical industrial applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Rifi, Léah. "Digital twin-based decision support system for the prospective and the retrospective analysis of an operating room under uncertainties". Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2023. http://www.theses.fr/2023EMAC0020.

Texto completo
Resumen
Avec l'augmentation de la demande de soins dans le monde, les services hospitaliers sont de plus en plus sollicités. Leur performance est étroitement liée à la performance de leur bloc opératoire. En effet, le bloc opératoire est un important centre de revenus et de dépenses puisqu'il représente 40% du budget de l'hôpital (Macario et al. 1997), et que 60% des patients viennent à l'hôpital pour une intervention chirurgicale (Fugener et al. 2017). Il est donc nécessaire que les blocs opératoires soient efficients. Cependant, cela est rendu difficile par la complexité de leur organisation due à la diversité des parcours patients, la multiplicité des métiers, les liens étroits avec les services amont et aval, la synchronisation de plusieurs ressources et flux logistiques (personnels, médicaments et dispositifs médicaux), etc. D'autre part, la variabilité des durées et les perturbations inhérentes à la pratique médicale, comme les cas d'urgence, sont les principaux facteurs et événements qui dégradent le programme opératoire et impliquent que le personnel prenne de fréquentes décisions pour maintenir l'activité du bloc opératoire de manière optimale. Par conséquent, les activités de planification et d'ordonnancement du bloc opératoire intéressent de plus en plus la communauté scientifique. Dans cette thèse de doctorat, nous nous concentrons sur les niveaux opérationnels hors ligne et en ligne (Hans et Vanberkel 2012). Ceci nous amène aux questions de recherche suivantes : (1) Comment évaluer la robustesse et la résilience du programme opératoire avant son exécution (dimension prospective) ? (2) Comment rejouer le programme opératoire pour avoir un retour d'expérience et évaluer les décisions prises lors de son exécution (dimension rétrospective) ? La contribution de ce manuscrit est triple : (1) Nous proposons un système d'aide à la décision basé sur un jumeau numérique pour la simulation et l'analyse prospectives et rétrospectives de l'exécution du programme opératoire. (2) Nous décrivons une méthodologie standardisée pour concevoir, construire et mettre en œuvre cet outil dans n'importe quel bloc opératoire. (3) Cette méthodologie est appliquée à un bloc opératoire inspiré de l'Hôpital Privé de La Baie (groupe Vivalto Santé), afin de disposer d'une preuve de concept permettant de simuler un programme opératoire de façon prospective et rétrospective
With healthcare demand rising worldwide, hospital services are increasingly needed. Hospitals' performance is tightly linked to their surgical suite performance. Indeed, the surgical suite is an important revenue and expense center with over 40% of the hospital's budget dedicated to it (Macario et al. 1997) and 60% of the patient coming into the hospital for surgical intervention (Fugener et al. 2017). This makes it necessary for surgical suites to be efficient. However, running a profitable surgical suite is quite hard and requires a methodological approach due to the complexity of its functioning: the diversity of patient pathways, the multiplicity of professions, the tight link with upstream and downstream wards, the synchronization of several resources and logistic flows (drug and medical devices), etc. On the other hand, durations variability and disruptions inherent in medical care like emergency cases are the main factors and events that degrade the scheduled execution and involve the staff making decisions frequently to preserve the surgical suite activity in an optimal way. Therefore, OR planning and scheduling activities are of increasing interest to the scientific community. In this PhD thesis, we focus on offline operational and online operational levels (Hans and Vanberkel 2012). This leads us to the following research questions: (1) How can we assess the robustness and the resilience of the schedule before its execution (prospective way)? (2) How can we replay the schedule to have feedback and assess the decisions made during its execution (retrospective way)? The contribution of this manuscript is threefold: (1) we propose a digital twin-based decision support system for the prospective and retrospective simulation and analysis of the operating room schedule execution, (2) we describe a standardized methodology to conceive, build and implement this tool in any surgical suite, (3) This methodology is applied to an operating room inspired by the Private Hospital of La Baie (Vivalto Santé group, France), in order to have a proof of concept allowing to simulate an operating program prospectively and retrospectively
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Nerlikar, Vivek. "Digital Twin in Structural Health Monitoring for Aerospace using Machine Learning". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG080.

Texto completo
Resumen
Les systèmes industriels modernes utilisent souvent une combinaison de matériaux tels que les métaux, le béton et les composites, soigneusement optimisés pour obtenir des performances supérieures tout en minimisant les coûts. Les structures sont principalement soumises à des charges dynamiques pendant leur durée de vie. Les problèmes de fabrication et/ou les sollicitations perpétuelles entraînent souvent des changements dans un système qui ont un impact négatif sur ses performances actuelles et/ou futures; ces changements peuvent être définis comme des dommages. L'identification des dommages est un processus crucial qui garantit le bon fonctionnement des équipements ou des structures tout au long de leur cycle de vie. Elle alerte le service de maintenance pour qu'il prenne les mesures nécessaires à la réparation. Le Structural Health Monitoring (SHM) est une technique potentielle d'identification des dommages qui a attiré plus d'attention au cours des dernières décennies. Elle permet de surmonter les inconvénients des méthodes traditionnelles de contrôle non destructif. Dans cette thèse, nous avons utilisé la technique des ondes guidées ultrasoniques (GW) pour le SHM. La sensibilité des ondes guidées aux conditions environnementales et opérationnelles (EOC) modifie les signaux de réponse et peut masquer les signatures de défauts. Il est donc difficile d'isoler les signatures de défauts à l'aide de méthodes telles que la comparaison à une référence, qui consiste à comparer des signaux GW sans dommages avec les acquisitions actuelles. Les méthodes sans état de référence peuvent constituer une alternative, mais elles sont limitées à des géométries simples. En outre, la grande sensibilité des ondes guidées aux variations des EOC et au bruit de mesure constitue un défi pour la modélisation des ondes guidées. Les récentes avancées en matière d'apprentissage automatique ont créé de nouveaux axes de modélisation, notamment la modélisation basée sur les données et la modélisation basée sur la physique, souvent désignée sous le nom d'apprentissage automatique scientifique. La modélisation basée sur les données est extrêmement utile pour modéliser les phénomènes qui ne peuvent être expliqués par la physique, ce qui permet d'isoler les signatures de défauts subtils et de développer des procédures robustes de détection des dommages. Toutefois, les méthodes de ML basées sur la modélisation nécessitent davantage de données pour capturer toutes les informations permettant d'améliorer la capacité de généralisation des modèles ML. Le SHM, quant à lui, tend à générer des données généralement exemptes de dommages, car les épisodes de dommages sont rares. Cette lacune particulière peut être comblée par une modélisation basée sur la physique. Dans cette approche, les capacités de modélisation physique sont combinées avec des données de mesure pour expliquer des phénomènes inexplicables à l'aide de la modélisation physique. L'objectif principal est de développer une méthodologie de détection des défauts dans les panneaux composites. Cette méthodologie est conçue pour surveiller des structures similaires, telles que des pales d'éoliennes ou de turbines à réaction, sans exiger des états sans dommages de toutes les structures, évitant ainsi le besoin de comparaisons directes à un état de référence. Le deuxième objectif est de développer un modèle de ML basé sur la physique pour intégrer des simulations avec des données expérimentales. Le développement de ce modèle implique une modélisation multi-fidélité et métamodélisation. Pour valider ce modèle, nous utilisons un ensemble de données expérimentales et de simulation sur une plaque en aluminium. En outre, le modèle développé est utilisé pour générer des réponses GW réalistes à la taille de l'endommagement et à la position des capteurs. Ces signaux générés sont ensuite utilisés pour calculer une courbe de probabilité de détection (POD), afin d'évaluer la fiabilité d'un système SHM basé sur le GW
Modern engineering systems and structures often utilize a combination of materials such as metals, concrete, and composites, carefully optimized to achieve superior performance in their designated functions while also minimizing overall economic costs. Primarily, engineering structures are subjected to dynamic loads during their operational life. The manufacturing issues and/or the perpetual dynamic operations often lead to some changes into a system that adversely impact its present and/or future performance; these changes can be defined as damage. The identification of damage is a crucial process that ensures the smooth functioning of equipment or structures throughout their life cycle. It alerts the maintenance department to take the necessary measures for repair. Structural Health Monitoring (SHM) is a potential damage identification technique which has attracted more attention in the last few decades. It has the capability to overcome the downsides of traditional Non-Destructive Testing (NDT). In this thesis, we used Ultrasonic Guided Waves (GW) technique for SHM. However, sensitivity of GW to Environmental and Operational Conditions (EOC) modify the response signals to mask defect signatures. This makes it difficult to isolate defect signatures using methods such as baseline comparison, where damage-free GW signals are compared with current acquisitions Baseline-free methods can be an alternative, but they are limited to simple geometries. Moreover, high sensitivity of GW to EOC and measurement noise poses a challenge in modelling GW through physics-based models. The recent advancements in Machine Learning (ML) has created a new modelling axis, including data-driven modelling and physics-based modelling, often referred to as Scientific ML. Data-driven modelling is extremely helpful to model the phenomena that cannot be explained by physics, allowing for the isolation of subtle defect signatures and the development of robust damage detection procedures. However, ML-based methods require more data to capture all the information to enhance the generalization capability of ML models. SHM, on the other hand, tends to generate mostly damage-free data, as damage episodes seldom occur. This particular gap can be filled through physics-based modeling. In this approach, the modeling capabilities of physics-based models are combined with measurement data to explain unexplainable phenomena using ML. The primary objective of this thesis is to develop a data-driven damage detection methodology for identifying defects in composite panels. This methodology is designed for monitoring similar structures, such as wind or jet turbine blades, without requiring pristine (damage-free) states of all structures, thereby avoiding the need for direct baseline comparisons. The second goal is to develop a physics-based ML model for integrating physics-based simulations with experimental data within the context of a Digital Twin. The development of this physics-based ML model involves multi-fidelity modeling and surrogate modeling. To validate this model, we utilize an experimental and simulation dataset of an Aluminium panel. Furthermore, the developed model is employed to generate realistic GW responses at the required damage size and sensor path. These generated signals are then used to compute a Probability of Detection (POD) curve, assessing the reliability of a GW-based SHM system
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Hosni, Houssem. "Conception d’un jumeau numérique pour un procédé d’aspiration industrielle". Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS031.

Texto completo
Resumen
Cette thèse est consacrée à la conception d’un jumeau numérique pour système de ventilation industriel dans un contexte de surveillance et de diagnostic. Les mesures d’entrées du modèle sont exclusivement électriques et aucun capteur mécanique n’est utilisé. Les cas particuliers de la vitesse fixe et variable sont étudiés. À vitesse constante, la démodulation des courants électriques est particulièrement étudiée et un algorithme original, basé sur un générateur de signaux orthogonaux est proposé, comparé aux principales méthodes connues, et validé expérimentalement. À vitesse variable, l’approche proposée est basée sur les méthodes d’order tracking sans capteur mécanique dans lesquelles les signaux d’analyse sont échantillonnés en fonction de l’angle mécanique. Dans ce cas, les composantes spectrales deviennent indépendantes de la vitesse de rotation et l’analyse fréquentielle peut être exploitée. Une méthode originale est présentée. Elle est basée sur la définition d’un observateur à partir d’un nombre réduit d’informations sur le moteur considéré. La vitesse estimée est exploitée pour déduire la position mécanique et réaliser le ré-échantillonnage angulaire. Une généralisation de la notion d’order tracking est par ailleurs présentée, permettant de définir des angles de ré-échantillonnages adaptés aux défauts surveillés. Cette méthode est testée sur un banc d’essai du LIAS et sur le procédé de ventilation industriel
This thesis is devoted to the design of a digital twin for industrial ventilation systems in a monitoring and diagnostic context. The input measurements of the model are exclusively electrical and no mechanical sensors are used. The particular cases of fixed and variable speed are studied. At constant speed, the demodulation of electrical currents is particularly studied and an original algorithm, based on an orthogonal signal generator, is proposed, compared to the main known methods, and validated experimentally. At variable speed, the proposed approach is based on order tracking methods without mechanical sensor in which the analysis signals are sampled as a function of the mechanical angle. In this case, the spectral components become independent of the rotation speed and the frequency analysis can be exploited. An original method is presented. It is based on the definition of an observer from a reduced number of information on the considered motor. The estimated speed is used to deduce the mechanical position and to perform the angular resampling. A generalization of the concept of ordertracking is also presented, allowing to define resampling angles adapted to the monitored faults. This method is tested on a LIAS test bench and on the industrial ventilation process
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Tchana, De Tchana Yvan. "Proposition d’un jumeau numérique pour soutenir la gestion de l'exploitation d'une infrastructure linéaire". Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0012.

Texto completo
Resumen
La croissance du numérique au sein l'industrie de la construction conduit au BIM (Building Information Modeling). Inspiré du bâtiment, le BIM est adopté plus tard sur des projets d’infrastructure linéaire. Ces projets nécessitent une maitrise de bout en bout de la chaîne d’information. Le PLM (Product Lifecycle Management) favorise cette continuité numérique dans l’industrie manufacturière. Des études expérimentent une utilisation complémentaire des approches BIM et PLM pour ce type de projet. Adaptant des méthodes développées pour la construction de bâtiments, ces études se limitent à l’élaboration de référentiels de données. Cela rend difficile la gestion de l’infrastructure dans sa phase d’usage, où la maquette numérique doit devenir un jumeau numérique. Ces travaux consistent à développer une stratégie pour la conception, la mise en œuvre et l’exploitation d’une infrastructure linéaire. Cible de la démarche, le jumeau numérique intégrera non seulement BIM et PLM, mais aussi toute autre source d’information qui resitue l’infrastructure dans son environnement. Agrégateur de données, il devrait permettre d’assurer la gestion du cycle de vie d’une infrastructure linéaire. Ce système est éprouvé sur une infrastructure linéaire particulière, un passage à niveau. La continuité numérique et la traçabilité des données sont des facteurs importants pour un tel ouvrage. Notre proposition permet de suivre l’évolution de la donnée, et de lier des données d’exploitation aux données de conception et de construction de l’infrastructure
The digital growth of the construction industry led to BIM (Building Information Modeling). Developed for buildings, BIM is later used on linear infrastructure projects. Such projects require end-to-end control of information. PLM (Product Lifecycle Management) supports digital continuity in the manufacturing industry. Studies evaluate the relevance of a complementary use of the BIM and PLM approaches for linear infrastructure projects. With an adaptation of methods used for building construction, those studies are mostly restricted to the implementation of data repositories. This makes it difficult to consider the infrastructure post-construction phase, where the 3D model is no longer a digital model, but a digital twin. This research work consists in developing a strategy for the design, the implementation and the operations and maintenance of a linear infrastructure. The digital twin of the infrastructure is the target of our approach. It will take into consideration not only BIM and PLM methodologies, but also any other data source positioning the infrastructure in its geographical environment. Data aggregator, our digital twin should make it possible to manage the lifecycle of a linear infrastructure. This system is tested on a specific linear infrastructure, a level crossing. Digital continuity and data traceability are important factors for those constructions. Through the digital twin, our proposal helps to follow the data, and thus to link operational data to the design and construction data of the linear infrastructure
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Bouzid, Sami. "Jumeau numérique temps réel de machines électriques basé sur la méthode des éléments finis". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40132.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Vallet, Yves. "Contribution à la caractérisation et à la modélisation de l'accouchement instrumenté par ventouse". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0134.

Texto completo
Resumen
Lors d'un accouchement par voie basse, la phase d'expulsion est une période où les risques de complications maternelles et fœtales sont élevées. Les praticiens peuvent être amenés à réaliser une extraction instrumentale par ventouse (EIV) obstétricale. Comme tout instrument d'extraction, son utilisation comporte des risques en cas de pratique inadaptée, pour la mère comme pour le bébé. En ce qui concerne le bébé, les différentes couches du scalp sont, en effet, hautement sollicitées, ce qui peut engendrer quelques rares complications, telles que : des bosses sero-sanguines, des céphalohématomes ou des hémorragies sous-galéales. Afin de limiter ces risques, les praticiens doivent être formés à l'utilisation de la ventouse et doivent respecter les recommandations en vigueur. Cependant, les paramètres liés à son utilisation comme l'amplitude de la force de traction, le placement de la ventouse ou encore le geste d'extraction, restent opérateur-dépendant. Une meilleure compréhension des paramètres physiques et mécaniques mis en jeux lors d'une EIV est alors nécessaire afin de faire évoluer cette pratique. Pour répondre à cet objectif, ce travail de thèse est construit en deux axes qui correspondent à deux échelles distinctes, et qui présentent des aspects expérimentaux et numériques. Le premier, à l'échelle macroscopique, il prend en compte le fœtus dans son environnement. Le deuxième, à une échelle plus mésoscopique des tissus fœtaux, il considère la tête du bébé isolée dans son environnement. Les travaux du premier axe ont permis de faire l'acquisition du geste des praticiens sur un mannequin d'entraînement et de mettre en place un jumeau numérique de cet outil didactique, afin d'investiguer les différents paramètres de l'EIV. Pour le deuxième axe, les travaux de thèse ont permis de mettre au point une modélisation de l'interaction peau/os du scalp. Un modèle numérique qui utilise une modélisation "fine" de la tête fœtale a ensuite été implémenté et mis en œuvre pour l'investigation des paramètres de l'EIV. Des perspectives d'améliorations des travaux des deux axes sont finalement proposées en fin de manuscrit. De manière connexe, une revue de littérature sur les ventouses présentes dans la nature permet d'ouvrir des perspectives prometteuses en vue de l'évolution du design des ventouses obstétricales actuellement utilisées
During vaginal delivery, the expulsion phase is associated with risks of maternal and fetal complication. Practitioners may need to perform a vacuum assisted delivery (VAD). As with any operational instrument, there are risks associated with its use, for the baby and the mother, if it is not carried out correctly. For the fetus, the various layers of the scalp are solicited with great strain, which can lead to rare complications such as caput succedaneum, cephalohaematomas and subgaleal haemorrhage. To limit these risks, practitioners must be trained to use suction cups, and must comply with current recommendations. However, the parameters associated with its use, such as the amplitude of the traction force, the placement of the suction cup and the extraction procedure, remain operator-dependent. A better understanding of the physical and mechanical parameters involved in VAD is therefore needed to improve this practice. In order to achieve this objective, this thesis is structured around two axes, corresponding to two different scales and including experimental and numerical work. The first, at the macroscopic scale, considers the fetus in its environment. The second, at the mesoscopic scale, considers the isolated fetal head within its environment. The work of the first part has allowed to capture gesture of the the practitioners on a training dummy and to create a digital twin of this didactic tool in order to study the various parameters of VAD. In the second part, the work has led to the development of a model of the interaction between the scalp's skin and skull. A numerical model was then designed and implemented using a refined" modelling of the fetal head to study the parameters of the VAD. In parallel, a review of the literature on suction cups found in nature open up promising prospects for the evolution of the obstetric suction cup design used nowadays
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Gregorio, Jean-Loup. "Contribution à la définition d'un jumeau numérique pour la maîtrise de la qualité géométrique des structures aéronautiques lors de leurs processus d'assemblage". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN008.

Texto completo
Resumen
Les opérations d'assemblage de structures aéronautiques font aujourd'hui appel à une planification particulière se basant sur la maquette numérique des produits considérés. Pour permettre une bonne réalisation de ces opérations, la géométrie du produit physique doit rester aussi fidèle que possible à la géométrie de référence contenue dans la maquette numérique. Du fait de la complexité des produits considérés, des écarts géométriques non-anticipés peuvent cependant apparaitre et occasionner un allongement des délais et une augmentation des coûts d’assemblage.L’intégration croissante de systèmes de traitement de l’information ouvre des perspectives nouvelles quant à la façon d’organiser les systèmes de production. Ces perspectives incluent notamment la possibilité d’optimiser les opérations de fabrication et d’assemblage en temps réel à travers l’utilisation de jumeaux numériques des produits manufacturés. Nous proposons dans ces travaux la mise en place d’un jumeau numérique géométrique, capable de refléter la géométrie du produit physique en cours d’assemblage et d’optimiser la géométrie de certains composants restant à assembler.Dans cette optique, la maquette numérique initiale est actualisée afin d’obtenir une représentation dite hybride du produit. Cette représentation inclut les différents états des composants, que nous nommons textit{as-designed}, textit{as-built} et textit{interface}. Les composants textit{as-built} sont plus particulièrement actualisés de manière à refléter la géométrie du produit physique en cours d’assemblage. Une méthode d’actualisation, s’appuyant sur des données numérisées est proposée. A partir de là, la géométrie de composants dits textit{interfaces} est également actualisée afin de garantir le respect des exigences fonctionnelles sur le produit assemblé. Une méthode d’actualisation est également proposée à cet effet.La faisabilité de l’approche ainsi que des outils proposés est évaluée à travers deux cas d’application, dont un est directement représentatif du contexte industriel des travaux. Les résultats obtenus permettent notamment d’envisager d’enrichir l’approche proposée avec la prise en compte de contraintes non-géométriques dans le but d’optimiser le déroulement des opérations d’assemblage
Assembly operations of aerostructures are nowadays planned using the Digital Mock Up of the considered products. To allow a good realization of the aforementioned operations, the geometry of the physical product must remain as faithful as possible to the reference geometry contained in the Digital Mock Up. Because of the complexity of the considered products, unanticipated geometrical deviations may however appear. These geometrical deviations lead to longer cycle times and higher assembly costs.The increasing integration of data processing system gives new prospects on how to organize production systems. These prospects include the possibility to optimize the manufacturing and assembly operations in real time thanks to the use of digital twins of the manufactured products. In this work, we propose the implementation of a geometrical digital twin. This digital twin is capable of mirroring the geometry of the physical product being assembled and optimizing the geometry of some components remaining to be assembled.With this in mind, the initial Digital Mock Up is updated in order to obtain a hybrid representation of the product. This representation includes the different states of the components, which are called as-designed, as-built and interface. The as-built components are more particularly updated in order to mirror the geometry of the physical product being assembled. A method using digitized data is proposed. From there, the geometry of interface components is updated so that the final product complies with the functional requirements which were defined. A method is also proposed for this purpose.The feasibility of the approach as well as the proposed tools is evaluated through two application cases, one of which is directly representative of the industrial context of the works. The obtained results allow to consider enriching the proposed approach by considering non-geometrical constraints in order to optimize assembly operations
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Chaufer, Martin. "Développement d’un substitut physique de thorax humain et de son jumeau numérique dédiés à la prédiction du risque lésionnel lors d'impacts balistiques non pénétrants". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA015.

Texto completo
Resumen
Au cours des dernières années, l'utilisation d'armes à létalité réduite a augmenté. Ces armes, conçues pour neutraliser des individus présentant un comportement dangereux, peuvent causer des blessures, voire la mort. Des mécanismes de lésions similaires sont observés lors de la déformation arrière des gilets pare-balles au cours d'impact avec projectiles d’arme à feu. Afin de protéger les citoyens et les forces de l’ordre, il est nécessaire de prévenir de tels scénarios. Or aujourd'hui peu d'outils sont disponibles pour aider au dimensionnement de tel équipements. Dans cette optique, ce travail de thèse vise à développer des outils de prédiction du risque de lésion thoracique lors d'impact balistique non pénétrant. Ainsi, un substitut physique de thorax humain et son jumeau numérique sont développés. Dans un premier temps, le modèle numérique HUByx est utilisé comme référence pour construire un modèle numérique simplifié pouvant être fabriqué avec des matériaux disponibles dans le commerce. Les différents matériaux sont caractérisés et leurs lois de comportement sont établies. Une fois validé, ce modèle numérique sert de base pour construire le substitut physique appelé SurHUByx. Celui-ci est équipé de différents capteurs permettant d'enregistrer les données au niveau des côtes et des organes internes lors d'impact. Des cas d'impact précisément décrits dans des rapports sont reproduits sur SurHUByx pour relier les données issues des capteurs à un bilan lésionnel. Enfin, une approche statistique est utilisée pour développer des courbes de probabilité de lésion, permettant d'estimer le risque de lésion suite à un impact sur SurHUByx ou son jumeau numérique SurHUByx FEM
In recent years, the use of less-lethal weapons has increased. These weapons, designed to neutralise individuals exhibiting dangerous behaviour, can cause injuries or even death. Similar injury mechanisms are observed in the rear deformation of bulletproof vests during impacts. To protect citizens and law enforcement personnel, it is necessary to prevent such scenarios. However, today there are few tools available to assist in the sizing of such equipment. In this context, this thesis aims to develop tools for predicting thoracic injury risk during non-penetrating ballistic impacts. Accordingly, a physical substitute of the human thorax and its numerical twin are developed. Initially, the HUByx numerical model is used as a reference to construct a simplified numerical model that can be manufactured using readily available materials. Different materials are characterised, and their material laws are established. Once validated, this numerical model serves as a basis for constructing the physical substitute called SurHUByx. It is equipped with various sensors to record data over the rib and in internal organs during ballistic impacts. Specific impact cases described in case reports are replicated on SurHUByx to correlate sensor data with injury assessments. Finally, a statistical approach is used to develop injury prediction curves, allowing to estimate of the risk of injury following an impact on SurHUByx or its numerical twin, SurHUByx FEM
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Levy, Benjamin. "Étude numérique et expérimentale pour le développement d’un nouveau procédé de tribo-grenaillage". Thesis, Paris, HESAM, 2021. http://www.theses.fr/2021HESAE018.

Texto completo
Resumen
Le grenaillage de précontrainte est un traitement de surface couramment appliqué dans les secteurs aéronautique, automobile et biomédicale afin d’améliorer les performances mécaniques des pièces. Ce traitement consiste à introduire des contraintes résiduelles de compression en sub-surface. Cependant, les avancées technologiques, accompagnées de l’évolution des matériaux, ont généré de nouvelles demandes en terme de traitement de grenaillage. En particulier, le besoin industriel d’un traitement capable à la fois d’assurer un niveau de performance mécanique suffisant tout en fonctionnalisant la surface se fait ressentir de manière croissante. L’objectif de ce travail est de montrer dans quelle mesure ce besoin peut être comblé par un nouveau traitement appelé tribo-grenaillage. Les deux fonctions visées par le tribo-grenaillage nécessitent une caractérisation des états surfaciques (fonctionnalisation) et sub-surfaciques (contraintes résiduelles) des pièces traitées. Ces états sont le résultat d’interactions mécaniques entre des médias, de nature et de forme différentes, et la surface traitée. L’approche du tribo-grenaillage consiste à contrôler ces interactions et les transferts de texture et d’énergie mis en jeu afin de maitriser la signature fonctionnelle implantée. Par conséquent, une caractérisation multi-échelle de la surface et de la sub-surface de la cible est réalisée simultanément à celle de la surface des médias. Cette étape de caractérisation repose sur l’évaluation d’une surface tribo-grenaillée élémentaire représentative de la texturation globale. Le contrôle et l’optimisation du procédé sont envisagés au travers de la mise en place d’un jumeau numérique alimenté par les données de caractérisation multi-échelle, de modélisation par éléments finis ainsi que celles issues de l’instrumentation du jumeau physique
Shot peening is a surface treatment commonly applied in the aerospace, automotive and biomedical industries to improve the mechanical performance of parts. This treatment consists in introducing residual compressive stresses in the sub-surface. However, technological advances, accompanied by the evolution of materials, have generated new demands in terms of shot peening treatment. In particular, the industrial need for a treatment capable of both ensuring a sufficient level of mechanical performance while functionalizing the surface is increasingly felt. The aim of this work is to show to what extent this need can be met by a new treatment called tribo-peening. The two functions targeted by tribo-peening require a characterization of the surface states (functionalization) and sub-surface (residual stresses) of the treated parts. These states are the result of mechanical interactions between media, of different nature and shape, and the treated surface. The tribo-peening approach consists of controlling these interactions, the texture and energy transfers involved in order to master the implanted functional signature. Therefore, a multi-scale characterization of the target surface and sub-surface is performed simultaneously with that of the media surface. This characterization step is based on the evaluation of tribo-peened surface representative of the overall texturing, the so-called Elementary Representative Areal Surface. The control and optimization of the process are envisaged through the establishment of a digital twin fed with multi-scale characterization data, finite element modeling as well as data from the instrumentation of the physical twin
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Ledezma, Lopez Gabriel Alejandro. "Suitable representations of gamma alumina porous structures by computational modeling". Thesis, Lyon, 2021. https://tel.archives-ouvertes.fr/tel-03789640.

Texto completo
Resumen
Les matériaux poreux sont largement utilisés en génie chimique. À l'échelle mésoporeuse, les effets de confinement influencent la thermodynamique et les conditions de transport. En effet, l'architecture du matériau poreux peut augmenter les limitations de transfert de masse à l'intérieur du catalyseur. Par conséquent, comprendre non seulement les propriétés texturales mais aussi la topologie du solide est important pour améliorer les performances du catalyseur et la précision des différents modèles permettant de concevoir et d'évaluer les performances des réacteurs hétérogènes. L'alumine gamma est un matériau poreux désordonné à tortuosité élevée très souvent utilisé dans le raffinage du pétrole et la pétrochimie, dont la topologie n'est pas encore totalement comprise (1, 43, 44). Des articles de recherche récents suggèrent que ce matériau a différents domaines de pores, chacun caractérisé par sa propre distribution de taille de pores et sa propre fraction de vide (45). L'interaction entre ces différents niveaux joue clairement un rôle dans une diffusion efficace. En créant des jumeaux numériques d'échantillons réels d’alumine, il est possible de mieux comprendre comment les propriétés texturales et la topologie du réseau influencent la diffusion à travers le réseau à un niveau fondamental. Dans ce travail, un modèle de génération de réseau de pores rapide et flexible est créé. Ensuite, différents algorithmes pour caractériser le réseau de pores numériques sont développés. Ces algorithmes simulent la porosimétrie à l'azote, la porosimétrie au mercure, la cryoporométrie et la résonance magnétique nucléaire à gradient de champ pulsé (PFG-RMN). Un jumeau numérique d'alumine gamma est finalement créé en optimisant les paramètres d'entrée du modèle de réseau de pores pour s'adapter à une isotherme de sorption mesurée expérimentalement. En utilisant des simulations de diffusion sur le modèle de réseau de pores ajusté aux courbes de sorption d'azote, un facteur de tortuosité a été prédit qui diffère de moins de 20 % du facteur de tortuosité mesuré par PFG-RMN. Cela illustre comment un jumeau numérique permet de fournir une estimation raisonnable du facteur de tortuosité à partir d'expériences de porosité à l'azote facilement disponibles
Porous materials are widely used in chemical engineering. At the mesoporous scale, confinement effects influence the thermodynamic of the system and the transport conditions. Indeed, the architecture of the pore network is the origin of mass transfer limitations within disordered porous materials. Therefore, it is important to understand not just the textural properties of the solid but also its pore network characteristics. Gamma-alumina is a disordered porous material with an elevated tortuosity very often used in the oil refining and petrochemistry, whose topology is not yet fully understood (1, 43, 44). Recent research articles propose that this material has different pore domains, each one characterized by its own pore size distribution and void fraction (45). The interplay among these different levels clearly plays a role in effective diffusion. This work intends to better understand the textural and topological descriptors of gamma alumina by creating a digital representation of it. The catalyst is represented using a pore network model. The pore network representation is then characterized using originally developed computational equivalents of textural and mass transfer characterization techniques. The experimental validation was done through the generation of digital twins for real gamma alumina samples. Using diffusion simulations on the pore network model fitted to the nitrogen sorption curves, a tortuosity factor was predicted that differs by less than 20% from the tortuosity factor measured by PFG-NMR. This illustrates how a digital twin allows to provide a reasonable estimate for the tortuosity factor from readily available nitrogen porosity experiments. The research work in this thesis is the start of the path to ultimate goal of improving the catalytic performance of disordered porous catalyst by the digital optimal design of the material architecture. At the same time, the accuracy of the models used to design and evaluate heterogeneous reactor performance will be improved
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Somera, Audrey. "On the effective elasticity of quasi-periodic lattice materials : From microscopic foundations to experimental validation". Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0037.

Texto completo
Resumen
Les matériaux architecturés ont suscité un intérêt croissant au fil des années, notamment en permettant d’atteindre de nouvelles zonesdes diagrammes d’Ashby. Les lattices quasipériodiques semblent combiner les avantages des structures aléatoires et périodiques : il s’agit de structures déterministes, leur comportement est isotrope et ils ont une meilleure ténacité que les matériaux périodiques. L’étude du comportement mécanique de telle structure n’en est cependant qu’à ses balbutiements. Ainsi cette thèse proposed’étudier le comportement élastique effectif des lattices quasi-périodiques. Dans un premier temps, les mécanismes de déformations locaux de différents motifs ont été étudiés. Il a ainsi été montré qu’on pouvait séparer les motifs en trois catégories : les motifs à dominance énergétique totale en traction ou flexion et les motifs à dominance variable. L’influence de ces mécanismes locaux sur lecomportement mécanique global des structures a ensuite été étudié. Pour ce faire, une procédure d’identification du comportement effectif équivalent des lattices, basée sur une méthode de type FEMU, a été mise en place. D’abord validée en utilisant un jumeau numérique, un dispositif expérimental a ensuite été conçu afin de mettre en oeuvre expérimentalement la procédure et confirmer les résultats numériques. Il a ainsi été montré que le modèle de comportement le plus adapté dépend du motif considéré : alors qu’uneloi classique de type Cauchy semble suffisante pour décrire le comportement des motifs à dominance énergétique totale en traction et à dominance variable, il est nécessaire d’utiliser un modèle de type Cosserat pour les motifs à dominance énergétique totale en flexion
Architectured materials have received increasing interest over the years, especially by allowing new areas of the Ashby diagrams to bereached. Quasi-periodic lattices combine the advantages of both random and periodic structures: they are deterministic structures, their behaviour is isotropic, and they have better toughness than periodic lattices. However, the study of the mechanical behaviour of such structures is still in its infancy. Thus, this thesis proposes to study the effective elastic behaviour of quasi-periodic lattices. First, the local deformation mechanisms of different patterns have been studied. It is shown that the patterns could be separated into three categories: the completely stretching and bendingdominated patterns and the variable dominance ones. The influence of these local mechanisms on the overall mechanical behaviour was then investigated. For this purpose, an identification procedure of the lattice equivalent effective behaviour, based on a FEMU-type method, was implemented. First performed using a numerical twin, an experimental set-up was then designed to carry out the procedure and validate the numerical results experimentally. It is shown that the most suitable behaviour model depends on the pattern considered. While a classical Cauchy-type law seems sufficient to describe the behaviour of completely stretching-dominated and variable dominance patterns, it is necessary to use a Cosserat-type model for completely bending-dominated ones
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Guillot, Matthieu. "Le problème du plus court chemin stochastique et ses variantes : fondements et applications à l'optimisation de stratégie dans le sport". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM024.

Texto completo
Resumen
Un parcours de golf est composé de dix-huit trous. Sur chaque trou, le problème du golfeur est de déplacer la balle d'un point de départ prédéfini jusqu'au drapeau en un minimum de coups. Sous certaines hypothèses, ce problème peut se modéliser comme un problème de plus court chemin stochastique (PCCS). Le problème du PCCS est un processus de Markov particulier dans lequel un agent évolue dynamiquement dans un ensemble fini d'états. En chaque état, l'agent choisis une action, induisant un coût, qui le mène en un autre état en suivant une distribution de probabilité connue. Il existe également un état `puits' particulier dans lequel, une fois atteint, on reste avec une probabilité un et un coût de zéro. Le but de l'agent est, depuis un état initial, d'atteindre l'état puits en un coût moyen minimal. Dans un premier chapitre, nous étudions de manière théorique le problème du PCCS. Après avoir redéfini un cadre d'étude dans lequel nous avons affaibli les hypothèses d'existence d'une solution optimale, nous avons prouvé que les algorithmes classiques de résolution convergent dans ce nouveau cadre. Nous avons également défini un nouvel algorithme de résolution basé sur l'algorithme primal-dual. Dans le deuxième chapitre, nous détaillons la modélisation du problème d'optimisation de stratégies au golf en un problème de PCCS. Grâce à la base de données Shotlink, nous définissons des `clones numériques' de joueurs que nous pouvons faire jouer artificiellement sur différents parcours de golf afin de prédire les scores des joueurs. Nous avons appliqué ce modèle à deux compétitions : le master d'Augusta en 2017 et la Ryder Cup en 2018. Dans un troisième et dernier chapitre, nous étudions l'extension naturelle à deux joueurs du problème du PCCS : les jeux de plus courts chemins stochastiques. Nous étudions particulièrement les formulations programmation linéaire de ces jeux et de deux cas particuliers de ceux-ci
A golf course consists of eighteen holes. On each hole, the golfer has to move the ball from the tee to the flag in a minimum number of shots. Under some assumptions, the golfer's problem can be modeled as a stochastic shortest path problem (SSP). SSP problem is a special case of Markov Decision Processes in which an agent evolves dynamically in a finite set of states. In each state, the agent chooses an action that leads him to another state following a known probability distribution. This action induces a cost. There exists a `sink node' in which the agent, once in it, stays with probability one and a cost zero. The goal of the agent is to reach the sink node with a minimum expected cost. In the first chapter, we study the SSP problem theoretically. We define a new framework in which the assumptions needed for the existence of an optimal policy are weakened. We prove that the most famous algorithm still converge in this setting. We also define a new algorithm to solve exactly the problem based on the primal-dual algorithm. In the second chapter we detail the golfer's problem model as a SSP. Thanks to the Shotlink database, we create `numerical clones' of players and simulate theses clones on different golf course in order to predict professional golfer's scores. We apply our model on two competitions: the master of Augusta in 2017 and the Ryder Cup in 2018. In the third chapter, we study the 2-player natural extension of SSP problem: the stochastic shortest path games. We study two special cases, and in particular linear programming formulation of these games
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Garcia, David. "Études exploratoires dédiées au diagnostic de corrosion assisté par ordinateur des structures de génie civil". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30247.

Texto completo
Resumen
La thèse "Études exploratoires dédiées au diagnostic de corrosion assisté par ordinateur des structures de génie civil" traite de la phénoménologie et de la modélisation de la corrosion de l'acier de construction. Le poids sécuritaire, sociétal, environnemental du vieillissement des infrastructures fait de ce thème un enjeu économique majeur de développement de tout pays. Les développements proposés portent principalement sur la corrosion des armatures dans le béton armé. La corrosion des structures métalliques enterrées est également adressée concernant les problématiques relatives aux couplages galvaniques induits par l'hétérogénéité des sols et aux courants vagabonds. Les méthodes d'investigation usuelles (mesures de potentiel des aciers, de résistivité du béton ou de résistance de polarisation), jointes à des hypothèses empiriques consacrées par l'usage, conduisent à des interprétations souvent incertaines ou n'ayant qu'une valeur qualitative. L'ambition de cette thèse, motivée par les enjeux évoqués, est de montrer comment une meilleure compréhension de la physique de la corrosion, conjuguée à la puissance du calcul aux éléments finis, permet de construire des modèles élaborés et robustes, utiles pour poser un diagnostic et/ou un pronostic quantifié et fiable. La thèse est abondamment illustrée par des études de cas réels ou numériques et étayée par des essais originaux conduits en laboratoire. Afin d'améliorer la compréhension des phénomènes prévalant dans le processus de corrosion, les concepts-clés de thermodynamique et de cinétique électrochimique sont rappelés et contextualisés. L'assemblage de différentes lois physiques, chimiques et électrochimiques permet d'élaborer une approche de modélisation avancée, intégrant notamment la diffusion du dioxygène jusqu'aux armatures en contexte insaturé, mais aussi la production et la précipitation des produits de la corrosion et leur influence sur l'équilibre dynamique d'un système de corrosion. Cette approche de modélisation, nécessairement tridimensionnelle ou a minima bidimensionnelle, donne lieu à une transcription dans un code de calcul par éléments finis. Elle est appliquée dans un premier temps à l'étude numérique d'un premier cas typique de corrosion : pile en béton armé partiellement immergée en mer. L'influence du rôle du dioxygène (disponibilité et diffusion) sur la cinétique de dissolution de l'acier et sur la nature des produits de corrosion formés est notamment étudiée. Afin d'illustrer l'apport effectif de la modélisation 3D dans le processus de diagnostic de la corrosion, une étude de cas réelle est proposée concernant un ouvrage métallique enterré, en l'occurrence des palplanches servant au soutènement des culées d'un passage supérieur d'autoroute, situées à proximité d'une conduite enterrée sous protection cathodique. Des mesures effectuées in-situ mais aussi en laboratoire à partir d'échantillons judicieusement choisis, permettent d'alimenter le modèle de calcul. Le modèle numérique ainsi construit, qualifié de jumeau numérique, permet de mettre en évidence l'existence de courants vagabonds circulant dans la structure, mais également le risque de corrosion galvanique induit par l'hétérogénéité du sol. Le jumeau numérique électrochimique constitue alors un outil puissant pour estimer la cinétique et le faciès de corrosion de l'ouvrage et poser un pronostic en termes de durée de vie. [...]
The PhD thesis "Exploratory studies dedicated to computer-assisted corrosion diagnosis of civil engineering structures" deals with the phenomenology and modeling of corrosion of structural steel. The safety, societal and environmental impact of aging infrastructures makes this theme a major economic issue for the development of any country. The proposed developments focus mainly on the corrosion of reinforcements in reinforced concrete. The corrosion of buried metallic structures is also addressed concerning the problems related to galvanic couplings induced by the heterogeneity of soils and stray currents. The usual methods of investigation (measurements of steel potential, concrete resistivity or polarization resistance), combined with empirical hypotheses established by experience, lead to interpretations that are often uncertain or have only a qualitative value. The ambition of this thesis, motivated by the issues at stake, is to show how a better understanding of the physics of corrosion, combined with the power of finite element calculation, allows the construction of elaborate and robust models, useful for a quantified and reliable diagnosis and/or prognosis. The thesis is abundantly illustrated by real or numerical case studies and supported by original laboratory tests. In order to improve the understanding of the phenomena prevailing in the corrosion process, the key concepts of thermodynamics and electrochemical kinetics are recalled and contextualized. The assembly of different physical, chemical and electrochemical laws allows the elaboration of an advanced modeling approach, integrating in particular the diffusion of oxygen to the reinforcement in an unsaturated context, but also the production and precipitation of corrosion products and their influence on the dynamic equilibrium of a corrosion system. This modeling approach, necessarily three-dimensional or at least two-dimensional, gives rise to a transcription in a finite element calculation code. It is first applied to the numerical study of a first typical case of corrosion: a reinforced concrete pile partially submerged in the sea. The influence of the role of oxygen (availability and diffusion) on the dissolution kinetics of the steel and on the nature of the corrosion products formed is studied in particular. In order to illustrate the effective contribution of 3D modeling in the process of corrosion diagnosis, a real case study is proposed concerning a buried steel structure, in this case sheet piles used to support the abutments of a freeway overpass, located near a pipe buried under cathodic protection. Measurements carried out in-situ but also in the laboratory from judiciously chosen samples are used to feed the calculation model. The numerical model thus constructed, qualified as a digital twin, makes it possible to highlight the existence of stray currents circulating in the structure, but also the risk of galvanic corrosion induced by the heterogeneity of the soil. The electrochemical digital twin is then a powerful tool for estimating the kinetics and the corrosion facies of the structure and making a prognosis in terms of service life. Within a concrete structure, the presence of chlorides is associated with various effects, notably associated with the local electric field. If this phenomenon is ignored, the interpretation of field data, for example potential maps, can lead to a biased diagnosis. This thesis addresses the question of corrosion initiation.[...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Tahiri, Imane. "Contribution à la conception d'une commande reconfigurable et tolérante aux fautes pour les Systèmes Automatisés de Production". Thesis, Reims, 2020. http://www.theses.fr/2020REIMS008.

Texto completo
Resumen
Les travaux présentés dans ce mémoire de thèse entrent dans le cadre de la reconfiguration de la commande des systèmes automatisés de production (SAP) vus comme une classe de Systèmes à Evénements Discrets (SED). La reconfiguration est basée sur la théorie de contrôle par supervision (SCT) et déclenchée suite à une détection des défauts sur la partie opérative (commande tolérante aux fautes). La contribution de ce mémoire est basée sur une synthèse de contrôle sûre fondée sur des propriétés temporisées. Si un défaut de capteur est détecté, le contrôleur du comportement normal est reconfiguré en un comportement dégradé où les informations temporisées compensent les informations perdues sur le capteur défectueux. Le basculement entre le comportement normal et le comportement dégradé est assuré par des règles de reconfiguration. L'objectif principal de notre méthode est d'implémenter le contrôle obtenu dans un automate programmable industriel (API). L'approche développée dans la thèse repose sur une architecture de contrôle distribuée des systèmes automatisés de production pour éviter l'explosion combinatoire récurrente des approches à base de SCT. Pour répondre aux différents objectifs, nous proposons une méthode pour traduire les contrôleurs distribués des deux modes de fonctionnement, ainsi que les règles de reconfiguration en différents grafcets implantables dans un API. L’implémentation de ces différents modèles est vérifiée par une technique de model-checking avant d’être testé sur un jumeau numérique. Enfin, nous appliquons notre contribution à un système réel pour illustrer nos résultats
The research results presented in this thesis falls within the framework of control reconfiguration of Automated Production Systems (APS) seen as a class of Discrete Event Systems (DES). The reconfiguration is based on Supervisory control theory (SCT) and triggered following a plant fault detection (fault tolerant control). The faults considered in this report are sensor faults (a sensor which remains blocked on reading 1 or on reading 0). The main contribution is based on a safe control synthesis founded on timed properties. In fact, if a sensor fault is detected, the controller of the normal behavior is reconfigured to a timed one where the timed information compensates the information lost on the faulty sensor. The switch between normal and reconfigured behaviors is ensured using reconfiguration rules. The main objective of our method is to implement the obtained control into a PLC. To meet the different objectives, we propose a method to translate the distributed controllers of the two operating modes, as well as the reconfiguration rules into different Grafcets implantable in a PLC. The implementation of these different models is verified by a model-checking technique before being tested on a digital twin. Finally, we apply our contribution to a real system to illustrate our results
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía