Academic literature on the topic 'Modélisation et simulation basées sur les agents'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modélisation et simulation basées sur les agents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modélisation et simulation basées sur les agents"

1

Phan1, Denis. "Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales?" Nouvelles perspectives en sciences sociales 5, no. 2 (July 6, 2010): 101–33. http://dx.doi.org/10.7202/044079ar.

Full text
Abstract:
RésuméEn philosophie, l’ontologie est « la science de ce qui est, des types et structures des objets, propriétés, évènements, processus et relations »; En informatique et management des connaissances, une « ontologie » est la spécification de la conceptualisation d’un domaine de connaissance. Pour la simulation multi-agents, le domaine concerne les modèles et non les « données ». Pour répondre à la question « Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales? », cet article aborde d’abord trois dimensions: (1) ingénierie des modèles (2) aspects thématiques (disciplinaires) et épistémologiques (3) comparaison et évaluation de modèle (test ontologique). À la différence de nombreuses ontologies, cet article ne propose pas une unique représentation d’un domaine de connaissance, mais le maintien d’une possible pluralité, basée sur le concept de « cadre de connaissance », conçu pour permettre d’intégrer une pluralité de « point de vue » dans un cadre général qui nous permet de comparer et/ou combiner différents points de vue qui coexistent en sciences sociales. La dernière partie présente ainsi quelques exemples de points de vue ontologiques qui peuvent être dérivés à partir du modèle de ségrégation résidentielle introduit par Schelling.
APA, Harvard, Vancouver, ISO, and other styles
2

Dalle, Jean-Michel. "Dynamiques d'adoption, coordination et diversité : la diffusion des standards technologiques." Revue économique 46, no. 4 (July 1, 1995): 1081–98. http://dx.doi.org/10.3917/reco.p1995.46n4.1081.

Full text
Abstract:
Résumé L'article critique, après avoir reconnu leur pertinence, certains modèles grâce auxquels l'économie du changement technique étudie la diffusion des innovations et des standards technologiques, en insistant sur ceux proposés par W.B. Arthur. Il propose alors une autre modélisation, associée à des processus aléatoires sur des réseaux ou champs de Gibbs. Il présente des résultats de simulation, dont la conclusion principale consiste à récuser le postulat de disparition de tous les stan­dards concurrents à l'exception d'un seul. Au contraire, les technologies survivent toutes éventuellement dans des niches, du fait de l'existence de phénomènes de coordination entre les décisions des agents et d'extemalités de réseau. Cette ana­lyse offre ainsi une compréhension différente de la dynamique des technologies.
APA, Harvard, Vancouver, ISO, and other styles
3

Mathian, Hélène, and Lena Sanders. "Numérique versus symbolique." Revue Internationale de Géomatique 31, no. 1-2 (January 2022): 21–45. http://dx.doi.org/10.3166/rig31.21-45.

Full text
Abstract:
L’objectif de cet article est de comparer une approche statistique, l’analyse des données (AD) et une approche de simulation, les systèmes multi-agents (SMA). Ces deux familles de méthodes sont a priori considérées comme représentatives d’une approche numérique, respectivement symbolique, de la modélisation spatiale. Le cas d’application qui est mobilisé tout au long de l’article est celui de la ségrégation de l’espace scolaire en Île-de-France. En premier lieu sont explicitées et discutées les différentes étapes menant d’une question thématique à l’opérationnalisation d’une méthodologie d’analyse statistique ou de simulation destinée à analyser cette question. Pour effectuer cette comparaison, on développe un cadre conceptuel à l’interface entre les deux, qui permet de vérifier la compatibilité entre les arrières plans théoriques associés aux domaines thématiques et de modélisation en jeu. Ce cadre conceptuel prend appui sur une démarche ontologique qui est ensuite présentée. Celle-ci permet d’identifier les complémentarités entre AD et SMA et de montrer comment ces deux méthodes peuvent dialoguer dans le cadre d’une même recherche. Nous montrons combien les aspects numériques et symboliques sont finalement étroitement imbriqués au sein même de chacune de ces méthodes. Cette imbrication permet de construire une « spirale d’interactions » entre les deux familles de méthodes dont l’intérêt est illustré par les va et vient entre les phases d’analyse de structure et de simulation dynamique dans le cas de la ségrégation scolaire.
APA, Harvard, Vancouver, ISO, and other styles
4

Ould Mohamed Yahya, Ahmed, Abdel Kader Ould Mahmoud, and Issakha Youm. "Etude et modélisation d’un générateur photovoltaïque." Journal of Renewable Energies 11, no. 3 (September 30, 2008). http://dx.doi.org/10.54966/jreen.v11i3.97.

Full text
Abstract:
Ce papier présente un modèle de simulation pour prédire la performance d’un système photovoltaïque (PV) fonctionnant dans les conditions météorologiques du site d’installation. Les systèmes photovoltaïques individuels sont largement utilisés dans les applications des sources d’énergie renouvelables et il est important d’avoir une capacité à évaluer la performance des systèmes installés. Les équations mathématiques développées pour la modélisation de la performance du générateur PV sont basées sur la caractéristique courant – tension des modules. Le modèle de simulation a été validé à partir des données expérimentales d’un système individuel de 1,2 kWc installé à Nouakchott, Mauritanie. Les résultats du modèle de simulation ont été comparés aux résultats expérimentaux dans les mêmes conditions de fonctionnement et d’environnement climatique. Un bon accord a été observé et le coefficient de corrélation varie de 88 % à 99 %, considéré comme satisfaisant. Le modèle de simulation développé peut être utilisé, non seulement pour analyser la performance d’un système PV, mais aussi pour dimensionner le système PV le plus adaptable pour l’alimentation des différentes charges électriques pour n’importe quelle localité spécifiée, pourvu que les données météorologiques locales soient disponibles.
APA, Harvard, Vancouver, ISO, and other styles
5

Foucher, Fabrice, Sébastien Lonné, Philippe Dubois, Stéphane Leberre, Pierre Calmon, Michael Enright, and Yasin Zaman. "Apports d’une cosimulation “END – Tolérance aux dommages” dans la réduction des risques de rupture." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28527.

Full text
Abstract:
Dans l’approche par tolérance aux dommages utilisée notamment en aéronautique, il est essentiel de démontrer la fiabilité des inspections END pour la détection de potentiels défauts structurels, particulièrement dans le cas de pièces obtenues par fabrication additive car ce procédé introduit d’avantages d’anomalies. Les courbes de Probabilité de Détection (POD), qui relient la probabilité de détecter un défaut à sa taille, constituent un indicateur clé en évaluant une taille maximale de défaut que le procédé END peut manquer à un certain niveau de probabilité et avec un certain taux de confiance. Cette information est utilisée, conjointement à d’autres données telles que la géométrie de la pièce, les propriétés mécaniques, les contraintes ou encore les cinétiques d’évolution des défauts, pour adapter la stratégie de maintenance et de contrôle de la pièce afin d’optimiser la sureté et sa durée de vie en service. La fiabilité d’un END et l’évaluation du risque sont basées sur des indicateurs statistiques qui nécessitent un volume de données important si l’on veut que ces indicateurs soient fiables. Ainsi, il est difficile d’obtenir un bon niveau de confiance sur la base d’une approche purement basée sur des essais expérimentaux compte-tenu du volume de maquettes et des coûts engendrés. Les outils de simulation peuvent atteindre cet objectif s’ils ont la capacité de prendre en compte et piloter précisément les paramètres pertinents et grâce aux capacités de calcul intensif maintenant disponibles. Le travail présenté dans cet article met en oeuvre des cosimulations réalisées entre les logiciels DARWIN®, en modélisation probabiliste de la tolérance au dommage, et CIVA, en modélisation END. DARWIN calcule des niveaux de risque de rupture par zone dans une pièce donnée, quand CIVA permet d’obtenir des courbes de probabilité de détection pour différentes méthodes END. L’application présentée illustre le cas d’une pièce de rotor en titane impliquant un contrôle par ultrasons. Il apparait très pertinent de relier la simulation des END et celle de la mécanique de la rupture, deux disciplines assez compartimentées par ailleurs. En effet, DARWIN permet de connaitre les défauts et les tailles critiques associées qui sont les données d’entrées essentielles pour développer une méthode d’inspection pertinente. CIVA permet d’obtenir des courbes POD permettant ensuite à DARWIN de quantifier le niveau de réduction de risque apporté par cet END. Cela souligne l’importance des END pour la sureté de fonctionnement et permet d’adapter la sensibilité du procédé d’inspection afin de trouver le meilleur compromis entre la performance nécessaire et les coûts
APA, Harvard, Vancouver, ISO, and other styles
6

Dorval, Vincent, Nicolas Leymarie, Alexandre Imperiale, Edouard Demaldent, Zakaria Aghenzour, and Pierre-Emile Lhuillier. "Simulations numériques à l'échelle de microstructures hétérogènes pour déterminer des propriétés effectives de propagation ultrasonore." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28514.

Full text
Abstract:
Les méthodes basées sur les rayons permettent de simuler rapidement la propagation d’ondes ultrasonores sur de grandes distances. Elles peuvent être couplées à des modèles de diffraction pour produire des simulations complètes des contrôles ultrasonores mais ne tiennent pas compte des interactions complexes qui se produisent dans des milieux fortement hétérogènes. Or, ces dernières peuvent avoir un impact significatif sur les performances d'inspection. Par comparaison, les simulations par Eléments Finis (EF) à l'échelle de la microstructure tiennent compte de ces interactions mais requièrent des temps de calcul si importants qu’elles sont retreintes à des Volumes Elémentaires Représentatifs (VER) en trois dimensions. Le travail présenté dans cette communication vise à combiner les avantages de ces deux approches. D'une part, des simulations EF réalisées sur des VER de la microstructure sont utilisées pour déterminer les paramètres macroscopiques effectifs tels que les vitesses, les atténuations et les coefficients de diffusion. D'autre part, un modèle basé sur les rayons exploite ces données pour simuler l’inspection ultrasonore visée où les ondes se propagent sur des distances importantes par rapport aux longueurs d'onde et à la taille caractéristique de la microstructure. Un module de simulation dédié a été implémenté dans une version de développement du logiciel CIVA. Il génère des réalisations aléatoires de microstructures pour un ensemble donné de paramètres, pilote des calculs par éléments finis, et post-traite leurs résultats pour obtenir des estimations des propriétés du milieu effectif macroscopique. Les volumes considérés par le modèle éléments finis sont suffisamment petits pour permettre des calculs rapides en trois dimensions, de l’ordre de quelques minutes. Des résultats ont été obtenus pour différents types de microstructures, décrivant des métaux et des bétons. En particulier, cette communication se concentre sur des applications à l’acier qui ont fait l'objet d'études collaboratives entre le CEA et EDF. Cette approche s’avère prometteuse pour combiner la modélisation à l'échelle de la microstructure et les simulations à plus grande échelle.
APA, Harvard, Vancouver, ISO, and other styles
7

Meier, Olivier. "COMMENT LES VISITES VIRTUELLES TRANSFORMENT LE MÉTIER D’AGENT IMMOBILIER." Management & Data Science, 2022. http://dx.doi.org/10.36863/mds.a.21643.

Full text
Abstract:
Aujourd’hui, l'un des moyens les plus efficaces de convaincre un acheteur d'acquérir un bien immobilier est de lui permettre de l’expérimenter en temps réel pour en faire l'expérience d’utilisation (rapport à l’espace et à l’environnement) – pour appréhender concrètement l’habitat sélectionné et son environnement. En effet, a fortiori en temps de pandémie ou face aux contraintes logistiques ou professionnelles (éloignement géographique par rapport au lieu recherché) les logiciels de visites virtuelles se sont progressivement imposés sur le marché de l’immobiliser. Ils sont devenus au fil du temps, des outils essentiels pour les agents concernés, en offrant un rendu dynamique et interactif grâce à la modélisation en 3D ou via la simulation de visite à 360 degrés.
APA, Harvard, Vancouver, ISO, and other styles
8

Kameni, Eric, Theo Van Der Weide, and W. T. De Groot. "From conceptual model to implementation model Piloting a multi-level case study in Cameroon." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 32 - 2019 - 2020 (October 1, 2019). http://dx.doi.org/10.46298/arima.3822.

Full text
Abstract:
This paper presents the application of a Multi-Level Agent Based Model technology through a Natural Model based Design in Context (NMDC) to describe and model a class of environ-mental problems. NMDC allow training domain expert to design a conceptual model for a concrete environmental problem. This model describes the underlying application domain in terms of environmental concepts and neither requires specific technical skills nor involves implementation details. We show how the associated TiC (Tool-in-Context) develop through NMDC can help the domain expert to describe in semi-natural (specific) language the environmental problem. This description is the basis for TiC to generate a simulation tool. On the base of this, we transform the specific language to NetLogo agent based code, thereby facilitating an early prototype application to be used by the domain expert. Finally, we applied this approach to explain and analyze the process of deforestation around the Laf Forest Reserve and discuss the prototype resulting from our approach. Cet article présente une application de l’approche de modélisation multi-échelle à base d’agent en s’appuyant sur un modèle spécifique (NMDC) pour décrire et modéliser une classe de problèmes environnementaux. Le modèle NMDC permet à l’expert du domaine de décrire le domaine d’application sous-jacent en termes de concepts environnementaux et ne nécessite pas de compétences techniques spécifiques, ni de détails de mise en oeuvre. Nous montrons comment l’outil TiC (Tool-in-Context) associé développé à partir du modèle NMDC peut aider l’expert du domaine à décrire dans un langage naturel (spécifique) le problème environnemental. Cette description est la base pour l’outil TiC de générer un outil de simulation. A travers cet outil, nous transformons le langage spécifique en code multi-agents NetLogo, facilitant ainsi un premier prototype de l’application pouvant être utilisé par l’expert de domaine. Enfin, nous appliquons cette approche pour expliquer et analyser le processus de déforestation autour de la réserve forestière de Laf et discuter du prototype résultant de notre approche.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modélisation et simulation basées sur les agents"

1

Brousmiche, Kei-Léo. "Modélisation et simulation multi-agent de la formation et de la dynamique d’attitudes basées sur les croyances." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066623/document.

Full text
Abstract:
Nous étudions dans cette thèse la formation et la dynamique des attitudes sociales à l'aide de la simulation multi agent. L'attitude peut se définir comme une évaluation globale d'un objet social sur la base d'informations cognitives ou affectives. Nos travaux s'inscrivent dans le cadre de la simulation sociale qui tente de reproduire informatiquement des phénomènes sociaux complexes à une échelle macroscopique, sur la base de la représentation des individus et de leurs interactions au niveau microscopique. Tandis que les approches existantes dans cette discipline font généralement abstraction des travaux en sciences humaines sur le sujet de l'attitude, nous proposons de suivre une approche psychomimétique en micro-fondant le modèle cognitif de nos agents sur des théories issues de psychologie sociale et des sciences cognitives. Ainsi, nous proposons un modèle de dynamique d'attitude combinant des théories issues de travaux en sciences humaines et sociales de la perception des individus, la communication inter-personnelle et médiatique, la révision de croyances, la réponse émotionnelle ainsi que le sentiment de surprise. Ce modèle a pour objectif de reproduire au niveau microscopique la dynamique des attitudes vis-à-vis d'acteurs qui effectuent des actions observées par la population. Nous avons procédé à une analyse fonctionnelle des différents composants du modèle sur des scénarii abstraits afin d'étudier les capacités de notre modèle, en particulier les phénomènes descriptibles tels que la diffusion de l'information, la résistance à la désinformation ou le processus de conformité. Le modèle a été appliqué dans le contexte des opérations militaires françaises de stabilisation en Afghanistan. L'objectif de cette expérience consiste à reproduire les sondages d'opinions vis-à-vis des Forces en présence, récoltés durant l'intervention, à partir d'un scénario militaire qui a été reconstitué en partenariat avec les officiers en charge des opérations de 2011 à 2012. Les résultats de simulations qui suivent un processus de calibration du modèle affichent une erreur inférieure à 3 points d'écart par rapport aux données réelles. Enfin, nous proposons une analyse microscopique des résultats en appliquant des techniques de classifications automatiques sur les individus afin d'expliquer les différentes tendances d'attitudes au sein de la population
We study in this thesis the problem of social attitude formation and dynamics using multi agent simulation. The concept of attitude could be defined as a global evaluation of a social object, based on cognitive or affective information. Our works belongs to the field of social simulation which aims to reproduce in a virtual environment complex social phenomenon at a macroscopic level based on microscopic representations of individuals and their interactions. While existing approaches in this field rarely consider the results of studies in human sciences on the topic of attitude, we propose to follow a psychomimtic approach by micro-founding the cognitive model of our agents on human and social sciences' theories on individual's perception, inter-personal and media communication, belief revision, affective responses and the sentiment of unexpectedness. This model aims to reproduce at a microscopic level attitude dynamics toward actors who perpetuate actions witnessed by the individuals. We have proceeded to a functional analysis of the model's various components based on abstracts scenarios in order to study the capabilities of our model, and more precisely the describable phenomenon such as information diffusion, resistance to disinformation or the conformity process. The model has been applied in the context of French military operations of stabilisation in Afghanistan. The goal of this experience consists in reproducing opinion polls results of the locals toward the present Forces, collected during the intervention, based on a military scenario which has been recreated in partnership with officers who were in charge of operations between 2011 and 2012. Simulation results that follow a model calibration process show an error below 3 points of disparity compared to the real data. Finally, we propose a microscopic analysis of the results by applying automatic classification techniques on the simulated individuals in order to explain the multiple attitudes tendencies in the population
APA, Harvard, Vancouver, ISO, and other styles
2

Brousmiche, Kei-Léo. "Modélisation et simulation multi-agent de la formation et de la dynamique d’attitudes basées sur les croyances." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066623.pdf.

Full text
Abstract:
Nous étudions dans cette thèse la formation et la dynamique des attitudes sociales à l'aide de la simulation multi agent. L'attitude peut se définir comme une évaluation globale d'un objet social sur la base d'informations cognitives ou affectives. Nos travaux s'inscrivent dans le cadre de la simulation sociale qui tente de reproduire informatiquement des phénomènes sociaux complexes à une échelle macroscopique, sur la base de la représentation des individus et de leurs interactions au niveau microscopique. Tandis que les approches existantes dans cette discipline font généralement abstraction des travaux en sciences humaines sur le sujet de l'attitude, nous proposons de suivre une approche psychomimétique en micro-fondant le modèle cognitif de nos agents sur des théories issues de psychologie sociale et des sciences cognitives. Ainsi, nous proposons un modèle de dynamique d'attitude combinant des théories issues de travaux en sciences humaines et sociales de la perception des individus, la communication inter-personnelle et médiatique, la révision de croyances, la réponse émotionnelle ainsi que le sentiment de surprise. Ce modèle a pour objectif de reproduire au niveau microscopique la dynamique des attitudes vis-à-vis d'acteurs qui effectuent des actions observées par la population. Nous avons procédé à une analyse fonctionnelle des différents composants du modèle sur des scénarii abstraits afin d'étudier les capacités de notre modèle, en particulier les phénomènes descriptibles tels que la diffusion de l'information, la résistance à la désinformation ou le processus de conformité. Le modèle a été appliqué dans le contexte des opérations militaires françaises de stabilisation en Afghanistan. L'objectif de cette expérience consiste à reproduire les sondages d'opinions vis-à-vis des Forces en présence, récoltés durant l'intervention, à partir d'un scénario militaire qui a été reconstitué en partenariat avec les officiers en charge des opérations de 2011 à 2012. Les résultats de simulations qui suivent un processus de calibration du modèle affichent une erreur inférieure à 3 points d'écart par rapport aux données réelles. Enfin, nous proposons une analyse microscopique des résultats en appliquant des techniques de classifications automatiques sur les individus afin d'expliquer les différentes tendances d'attitudes au sein de la population
We study in this thesis the problem of social attitude formation and dynamics using multi agent simulation. The concept of attitude could be defined as a global evaluation of a social object, based on cognitive or affective information. Our works belongs to the field of social simulation which aims to reproduce in a virtual environment complex social phenomenon at a macroscopic level based on microscopic representations of individuals and their interactions. While existing approaches in this field rarely consider the results of studies in human sciences on the topic of attitude, we propose to follow a psychomimtic approach by micro-founding the cognitive model of our agents on human and social sciences' theories on individual's perception, inter-personal and media communication, belief revision, affective responses and the sentiment of unexpectedness. This model aims to reproduce at a microscopic level attitude dynamics toward actors who perpetuate actions witnessed by the individuals. We have proceeded to a functional analysis of the model's various components based on abstracts scenarios in order to study the capabilities of our model, and more precisely the describable phenomenon such as information diffusion, resistance to disinformation or the conformity process. The model has been applied in the context of French military operations of stabilisation in Afghanistan. The goal of this experience consists in reproducing opinion polls results of the locals toward the present Forces, collected during the intervention, based on a military scenario which has been recreated in partnership with officers who were in charge of operations between 2011 and 2012. Simulation results that follow a model calibration process show an error below 3 points of disparity compared to the real data. Finally, we propose a microscopic analysis of the results by applying automatic classification techniques on the simulated individuals in order to explain the multiple attitudes tendencies in the population
APA, Harvard, Vancouver, ISO, and other styles
3

Six, Lancelot. "Vers un modèle de comportements de véhicules lourds en utilisant une méthode incrémentale basée sur la vérification et l'hystérésis : le modèle ArchiPL." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066497/document.

Full text
Abstract:
Les phénomènes de congestion sont dangereux, et couteux économiquement. La compréhension de ces phénomènes est un sujet majeur ayant occupé la communauté scientifique depuis la moitié du vingtième siècle. L'approche microscopique, cherchant à reproduire les phénomènes macroscopiques grâce à la modélisation des comportements individuels, a proposé un grand nombre de modèles. Cependant, alors que la littérature a mis en avant l'impact négatif des véhicules lourds, peu se sont intéressés à savoir si les véhicules lourds ont un comportement similaire à celui des véhicules légers. Les principaux modèles considèrent que les comportements sont indifférenciés, à quelques paramètres près. Dans ces travaux, nous proposons de remettre en cause cette hypothèse. Nous proposons une démarche incrémentale, VIM4MAS, au cours de laquelle nous cherchons à identifier les principales différences entre les propriétés du comportement d'un véhicule lourd avec celle d'un véhicule léger. Cette démarche nous permet de construire un modèle de véhicules lourds en se fondant sur un modèle pré-existant de véhicules légers et en n'apportant que les modifications nécessaires. Dans le cadre de cette démarche, nous proposons également une méthode d'analyse des comportements longitudinaux fondée sur l'étude des boucles d'hystérésis. Cette méthode permet d'étudier les capacités d'anticipation des conducteurs, selon une approche boite noire. Le modèle de véhicules lourds produit, ArchiPL, montre d'une part des comportements de meilleure qualité du point de vue individuel, et d'autre part une cohérence avec la littérature existante
Congestion phenomena are a major issue modern societies have to face. Understanding them, their creation, their evolution and their real impact are major questions addressed by the scientific community since the half of the twentieth century. A large number of simulation models have been developed to reproduce and study the traffic dynamics. Among them, microscopic model are designed to reproduce macroscopic phenomena such as congestion by reproducing individual vehicles' behavior. However, despite the negative influence of large vehicles on the flow, very few models took them into account. Those vehicles are usually dealt with as any other vehicle, except for a few parameters. In this thesis, we reconsider this hypothesis and try to identify how the behavior of large vehicles differs from other vehicles' behavior. We propose the VIM4MAS development methodology to help in this process. This method is used to improve a generic vehicle's behavior model and refine it until it can reproduce the most important aspects of the large vehicles' behaviors. To understand and identify key properties of longitudinal behaviors of vehicles, we have developed an analysis methodology based on the study of hysteresis phenomena. This analysis methodology allows to highlight key properties such as anticipation capabilities of drivers. The outcome of this work is the ArchiPL model for large vehicles' behaviors. This models shows an improvement of the behaviour quality at the microscopic level, while being consistent with the literature with respect to emergent phenomena
APA, Harvard, Vancouver, ISO, and other styles
4

Amakama, Nimisingha Jacob. "Conception et mise en œuvre d'une solution interopérable d'un hôpital de campagne mobile dédié à l'industrie pétrolière et gazière." Electronic Thesis or Diss., IMT Mines Alès, 2024. http://www.theses.fr/2024EMAL0003.

Full text
Abstract:
Cette étude examine l'application de techniques computationnelles et d'un jeu de rôle de réponse aux catastrophes pour évaluer la faisabilité de développer un modèle de simulation reproductible et adaptable pour la réponse aux catastrophes et la prise de décision en situation de crise dans le domaine de la santé. Une approche de gestion de crise est utilisée pour déployer des ressources et évacuer les victimes d'un site de catastrophe hypothétique suite à un début soudain de catastrophe. Cette approche nécessite la présence d'agents divers et leur capacité à coordonner et allouer efficacement les ressources. Bien que le modèle ne remplace en aucun cas un système réel, les simulations et exercices développés et mis en œuvre dans cette étude peuvent servir d'outil analytique pour soutenir l'amélioration des processus, la formation et la prise de décision.Le modèle de simulation et le jeu développés pour cette étude ont analysé les résultats des décisions des agents réactifs et délibératifs, évalués en termes de mortalité et de temps d'attente moyen dans les services d'urgence interagissant. Les éléments centraux du modèle basé sur les agents développé (NetLogo 6.3.0) ont ensuite été transformés et mis en œuvre dans un jeu sérieux de table où les participants ont traversé les règles de prise de décision du modèle, fournissant ainsi une réponse aux questions de recherche de l'étude. Les questions de recherche posées dans cette étude sont les suivantes : (1) "Comment l'interaction entre un hôpital régional (HR) et un hôpital de campagne mobile (HCM) peut-elle être modélisée pour une situation de réponse aux catastrophes dans l'industrie pétrolière et gazière ?" et (2) "Comment les jeux de rôle de table sur la réponse aux catastrophes peuvent-ils être utilisés pour vérifier/valider la représentativité du processus de réponse des agents du modèle ABMS dans le contexte du scénario de réponse aux catastrophes ?" L'objectif de cette étude est d'"améliorer l'interopérabilité entre un hôpital régional et un hôpital de campagne mobile en détaillant le processus d'interaction entre les systèmes," décrivant ainsi un système typique de contrôle des incidents de catastrophe.En cas d'explosion industrielle telle que celle envisagée dans cette étude, les paramètres examinés ont mis en évidence les incertitudes associées à la complexité de la réponse à un scénario de catastrophe et la variabilité due au contexte de crise comme étant critiques pour les résultats des patients. Les indicateurs examinés peuvent servir à deux fins : (1) permettre une évaluation de l'efficacité globale des stratégies de réponse aux catastrophes ; et (2) attirer l'attention sur des éléments dans le contexte de la gestion de la réponse aux catastrophes qui peuvent avoir des impacts plus importants et complémentaires. Le besoin de prise de décision éclairée dans les situations de catastrophe pour réduire les taux de mortalité des patients et les temps d'attente moyens entre les systèmes de santé interopérables est démontré dans cette étude par la modélisation, la simulation et la ludification. Par conséquent, le potentiel et l'efficacité de l'utilisation de techniques combinées pour obtenir des informations précieuses sur les interactions au sein de systèmes complexes sont établis
This study examines the application of computational techniques and disaster response role-playing game to assess the feasibility of developing a reproducible and adaptable simulation model for disaster response and crisis decision-making in healthcare. A crisis management approach is used to deploy resources and evacuate victims from a hypothetical disaster site following a sudden onset of disaster. This approach requires diverse agents and their ability to coordinate and allocate resources effectively. While the model in no way replaces any real system, the simulations and exercise developed and implemented in this study can serve as an analytical tool to support process improvement, training and decision-making.The simulation model and game developed for this study analysed the results of both reactive and deliberative agents’ decisions, evaluated as mortality, and mean wait time outcomes from interacting emergency departments. The core elements of the developed agent-based model (NetLogo 6.3.0) were then transformed and implemented in a tabletop serious game where participants played through the model's decision-making rules, providing an answer to the study’s research questions. This research questions posed in this study are: (1) "How can the interaction between a regional hospital (RH) and a mobile field hospital (MFH) be modelled for a disaster response setting for the oil and gas industry?" and (2) "How can Disaster Response Tabletop Role-Playing Games (DRTRPGs) be used to verify/validate the representativeness of the ABMS model agents’ response process in the context of the disaster response scenario?" The aim of this study is to "improve the interoperability between a regional hospital and a mobile field hospital by detailing the process of interaction between the systems," describing a typical disaster response incident control system.In the event of an industrial explosion such as that hypothesized in this study, the parameters examined highlighted the uncertainties associated with the complexity of responding to a disaster scenario and the variability due to the crisis context as critical to patient outcomes. The examined indicators can serve two purposes: (1) enable an assessment of the overall effectiveness of disaster response strategies; and (2) draw attention to elements in the context of disaster response management that may have larger and complementary impacts. The need for informed decision-making in disaster situations to reduce patient mortality rates and mean waiting times between interoperable healthcare systems is demonstrated in this study through modelling, simulation and gamification. Therefore, the potential and effectiveness of using combined techniques to gain valuable insights into the interactions within complex systems is established
APA, Harvard, Vancouver, ISO, and other styles
5

Gangat, Yasine. "Architecture Agent pour la modélisation et simulation de systèmes complexes multidynamiques : une approche multi-comportementale basée sur le pattern "Agent MVC"." Phd thesis, Université de la Réunion, 2013. http://tel.archives-ouvertes.fr/tel-01022620.

Full text
Abstract:
La co-construction et la réutilisation de modèles font l'objet de plusieurs travaux dans le domaine de la simulation. Cependant, dans le domaine plus spécifique de la Simulation Orientée Agent (SOA), nous pouvons constater un manque sur ces deux points malgré un besoin fort de la part des thématiciens. La co-construction est essentielle pour optimiser la mise en commun du savoir de différents experts, mais nous faisons souvent face à des divergences de points de vue. Les méthodologies existantes pour la co-construction en SOA ne permettent qu'un faible niveau de collaboration entre thématiciens durant la phase initiale de modélisation, ainsi qu'entre les des thématiciens avec les modélisateurs ou les modélisateurs-informaticiens... Pour faciliter cette co-construction, nous proposons de suivre une méthodologie de conception favorisant cette collaboration. La réutilisation de modèle octroie un gain de temps significatif, une amélioration du modèle et l'apport de nouvelle connaissance. Les méthodologies en SOA dans ce domaine existent. Cependant, dans le spectre de réutilisation, elles sont souvent limitées au niveau du modèle complet ou de l'agent avec l'impossibilité de "descendre" plus bas. L'expérience de EDMMAS, un cas concret d'un modèle issu de trois réutilisations successives, nous a permis de constater une nouvelle complexité qui découle de la démultiplication des comportements des agents et crée un décalage conséquent entre le modèle opérationnel et le modèle conceptuel. Notre objectif est de promouvoir la réutilisation aussi bien des modèles, que des agents et de leurs comportements.Pour répondre à ces questionnements, nous proposons dans ce manuscrit une manière de codifier et d'intégrer la connaissance provenant de disciplines différentes dans le modèle, tout en utilisant des modules "composables" qui facilitent la réutilisation. Nous proposons (i) une nouvelle architecture Agent (aMVC), appliquée dans un cadre multidynamique (DOM), avec l'appui (ii) d'une approche méthodologique (MMC) basée sur la décomposition et réutilisation des comportements. Cet ensemble de propositions, (i) et (ii), permet de conduire un projet pluridisciplinaire de SOA avec un grand nombre d'acteurs, facilitant la co-construction des modèles grâce à l'instauration de nouvelles synergies entre les différents acteurs participant à la modélisation. Les concepteurs pourront travailler de manière autonome sur leur dynamique et la plateforme fera l'intégration de ces dernières en assurant la cohésion et la robustesse du système. Nos contributions offrent la capacité de créer les briques élémentaires du système de manière indépendante, de les associer et de les combiner pour former des agents, selon des dynamiques conformément à l'approche DOM. Elles permettent ainsi de comparer la logique selon différentes possibilités pour une même dynamique et d'ouvrir la perspective d'étudier un grand nombre d'alternatives de modélisation d'un même système complexe, et de les analyser ensuite à une échelle très fine.
APA, Harvard, Vancouver, ISO, and other styles
6

Six, Lancelot. "Vers un modèle de comportements de véhicules lourds en utilisant une méthode incrémentale basée sur la vérification et l'hystérésis : le modèle ArchiPL." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066497.

Full text
Abstract:
Les phénomènes de congestion sont dangereux, et couteux économiquement. La compréhension de ces phénomènes est un sujet majeur ayant occupé la communauté scientifique depuis la moitié du vingtième siècle. L'approche microscopique, cherchant à reproduire les phénomènes macroscopiques grâce à la modélisation des comportements individuels, a proposé un grand nombre de modèles. Cependant, alors que la littérature a mis en avant l'impact négatif des véhicules lourds, peu se sont intéressés à savoir si les véhicules lourds ont un comportement similaire à celui des véhicules légers. Les principaux modèles considèrent que les comportements sont indifférenciés, à quelques paramètres près. Dans ces travaux, nous proposons de remettre en cause cette hypothèse. Nous proposons une démarche incrémentale, VIM4MAS, au cours de laquelle nous cherchons à identifier les principales différences entre les propriétés du comportement d'un véhicule lourd avec celle d'un véhicule léger. Cette démarche nous permet de construire un modèle de véhicules lourds en se fondant sur un modèle pré-existant de véhicules légers et en n'apportant que les modifications nécessaires. Dans le cadre de cette démarche, nous proposons également une méthode d'analyse des comportements longitudinaux fondée sur l'étude des boucles d'hystérésis. Cette méthode permet d'étudier les capacités d'anticipation des conducteurs, selon une approche boite noire. Le modèle de véhicules lourds produit, ArchiPL, montre d'une part des comportements de meilleure qualité du point de vue individuel, et d'autre part une cohérence avec la littérature existante
Congestion phenomena are a major issue modern societies have to face. Understanding them, their creation, their evolution and their real impact are major questions addressed by the scientific community since the half of the twentieth century. A large number of simulation models have been developed to reproduce and study the traffic dynamics. Among them, microscopic model are designed to reproduce macroscopic phenomena such as congestion by reproducing individual vehicles' behavior. However, despite the negative influence of large vehicles on the flow, very few models took them into account. Those vehicles are usually dealt with as any other vehicle, except for a few parameters. In this thesis, we reconsider this hypothesis and try to identify how the behavior of large vehicles differs from other vehicles' behavior. We propose the VIM4MAS development methodology to help in this process. This method is used to improve a generic vehicle's behavior model and refine it until it can reproduce the most important aspects of the large vehicles' behaviors. To understand and identify key properties of longitudinal behaviors of vehicles, we have developed an analysis methodology based on the study of hysteresis phenomena. This analysis methodology allows to highlight key properties such as anticipation capabilities of drivers. The outcome of this work is the ArchiPL model for large vehicles' behaviors. This models shows an improvement of the behaviour quality at the microscopic level, while being consistent with the literature with respect to emergent phenomena
APA, Harvard, Vancouver, ISO, and other styles
7

Gallab, Maryam. "Développement d’une approche d’aide à la maitrise des risques dans les activités de maintenance d'une chaine logistique : Approche par modélisation et simulation basée sur les systèmes multi-agents." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM028/document.

Full text
Abstract:
Cette thèse a pour objectif principal de développer un simulateur multi-agents pour concevoir un système d'aide à la maitrise des risques des activités de maintenance. Le but est d'explorer la complexité de la maintenance et de spécifier les interactions entre la fonction maintenance, l'analyse et l'évaluation des risques. Nous nous intéressons d’une part, à concevoir un modèle systémique permettant d’identifier et de modéliser un système industriel, à montrer les différentes interactions entre ses éléments, à analyser et évaluer les risques des activités de maintenance. Nous proposons la méthode MOSAR et le langage UML pour concevoir un modèle cognitif de référence. Ce modèle a servi de point de départ pour la conception d’une base de données à l’aide du langage SQL, qui est exploitée par le modèle Multi-Agents afin d’acquérir les informations nécessaires à son fonctionnement.D’autre part, nous développons une architecture d’un Système Multi-Agents qui a pour vocation d’anticiper les situations de défaillances et la prise de décisions à l’aide de la simulation du comportement du système étudié. Une comparaison entre les plateformes existantes dédiées aux Systèmes Multi-Agents est effectuée pour choisir la plateforme adéquate à notre problématique pour la réalisation de la simulation.Finalement, les modèles développés sont appliqués dans le cadre d’une chaîne logistique pour le chargement et le déchargement de GPL (Gaz de Pétrole Liquéfié). Un simulateur a été développé à l’aide de la plateforme AnyLogic dans le but d’étudier le comportement du système et de simuler les scénarios de défaillances choisis par l’industriel pour le calcul de la criticité à partir de trois paramètres (fréquence, gravité, détectabilité) et l’obtention d’un Tableau de Bord contenant un ensemble d’indicateurs de performance de la maintenance. Les modèles de simulation proposés permettent d’orienter les industries vers les bonnes décisions pour éviter les situations à risques pouvant déclencher des événements perturbateurs dommageables
The main objective of this thesis is to develop a multi-agent approach to designing a model to overcome risks of maintenance activities. The aim is to explore the maintenance complexity and to indicate the interactions between the maintenance function and the risk assessment.Firstly, we are interested in designing a systemic model to identify and model the industrial system, to show the different interactions between its elements, to analyze and to evaluate risks of maintenance activities. We propose the MOSAR method and the UML language to design a cognitive reference model. This model served as a starting point for designing a database using the SQL language, which is operated by Multi-Agent model to acquire the necessary information for its operation.On the other hand, we develop a framework of a multi-agent system that aims to anticipate failures scenarios and the decision-making by simulating the studied system behaviour. A comparison between the existing platforms dedicated to Multi-Agent Systems is performed to choose the appropriate platform for the simulation.Finally, the developed models are applied in the LPG supply chain (Liquefied Petroleum Gas). A simulator was developed using the AnyLogic platform in order to study the system behaviour and to simulate the failure scenarios chosen by the industry, for the calculation of the criticality from three parameters (Frequency, severity, detectability), and for obtaining a Dashboard containing a set of maintenance performance indicators. The proposed simulation models help to guide the industries toward good decisions to avoid risky situations that may trigger disruptive events damaging
APA, Harvard, Vancouver, ISO, and other styles
8

Hermellin, Emmanuel. "Modélisation et implémentation de simulations multi-agents sur architectures massivement parallèles." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT334/document.

Full text
Abstract:
La simulation multi-agent représente une solution pertinente pour l’ingénierie et l’étude des systèmes complexes dans de nombreux domaines (vie artificielle, biologie, économie, etc.). Cependant, elle requiert parfois énormément de ressources de calcul, ce qui représente un verrou technologique majeur qui restreint les possibilités d'étude des modèles envisagés (passage à l’échelle, expressivité des modèles proposés, interaction temps réel, etc.).Parmi les technologies disponibles pour faire du calcul intensif (High Performance Computing, HPC), le GPGPU (General-Purpose computing on Graphics Processing Units) consiste à utiliser les architectures massivement parallèles des cartes graphiques (GPU) comme accélérateur de calcul. Cependant, alors que de nombreux domaines bénéficient des performances du GPGPU (météorologie, calculs d’aérodynamique, modélisation moléculaire, finance, etc.), celui-ci est peu utilisé dans le cadre de la simulation multi-agent. En fait, le GPGPU s'accompagne d’un contexte de développement très spécifique qui nécessite une transformation profonde et non triviale des modèles multi-agents. Ainsi, malgré l'existence de travaux pionniers qui démontrent l'intérêt du GPGPU, cette difficulté explique le faible engouement de la communauté multi-agent pour le GPGPU.Dans cette thèse, nous montrons que, parmi les travaux qui visent à faciliter l'usage du GPGPU dans un contexte agent, la plupart le font au travers d’une utilisation transparente de cette technologie. Cependant, cette approche nécessite d’abstraire un certain nombre de parties du modèle, ce qui limite fortement le champ d’application des solutions proposées. Pour pallier ce problème, et au contraire des solutions existantes, nous proposons d'utiliser une approche hybride (l'exécution de la simulation est partagée entre le processeur et la carte graphique) qui met l'accent sur l'accessibilité et la réutilisabilité grâce à une modélisation qui permet une utilisation directe et facilitée de la programmation GPU. Plus précisément, cette approche se base sur un principe de conception, appelé délégation GPU des perceptions agents, qui consiste à réifier une partie des calculs effectués dans le comportement des agents dans de nouvelles structures (e.g. dans l’environnement). Ceci afin de répartir la complexité du code et de modulariser son implémentation. L'étude de ce principe ainsi que les différentes expérimentations réalisées montre l'intérêt de cette approche tant du point de vue conceptuel que du point de vue des performances. C'est pourquoi nous proposons de généraliser cette approche sous la forme d'une méthodologie de modélisation et d'implémentation de simulations multi-agents spécifiquement adaptée à l'utilisation des architectures massivement parallèles
Multi-Agent Based Simulations (MABS) represents a relevant solution for the engineering and the study of complex systems in numerous domains (artificial life, biology, economy, etc.). However, MABS sometimes require a lot of computational resources, which is a major constraint that restricts the possibilities of study for the considered models (scalability, real-time interaction, etc.).Among the available technologies for HPC (High Performance Computing), the GPGPU (General-Purpose computing on Graphics Processing Units) proposes to use the massively parallel architectures of graphics cards as computing accelerator. However, while many areas benefit from GPGPU performances (meteorology, molecular dynamics, finance, etc.). Multi-Agent Systems (MAS) and especially MABS hardly enjoy the benefits of this technology: GPGPU is very little used and only few works are interested in it. In fact, the GPGPU comes along with a very specific development context which requires a deep and not trivial transformation process for multi-agents models. So, despite the existence of works that demonstrate the interest of GPGPU, this difficulty explains the low popularity of GPGPU in the MAS community.In this thesis, we show that among the works which aim to ease the use of GPGPU in an agent context, most of them do it through a transparent use of this technology. However, this approach requires to abstract some parts of the models, what greatly limits the scope of the proposed solutions. To handle this issue, and in contrast to existing solutions, we propose to use a nhybrid approach (the execution of the simulation is shared between both the processor and graphics card) that focuses on accessibility and reusability through a modeling process that allows to use directly GPU programming while simplifying its use. More specifically, this approach is based on a design principle, called GPU delegation of agent perceptions, consists in making a clear separation between the agent behaviors, managed by the processor, and environmental dynamics, handled by the graphics card. So, one major idea underlying this principle is to identify agent computations which can be transformed in new structures (e.g. in the environment) in order to distribute the complexity of the code and modulate its implementation. The study of this principle and the different experiments conducted show the advantages of this approach from both a conceptual and performances point of view. Therefore, we propose to generalize this approach and define a comprehensive methodology relying on GPU delegation specifically adapted to the use of massively parallel architectures for MABS
APA, Harvard, Vancouver, ISO, and other styles
9

Coullon, Hélène. "Modélisation et implémentation de parallélisme implicite pour les simulations scientifiques basées sur des maillages." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2029/document.

Full text
Abstract:
Le calcul scientifique parallèle est un domaine en plein essor qui permet à la fois d’augmenter la vitesse des longs traitements, de traiter des problèmes de taille plus importante ou encore des problèmes plus précis. Ce domaine permet donc d’aller plus loin dans les calculs scientifiques, d’obtenir des résultats plus pertinents, car plus précis, ou d’étudier des problèmes plus volumineux qu’auparavant. Dans le monde plus particulier de la simulation numérique scientifique, la résolution d’équations aux dérivées partielles (EDP) est un calcul particulièrement demandeur de ressources parallèles. Si les ressources matérielles permettant le calcul parallèle sont de plus en plus présentes et disponibles pour les scientifiques, à l’inverse leur utilisation et la programmation parallèle se démocratisent difficilement. Pour cette raison, des modèles de programmation parallèle, des outils de développement et même des langages de programmation parallèle ont vu le jour et visent à simplifier l’utilisation de ces machines. Il est toutefois difficile, dans ce domaine dit du “parallélisme implicite”, de trouver le niveau d’abstraction idéal pour les scientifiques, tout en réduisant l’effort de programmation. Ce travail de thèse propose tout d’abord un modèle permettant de mettre en oeuvre des solutions de parallélisme implicite pour les simulations numériques et la résolution d’EDP. Ce modèle est appelé “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), et propose une vision au croisement de plusieurs types d’abstraction, en tentant de conserver les avantages de chaque vision. Une première implémentation de ce modèle, sous la forme d’une librairie C++ appelée SkelGIS, est proposée pour les maillages cartésiens à deux dimensions. Par la suite, SkelGIS, et donc l’implémentation du modèle, est étendue à des simulations numériques sur les réseaux (permettant l’application de simulations représentant plusieurs phénomènes physiques). Les performances de ces deux implémentations sont évaluées et analysées sur des cas d’application réels et complexes et démontrent qu’il est possible d’obtenir de bonnes performances en implémentant le modèle SIPSim
Parallel scientific computations is an expanding domain of computer science which increases the speed of calculations and offers a way to deal with heavier or more accurate calculations. Thus, the interest of scientific computations increases, with more precised results and bigger physical domains to study. In the particular case of scientific numerical simulations, solving partial differential equations (PDEs) is an especially heavy calculation and a perfect applicant to parallel computations. On one hand, it is more and more easy to get an access to very powerfull parallel machines and clusters, but on the other hand parallel programming is hard to democratize, and most scientists are not able to use these machines. As a result, high level programming models, framework, libraries, languages etc. have been proposed to hide technical details of parallel programming. However, in this “implicit parallelism” field, it is difficult to find the good abstraction level while keeping a low programming effort. This thesis proposes a model to write implicit parallelism solutions for numerical simulations such as mesh-based PDEs computations. This model is called “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), and proposes an approach at the crossroads of existing solutions, taking advantage of each one. A first implementation of this model is proposed, as a C++ library called SkelGIS, for two dimensional Cartesian meshes. A second implementation of the model, and an extension of SkelGIS, proposes an implicit parallelism solution for network-simulations (which deals with simulations with multiple physical phenomenons), and is studied in details. A performance analysis of both these implementations is given on real case simulations, and it demonstrates that the SIPSim model can be implemented efficiently
APA, Harvard, Vancouver, ISO, and other styles
10

Torregrosa, jordan Sergio. "Approches Hybrides et Méthodes d'Intelligence Artificielle Basées sur la Simulation Numérique pour l'Optimisation des Systèmes Aérodynamiques Complexes." Electronic Thesis or Diss., Paris, HESAM, 2024. http://www.theses.fr/2024HESAE002.

Full text
Abstract:
La conception industrielle d'un composant est un processus complexe, long et coûteux, contraint par des spécifications physiques, stylistiques et de développement précises en fonction de ses conditions et de son environnement d'utilisation futurs. En effet, un composant industriel est défini et caractérisé par de nombreux paramètres qui doivent être optimisés pour satisfaire au mieux toutes ces spécifications. Cependant, la complexité de ce problème d'optimisation multiparamétrique sous contraintes est telle que sa résolution analytique est compromise.Dans le passé, un tel problème était résolu expérimentalement par essais et erreurs, entraînant des processus de conception coûteux et chronophages. Depuis le milieu du 20e siècle, avec l'accès généralisé à des moyens de calcul de plus en plus puissants, les ``jumeaux virtuels'' ou simulations numériques basées sur la physique, sont devenus un outil essentiel pour la recherche, réduisant le besoin de mesures expérimentales. À la fin du XXe siècle, le volume de données augmente et se répands massivement dans la plupart des domaines. Ceci conduit à la prolifération des techniques d'Intelligence Artificielle (IA), ou ``jumeaux numériques'', remplaçant partiellement les ``jumeaux virtuels'' grâce à leur plus faible technicité. Aujourd'hui, ces évolutions ont abouti à un cadre où la théorie, l'expérimentation, la simulation et les données peuvent interagir en synergie et se renforcer mutuellement.Dans ce contexte, Stellantis vise à explorer comment l'IA peut améliorer le processus de conception d'un système complexe. A cette fin, l'objectif principal de cette thèse est de développer un modèle de substitution paramétrique de la géométrie d'un aérateur innovant. Le modèle renvoit la norme du champ de vitesse au niveau du visage du pilote afin d'explorer l'espace des géométries possibles tout en évaluant leurs performances en temps réel. Le développement d'un tel modèle basé sur des données pose plusieurs problèmes conceptuels qui peuvent être résolus par l'IA.L'utilisation de techniques de régression classiques peut conduire à des résultats non physiques dans certains domaines tels que la dynamique des fluides. Ainsi, le modèle de substitution paramétrique proposé est basé sur la théorie du Transport Optimal (OT) qui offre une approche mathématique pour mesurer des distances et interpoler d'une manière novatrice.Le succès d'un modèle basé sur des données dépend de la qualité des données d'entraînement. D'une part, les données expérimentales sont considérées comme les plus réalistes, mais elles sont extrêmement coûteuses et laborieuses. D'autre part, les simulations numériques sont plus accessibles et rapides, mais présentent un écart important par rapport à la réalité. Ainsi, une approche Jumeau Hybride est proposée, basée sur la théorie du OT, afin de combler l'ignorance entre la simulation et la mesure.Le processus d'échantillonnage des données d'entraînement est devenu une charge de travail centrale dans le processus de développement d'un modèle basé sur des données. Une méthodologie d'Apprentissage Actif est donc proposée pour sélectionner de manière itérative et intelligente les points d'entraînement, baséee sur les objectifs industriels attendus du composant étudié, afin de minimiser le nombre d'échantillons nécessaires. Ainsi, cette stratégie d'échantillonnage maximise les performances du modèle tout en convergeant vers la solution optimale du problème industriel.L'exactitude d'un modèle basé sur des données est généralement l’objectif principal lors de son entraînement. Or, la réalité est complexe et imprévisible, ce qui fait que des paramètres d'entrée peuvent être connus avec un certain degré d'incertitude. Par conséquent, une méthodologie de quantification des incertitudes, basée sur les estimateurs de Monte Carlo et l'OT, est proposée pour prendre en compte la propagation des incertitudes dans le modèle et pour quantifier leur impact sur sa précision
The industrial design of a component is a complex, time-consuming and costly process constrained to precise physical, styling and development specifications led by its future conditions and environment of use. Indeed, an industrial component is defined and characterized by many parameters which must be optimized to best satisfy all those specifications. However, the complexity of this multi-parametric constrained optimization problem is such that its analytical resolution is compromised.In the recent past, such a problem was solved experimentally, by trial and error, leading to expensive and time-consuming design processes. Since the mid-20th century, with the advancement and widespread access to increasingly powerful computing technologies, the ``virtual twins'', or physics-based numerical simulations, became an essential tool for research and development, significantly diminishing the need for experimental measurements. However, despite the computing power available today, ``virtual twins'' are still limited by the complexity of the problem solved and present some significant deviations from reality due to the ignorance of certain subjacent physics. In the late 20th century, the volume of data has surge enormously, massively spreading in the majority of fields and leading to a wide proliferation of Artificial Intelligence (AI) techniques, or ``digital twins'', partially substituting the ``virtual twins'' thanks to their lower intricacy. Nevertheless, they need an important training stage and can lead to some aversion since they operate as black boxes. Today, these technological evolutions have resulted in a framework where theory, experimentation, simulation and data can interact in synergy and reinforce each other.In this context, Stellantis aims to explore how AI can improve the design process of a complex aerodynamic system: an innovative cockpit air vent. To this purpose, the main goal of this thesis is to develop a parametric surrogate of the aerator geometry which outputs the norm of the velocity field at the pilot's face in order to explore the space of possible geometries while evaluating their performances in real time. The development of such a data-based metamodel entails several conceptual problems which can be addressed with AI.The use of classical regression techniques can lead to unphysical interpolation results in some domains such as fluid dynamics. Thus, the proposed parametric surrogate is based on Optimal Transport (OT) theory which offers a mathematical approach to measure distances and interpolate between general objects in a novel way.The success of a data-driven model relies on the quality of the training data. On the one hand, experimental data is considered as the most realistic but is extremely costly and time-consuming. On the other hand, numerical simulations are cheaper and faster but present a significant deviation from reality. Therefore, a Hybrid Twin approach is proposed based on Optimal Transport theory in order to bridge the ignorance gap between simulation and measurement.The sampling process of training data has become a central workload in the development process of a data-based model. Hence, an Active Learning methodology is proposed to iteratively and smartly select the training points, based on industrial objectives expected from the studied component, in order to minimize the number of needed samples. Thus, this sampling strategy maximizes the performance of the model while converging to the optimal solution of the industrial problem.The accuracy of a data-based model is usually the main concern of its training process. However, reality is complex and unpredictable leading to input parameters known with a certain degree of uncertainty. Therefore, a data-based Uncertainty Quantifcation methodology, based on Monte Carlo estimators and OT, is proposed to take into account the uncertainties propagation into the surrogate and to quantify their impact on its precision
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography