Дисертації з теми "Inférence basée sur simulation"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Inférence basée sur simulation.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Inférence basée sur simulation".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Rouillard, Louis. "Bridging Simulation-based Inference and Hierarchical Modeling : Applications in Neuroscience." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La neuroimagerie étudie l'architecture et le fonctionnement du cerveau à l'aide de la résonance magnétique (IRM). Pour comprendre le signal complexe observé, les neuroscientifiques émettent des hypothèses sous la forme de modèles explicatifs, régis par des paramètres interprétables. Cette thèse étudie l'inférence statistique : deviner quels paramètres auraient pu produire le signal à travers le modèle.L'inférence en neuroimagerie est complexifiée par au moins trois obstacles : une grande dimensionnalité, une grande incertitude et la structure hiérarchique des données. Pour s'attaquer à ce régime, nous utlisons l'inférence variationnelle (VI), une méthode basée sur l'optimisation.Plus précisément, nous combinons l'inférence variationnelle stochastique structurée et les flux de normalisation (NF) pour concevoir des familles variationnelles expressives et adaptées à la large dimensionnalité. Nous appliquons ces techniques à l'IRM de diffusion et l'IRM fonctionnelle, sur des tâches telles que la parcellation individuelle, l'inférence de la microstructure et l'estimation du couplage directionnel. Via ces applications, nous soulignons l'interaction entre les divergences de Kullback-Leibler (KL) forward et reverse comme outils complémentaires pour l'inférence. Nous démontrons également les capacité de l'inférence variationelle automatique (AVI) comme méthode d'inférence robuste et adaptée à la large dimensionnalité, apte à relever les défis de la modélisation en neuroscience
Neuroimaging investigates the brain's architecture and function using magnetic resonance (MRI). To make sense of the complex observed signal, Neuroscientists posit explanatory models, governed by interpretable parameters. This thesis tackles statistical inference : guessing which parameters could have yielded the signal through the model.Inference in Neuroimaging is complexified by at least three hurdles : a large dimensionality, a large uncertainty, and the hierarchcial structure of data. We look into variational inference (VI) as an optimization-based method to tackle this regime.Specifically, we conbine structured stochastic VI and normalizing flows (NFs) to design expressive yet scalable variational families. We apply those techniques in diffusion and functional MRI, on tasks including individual parcellation, microstructure inference and directional coupling estimation. Through these applications, we underline the interplay between the forward and reverse Kullback-Leibler (KL) divergences as complemen-tary tools for inference. We also demonstrate the ability of automatic VI (AVI) as a reliable and scalable inference method to tackle the challenges of model-driven Neuroscience
2

Amate, Laure. "Apprentissage de modèles de formes parcimonieux basés sur des représentations splines." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00456612.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa fidélité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois.
3

Randrianasolo, Toky. "Inférence basée sur le plan pour l'estimation de petits domaines." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST0099.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La forte demande de résultats à un niveau géographique fin, notamment à partir d'enquêtes nationales, a mis en évidence la fragilité des estimations sur petits domaines. Cette thèse propose d'y remédier avec des méthodes spécifiques basées sur le plan de sondage. Celles-ci reposent sur la constructionde nouvelles pondérations pour chaque unité statistique. La première méthode consiste à optimiser le redressement du sous-échantillon d'une enquête inclusdans un domaine. La deuxième repose sur la construction de poids dépendant à la fois des unités statistiques et des domaines. Elle consiste à scinder les poids de sondage de l'estimateur global tout en respectant deux contraintes : 1/ la somme des estimations sur toute partition en domaines est égale à l'estimation globale ; 2/ le système de pondération pour un domaine particulier satisfait les propriétés de calage sur les variables auxiliaires connues pour le domaine. L'estimateur par scission ainsi obtenu se comporte de manière quasi analogue au célèbre estimateur blup (meilleur prédicteur linéaire sans biais). La troisième méthode propose une réécriture de l'estimateur blup sous la forme d'un estimateur linéaire homogène, en adoptant une approche basée sur le plan de sondage, bien que l'estimateur dépende d'un modèle. De nouveaux estimateurs blup modifiés sont obtenus. Leur précision, estimée par simulation avec application sur des données réelles, est assez proche de celle de l'estimateur blup standard. Les méthodes développées dans cette thèse sont ensuite appliquées à l'estimation d'indicateurs de la mobilité locale à partir de l'Enquête Nationale sur les Transports et les Déplacements 2007-2008. Lorsque la taille d'un domaine est faible dans l'échantillon, les estimations obtenues avec la première méthode perdent en précision, alors que la précision reste satisfaisante pour les deux autres méthodes
The strong demand for results at a detailed geographic level, particularly from national surveys, has raised the problem of the fragility of estimates for small areas. This thesis addresses this issue with specific methods based on the sample design. These ones consist of building new weights for each statistical unit. The first method consists of optimizing the re-weighting of a subsample survey included in an area. The second one is based on the construction of weights that depend on the statistical units as well as the areas. It consists of splitting the sampling weights of the overall estimator while satisfying two constraints : 1/ the sum of the estimates on every partition into areas is equal to the overall estimate ; 2/ the system of weights for a given area satisfies calibration properties on known auxiliary variables at the level of the area. The split estimator thus obtained behaves almost similarly as the well-known blup (best linear unbiased predictor) estimator. The third method proposes a rewriting of the blup estimator, although model-based, in the form of a homogenous linear estimator from a design-based approach. New modified blup estimators are obtained. Their precision, estimated by simulation with an application to real data, is quite close to that of the standard blup estimator. Then, the methods developed in this thesis are applied to the estimation of local mobility indicators from the 2007-2008 French National Travel Survey. When the size of an area is small in the sample, the estimates obtained with the first method are not precise enough whereas the precision remains satisfactory for the two other methods
4

Hernandez, Quintero Angelica. "Inférence statistique basée sur les processus empiriques dans des modèles semi-paramétriques de durées de vie." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1201/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse statistique de durées de vie censurées intervient dans de nombreuses disciplines, comme la médecine, la fiabilité, la criminologie, la finance, l'ingénierie. Chacun de ces domaines fournit des exemples de situations où: i) l'évènement observé est dû à une cause parmi plusieurs causes en compétition, ii) l'évènement ne peut être observé que pour une fraction, inconnue de l'analyste, de sujets "susceptibles". On parle respectivement de durées de vie en présence de risques concurrents, et de durées de vie en présence d'une fraction immune. Les problèmes posés pour l'analyse statistique de modèles de durées en présence de ces deux types de données incluent la construction d'estimateurs, l'étude de leurs propriétés asymptotiques (consistance, normalité asymptotique, efficacité, estimation de la variance asymptotique), et leur implémentation. Dans ce travail, nous nous intéressons à ce type de problèmes pour deux modèles de régression semi-paramétriques de durées de vie. Nous considérons successivement un modèle de mélange semi-paramétrique basé sur le modèle à risques proportionnels de Cox, puis le modèle de régression semi-paramétrique de transformation linéaire pour l'étude de durées de vie en présence d'une fraction immune. Nous construisons des estimateurs et établissons leurs propriétés asymptotiques, en utilisant des outils issus de la théorie des processus empiriques. Des études de simulation sont également menées
Survival data arise from disciplines such as medicine, criminology, finance and engineering amongst others. In many circumstances the event of interest can be classified in several causes of death or failure and in some others the event can only be observed for a proportion of "susceptibles". Data for these two cases are known as competing risks and long-term survivors, respectively. Issues relevant to the analysis of these two types of data include basic properties such as the parameters estimation, existence, consistency and asymptotic normality of the estimators, and their efficiency when they follow a semiparametric structure. The present thesis investigates these properties in well established semiparametric formulations for the analysis of both competing risks and long-term survivors. It presents an overview of mathematical tools that allow for the study of these basic properties and describes how the modern theory of empirical processes and the theory of semiparametric efficiency facilitate relevant proofs. Also, consistent variance estimate for both the parametric and semiparametric components for the two models are presented. The findings of this research provide the theoretical basis for obtaining inferences with large samples, the calculation of confidence bands and hypothesis testing. The methods are illustrated with data bases generated through simulations
5

Chermain, Xavier. "Simulation d'effets aérodynamiques et hydrodynamiques basée sur une méthode lagrangienne." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8391.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire présente une nouvelle méthode pour simuler de l'air en interaction avec des solides en se basant sur le modèle particulaire Smoothed Particle Hydrodynamics (SPH). Après avoir rappelé les bases de SPH ainsi que ses variantes incompressibles WCSPH et PCISPH pour simuler de l'eau, nous présentons un modèle de simulation d'air réaliste permettant de simuler des effets aérodynamiques. Par exemple nous arrivons à faire léviter une balle dans un flux d'air grâce à une gestion des interactions air-solide dans les deux sens. Nous proposons aussi une initialisation simple et rapide pour échantillonner rapidement l'air avec des particules SPH tout en prenant en compte les objets solides de la scène 3D. La technique consiste à échantillonner le domaine en se basant sur une grille uniforme puis à abaisser progressivement la densité cible appellé aussi densité au repos poussant les particules d'air à occuper tout l'espace de la simulation. Cette diminution s'arrête lorsque la densité cible vaut la densité moyenne des particules, c'est-à-dire la somme des densités des particules divisée par le nombre total de particules de fluides. Les résultats obtenus ont été comparés avec des expériences réelles dans le but de valider notre modèle.
6

Georgelin, Philippe. "Vérification formelle de systèmes digitaux synchrones, basée sur la simulation symbolique." Université Joseph Fourier (Grenoble ; 1971-2015), 2001. http://www.theses.fr/2001GRE10126.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour satisfaire les exigences du marche, les outils de verification formelle doivent permettre aux concepteurs de verifier des descriptions complexes et de raisonner sur des domaines de valeurs grands ou infinis. Il est necessaire de se concentrer sur la correction d'algorithmes et sur les proprietes mathematiques essentielles des blocks a concevoir. La plupart des outils de verification formelle comme les model-cherckers sont restrictifs car ils ne peuvent travailler avec des niveaux plus haut que le rtl, et ils sont egalement limites sur le nombre total d'etats. Les demonstrateurs de theoremes ne souffrent pas de ces restrictions, mais ne sont pas automatiques et requierent des methodes pour faciliter leur utilisation systematique. Cette these aborde la verification formelle de descriptions vhdl au moyen du demonstrateur acl2. Nous proposons un environnement combinant simulation symbolique et demonstrateur de theoremes pour l'analyse formelle de descriptions de haut niveau d'abstraction. Plus precisement, notre approche consiste a developper des methodes - pour formaliser un sous-ensemble de vhdl, - pour diriger le demonstrateur pour effectuer de la simulation symbolique - pour utiliser ces resultats pour les preuves. Un outil a ete developpe combinant des traducteurs (vhdl vers acl2), des moteurs de simulation symbolique et de preuves, et une interface utilisateur. Les definitions et les theoremes sont generes automatiquement. Un meme modele genere est ainsi utilise pour toutes les taches. Nous aspirons a fournir au concepteur une methodologie pour inserer la verification formelle le plus tot possible dans le cycle de conception. Le demonstrateur est utilise pour des manipulations symboliques et pour prouver qu'ils sont equivalents a une fonction specifiee. Le resultat de cette these est de rendre la technique de demonstration de theoremes acceptable dans une equipe de concepteur du point de vue de la facilite d'utilisation, et de diminuer le temps de verification.
7

Bouchard, Jocelyn. "Commande prédictive basée sur la simulation. Application à la flottation en colonne." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24892/24892.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les structures de commande prédictive (MPC) utilisant des simulateurs dynamiques comme modèles de procédé ne font pas légion. Cette rareté s'explique en grande partie par la difficulté de résolution des problèmes d'optimisation résultants. En effet, les algorithmes de programmation non linéaire ne sont pas toujours adaptés pour atteindre efficacement l'optimum des fonctions basées sur des modèles physiques, à plus forte raison encore si les équations utilisées sont inconnues (modèles de type boîte noire). C'est en s'appuyant sur ce constat qu'une nouvelle approche pour la MPC est proposée. Le principe consiste à substituer la minimisation explicite de la fonction objectif par une simulation du système en boucle fermée pour solutionner de façon généralement sous-optimale le problème de contrôle en boucle ouverte. Cette nouvelle méthode permet d'exploiter plusieurs des avantages de la commande prédictive sans être limitée par la complexité des modèles. Deux algorithmes sont présentés: décentralisé et découplé. Bien qu'avantageuse sur le plan du réglage, la structure découplée ne permet pas la même liberté que la structure décentralisée pour le choix de l'horizon de prédiction qui doit généralement être du même ordre de grandeur que le temps de réponse en boucle ouverte. Le développement d'une structure de simulation du comportement dynamique de la flottation en colonne, un procédé de séparation des minéraux, représente la seconde contribution de cette thèse. Une grande lacune des simulateurs proposés à ce jour demeure que même lorsque les équations différentielles de conservation sont utilisées, les variations dynamiques du niveau de pulpe ne sont jamais considérées. La structure présentée ici s'intéresse à la simulation des mouvements des phases présentes et de leurs effets sur le niveau de pulpe et sur les débits de sortie. Par ailleurs, comme bien d'autres procédés minéralurgiques, la flottation en colonne a peu bénéficié des avancées en contrôle de procédés. C'est donc sur ce terrain que les deux thèmes étudiés se rencontrent lors d'une mise à l'épreuve conjointe. L'étude de cas proposée s'intéresse à l'asservissement de trois variables d'opération critiques pour le bon fonctionnement du procédé à savoir, la concentration d'air dans la zone de pulpe, le flux net d'eau à l'interface et le niveau de pulpe à l'aide d'un contrôleur prédictif basé sur la simulation.
Applications of dynamic simulators for model predictive controllers design are rather scarce in the litterature. The complexity of solving the resulting optimization problems may explain this lack of popularity. In fact, nonlinear programming algorithms are not always well suited to efficiently reach the optimum of a fundamentaly-based cost function. The situation is even worse when the equations used in the model are unknown by the control designers (black box models). The simulation-based model predictive controller is an alternative formulation to perform model predictive control (MPC) without making use of any explicit optimization solver, but rather based on an easy-to-compute closed-loop simulation. The resulting scheme generally provides a sub-optimal solution and benefits from many interesting features of conventional MPC without being restricted by the model complexity. Two algorithms are proposed: decentralized and decoupled. The decentralized simulation structure allows a flexible setting of the prediction horizon (Hp) that is not possible in the decoupled case, easier to tune, but where Hp must generally be in the same order of magnitude that the system settling time. A second contribution of this thesis is the development of a framework for the dynamic simulation of a mineral separation process: column flotation. Until now, most of the proposed models or simulators were restricted to the steady-state behavior. When dynamic mass-balance equations were considered, a constant pulp level during the simulation was always assumed. The presented framework aims to simulate water, solids and gas motion and their effect on the pulp level and output flow rates. As it often happens in mineral processing, the column flotation process has not benefited from advanced control techniques. This is where the two previous subjects merge. The proposed simulation framework is used to design a simulation-based model predictive controller for process variables having a strong influence on metallurgical results (grade and recovery). A case study is presented where the pulp level, bias and air hold-up in the pulp zone are kept within an acceptable operating region.
8

Soho, Komi Dodzi Badji. "Simulation multi-échelle des procédés de fabrication basée sur la plasticité cristalline." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, deux méthodes de couplage sont proposées pour la simulation multi-échelle des procédés de mise en forme. Dans la première partie, une procédure simplifiée (couplage indirect) est adoptée pour coupler les codes éléments finis (Abaqus et LAM3) au modèle polycristallin avec un schéma de transition autocohérente basée sur le comportement élastoplastique du monocristal écrit dans le formalisme des grandes déformations. Cette procédure simplifiée consiste à lier le modèle polycristallin avec l'analyse EF par l'extraction de l'histoire de l'incrément de déformation et de contrainte macroscopique, obtenue à partir d'une simulation EF préliminaire avec une loi phénoménologique, et à l'utiliser comme trajet de chargement dans le modèle polycristallin. Cette méthode est appliquée pour la simulation multi-échelle du procédé de skin-pass. Le suivi du trajet de chargement extrait dans la demi-épaisseur de la tôle a permis de prédire l'évolution des grandeurs physiques associées au modèle de plasticité en particulier la texture cristallographique, la texture morphologique et l'écrouissage. Dans la seconde partie de cette thèse, un modèle polycristallin élastoplastique du type autocohérent en petites déformations est couplé au code EF Abaqus via la routine utilisateur UMAT. Ce couplage (dit couplage direct) consiste à utiliser la théorie de la plasticité cristalline comme loi de comportement à chaque point d'intégration du maillage EF. Le polycristal est représenté par un ensemble de N monocristaux. Chaque fois que le code EF a besoin d'information sur le comportement mécanique aux points d'intégration de chaque EF, le modèle polycristallin est appelé. Pour valider ce couplage développé, nous avons effectué des cas tests de simulation de trajets rhéologiques. Les résultats issus de ce couplage ont été validés avec des modèles de référence. À la différence des modèles phénoménologiques, ce couplage permet non seulement d'avoir des informations sur le comportement macroscopique de la structure mais aussi d'obtenir des informations sur l'état de la microstructure du matériau
In this thesis, two coupling methods are proposed for the multiscale simulation of forming processes. In the first part, a simplified procedure (indirect coupling) is adopted to couple the finite element codes (Abaqus and LAM3) with a polycrystalline selfconsistent model based on the large strain elastoplastic behavior of single crystals. This simplified procedure consists in linking the polycrystalline model with the FE analysis by extracting the history of the increment of macroscopic strain and stress, obtained from a preliminary FE simulation with a phenomenological law, and then using it as loading path prescribed to the polycrystalline model. This method is applied to multiscale simulation of skin-pass processes. By following on the loading path extracted at the halfthickness of the sheet, we can predict the evolution of some physical parameters associated with the plasticity model, in particular the crystallographic texture, the morphological texture and hardening. In the second part on this thesis, a small strain version of the elastoplastic polycristalline self-consistent model is coupled to the Abaqus FE code via the user material subroutine UMAT. This coupling (called direct coupling) consists in using crystal plasticity theory as constitutive law at each integration point of the FE mesh. The polycristal is represented by a set of N single crystals. Each time the FE code needs information on the mechanical behavior at the integration points considered, the full polycrystalline constitutive model is called. In order to validate this coupling, simulations of simple mechanical tests have been conducted. The results of this coupling have been validated through comparison with reference models. Unlike phenomenological models, this coupling provides not only information on the overall macroscopic response of the structure, but also important information related to its microstructure
9

Navarrete, Gutierrez Tomas. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00758118.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances.
10

Mayet, Clément. "Simulation énergétique flexible d’un carrousel de métros basée sur la représentation énergétique macroscopique." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sobriété énergétique des systèmes de transport est primordiale afin de limiter leur impact environnemental. Ainsi les transports en communs électriques, tels que les métros ou tramways, sont fortement sollicités dans les zones urbaines. Diverses solutions innovantes sont apparues récemment afin d’accroître d’avantage leur efficacité énergétique (systèmes de stockage d’énergie, stations d’alimentation réversibles, etc.). Cependant, au vu de la complexité des études de dimensionnement et d’optimisation de ces systèmes, les outils de simulation numérique sont devenus indispensables. Or, ces outils sont particulièrement délicats à développer en raison des non-linéarités (non-réversibilité des stations d’alimentation), des non-stationnarités (mouvement des rames), et des fortes interactions énergétiques qui existent au sein des systèmes ferroviaires. Cette thèse propose alors un nouvel outil de simulation de carrousel de métros basé sur le formalisme REM (Représentation Energétique Macroscopique). Ce formalisme a pour volonté de structurer les modèles mis en jeux suivant les propriétés énergétiques du système. Il conduit à des approches de simulation « forward » avec un usage exclusif de la causalité intégrale. De ce fait, le programme de simulation proposé est issu d’une approche innovante et permet d’avoir un nouveau regard sur le système de carrousel de métros. Ces approches permettent notamment d’accroitre la flexibilité du programme de simulation tout en garantissant des résultats de simulation physiques. De plus, cette thèse a une volonté affichée de valider expérimentalement l’ensemble des modèles développés
Transportation systems have to be efficient in terms of energy in order to limit their environmental impact. Electric public transportation, such as subways or tramways, is thus strongly requested in urban areas. Various innovative solutions have emerged recently to increase their energy efficiency (energy storage systems, reversible traction power substations, etc.). However, due to the complexity of the development and optimization of such systems, numerical simulation tools are essential. Nevertheless, simulators of railway systems are particularly delicate to develop due to non-linearity (non-reversibility of traction power substations), non-stationary (displacement of trains), and multiple energetic interactions which exists within these kind of systems. This PhD thesis then proposes a new simulation tool of subway system based on EMR formalism (Energetic Macroscopic Representation). This formalism structures the models according to the energetic properties of the system. It leads to a forward simulation approach with exclusive use of the integral causality. In that way, the proposed simulation tool is stemming from an innovative approach and allows a new vision of subway systems. These approaches allow especially the increasing of the simulator flexibility and the obtaining of physical simulation results. Moreover, this PhD thesis has the particularity to experimentally validate all the developed models
11

Navarrete, Gutiérrez Tomás. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0165/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances
Complex systems are present everywhere in our environment: internet, electricity distribution networks, transport networks. This systems have as characteristics: a large number of autonomous entities, dynamic structures, different time and space scales and emergent phenomena. This thesis work is centered on the problem of control of such systems. The problem is defined as the need to determine, based on a partial perception of the system state, which actions to execute in order to avoid or favor certain global states of the system. This problem comprises several difficult questions: how to evaluate the impact at the global level of actions applied at a global level, how to model the dynamics of an heterogeneous system (different behaviors issue of different levels of interactions), how to evaluate the quality of the estimations issue of the modeling of the system dynamics. We propose a control architecture based on an ``equation-free'' approach. We use a multi-agent model to evaluate the global impact of local control actions before applying the most pertinent set of actions. Associated to our architecture, an experimental platform has been developed to confront the basic ideas or the architecture within the context of simulated ``free-riding'' phenomenon in peer to peer file exchange networks. We have demonstrated that our approach allows to drive the system to a state where most peers share files, despite given initial conditions that are supposed to drive the system to a state where no peer shares. We have also executed experiments with different configurations of the architecture to identify the different means to improve the performance of the architecture
12

Navarrete, Gutiérrez Tomás. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0165.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances
Complex systems are present everywhere in our environment: internet, electricity distribution networks, transport networks. This systems have as characteristics: a large number of autonomous entities, dynamic structures, different time and space scales and emergent phenomena. This thesis work is centered on the problem of control of such systems. The problem is defined as the need to determine, based on a partial perception of the system state, which actions to execute in order to avoid or favor certain global states of the system. This problem comprises several difficult questions: how to evaluate the impact at the global level of actions applied at a global level, how to model the dynamics of an heterogeneous system (different behaviors issue of different levels of interactions), how to evaluate the quality of the estimations issue of the modeling of the system dynamics. We propose a control architecture based on an ``equation-free'' approach. We use a multi-agent model to evaluate the global impact of local control actions before applying the most pertinent set of actions. Associated to our architecture, an experimental platform has been developed to confront the basic ideas or the architecture within the context of simulated ``free-riding'' phenomenon in peer to peer file exchange networks. We have demonstrated that our approach allows to drive the system to a state where most peers share files, despite given initial conditions that are supposed to drive the system to a state where no peer shares. We have also executed experiments with different configurations of the architecture to identify the different means to improve the performance of the architecture
13

Fraj, Amine. "Nouvelles approches en conception préliminaire basée sur les modèles des actionneurs embarqués." Thesis, Toulouse, INSA, 2014. http://www.theses.fr/2014ISAT0015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de cette thèse est de proposer des approches innovantes de conception préliminaire d’actionneurs embarqués. Cette démarche répond à un besoin fort de l’industrie,en particulier en aéronautique. Dans un premier temps, une méthode hybride de génération d’architectures solutions et de sélection vis-à-vis des exigences du cahier des charges et de l’état de l’art technologique est proposée. Dans un deuxième temps, une étude de l’effet de l’incertitude sur les modèles de conception préliminaire a été réalisée. Une troisième partie a démontré l’intérêt de lier les approches et les outils de modélisation 0D/1D et 3D afin de permettre l’accélération des phases de conception et afin de mieux remonter la connaissance liée à la géométrie. Enfin, une méthode utilisant les métamodèles basées sur les lois d’échelle visant à l’obtention de formes mathématiques simples pour le besoin de dimensionnent des composants mécatroniques a été développée
The objective of this thesis is to propose an innovative approaches for embedded actuators preliminary design. This approach responds to a strong need for the industry, particularly in aeronautics. As a first step, a hybrid method of architectures generation and selection depending on the specifications and the technological state of the art is proposed. In a second step, a study of the effect of uncertainty in preliminary design models was completed. A third part demonstrated the value of combining modeling approaches tools 0D/1D and 3D to enable the design phases acceleration and to have better knowledge related to the geometry. Finally, a method using meta-models based on scaling laws for obtaining simple mathematical forms needed for sizing mechatronic components has been developed
14

Bui, Thi Thu Cuc. "Simulation des écoulements bifluides, une stratégie de couplage basée sur l'adaptation de maillage anisotrope." Paris 6, 2009. http://www.theses.fr/2009PA066372.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On s'intéresse ici à la simulation d'écoulements bifluides visqueux incompressibles et immiscibles, régis par les équations de Stokes. Une stratégie de couplage basée sur l'adaptation de maillage anisotrope permet un suivi précis de l'évolution de l'interface gouvernée par une équation d'advection. Dans la première partie de ce travail, on aborde les aspects théoriques liés au modèle des écoulements bifluides. En particulier, on propose un préconditionnement efficace lorsque le rapport des viscosités est important et on présente un schéma numérique basé sur la méthode de caractéristiques pour résoudre l'équation d'advection. L'utilisation des triangulations anisotropes raffinées au voisinage de l'interface permet une capture précise de celle-ci avec un nombre minimal de degrés de liberté. Dans la seconde partie, on présente des résultats numériques dans plusieurs domaines d'applications obtenus avec cette approche pour illustrer les différents aspects de notre stratégie de couplage.
15

Guay, Martin. "Animation de phénomènes gazeux basée sur la simulation d'un modèle de fluide à phase unique sur le GPU." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4931.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent mémoire porte sur l'animation passive de phénomènes naturels. L'animation est dite passive lorsque qu'elle [i.e. lorsqu'elle] est directe et sans contrôle ou sans dynamique inverse. En particulier, le type de phénomènes naturels traités est celui des phénomènes gazeux et plus précisément, ceux modélisés par un fluide à phase unique. Tout d'abord, le domaine de l'animation de fluide synthétisé par la simulation d'un modèle physique sera introduit ainsi que la problématique abordée.Le document comprend trois contributions abordant la problématique à différents niveaux. Dans le premier ouvrage, on retrouve une méthode permettant de résoudre les équations de Navier-Stokes en une seule itération sur le GPU (Graphical Processing Unit). La méthode est si simple qu'elle a pu être implémentée en moins d'une journée de travail dans Fx-Composer (vidéo : http: //www.youtube.com/watch?v=PScfTOKbSpU). En plus d'être extrêmement rapide sur le GPU, cette méthode rend l'animation de fluide beaucoup plus accessible et peut être utilisée à différentes fins : l'initiation à l'animation de fluide à l'aide d'une méthode simple à implémenter ou l'ajout rapide d'effets visuels dans un jeu vidéo ou autre application interactive. La deuxième contribution aborde le problème au niveau de la visualisation du fluide. On y retrouve l'élaboration d'une méthode explicite et inconditionnellement stable pour la résolution numérique de l'équation de convection-diffusion utilisée pour simuler la densité d'un gaz qui à la fois est diffusé et transporté dans le domaine par un champ de vecteurs-vitesse, qui dans notre cas représente le mouvement d'un fluide.Le troisième article aborde le problème au niveau de la complexité calculatoire et réduit l'animation 3D de feu à une utilisation 2D strictement en espace-écran. La complexité d'une animation en espace-écran est constante pour une résolution d'image donnée puisque les calculs se font uniquement sur les pixels de l'écran (ou une sur une sous-résolution de ceux-ci).
16

Vieira, De Mello Aline. "Tlmdt : une stratégie de modélisation basée sur temps distribué pour la simulation prallèle de systèmes multi-processeurs intégrés sur puce." Paris 6, 2013. http://www.theses.fr/2013PA066201.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les architectures matérielles innovantes dans l’industrie de la microélectronique se caractérisent principalement par leur niveau incroyablement élevé de parallélisme. Plusieurs environnements de conception industriels et académiques sont apparus pour aider dans la modélisation, la simulation et la mise au point de “Massively Parallel Multi-Processors System on Chip” (MP2SoCs). Le langage de description matérielle SystemC est le point commun de tous ces environnements. La bibliothèque SystemC de classes C++ permet de décrire le matériel à différents niveaux d’abstraction, allant de RTL synthétisable à la modélisation de niveau transactionnel (TLM). Cependant, quand il s’agit de simuler une architecture contenant des centaines de processeurs, même la vitesse de simulation fourni par l’approche TLM n’est pas suffisante. Simultanément, les stations de travail multi-coeur sont de plus acessible au grand public. Malheureusement, le noyau de simulation SystemC est entièrement séquentiel et ne peut pas exploiter la puissance de traitement offerte par ces machines multi-coeurs. L’objectif stratégique de cette thèse est de proposer une approche de modélisation avec temps, pour les architectures numériques multi-processeurs complexes à mémoire partagée, appelée modélisation au niveau transaction avec temps distribué (TLM-DT). L’idée principale de l’approche TLM-DT est de ne plus utiliser le temps global de simulation SystemC, rendant ainsi possible l’utilisation d’un moteur de simulation véritablement parallèle et permettant une réduction significative du temps de simulation avec une perte limitée de précision
Innovative hardware architectures in the microelectronics industry are mainly characterized by their incredibly high level of parallelism. Despite their relative novelty, Multi-Processors System on Chip (MPSoCs) containing a few cores tend to be replaced by Massively Parallel MPSoCs (MP2SoCs), which integrate dozens or hundreds of processor cores interconnected through a possibly hierarchical network on chip. Several industrial and academic frameworks appeared to help modeling, simulating and debugging MP2SoC architectures. The SystemC hardware description language is the effective backbone of all these frameworks, which allows to describe the hardware at various levels of abstraction, ranging from synthesizable RTL (more accurate and very slow) to TLM (less accurate and very fast). However, when it comes to simulate an architecture containing hundreds of processors, even the simulation speed brought by TLM is not enough. Simultaneously, multi-core workstations are becoming the mainstream. Unfortunately, the genuine SystemC simulation kernel is fully sequential and cannot exploit the processing power provided by these multi-cores machines. In this context, the strategic goal of this thesis is to propose a general modeling approach for timed TLM virtual prototyping of shared memory MP2SoCs, called Transaction Level Modeling with Distributed Time (TLM-DT). The main idea of the TLM-DT approach is not to use anymore the SystemC global simulation time, becoming possible to use a truly parallel simulation engine and providing a significant reduction in simulation time with a limited loss of precision
17

Palyart, Marc. "Une approche basée sur les modèles pour le développement d'applications de simulation numérique haute-performance." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00865535.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement et la maintenance d'applications de simulation numérique haute-performance sont des activités complexes. Cette complexité découle notamment du couplage fort existant entre logiciel et matériel ainsi que du manque d'accessibilité des solutions de programmation actuelles et du mélange des préoccupations qu'elles induisent. Dans cette thèse nous proposons une approche pour le développement d'applications de simulation numérique haute-performance qui repose sur l'ingénierie des modèles. Afin à la fois de réduire les couts et les délais de portage sur de nouvelles architectures matérielles mais également de concentrer les efforts sur des interventions à plus haute valeur ajoutée, cette approche nommée MDE4HPC, définit un langage de modélisation dédié. Ce dernier permet aux numériciens de décrire la résolution de leurs modèles théoriques dans un langage qui d'une part leur est familier et d'autre part est indépendant d'une quelconque architecture matérielle. Les différentes préoccupations logicielles sont séparées grâce à l'utilisation de plusieurs modèles et de plusieurs points de vue sur ces modèles. En fonction des plateformes d'exécution disponibles, ces modèles abstraits sont alors traduits en implémentations exécutables grâce à des transformations de modèles mutualisables entre les divers projets de développement. Afin de valider notre approche nous avons développé un prototype nommé ArchiMDE. Grâce à cet outil nous avons développé plusieurs applications de simulation numérique pour valider les choix de conception réalisés pour le langage de modélisation.
18

Palyart-Lamarche, Marc. "Une approche basée sur les modèles pour le développement d'applications de simulation numérique haute-performance." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1990/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement et la maintenance d'applications de simulation numérique haute-performance sont des activités complexes. Cette complexité découle notamment du couplage fort existant entre logiciel et matériel ainsi que du manque d'accessibilité des solutions de programmation actuelles et du mélange des préoccupations qu'elles induisent. Dans cette thèse nous proposons une approche pour le développement d'applications de simulation numérique haute-performance qui repose sur l'ingénierie des modèles. Afin à la fois de réduire les couts et les délais de portage sur de nouvelles architectures matérielles mais également de concentrer les efforts sur des interventions à plus haute valeur ajoutée, cette approche nommée MDE4HPC, définit un langage de modélisation dédié. Ce dernier permet aux numériciens de décrire la résolution de leurs modèles théoriques dans un langage qui d'une part leur est familier et d'autre part est indépendant d'une quelconque architecture matérielle. Les différentes préoccupations logicielles sont séparées grâce à l'utilisation de plusieurs modèles et de plusieurs points de vue sur ces modèles. En fonction des plateformes d'exécution disponibles, ces modèles abstraits sont alors traduits en implémentations exécutables grâce à des transformations de modèles mutualisables entre les divers projets de développement. Afin de valider notre approche nous avons développé un prototype nommé ArchiMDE. Grâce à cet outil nous avons développé plusieurs applications de simulation numérique pour valider les choix de conception réalisés pour le langage de modélisation
The development and maintenance of high-performance scientific computing software is a complex task. This complexity results from the fact that software and hardware are tightly coupled. Furthermore current parallel programming approaches lack of accessibility and lead to a mixing of concerns within the source code. In this thesis we define an approach for the development of high-performance scientific computing software which relies on model-driven engineering. In order to reduce both duration and cost of migration phases toward new hardware architectures and also to focus on tasks with higher added value this approach called MDE4HPC defines a domain-specific modeling language. This language enables applied mathematicians to describe their numerical model in a both user-friendly and hardware independent way. The different concerns are separated thanks to the use of several models as well as several modeling viewpoints on these models. Depending on the targeted execution platforms, these abstract models are translated into executable implementations with model transformations that can be shared among several software developments. To evaluate the effectiveness of this approach we developed a tool called ArchiMDE. Using this tool we developed different numerical simulation software to validate the design choices made regarding the modeling language
19

Tatibouët, Jérémie. "Approche systématique basée sur fUML pour formaliser la sémantique d’exécution des profils UML." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112247.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les profils permettent de customiser UML pour un domaine particulier. Cette customisation se fait par l’ajout de concepts (stéréotypes) relatifs au domaine, l’ajout de contraintes sur ces concepts ainsi que la résolution de points de variation sémantiques. Il existe un processus établit et documenté dans l’état de l’art permettant de construire la syntaxe de ces langages basés sur UML. En revanche, ce processus ne couvre pas l’aspect formalisation de la sémantique et les propositions issues de l’état de l’art ne présentent pas d’approches systématiques pour traiter ce problème.La formalisation de la sémantique est un point essentiel de la construction d’un langage car elle permet de donner le sens des constructions syntaxiques. Pour être efficace, la formalisation de la sémantique d’un langage doit être menée conjointement à une action de normalisation. L’intérêt d’avoir une sémantique formelle et standard pour un langage est qu’elle permet aux modèles définis dans ce langage d’être exploités (analyse, exécution, simulation, etc.) de manière équivalente entre les outils. Cette équivalence permet aux utilisateurs d’observer des interprétations identiques d’un même modèle entre différents outils et donc d’avoir une compréhension commune du modèle et de la sémantique associée. Dans le contexte des profils, les actions de normalisations menées par l’OMG se concentrent exclusivement sur la syntaxe et la formalisation de la sémantique est négligée. Nous proposons de répondre à ce problème en nous appuyant sur les spécifications fUML et PSCS qui définissent une sémantique normative pour un sous-ensemble d’UML.Dans un premier temps, nous définissons deux méthodologies alternatives s’appuyant sur ces standards permettant de formaliser la sémantique d’exécution d’un profil UML. Dans la première méthodologie la sémantique d’exécution d’un profil est formalisée au niveau du modèle de domaine. La forme exécutable d’un modèle applicatif profilé est obtenue par transformation de modèle. Dans la seconde méthodologie, la sémantique est définie directement pour le profil. Le modèle qui la formalise est une extension du modèle sémantique de fUML/PSCS formalisée avec fUML. Les modèles sémantiques obtenus sont conformes à fUML ce qui les rend par construction exécutables et directement exploitables dans n’importe quel outil implantant les normes UML et fUML. Dans un deuxième temps, nous comparons nos approches sur la base de trois critères : l’effort de modélisation requis pour produire le modèle sémantique, la préservation de la sémantique de base d’UML définie par fUML/PSCS et la possibilité d’identifier rapidement les relations entre les stéréotypes et leurs sémantiques. Cette comparaison, nous permet de montrer la capacité de notre seconde méthodologie à prendre en compte des extensions clefs de la sémantique de base d’UML dans le contexte des profils. Ces éléments clefs sont : la délégation du contrôle, l’instanciation et les communications. L’ensemble de nos contributions ont été outillées dans le contexte de l’outil d’exécution de modèles MOKA qui est intégré au modeleur UML/SysML Papyrus
UML profiles enable the UML to be tailored to a particular domain. To do so, a profile adds domain specific concepts (i.e., stereotypes) and constraints to UML and disambiguates specific semantic variation points. The design process for abstract syntax of profiles is well documented in the literature. However, specification of the semantics is neglected. According to our researches, there are no proposals in the state-of-the-art that define a systematic approach to solve this problem.Semantic formalization is a key point of language design. It enables to formally define the meaning of syntactic elements. In order to be efficient, the formalization activity must be realized in parallel with a standardization activity. The interest to have a language with a formal standardized semantic is to enable models defined using this latter to be interpreted (analysis, execution, simulation) in equivalent way between tools implementing the semantics. This equivalence enables users to observe similar interpretations of the same model between different tools and therefore to have a shared understanding of this model and the associated semantic.In the context of UML profiles, normalization activities leaded by the OMG are focused on the syntax. The semantic formalization aspect is neglected. We propose to address this problem by relying on fUML and PSCS OMG (Object Management Group) specifications. These standards formalize execution semantics for a subset of UML (classes, composite structures, and activities).Firstly, we define two methodologies relying on these standards to formalize execution semantics of UML profiles execution semantics. The first methodology defines the execution semantics for the domain model underlying the profile. The executable form of an applicative model defined using the profile is obtained by model transformation. In the second methodology, semantics are defined directly for the profile by extending the semantic model of fUML/PSCS using fUML. By being conform to fUML, the semantic model is by construction executable and can be directly used in any tools implementing the UML and fUML standards.Secondly, we compare our approaches against the following criteria: the modelling effort required to build the semantic model, the capability of the methodology to preserve the UML semantics (i.e., the one defined by fUML/PSCS) and the capability to identify clearly the relationships between the stereotypes and their semantics. This comparison enables us to demonstrate the capacity of the second methodology to define key extensions of the UML semantics in the context of a profile. These latter are: the control delegation, the instantiation, and the communications. The contributions have been implemented in our model execution framework Moka which is integrated in the open-source UML/SysML modeling tool Papyrus
20

Mykhalchuk, Vasyl. "Correspondance de maillages dynamiques basée sur les caractéristiques." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Correspondance de forme est un problème fondamental dans de nombreuses disciplines de recherche, tels que la géométrie algorithmique, vision par ordinateur et l'infographie. Communément définie comme un problème de trouver injective/ multivaluée correspondance entre une source et une cible, il constitue une tâche centrale dans de nombreuses applications y compris le transfert de attributes, récupération des formes etc. Dans récupération des formes, on peut d'abord calculer la correspondance entre la forme de requête et les formes dans une base de données, puis obtenir le meilleure correspondance en utilisant une mesure de qualité de correspondance prédéfini. Il est également particulièrement avantageuse dans les applications basées sur la modélisation statistique des formes. En encapsulant les propriétés statistiques de l'anatomie du sujet dans le model de forme, comme variations géométriques, des variations de densité, etc., il est utile non seulement pour l'analyse des structures anatomiques telles que des organes ou des os et leur variations valides, mais aussi pour apprendre les modèle de déformation de la classe d'objets. Dans cette thèse, nous nous intéressons à une enquête sur une nouvelle méthode d'appariement de forme qui exploite grande redondance de l'information à partir des ensembles de données dynamiques, variables dans le temps. Récemment, une grande quantité de recherches ont été effectuées en infographie sur l'établissement de correspondances entre les mailles statiques (Anguelov, Srinivasan et al. 2005, Aiger, Mitra et al. 2008, Castellani, Cristani et al. 2008). Ces méthodes reposent sur les caractéristiques géométriques ou les propriétés extrinsèques/intrinsèques des surfaces statiques (Lipman et Funkhouser 2009, Sun, Ovsjanikov et al. 2009, Ovsjanikov, Mérigot et al. 2010, Kim, Lipman et al., 2011) pour élaguer efficacement les paires. Bien que l'utilisation de la caractéristique géométrique est encore un standard d'or, les méthodes reposant uniquement sur l'information statique de formes peuvent générer dans les résultats de correspondance grossièrement trompeurs lorsque les formes sont radicalement différentes ou ne contiennent pas suffisamment de caractéristiques géométriques. [...]
3D geometry modelling tools and 3D scanners become more enhanced and to a greater degree affordable today. Thus, development of the new algorithms in geometry processing, shape analysis and shape correspondence gather momentum in computer graphics. Those algorithms steadily extend and increasingly replace prevailing methods based on images and videos. Non-rigid shape correspondence or deformable shape matching has been a long-studied subject in computer graphics and related research fields. Not to forget, shape correspondence is of wide use in many applications such as statistical shape analysis, motion cloning, texture transfer, medical applications and many more. However, robust and efficient non-rigid shape correspondence still remains a challenging task due to fundamental variations between individual subjects, acquisition noise and the number of degrees of freedom involved in correspondence search. Although dynamic 2D/3D intra-subject shape correspondence problem has been addressed in the rich set of previous methods, dynamic inter-subject shape correspondence received much less attention. The primary purpose of our research is to develop a novel, efficient, robust deforming shape analysis and correspondence framework for animated meshes based on their dynamic and motion properties. We elaborate our method by exploiting a profitable set of motion data exhibited by deforming meshes with time-varying embedding. Our approach is based on an observation that a dynamic, deforming shape of a given subject contains much more information rather than a single static posture of it. That is different from the existing methods that rely on static shape information for shape correspondence and analysis.Our framework of deforming shape analysis and correspondence of animated meshes is comprised of several major contributions: a new dynamic feature detection technique based on multi-scale animated mesh’s deformation characteristics, novel dynamic feature descriptor, and an adaptation of a robust graph-based feature correspondence approach followed by the fine matching of the animated meshes. [...]
21

Mebarki, Nasser. "Une approche d'ordonnancement temps réel basée sur la sélection dynamique de règles de priorité." Lyon 1, 1995. http://www.theses.fr/1995LYO10043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La gestion des files d'attente par des regles de priorite constitue une des approches les plus simples et les plus utilisees pour ordonnancer dynamiquement les taches dans l'atelier. De tres nombreuses regles de priorite ont ete proposees et etudiees par de tres nombreux chercheurs. Malheureusement, un des problemes les plus importants concernant l'utilisation des regles de priorite est constitue par le fait qu'aucune regle n'apparait comme globalement meilleure que les autres. L'efficacite et la pertinence des regles de priorite depend etroitement des criteres de performance evalues et des conditions operatoires effectives dans l'atelier et surtout de l'etat de l'atelier. Pour remedier a ces inconvenients, nous proposons dans cette these une approche d'ordonnancement temps reel basee sur une selection dynamique des regles de priorite. Cette selection est realisee en fonction des conditions operatoires, des objectifs de production et de l'etat de l'atelier. Puisque l'etat de l'atelier change au cours du temps, nous proposons d'analyser l'etat du systeme chaque fois qu'une decision d'ordonnancement doit etre prise, afin de prendre en compte l'etat reel de l'atelier. Cette analyse de l'etat de l'atelier permet d'etablir un diagnostic de l'etat de l'atelier, qui indique les dysfonctionnements et les deviations du systeme par rapport aux objectifs a atteindre. Ce diagnostic est etabli a partir de sympomes predetermines (presence de goulots d'etranglement, trop de retard), qui peuvent etre purement locaux lorsqu'ils concernent un objet precis du systeme (un ordre de fabrication particulier, une ressource particuliere, une file d'attente) ou globaux lorsqu'ils font reference a une deviation globale des objectifs de l'atelier (trop de retard). Cette approche a ete implementee dans un logiciel de simulation orientee objet. Sur un modele d'atelier job-shop, les tests conduits ont montre que cette approche comparee a de nombreuses regles de priorite, donnait de meilleurs resultats sur certains criteres de performance, tels que le retard conditionnel. De plus, l'avantage de cette nouvelle approche est particulierement sensible lorsqu'il s'agit de combiner differents criteres de performance
22

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
23

Klaudel, Witold. "Contribution aux logiciels de simulation généralisée basée sur une approche séquentielle et l'emploi de flux d'information." Châtenay-Malabry, Ecole centrale de Paris, 1989. http://www.theses.fr/1989ECAP0085.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La présente érude définit une nouvelle conception de la modélisation des états stationnaires des installations chimiques. Cette conception augmente l'efficacité numérique de l'approche modulo-séquenteille. Elle s'appuie sur l'existence de plusieurs variantes admissibles de calcul des unités technologiques. L'étude introduit de nouvelles notions comme le graphe de flux d'information au cours des calculs et l'arbre de complexité des calculs. On présente des algorithmes de leur transformation qui optimisent les calculs.
24

Le, Moigne Rocco. "Modélisation et simulation basée sur systemC des systèmes monopuces au niveau transactionnel pour l'évaluation de performances." Nantes, 2005. http://www.theses.fr/2005NANT2040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution rapide des technologies microélectroniques a entraîné l'apparition d'une nouvelle génération de composants sur le marché : les systèmes monopuces. La conception de ces nouveaux composants est complexe. De plus, il faut en permanence augmenter la productivité en conception des systèmes en vue d'accélérer la conception et la mise sur le marché d'un produit. Ces contraintes conduisent les concepteurs à étudier très tôt les performances des systèmes par modélisation et simulation. Ainsi, l'objectif global de cette thèse est de proposer aux concepteurs de systèmes un ensemble de modèles de haut niveau associé à un outil informatique leur permettant de réaliser la co-simulation de systèmes matériels/logiciels très tôt dans le cycle de conception. L'ensemble des modèles développés ont été intégrés dans la bibliothèque de simulation SystemC de CoFluent Studio™, produit commercial de la société CoFluent Design. Ce travail a été réalisé dans le cadre du projet MEDEA+ A502 MESA
The fast evolution of microelectronic technologies and their ever-improving integration capacities made possible the appearance of a new generation of components on the market: the “System-on-Chip”. The complexity involved when designing these new components and the permanent need to increase the productivity of the system design process in order to reduce the time-to-market leads designers to raise the level of abstraction of their simulation models. Thus, our goal is to provide a set of high-level models and software tools enabling designers to conduct very early in the design process the HW/SW co-simulation of systems. All models developed in this thesis are integrated to the SystemC simulation library of CoFluent Design's CoFluent Studio™ software environment. This work was done in the context of the MEDEA+ A502 MESA project
25

Shahzad, Muhammad Atif. "Une approche hybride de simulation-optimisation basée sur la fouille de données pour les problèmes d'ordonnancement." Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=53c8638a-977a-4b85-8c12-6dc88d92f372.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème d'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l’ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d’obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en oeuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs
A data mining based approach to discover previously unknown priority dispatching rules for job shop scheduling problem is presented. This approach is based upon seeking the knowledge that is assumed to be embedded in the efficient solutions provided by the optimization module built using tabu search. The objective is to discover the scheduling concepts using data mining and hence to obtain a set of rules capable of approximating the efficient solutions for a job shop scheduling problem (JSSP). A data mining based scheduling framework is presented and implemented for a job shop problem with maximum lateness and mean tardiness as the scheduling objectives. The results obtained are very promising
26

Berranen, Mohamed Yacine. "Simulation 3D éléments-finis du muscle squelettique en temps-réel basée sur une approche multi-modèles." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS043/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les résultats des chirurgies orthopédiques correctrices sont difficilement prévisibles et, malheureusement, parfois infructueux. D’autres maladies résultantes d’un handicap majeur tel que l’escarre sont encore très peu comprises. Malgré une prévalence dans la population conséquente, peu d’études ont été menées sur ces thèmes. L’étude volumétrique du muscle en tant que tissu mou actif manque d’informations détaillées. Particulièrement les déformations et raideurs subséquentes aux contractions de muscles à arrangement de fascicules complexes. La modélisation volumétrique des muscles, fournirait un outil puissant pour la simulation personnalisée des contraintes subies par le corps, durant des contactes prolongés ou récurrents avec des dispositifs médicaux standards et inadaptés à la morphologie, mais aussi la planification d’opérations chirurgicales ou de séquences de stimulation électrique fonctionnelle. Il n’existe actuellement aucun logiciel permettant la reconstruction automatique de l’architecture des fascicules, aponévroses et tendons à partir d’acquisitions IRM d’un patient spécifique. La méthode actuelle de modélisation volumétrique du muscle est coûteuse en temps de calcul, donc inefficaces pour des simulations temps-réel du comportement du système musculo-squelettique avec représentation des fonctions physiologiques. Cette thèse est dirigée par les contributions nombreuses qui restent encore à apporter dans le domaine. Les méthodes de modélisation actuelles basées sur la méthode des éléments finis classique sont complexes, manquent de flexibilité ou de précision en temps-réel. Nous proposons une approche multi-modèles basée sur le mapping barycentrique qui découple la fonction de densité d’énergie de déformations du muscle en un ensemble de modèles indépendants de moindre complexité, avec les objectifs suivants : - Améliorer la reconstruction de l’architecture musculaire à partir des acquisitions IRM en terme de complexité et flexibilité. - Séparer la modélisation du muscle en modèles simple et indépendants, de manière à offrir plus de flexibilité, en réduisant la complexité, qui permettront de découpler les résolutions des éléments déformables des éléments actifs du muscle. - En diminuant le nombre d’éléments finis garantissant la cohérence des résultats, nous diminuons le temps de calcul nécessaire à chaque pas de simulation .Nos méthodes s’inspirent des travaux précédents sur la représentation tri-dimensionnelle de la géométrie et l’architecture complexes des muscles de [Blemker and Delp, 2005]. De plus, la définition mathématique est étudiée [Chi et al., 2010] pour caractériser la densité d’énergie de déformations du muscle squelettique. En rapport avec les méthodes précédentes, nous revendiquons les avancées suivantes : - Amélioration de la représentation 3D des muscles de patients spécifiques avec architecture et géométrie complexes, à partir de mesures IRM. La méthode est plus flexible et rapide que les précédentes. - Une nouvelle méthode de modélisation des déformations musculaires via la modélisation découplée des différents tissus musculaires. Cette nouvelle approche permet une définition indépendante des fascicules musculaires, tissus conjonctifs, tendons et aponévroses en gardant une grande précision de déformations. Les performances sont confrontées au rendement de la méthode FEM classique. - Nous atteignons des vitesses de simulation élevées de muscles complexes sur des machines standards par rapport à la FEM. Les performances nous ont permis de simuler en temps-réel la force et les déformations d’un muscle d’individus spécifiques, avec une entrée d’activation actualisée en temps-réel à partir de mesures EMG. - La modélisation d’un muscle nécessite plus de compétence qu’une équipe de recherche peut envisager maitriser. L’approche multi-modèles permet un travail collaboratif, où chaque spécialiste se focalise uniquement sur son domaine de compétence. La modélisation en est extrêmement simplifiée
Corrective orthopedic surgeries results are difficult to be predicted and, unfortunately, sometimes unsuccessful. Other diseases resulting from a motor disability as bedsores are still poorly understood, despite a significant prevalence in the population. However, studies on these topics still insufficient especially for the analysis considering the muscle as a soft tissue volumetric organ. Muscle fascicule architectures and their correlation with movement efficiency is poorly documented, it lack of the detailed information regarding its volumetric deformations and stiffness changes along with muscle contractions.Muscle volumetric modeling, would provide a powerful tool for the personalized accurate simulation of body stresses of disabled or SCI patients during prolonged or friction contacts with standard medical devices non-adapted to particular morphologies, but also the planning of surgeries or functional electrical stimulation sequences.There is currently no software for automatic reconstruction of the architecture of fascicles, aponeurosis and tendons from MRI acquisitions of a specific subject. Actual volumetric muscle modeling is expensive in computational time, and not effective for real-time simulations of musculoskeletal system behavior with representation of physiological functions. The objective of this thesis is directed by the many contributions that have yet to make in the area. The current modeling methods based on the conventional finite element method are complex, inflexible or inaccurate in real-time. We propose a multi-model based on barycentric mapping approach that decouples the muscle strain density energy function into a set of independent less complex models, with the following objectives:- Improve complex muscle architecture reconstruction from the MRI acquisitions in term of complexity and flexibility.- Split muscle modeling into simple independent models, to offer more flexibility and reducing complexity of modeling which allows to have independent resolutions between deformable elements and muscle fiber elements..- By reducing the number of finite elements ensuring consistency of results of force and deformations, we reduce the computation time required for each simulation.Our methods are inspired by the previous work on the three-dimensional representation of the geometry and the complex architecture of muscles [Blemker and Delp, 2005]. In addition, the mathematical definition is studied [Chi et al., 2010] to characterize the energy density of deformations of skeletal muscle.Related with the above methods, we demand the following advances:- Improved three-dimensional representation of specific patients with muscle architecture and complex geometry from MRI measurement for personalized modeling. The method is more flexible and faster than previous.- A novel modeling method for muscle deformation via decoupled modeling of solid and muscle fiber mechanics is established. This new modeling allowed independent definitions between deformable elements and fiber force generation elements while keeping its muscle deformation accuracy. The performance is compared to conventional FEM method. - We reach high computational speed on standard machines for muscle complex simulations compared to FEM. Real-time simulation of specific person’s muscle strain and force is performed with an activation input updated in real-time from surface EMG measures.- Muscle modeling requires interdisciplinary knowledge from different research team members. The multi-model approach allows collaborative work, where each specialist focuses only on its area of expertise thanks to the modular designed modeling
27

Lallier-Daniels, Dominic. "Méthodologie de conception numérique d'un ventilateur hélico-centrifuge basée sur l'emploi du calcul méridien." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6186.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception de ventilateurs est souvent basée sur une méthodologie " essais/erreurs " d'amélioration de géométries existantes ainsi que sur l'expérience de design et les résultats expérimentaux cumulés par les entreprises. Cependant, cette méthodologie peut se révéler coûteuse en cas d'échec; même en cas de succès, des améliorations significatives en performance sont souvent difficiles, voire impossibles à obtenir. Le projet présent propose le développement et la validation d'une méthodologie de conception basée sur l'emploi du calcul méridien pour la conception préliminaire de turbomachines hélico-centrifuges (ou flux-mixte) et l'utilisation du calcul numérique d'écoulement fluide (CFD) pour la conception détaillée. La méthode de calcul méridien à la base du processus de conception proposé est d'abord présentée. Dans un premier temps, le cadre théorique est développé. Le calcul méridien demeurant fondamentalement un processus itératif, le processus de calcul est également présenté, incluant les méthodes numériques de calcul employées pour la résolution des équations fondamentales. Une validation du code méridien écrit dans le cadre du projet de maitrise face à un algorithme de calcul méridien développé par l'auteur de la méthode ainsi qu'à des résultats de simulation numérique sur un code commercial est également réalisée. La méthodologie de conception de turbomachines développée dans le cadre de l'étude est ensuite présentée sous la forme d'une étude de cas pour un ventilateur hélico-centrifuge basé sur des spécifications fournies par le partenaire industriel Venmar. La méthodologie se divise en trois étapes: le calcul méridien est employé pour le pré-dimensionnement, suivi de simulations 2D de grilles d'aubes pour la conception détaillée des pales et finalement d'une analyse numérique 3D pour la validation et l'optimisation fine de la géométrie. Les résultats de calcul méridien sont en outre comparés aux résultats de simulation pour la géométrie 3D afin de valider l'emploi du calcul méridien comme outil de pré-dimensionnement.
28

Gaaloul, Sana. "Interopérabilité basée sur les standards Modelica et composant logiciel pour la simulation énergétique des systèmes de bâtiment." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00782540.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour mieux maîtriser ses flux énergétiques et respecter les diverses restrictions mises en place dans ce secteur énergivore, le bâtiment devient un système de plus en plus complexe incluant divers technologies innovantes comme les systèmes de gestion énergétiques (SGEB), une isolation performante et intégrant les énergies renouvelables. Cette complexité exige un changement dans les techniques et paradigmes actuels de simulation du bâtiment pour la prise en compte de ses diverses évolutions. Une modélisation globale des différents composants de ce système et une simulation efficace de ses sous-systèmes hétérogènes doivent être dorénavant assurées. Ces objectifs ne pourront être atteints qu'à travers l'exploitation des approches méthodologiques d'interopérabilité. Plusieurs solutions d'interopérabilités ont été exploitées dans le secteur du bâtiment. L'état de l'art dans ce secteur, met l'accent sur le manque de standardisation des solutions appliquées. Une approche boîte blanche se basant sur le langage Modelica a remarquablement émergée. Pour monter ses intérêts ainsi que ses limites, cette solution est adoptée pour la modélisation du système de bâtiment "PREDIS", à haute performance énergétique. Une approche boîte noire complémentaire, s'appuyant sur le standard de composant logiciel dédié à la simulation, est également mise en ouvre pour palier aux difficultés rencontrées en utilisant la première approche de modélisation système. Cette approche s'articule autour du concept de bus à composants permettant une interopérabilité effective entre outils de modélisation et environnements de simulation. En plus de l'architecture logicielle autour de la plateforme d'interopérabilité, une simulation efficace du système hétérogène requière des techniques de simulations adaptées. Ces dernières peuvent exiger des adaptations des modèles utilisés qui sont prévues par la norme de composant.
29

Christine, Heritier-Pingeon. "Une aide à la conception de systèmes de production basée sur la simulation et l'analyse de données." Phd thesis, INSA de Lyon, 1991. http://tel.archives-ouvertes.fr/tel-00840151.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les formes nouvelles de la concurrence imposent aux systèmes de production une flexibilité de plus en plus grande. Dans le cas de systèmes automatisés, les décisions prises lors de la conception vont fortement conditionner les possibilités du futur système ainsi que ses capacités d'adaptation aux changements, donc son degré de flexibilité. Le travail contenu dans ce mémoire s'attache précisément à l'étude de méthodes et d'outils d'aide à la décision pour la conception de systèmes de production. Le lecteur est d'abord introduit au domaine puis aux outils et méthodes utilisés. Le modèle d'atelier qui sert de support à la démarche est alors présenté : il est suivi d'une réflexion sur la construction des campagnes de simulations conduites à partir de ce modèle, réflexion concrétisée par la définition d'un module de génération automatique de plans de simulations associés au modèle d'atelier choisi. L'analyse des données utilisées comme méthode d'acquisition des connaissances sur le comportement des systèmes de production est ensuite envisagée : une méthode d'analyse est proposée et expérimentée. Ce travail a été développé avec le souci constant d'explorer les possibilités de l'analyse de données dans le domaine et d'évaluer ces possibilités sur la base de nombreuses expériences.
30

Heritier-Pingeon, Christine. "Une aide à la conception de systèmes de production basée sur la simulation et l'analyse de données." Lyon, INSA, 1991. http://tel.archives-ouvertes.fr/docs/00/84/01/51/PDF/1991_Heritier-Pingeon_Christine.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les formes nouvelles de la concurrence imposent aux systèmes de production une flexibilité de plus en plus grande. Dans le cas de systèmes automatisés, les décisions prises lors de la conception vont fortement conditionner les possibilités du futur système ainsi que ses capacités d'adaptation aux changements, donc son degré de flexibilité. Le travail contenu dans ce mémoire s'attache précisément à l'étude de méthodes et d'outils d'aide à la décision pour la conception de systèmes de production. Le lecteur est d'abord introduit au domaine puis aux outils et méthodes utilisés. Le modèle d'atelier qui sert de support à la démarche est alors présenté : il est suivi d'une réflexion sur la construction des campagnes de simulations conduites à partir de ce modèle, réflexion concrétisée par la définition d'un module de génération automatique de plans de simulations associés au modèle d'atelier choisi. L'analyse des données utilisées comme méthode d'acquisition des connaissances sur le comportement des systèmes de production est ensuite envisagée : une méthode d'analyse est proposée et expérimentée. Ce travail a été développé avec le souci constant d'explorer les possibilités de l'analyse de données dans le domaine et d'évaluer ces possibilités sur la base de nombreuses expériences
New forms of competition are leading manufacturing systems to more and more flexibility. In the case of highly automated systems, decisions taken in the design phase will have a great influence on the possibilities of the future system and also on its ease of adaptation to changes, and thus on its degree of flexibility. This work is a study of methods and tools for decision support in the design of manufacturing systems. The reader is first introduced to the scope and then to the tools and methods employed. The workshop 's model which is used as a support for the approach is then presented and the construction of a simulation plan considered These considerations are then put into a concrete form by defining an automated generation module for simulation plans which are associated to the chosen workshop model. Data analysis which is used as a knowledge acquisition method is considered a method of analysis is proposed and tested. This work was developed to explore data analysis possibilities in this field and to evaluate these possibilities on the base of numerous experiments
31

Marque, Isabelle. "Segmentation d'images médicales tridimensionnelles basée sur une modélisation continue du volume." Phd thesis, Grenoble 1, 1990. http://tel.archives-ouvertes.fr/tel-00338755.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Pageaud, Simon. "SmartGov : architecture générique pour la co-construction de politiques urbaines basée sur l'apprentissage par renforcement multi-agent." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1128.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons un outil SmartGov, mixant simulation multi-agents et apprentissage multi-agents par renforcement profond, pour permettre la co-construction de politiques urbaines et inscrire les acteurs de la ville dans la boucle de conception. La Smart City permet à l’outil d’intégrer les données collectées par les capteurs présents dans la ville pour la modéliser de façon réaliste. Notre première contribution est une architecture générique pour construire une simulation multi-agents représentant la ville, et étudier l’émergence de comportement globaux avec des agents réalistes capables de réagir aux décisions politiques. Grâce à une modélisation multi-niveaux, et le couplage de différentes dynamiques, le système apprend les spécificités de l’environnement pour proposer des politiques pertinentes. Notre seconde contribution concerne l'autonomie et l'adaptation de la couche décisionnelle avec un apprentissage par renforcement multi-agents et multi-niveaux. Un ensemble d'agents, regroupés en clusters, est distribué dans le périmètre étudié pour apprendre des spécificités locales sans connaissance a priori de son environnement. L’attribution d’un score de confiance et de récompenses individuelles permettent d'atténuer l'impact de la non-stationnarité sur la réutilisation d'expériences nécessaire à l'apprentissage profond. Ces contributions conduisent à un système complet de co-construction de politiques urbaines dans le contexte de la Smart City. Nous comparons notre modèle avec d'autres approches de la littérature sur une politique de tarification du stationnement urbain, afin de mettre en évidence les apports et les limites de nos contributions
In this thesis, we propose the SmartGov model, coupling multi-agent simulation and multi-agent deep reinforcement learning, to help co-construct urban policies and integrate all stakeholders in the decision process. Smart Cities provide sensor data from the urban areas to increase realism of the simulation in SmartGov.Our first contribution is a generic architecture for multi-agent simulation of the city to study global behavior emergence with realistic agents reacting to political decisions. With a multi-level modeling and a coupling of different dynamics, our tool learns environment specificities and suggests relevant policies. Our second contribution improves autonomy and adaptation of the decision function with multi-agent, multi-level reinforcement learning. A set of clustered agents is distributed over the studied area to learn local specificities without any prior knowledge on the environment. Trust score assignment and individual rewards help reduce non-stationary impact on experience replay in deep reinforcement learning.These contributions bring forth a complete system to co-construct urban policies in the Smart City. We compare our model with different approaches from the literature on a parking fee policy to display the benefits and limits of our contributions
33

Bouffaron, Fabien. "Co-spécification système exécutable basée sur des modèles : application à la conduite interactive d’un procédé industriel critique." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la mesure où un système est un ensemble d'éléments en interaction, la difficulté pour un ingénieur système est de guider l’architecture d'un modèle « total » du système en tant qu'ensemble de modèles « locaux » d’ingénieries interdisciplinaires en interaction. Les travaux présentés dans ce mémoire s’intéressent plus précisément à la nature heuristique, spécifiante et exécutable de cette relation « totale » de couplage afin de construire un modèle virtuel du système à faire. La perspective holonique retenue permet de considérer cette relation de couplage de façon descriptive du TOUT et prescriptive de chacune des PARTIES aussi bien en regard de la situation-système à percevoir que des constitutifs-système à architecturer. Ainsi, nous avons revisité cette relation en tant que processus itératif, récursif et collaboratif de co-spécification-système visant à supporter la requête de connaissances auprès de chacune des ingénieries spécialistes délivrant en retour les modèles constitutifs satisfaisant des exigences systèmes. Notre environnement de co-modélisation-système se compose alors d’un ensemble d’environnements élémentaires de modélisation de constituants-système, avec pour objectif de préserver les outils, méthodes et processus de travail de chacune des parties prenantes. La modélisation au niveau système s’appuie sur le langage de modélisation « SysML » pour architecturer l’ensemble des connaissances. La vérification et la validation système s’effectue par co-exécution de modèles autour d’un bus de co-simulation, y compris in-situ avec la plate-forme d’expérimentation CISPI du projet SAFETECH du CRAN constituant notre cas d’application
Insofar as a system is a set of interacting elements, the difficulty for a system engineer is to guide the whole model architecture of a system as a set of interdisciplinary engineering part models interacting. The works presented in this thesis are specifically interested in the heuristic, specifying and executable nature of this whole relationship coupling to design a virtual model of the system-of-interest. The holonic perspectives allows us to consider this coupling relationship as descriptive of a WHOLE (H) and prescriptive of each parts as well in regards to system situation to perceive, as system-elements to architect. In this sense, we revisit this relation as an iterative, recursive and collaborative process of system co-specification to the quest of knowledge with each specialist engineering delivering constitutive models satisfying basic requirements. Our system co-modelling environment is itself composed of a set of system-components modelling environment, with the stated objective to preserve tools, methods and works of each stakeholders in order to facilitate the expression of their skills. The modelling at a system level is based on the system modelling language (SysML) to architecture the set of knowledge. Verification and validation are performed by co-execution of models around a co-simulation bus, including CISPI platform of SAFETECH project of CRAN constituting our case study
34

Zambrano, Rey Gabriel. "Réduction du Comportement Myope dans le contrôle des FMS : Une Approche Semi-Hétérarchique basée sur la Simulation-Optimisation." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2014. http://tel.archives-ouvertes.fr/tel-01064272.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contrôle hétérarchique des systèmes de production flexibles (FMS) préconise un contrôle peu complexe et hautement réactif supporté par des entités décisionnelles locales (DEs). En dépit d'avancées prometteuses, ces architectures présentent un comportement myope car les DEs ont une visibilité informationnelle limitée sue les autres DEs, ce qui rend difficile la garantie d'une performance globale minimum. Cette thèse se concentre sur les approches permettant de réduire cette myopie. D'abord, une définition et une typologie de cette myopie dans les FMS sont proposées. Ensuite, nous proposons de traiter explicitement le comportement myope avec une architecture semihétérarchique. Dans celle-ci, une entité décisionnelle globale (GDE) traite différents types de décisions myopes à l'aide des différentes techniques d'optimisation basée sur la simulation (SbO). De plus, les SbO peuvent adopter plusieurs rôles, permettant de réduire le comportement myope de plusieurs façons. Il est également possible d'avoir plusieurs niveaux d'autonomie en appliquant différents modes d'interaction. Ainsi, notre approche accepte des configurations dans lesquelles certains comportements myopes sont réduits et d'autres sont acceptés. Notre approche a été instanciée pour contrôler la cellule flexible AIP- PRIMECA de l'Université de Valenciennes. Les résultats des simulations ont montré que l'architecture proposée peut réduire les comportements myopes en établissant un équilibre entre la réactivité et la performance globale. Des expérimentations réelles ont été réalisées sur la cellule AIP-PRIMECA pour des scenarios dynamiques et des résultats prometteurs ont été obtenus.
35

Leroux-Beaudout, Renan. "Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30089.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit présente une méthodologie pour la conception de systèmes de simulation de modèles en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles. Le but est de permettre à l'architecte système d'explorer des solutions alternatives et de vérifier et/ou valider l'architecture du système en cours de conception, en regard des exigences et besoins des parties prenantes. Cette méthodologie se décline suivant deux axes complémentaires : la partie méthode et les moyens d'exécution, sans lesquels il ne peut y avoir de simulation. Cette nouvelle méthode se fonde sur le principe suivant : partir des exigences utilisateur pour créer les modèles d'architecture système, puis en dériver l'architecture de simulation, développer les modèles exécutables et exécuter la simulation en relation avec les objectifs de vérification et/ou validation. En agissant ainsi, les écarts d'interprétations potentiels entre le modèle d'architecture système et les modèles de simulation sont supprimés ou à tout le moins réduits, par rapport à une approche traditionnelle. Cette nouvelle méthode est de type matriciel. Les colonnes représentent les acteurs, tandis que les lignes correspondent aux différentes étapes de la méthode MBSE employée par l'architecte système pour le produit, y compris les étapes de raffinements. Les acteurs sont l'architecte système pour le produit (SyA), un premier nouvel acteur introduit par cette méthode : l'architecte système pour la simulation (SiA), les développeurs des modèles exécutables de simulation (SMD). Un second nouvel acteur est en charge de l'exécution de la simulation (SEM) au sein de chacune des entreprises, en charge de l'analyse et de la production des résultats exploitables par l'architecte système pour le produit. Avec cette méthode matricielle, le SyA peut demander des simulations, soit en profondeur pour préciser un point particulier de son modèle, soit en extension pour vérifier la bonne concordance des fonctions entre elles, tout en réutilisant des fonctions déjà définies durant les étapes amont ou aval de ses décompositions précédentes. Au global, gains de temps, de coûts, et de confiance. Le deuxième axe de cette méthodologie concerne la réalisation d'une plateforme de cosimulation en entreprise étendue (EE), qui est un projet en soi. Le MBSE a permis de définir une architecture fonctionnelle et physique de cette plateforme de cosimulation qui peut être amendée en fonction des besoins exprimés par l'architecte de la simulation. La proposition introduit un troisième nouvel acteur : le Infrastructure Project Manager (IPM) qui est en charge de la coordination pour la réalisation de la plateforme de cosimulation, au sein de son entreprise. Pour une EE de type donneur d'ordres à soustraitants, introduction de deux nouveaux acteurs : le superviseur d'IPM et le responsable de l'exécution des simulations (SEM), dont leurs rôles respectifs sont de faire le lien avec leurs pendants chez les partenaires
This manuscript presents a methodology for the design of "early" simulations in extended enterprise, based on model-driven system engineering. The goal is to allow the system architect to explore alternative solutions, and to verify and/or validate the system architecture being designed, in relation to the user requirements. This methodology is divided into two complementary axes : the method part (new) and the means of execution, without which there can be no simulation. This new method is based on the following principle : starting from the user requirements to create the system architecture model, then derive the simulation architecture, develop the executable models and run the simulation in relation to objectives of verification and/or validation. By doing this, potential differences in interpretations between the system architecture model and simulation models are removed or at least reduced compared to a traditional approach. This method is of matrix type. The columns represent the actors, while the lines correspond to the different steps of the MBSE method used by the system architect for the product, including the refinement steps. The actors are the system architect for the product (SyA), a first new actor introduced by this method : the system architect for the simulation (SiA), the developers of the simulation executable models (SMD), and the second new actor in charge of the execution of the simulation (SEM). The analysis of its qualities and the production of results exploitable by the system architect for the product. As the method relies on a matrix structure, the SyA can request simulations, either in depth to specify a particular point of its model, or more in extension to check the good agreement of the functions between them. With this new matrix approach, the system architect for the product can reuse functions already defined during the upstream or downstream stages of its previous decompositions. Overall, saving time, costs, and confidence. The second axis of this methodology is the realization of an extended enterprise cosimulation (EE) platform, which is a project in itself. Based on a proposal of requirements specifications, the MBSE has defined a functional and physical architecture. The architecture of this platform can be modified according to the simulation needs expressed by the architect of the simulation. This is one of his prerogatives. The proposal introduces a third new player : the Infrastructure Project Manager (IPM) which is in charge of coordinating for the realization of the cosimulation platform, within his company. For an EE of federated type, that is to say from contractor to subcontractor, introduction of two new actors : - the supervisor of IPM, whose rôle is to link IPMs to solve the administrative and interconnection problems, - the person responsible in charge of the execution simulations. He coordinates, with the SEM of each partner, the implementation of simulations, ensures launches, and returns the results to all partners
36

Six, Lancelot. "Vers un modèle de comportements de véhicules lourds en utilisant une méthode incrémentale basée sur la vérification et l'hystérésis : le modèle ArchiPL." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066497/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les phénomènes de congestion sont dangereux, et couteux économiquement. La compréhension de ces phénomènes est un sujet majeur ayant occupé la communauté scientifique depuis la moitié du vingtième siècle. L'approche microscopique, cherchant à reproduire les phénomènes macroscopiques grâce à la modélisation des comportements individuels, a proposé un grand nombre de modèles. Cependant, alors que la littérature a mis en avant l'impact négatif des véhicules lourds, peu se sont intéressés à savoir si les véhicules lourds ont un comportement similaire à celui des véhicules légers. Les principaux modèles considèrent que les comportements sont indifférenciés, à quelques paramètres près. Dans ces travaux, nous proposons de remettre en cause cette hypothèse. Nous proposons une démarche incrémentale, VIM4MAS, au cours de laquelle nous cherchons à identifier les principales différences entre les propriétés du comportement d'un véhicule lourd avec celle d'un véhicule léger. Cette démarche nous permet de construire un modèle de véhicules lourds en se fondant sur un modèle pré-existant de véhicules légers et en n'apportant que les modifications nécessaires. Dans le cadre de cette démarche, nous proposons également une méthode d'analyse des comportements longitudinaux fondée sur l'étude des boucles d'hystérésis. Cette méthode permet d'étudier les capacités d'anticipation des conducteurs, selon une approche boite noire. Le modèle de véhicules lourds produit, ArchiPL, montre d'une part des comportements de meilleure qualité du point de vue individuel, et d'autre part une cohérence avec la littérature existante
Congestion phenomena are a major issue modern societies have to face. Understanding them, their creation, their evolution and their real impact are major questions addressed by the scientific community since the half of the twentieth century. A large number of simulation models have been developed to reproduce and study the traffic dynamics. Among them, microscopic model are designed to reproduce macroscopic phenomena such as congestion by reproducing individual vehicles' behavior. However, despite the negative influence of large vehicles on the flow, very few models took them into account. Those vehicles are usually dealt with as any other vehicle, except for a few parameters. In this thesis, we reconsider this hypothesis and try to identify how the behavior of large vehicles differs from other vehicles' behavior. We propose the VIM4MAS development methodology to help in this process. This method is used to improve a generic vehicle's behavior model and refine it until it can reproduce the most important aspects of the large vehicles' behaviors. To understand and identify key properties of longitudinal behaviors of vehicles, we have developed an analysis methodology based on the study of hysteresis phenomena. This analysis methodology allows to highlight key properties such as anticipation capabilities of drivers. The outcome of this work is the ArchiPL model for large vehicles' behaviors. This models shows an improvement of the behaviour quality at the microscopic level, while being consistent with the literature with respect to emergent phenomena
37

Hamawy, Lara. "Développement d'une méthode de reconstruction d'image basée sur la détection de la fluorescence X pour l'analyse d'échantillon." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI080/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une nouvelle technique qui localise et identifie les éléments fluorescents dans un échantillon a été développé. Cette modalité d'imagerie pratique utilise une source de rayons X poly-chromatique pour irradier l'échantillon et favoriser l'émission de fluorescence. De nombreux facteurs qui affectent l'ensemble du système comme l'atténuation, l'auto-absorption de l'échantillon, la probabilité de fluorescence et la diffusion Compton ont été pris en compte. Ensuite, un système de détection efficace a été établi pour acquérir les données de fluorescence optimales et discriminer entre les éléments en fonction de leur fluorescence caractéristiques. Ce dispositif, couplé avec une technique de reconstruction d'image approprié conduit à une image détaillée à deux dimensions. Par rapport aux techniques classiques de reconstruction d'image, la méthode de reconstruction développée est une technique statistique qui a une convergence appropriée vers une image avec une résolution acceptable. En outre, c'est une technique simplifiée qui permet l'imagerie de nombreuses applications différentes
A new technique that localizes and identifies fluorescing elements in a sample wasdeveloped. This practical imaging modality employs a polychromatic X-ray source toirradiate the sample and prompts the fluorescence emission. Many factors affecting thewhole system like attenuation, sample self-absorption, probability of fluorescence andCompton scattering were taken into account. Then, an effective detection system wasestablished to acquire the optimum fluorescence data and discriminate betweenelements depending on their characteristic fluorescence. This set-up, coupled with anappropriate image reconstruction technique leads to a detailed two-dimensional image.Compared to the conventional image reconstruction techniques, the developedreconstruction method is a statistical technique and has an appropriate convergencetoward an image with acceptable resolution. Moreover, it is a simplified technique thatallows the imaging of many different applications
38

Haddad, Ramzi. "Coordination des conflits aériens en présence d’incertitudes : Une étude basée sur l'ordonnancement à contraintes de ressources." Compiègne, 2006. http://www.theses.fr/2006COMP1634.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le volume du trafic aérien a augmenté de 80% en dix ans, une croissance qui est appelée à se poursuivre. Les systèmes actuels de gestion du trafic aérien (Air Traffic Control systems), avec les améliorations en cours, devraient permettre de faire face à cette augmentation jusqu'au milieu de la prochaine décennie. En réponse a cette nécessité, ce travail de thèse, qui se situe à la jonction de deux domaines : l'ordonnancement de projet à contraintes de ressources et la coordination du trafic aérien. Nous avons mis en place un système dynamique permettant de résoudre les problèmes de gestion du trafic sous incertitudes en intégrant diverses techniques adaptées aux aléas existant dans ce contexte. Notre domaine d'application privilégié était la coordination (En-Route) du trafic aérien. Ce type de projet présente des caractéristiques relevant aussi bien de l'ordonnancement que de la planification sous incertitudes
The volume of the air traffic increased 80% in ten years, a growth that is called to continue. The improvements of the present systems of air-traffic management should permit to face this increase until the middle of the next decade. Ln response to this necessity, this thesis work is located between the junctions of two domains: project resources constraints scheduling and the air-traffic coordination. We constructed a dynamic system that permits to resolve air traffic management problems under uncertainties while integrating various techniques adapted to the hazards existing in the context. Our privileged application domain was the coordination (En-Route) of the aerial traffic. This type of project presents features raising form scheduling and organization under uncertainties domains
39

Tekobon, Jerry. "Système multi physique de simulation pour l'étude de la production de l'énergie basée sur le couplage éolien offshore-hydrolien." Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0031/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de thèse concernent le développement d’une plateforme d’émulation temps réel destinée aux études théoriques et expérimentales des systèmes hybrides éolien- hydrolien. Diverses architectures de couplages énergétiques sont traitées sur la base des similitudes fonctionnelles des deux systèmes et par des concepts d’émulation à la fois numériques et expérimentaux. La notion de simulation en temps « accéléré » a été développée. Le concept a été validé sur la plateforme expérimentale en utilisant l’évolution de la puissance moyenne délivrée par une turbine éolienne de petite puissance. Cette approche pourra permettre de réduire les temps d’observation des campagnes de mesure, d’accélérer les études sur le potentiel éolien des sites en développement. Nous avons développé également deux types de couplage du système hybride éolien-hydolien. Un couplage électrique basé sur la connexion en parallèle sur un bus continu des deux turbines. Nous avons développé un concept innovant d’un couplage électromécanique basé sur l’utilisation d’une seule génératrice asynchrone sur laquelle sont simultanément couplés les arbres de la turbine éolienne et de la turbine hydrolienne. Pour cela, un servomoteur à commande vectorielle nous a servi à émuler la turbine éolienne pendant qu’un moteur synchrone nous a servi d'émulateur de turbine hydrolienne. L’arbre de la génératrice sert de couplage mécanique entre les deux systèmes. Nous avons mis en évidence dans les expérimentations effectuées, la complémentarité des productions électriques des deux systèmes, et également le besoin de leur adjoindre un système de stockage pour palier à une baisse simultanée de deux productions d’énergie
The thesis work concerns the development of a real-time emulation platform for theoretical and experimental studies of offshore wind and tidal power hybrid systems. Various energy coupling architectures are processed on the basis of the functional similarities of two systems and by both numerical and experimental emulation concepts. The notion of accelerated time used for real time simulation has been developed. The concept was validated on the experimental platform using the evolution of the mean power delivered by a small wind turbine. This approach can reduce the observation times of the measurement campaigns and could accelerate the studies for the wind potential of developing sites. We have also developed two types of coupling of the wind-tidal hybrid system. An electrical coupling based on the connection in parallel on a continuous bus of two turbines. We have developed an innovative concept of an electromechanical coupling based on the use of a single asynchronous generator on which the wind turbine and tidal turbine are simultaneously coupled. For this purpose, a vector-controlled servomotor was used to emulate the wind turbine while a synchronous motor was used as a tidal turbine emulator. The generator shaft is used as a mechanical coupling between the two systems. We have demonstrated in the experiments that we have developed the complementarity of the electrical productions of the two systems; we highlighted the need to add a storage system to compensate the simultaneous decrease of the two energy productions. The real time simulations results allow us to validate the feasibility of such a coupling
40

Saffar, Imen. "Vers une agentification de comportements observés : une approche originale basée sur l’apprentissage automatique pour la simulation d’un environnement réel." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10190/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d'outils de simulation capables de reproduire la dynamique et l'évolution de phénomènes complexes réels est une tâche difficile. La modélisation de ces phénomènes par des approches analytiques est souvent impossible, obligeant le concepteur à s'orienter vers des approches comportementales. Dans ce contexte, les simulations multi-agents représentent aujourd'hui une alternative crédible aux simulations classiques. Elles restent cependant délicates à mettre en œuvre. En effet, le concepteur de la simulation doit être capable de transcrire en comportement d'agents la dynamique du phénomène qu'il observe. Cette étape requiert généralement les compétences d'un spécialiste possédant une certaine expertise du phénomène à simuler. Dans cette thèse, nous proposons une manière originale de traiter l'observation de comportements réels à simuler, sans avoir recours à l'aide d'un expert.Il s'agit de s'appuyer sur des techniques d'apprentissage non supervisé pour identifier et extraire des comportements et ainsi faciliter l'agentification de la simulation. Notre approche constitue, de ce fait, un pas vers la conception automatique de simulations multi-agents reproduisant des phénomènes observables. Cette approche est motivée par un cadre applicatif visant la simulation de comportements de clients à l'intérieur d'un espace de vente
The design of simulation tools, which are able to reproduce the dynamics and evolution of complex real phenomena, is hard. Modeling these phenomena by analytical approaches is often unsuitable, forcing the designer to turn towards behavioral approaches. In this context, multi-agent simulations are now a credible alternative to the classical simulations. However, they remain difficult to implement. In fact, the designer of the simulation must be able to transcribe the dynamic of the phenomenon being observed in agents behavior. This step usually requires the skills of a specialist with some expertise in the phenomenon to be simulated. In this thesis, we propose a novel way to treat observing real behaviors to simulate, without resorting to the help of an expert.It is relying on unsupervised learning techniques to identify and extract behavior and facilitate the agentification. Our approach is, therefore, a step towards the automatic design of multi-agent simulations reproducing observable phenomena. This approach is motivated by an application context aiming the simulation of customers’ behavior within a retail space
41

Izza, Saïd. "Intégration des systèmes d'information industriels : une approche flexible basée sur les services sémantiques." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00780240.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux proposent une approche flexible d'intégration des applications industrielles qui s'intitule ODSOI (Ontology-Driven Service-Oriented Integration). Elle se focalise principalement sur trois sous-problématiques complémentaires qui sont respectivement la problématique de construction d'une architecture de services, la problématique d'enrichissement sémantique des services, et la problématique de construction de l'architecture d'intégration permettant d'offrir des mécanismes d'intégration basés sur la sémantique. Notre approche repose sur trois principes majeurs qui sont l'ouverture, l'unification et l'urbanisation. Le principe d'ouverture impose de s'inscrire dans le cadre d'utilisation de standards industriels. Le principe d'unification permet d'uniformiser les composants du système d'information. Et en dernier lieu, le principe d'urbanisation permet de mieux structurer l'architecture des services, l'architecture sémantique et aussi l'architecture d'intégration. Nous basant sur les trois architectures de notre approche, nous proposons alors une implémentation d'un prototype ainsi que diverses expérimentations que nous avons réalisées sur le terrain.
42

Bénard, Vincent. "Evaluation de la sûreté de fonctionnement des systèmes complexes, basée sur un mode fontionnel dynamique : la méthode SAFE-SADT." Valenciennes, 2004. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/3fb536a1-1028-4880-b5f0-7ff718ea5b94.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'attache à tenir compte dès la phase de conception des aspects de la sûreté de fonctionnement. Une partie qualitative vise à modéliser les sous-ensembles fonctionnels en intégrant des contraintes de sûreté de fonctionnement, performance, coût, etc. Le problème de conception d'un système complexe automatisé en considérant les critères sûreté de fonctionnement peut se résumer par la question suivante : comment se traduit l'agrégation de ces différentes fonctions en termes de paramètres FMDS du système global ? Les travaux menés partent du constat de l'absence de langages et d'outils pour la modélisation d'architectures abstraites obtenues par composition d'entités logicielles et matérielles. La méthode fonctionnelle dynamique SAFE-SADT proposée est un premier élément de réponse. Elle permet la modélisation, caractérisation, identification et représentation des dépendances au sein de l'architecture opérationnelle et la quantification des paramètres de sûreté à des fins de validation de l'architecture opérationnelle en prenant en compte les aspects dynamiques grâce à la simulation de Monte Carlo
This thesis deals with design of dependable automated complex systems. A qualitative approach aims at modelling the functional subsets with the integration of various constraints as early as the design phase. The problem inherent in design of automated complex systems can be summarized by the following question: how to express the aggregation of these different functions in terms RAMS parameters of the global system? These works result from the absence of languages and tools for the modelling of abstracted architectures obtained by composition of software and hardware entities. The proposed SAFE-SADT method is a first response element. It allows the modelling, the characterization, the identification and the representation of dependences within the operational architecture. It allows the quantification of the dependability parameters with intent to validate the operational architecture by taking into account the dynamic aspects by means of a Monte Carlo simulation
43

Darbani, Mohsen. "Approche sans maillage basée sur la Méthode des Eléments Naturels (NEM), pour les écoulements bidimensionnels à surface libre." Compiègne, 2009. http://www.theses.fr/2009COMP1851.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La résolution des équations à surface libre est souvent confrontée à des difficultés numériques liées à une trop forte distorsion du maillage, comme c’est le cas lors de rupture de barrage ou de déferlement de vagues. Dans ce travail on se propose d’appliquer une technique sans maillage basée sur la Méthode des Eléments Naturels pour simuler l’écoulement en 2D d’un fluide en présence de forts gradients. Les équations considérées sont celles de Saint-Venant transitoires où l’on tient compte des termes non-linéaires et de la force de Coriolis. Afin d’optimiser les temps de calcul et d’éviter des appels à des algorithmes de type Newton-Raphson, une technique purement Lagrangienne a été utilisée pour traiter les termes non-linéaires. Cependant la gestion des conditions aux limites demeure une difficulté majeure. Nous avons donc défini un domaine géométrique assez mince aux voisinages immédiats des frontières, et un domaine de calcul qui sera enrichi au fur et à mesure que des particules quittent le domaine de calcul
Solving equation with free surface often encounters numerical difficulties related to excessive mesh distortion as is the case of dambreak or breaking waves. In this work we explore the meshfree technique based on the Natural Element Method(NEM) to simulate the 2D fluid flow in presence of strong gradients. The equations considered here are those of Saint-Venant shallow water where we consider the full non-linear equations, with a transient flow under the Coriolis effect. The nonlinear terms are computed by using a Lagrangian technique based on the method of the characteristics. This will allow us to avoid setting up a numerical algorithm, like Newton-Raphson’s, which tend to extend the computing time. However, the management of boundary conditions remains a major difficulty in meshless methods. We have therefore defined a thin geometrical domain close to the boundaries and a domain for computing that will be submitted to nodal enrichment, when the particles leave the computational domain
44

Cid, Yáñez Fabian. "Évaluation des stratégies à flux tiré et flux poussé dans la production de bois d'œuvre : une approche basée sur des agents." Master's thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/21286.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de l’étude est d’évaluer des stratégies en flux tiré et flux poussé pour la planification de la production en utilisant comme cas d’étude une usine de sciage située au Québec. Un outil de planification de la production (APS, Advanced Planning and Scheduling System), basé sur une architecture logicielle distribuée, simule les divers processus de production et planification des opérations de la scierie (approvisionnement, sciage, séchage, rabotage, entreposage et distribution) en les représentant comme des agents logiciels spécifiques. Pour les expériences, des configurations de pilotage définies par deux facteurs contrôlables sont utilisées, à savoir : la position du point de découplage et les niveaux des contrats pour une famille de produits. Ensuite, des scénarios ont été définis par deux facteurs non contrôlables : la qualité de l’approvisionnement et le différentiel des prix pour les produits visés par les contrats. Ces configurations et ces scénarios génèrent un plan d’expériences de niveaux mixtes avec cinquante-quatre expériences. Pour chacun des 54 plans de production généré par l’APS trois indicateurs de performance sont calculés : le taux de service, le niveau de stock de produits en-cours et le profit potentiel de la production (Potential Monetary Throughput). Les résultats montrent une relation directe entre le niveau de pénétration du point de découplage, le flux tiré et le taux de service, pour chaque niveau de demande des produits tirés par les contrats. Ainsi, une planification qui incorpore le flux tiré génère en moyenne une augmentation de performance de 100% dans le niveau de service, par rapport à une planification en flux poussé pour tous les niveaux de contrats. Cette augmentation de la performance du niveau de service a un coût financier d’approximativement 7% du profit potentiel, lequel devrait être compensé par de meilleures conditions des contrats (un premium payé sur le prix marché) et des coûts de stockage plus bas. Ce « compromis » s’avère un résultat direct de la divergence dans la production de bois d’œuvre. Ainsi, dans un contexte d’affaires qui privilégie la qualité du service et où les clients sont prêts à payer pour ce service, l’utilisation de ces stratégies de planification de la production, où le point de découplage est situé en amont de la chaîne, est une opportunité possible d’avantage concurrentiel.
The objective of this study is the evaluation of pull and push strategies in lumber production planning using a Quebec sawmill as case study. An Advanced Planning and Scheduling System (APS), based on a distributed software architecture, simulates the main operations planning and production processes of the sawmill (sourcing, sawing, drying, finishing, warehousing and delivery) representing them as autonomous software agents. Push and pull strategies are simulated using different penetration positions of the demand information decoupling point over the value chain. To set experiments, configurations are defined by two controllable factors, namely: the decoupling point position and the level of contracts for a product family. Following, a set of scenarios are generated by two uncontrollable factors: the quality of supply and market prices differential for products under contracts. These configurations and scenarios leads to a mixed levels experimental design with fifty four runs. Three performance indicators: orders fill rate, work in process, and potential monetary throughput; are calculated for every one of the 54 production plans generated by the APS. Results show a direct relation between the orders fill rate and the position of the decoupling point, pull strategy, for the three levels of demand on products under contract. Accordingly, at every demand level, production plans under pull strategies generate improvements of 100% compared with equivalent plans under push strategy. This service level performance improvement has a financial cost of about 7% of the Potential Monetary Throughput which should be compensated externally with better contract conditions and internally by lower costs of inventory management. This trade-off seems to be a direct consequence of the divergent nature of lumber production. Consequently, in a business context that privileges service quality and where customers are willing to pay for it, the use of this kind of demand driven strategies in production planning represents a source of competitive advantage.
45

Quirion, Sébastien. "Animation basée sur la physique : extrapolation de mouvements humains plausibles et réalistes par optimisation incrémentale." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27675/27675.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Gangat, Yasine. "Architecture Agent pour la modélisation et simulation de systèmes complexes multidynamiques : une approche multi-comportementale basée sur le pattern "Agent MVC"." Phd thesis, Université de la Réunion, 2013. http://tel.archives-ouvertes.fr/tel-01022620.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La co-construction et la réutilisation de modèles font l'objet de plusieurs travaux dans le domaine de la simulation. Cependant, dans le domaine plus spécifique de la Simulation Orientée Agent (SOA), nous pouvons constater un manque sur ces deux points malgré un besoin fort de la part des thématiciens. La co-construction est essentielle pour optimiser la mise en commun du savoir de différents experts, mais nous faisons souvent face à des divergences de points de vue. Les méthodologies existantes pour la co-construction en SOA ne permettent qu'un faible niveau de collaboration entre thématiciens durant la phase initiale de modélisation, ainsi qu'entre les des thématiciens avec les modélisateurs ou les modélisateurs-informaticiens... Pour faciliter cette co-construction, nous proposons de suivre une méthodologie de conception favorisant cette collaboration. La réutilisation de modèle octroie un gain de temps significatif, une amélioration du modèle et l'apport de nouvelle connaissance. Les méthodologies en SOA dans ce domaine existent. Cependant, dans le spectre de réutilisation, elles sont souvent limitées au niveau du modèle complet ou de l'agent avec l'impossibilité de "descendre" plus bas. L'expérience de EDMMAS, un cas concret d'un modèle issu de trois réutilisations successives, nous a permis de constater une nouvelle complexité qui découle de la démultiplication des comportements des agents et crée un décalage conséquent entre le modèle opérationnel et le modèle conceptuel. Notre objectif est de promouvoir la réutilisation aussi bien des modèles, que des agents et de leurs comportements.Pour répondre à ces questionnements, nous proposons dans ce manuscrit une manière de codifier et d'intégrer la connaissance provenant de disciplines différentes dans le modèle, tout en utilisant des modules "composables" qui facilitent la réutilisation. Nous proposons (i) une nouvelle architecture Agent (aMVC), appliquée dans un cadre multidynamique (DOM), avec l'appui (ii) d'une approche méthodologique (MMC) basée sur la décomposition et réutilisation des comportements. Cet ensemble de propositions, (i) et (ii), permet de conduire un projet pluridisciplinaire de SOA avec un grand nombre d'acteurs, facilitant la co-construction des modèles grâce à l'instauration de nouvelles synergies entre les différents acteurs participant à la modélisation. Les concepteurs pourront travailler de manière autonome sur leur dynamique et la plateforme fera l'intégration de ces dernières en assurant la cohésion et la robustesse du système. Nos contributions offrent la capacité de créer les briques élémentaires du système de manière indépendante, de les associer et de les combiner pour former des agents, selon des dynamiques conformément à l'approche DOM. Elles permettent ainsi de comparer la logique selon différentes possibilités pour une même dynamique et d'ouvrir la perspective d'étudier un grand nombre d'alternatives de modélisation d'un même système complexe, et de les analyser ensuite à une échelle très fine.
47

Ramamonjisoa, David. "Architecture de copilotage et de contrôle d'exécution basée sur un système expert temps réel." Compiègne, 1993. http://www.theses.fr/1993COMP574S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement croissant du trafic routier, le besoin de confort et d'information des conducteurs et l'exigence générale d'une plus grande sécurité sont actuellement le grand souci des laboratoires de recherches et constructeurs automobiles des pays industrialisés. Le projet européen PROMETHEUS a pour objectif d'améliorer la sécurité de la circulation routière de 30% et l'efficacité de 20%. Dans le cadre de ce projet, une application de système d'aide au copilotage a été réalisée avec la mise au point d'un système de contrôle d'exécution des manoeuvres et de surveillance des environnements. Des outils à base de techniques d'intelligence artificielle et d'automatique ont été développés pour la réalisation d'un tel système. La démarche suivie est de spécifier une architecture de contrôle pour diminuer le temps de réponse du système et pour structurer les tâches de façon modulaire. Les modules de décision et de contrôle ont été développés à l'aide d'un système expert temps réel SUPER-TR. Une phase de simulation a permis de tester la rapidité et d'évaluer la base de connaissances du système. La mise à jour des stratégies et des modèles utilisés dans le copilotage est également effectuée au cours de cette phase.
48

Kaakai, Fateh. "Modélisation et évalution des pôles d'échanges multimodaux : une approche hybride multiéchelle basée sur les réseaux Pétri Lots." Besançon, 2007. http://www.theses.fr/2007BESA2038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les pôles d'échanges multimodaux (PEM) constituent aujourd'hui la vitrine des réseaux de transport. C'est un système de transport complexe dont le bon fonctionnement conditionne celui du réseau de transport dans son ensemble. Dans le but de prévenir, de réduire ou si possible d'éviter les dysfonctionnements, les incidents et les accidents qui affectent quotidiennement un grand nombre de sites en exploitation, et qui, par ricochet, détériorent l'image et l'attractivité des transports collectifs en général, il devient nécessaire de systématiser l'évaluation à priori et à posteriori des performances des PEM comme cela s'est fait avec succès dans d'autres domaines, tels que celui des systèmes industriels de production. Ainsi, l'objectif de ces travaux de recherche est d'élaborer un modèle de simulation pour la mesure d'un certain nombre d'indicateurs quantitatifs de performance dédiés aux PEM. Le modèle de simulation proposé est basé sur les réseaux de Petri Lots, une extension des réseaux de Pétri Hybrides particulièrement adaptée pour la modélisation des systèmes multiéchelles complexes. Ce paradigme de modélisation offre, en outre, des techniques d'analyse formelle pour la vérification et la commande du modèle élaboré. Le modèle de simulation proposé sera utile poour définir et programmer à court terme des opérations de maintenance dans le but de prévenir des dysfonctionnements latents ou probables. Concernant les projets de PEM en cours de réalisation, il permettra d'éclairer les choix préalables à la conception des différentes composantes de ces sites en assistant les concepteurs dans les procédures de dimensionnement et de planification
A Multimodal Hub is a complex transportation system which has the role to interconnect several public and private transportation modes in order to promote intermodality practice. Because of many observed problems (such as recurrent congestion phenomena inside stations, high transfer times, long queues in front of services, etc. ) which contribute to deteriorate the image of public transport in general, it becomes more and more important for transit authorities to be able to perform many performance measures for identifying the causes of these problems and trying to find solutions. The main goal of the PhD thesis is to propose a simulation model for evaluating the main performance factors of multimodal transportation hubs. Among the most important quantitative factors, we can mention occupancy rates, queue lengths, mean service times, evacuation times, and measures related to intermodality practice such as connection times and waiting times. The suggested simulation model is based on Batches Petri nets which are an extension of Hybrid Petri nets. This paradigm is suitable for our study because it offers a multiscale modular modeling approach which allows mastering the complexity of the studied system. Besides, it offers formal analysis techniques for checking and design (control) purposes. This simulation model can be successfully used for (i) evaluating existing multimodal hubs, (ii) validating design projects of new multimodal hubs, and (iii) assisting designers during sizing and planning procedures
49

Fiandino, Maxime. "Exploration d'architectures basée sur la génération automatique de plates-formes matérielles et le portage rapide du logiciel." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’approche proposée se déroule selon un flot itératif en trois étapes. L’une concerne la modification et le développement rapide du modèle exécutable de l’architecture. Une autre vise le portage rapide des logiciels. La troisième est l’exploration d’architecture logicielle et matérielle. Un outil a été développé pour créer et modifier rapidement un HMPSoC à partir de sous-systèmes de traitement paramétrables. Une méthode permet d’adapter le logiciel sur une architecture, elle inclut: paramétrer manuellement le logiciel applicatif, l’extraction automatique des caractéristiques de l’architecture, la génération des sources de bas niveau. Enfin une méthode permet d’effectuer des simulations multi-niveaux des processeurs. Les simulations de haut niveau servent pour exécuter rapidement les logiciels embarqués, les simulations précises en mode bas niveau (ISS) pour mesurer les performances. Suivant les résultats, l’architecture et les logiciels sont modifiés et le cycle peut reprendre
The proposed approach is an iterative flow in three steps. The first one is the fast development and modification of the architecture executable model. The second one is the adaptation of the embedded software. The third one is the hardware and software architecture exploration. A tool has been developed in order to create and modify quickly a hardware architecture model. It uses flexible sub-systems. One method in order to adapt the embedded software is exposed, it includes: to manually add some parameterization in the software, an automatic extraction of the architecture characteristics, the generation of the low level code sources. To finish a method allow to simulate processors at different level of simulation with their embedded software, high level for fast simulation, low level for performance measurements. Following results, hardware and software are modified and the flow can restart. This flow was tested on a real application, a parallelized H264 encoder
50

Haïat, Guillaume. "Étude d'une méthode d'inversion basée sur la simulation pour la caractérisation de fissures détectées par ultrasons dans un composant revêtu." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00007345.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail effectué au cours de cette thèse porte sur l'inversion de données ultrasonores. Le contexte industriel en est le contrôle non destructif des cuves de réacteurs à eau pressurisée. Ces contrôles visent à détecter et caractériser des fissures. Les données ultrasonores se présentent sous la forme d'échographies obtenues à l'aide d'un capteur fonctionnant en émission-réception. Les fissures sont détectées par diffraction de leurs arêtes. L'analyse des données obtenues est rendue difficile du fait de l'existence d'un revêtement dont la surface est irrégulière et dont le matériau diffère du matériau constitutif de la cuve. Une méthode est ici proposée pour localiser avec précision les arêtes diffractantes et donc permettre un dimensionnement des fissures à partir des échographies ultrasonores obtenues. Cette méthode s'appuie sur l'application d'outils de modélisation de la propagation et de la diffraction des ultrasons prenant en compte à la fois le caractère irrégulier de la surface et la nature hétérogène du composant. La méthode développée a fait l'objet d'une implémentation informatique et a pu être testée sur un ensemble de cas représentatifs. En particulier, ses performances ont été évaluées à partir de l'analyse de résultats expérimentaux. La précision obtenue en laboratoire sur les cas expérimentaux traités est conforme à la demande industrielle qui a motivé cette étude.

До бібліографії