Dissertations / Theses on the topic 'Simulation à base de processus'

To see the other types of publications on this topic, follow the link: Simulation à base de processus.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulation à base de processus.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Troncoso, Alan. "Conditional simulations of reservoir models using Sequential Monte-Carlo methods." Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLM055.

Full text
Abstract:
Une méthode séquentielle de Monte Carlo, appelée filtrage particulaire, a été utilisée dans un contexte spatial pour simulerdeux modèles de réservoir en respectant les faciès observés aux puits. Le premier modèle, le schéma Booléen, est un modèle àbase d'objets. Il peut servir à modéliser des réservoirs à deux faciès: un faciès poreux, et un faciès imperméable qui agitcomme barrière à la circulation des fluides. Ce modèle se prête bien à des calculs mathématiques~: il existe des méthodes statistiques pour en inférer les paramètres, ainsi qu'un algorithme itératif de simulation conditionnelle. Cependant, lavitesse de convergence de cet algorithme est difficile à établir. Un algorithme séquentiel basé sur un filtre particulaireest proposé en alternative. Au final, cet algorithme séquentiel surpasse l’algorithme itératif en termes de qualité desrésultats et de temps de calcul.Le second modèle, Flumy, est un modèle de processus sédimentaires, permettant de représenter la formation de systèmes chenalisés méandriformes. Ce modèle permet de reproduire l'hétérogénéité induite par les géométries complexes des dépots sédimentaires.L'algorithme courant implémenté dans Flumy modifie dynamiquement les processus au cours du temps pour s'adapter aux données et permet ainsi d'obtenir des simulations conditionnelles. Le développement de cet algorithme de conditionnement requiert,cependant, une profonde compréhension de ces processus pour les modifier tout en évitant les artefacts ou les biais. Pour cette raison, un autre algorithme, dit séquentiel, a été développé. Il consiste à construire le réservoir par empilement de couches horizontales au moyen d'un filtre particulaire permettant d'assimiler les facies observés en chaque couche. Ces deux algorithmesde conditionnement ont été comparés sur un cas synthétique et sur un cas réel (bassin de Loranca, en Espagne). Ils fournissentdes résultats comparables, mais se distinguent en termes de ressources nécessaires pour leur mise en œuvre: l'agorithmeséquentiel requiert une puissance de calcul informatique conséquente quand l'algorithme dynamique nécessite une finecompréhension des processus à modifier
A sequential Monte Carlo method, called particle filtering, has been used in a spatial context to produce simulations of two reservoir models that respect the observed facies at wells. The first one, the Boolean model, is an object-based model. It canbe used to model two-facies reservoirs: One porous facies, and an impermeable facies that acts as a barrier for the fluidcirculation. The model is mathematically tractable: There exists statistical methods to infer its parameters as well as aniterative conditional simulation algorithm. However, the convergence rate of this algorithm is difficult to establish. Asequential algorithm based on the particle filtering is proposed as an alternative. It finally appears that this sequentialalgorithm outperforms the iterative algorithm in terms of quality of results and computational time.The second model, Flumy, is a model of sedimentary processes. It is used for representing the formation of meanderingchannelized systems. This model can reproduce the heterogeneity induced by the complex geometries of sedimentary deposits.The current algorithm implemented in Flumy modifies dynamically the processes for fitting the data at best to produceconditional simulations. The set-up of this algorithm requires a deep knowledge of the processes to modify them and avoidartifacts and biases. For this reason, another conditioning algorithm, called sequential, has been developed. It consists in building the reservoir by stacking horizontal layers using particle filtering, thus allowing the observed facies to beassimilated in each layer. These two algorithms have been compared on a synthetic case and on a real case (Loranca Basin,Spain). Both give comparable results, but they differ in terms of the resources required for their implementation: whereasthe sequential algorithm needs high computer power, the dynamic algorithm requires a fine understanding of the processes to be modified
APA, Harvard, Vancouver, ISO, and other styles
2

Beaujouan, David. "Simulation des matériaux magnétiques à base Cobalt par Dynamique Moléculaire Magnétique." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00760645.

Full text
Abstract:
Les propriétés magnétiques des matériaux sont fortement connectées à leur structure cristallographique. Nous proposons un modèle atomique de la dynamique d'aimantation capable de rendre compte de cette magnétoélasticité. Bien que ce travail s'inscrive dans une thématique générale de l'étude des matériaux magnétiques en température, nous la particularisons à un seul élément, le Cobalt. Dans ce modèle effectif, les atomes sont décrits par 3 vecteurs classiques qui sont position, impulsion et spin. Ils interagissent entre eux via un potentiel magnéto-mécanique ad hoc. On s'intéresse tout d'abord à la dynamique de spin atomique. Cette méthode permet d'aborder simplement l'écriture des équations d'évolution d'un système atomique de spins dans lequel la position et l'impulsion des atomes sont gelées. Il est toutefois possible de définir une température de spin permettant de développer naturellement une connexion avec un bain thermique. Montrant les limites d'une approche stochastique, nous développons une nouvelle formulation déterministe du contrôle de la température d'un système à spins.Dans un second temps, nous développons et analysons les intégrateurs géométriques nécessaires au couplage temporel de la dynamique moléculaire avec cette dynamique de spin atomique. La liaison des spins avec le réseau est assurée par un potentiel magnétique dépendant des positions des atomes. La nouveauté de ce potentiel réside dans la manière de paramétrer l'anisotropie magnétique qui est la manifestation d'un couplage spin-orbite. L'écriture d'un modèle de paires étendu de l'anisotropie permet de restituer les constantes de magnétostriction expérimentales du hcp-Co. En considérant un système canonique, où pression et température sont contrôlées, nous avons mis en évidence la transition de retournement de spin si particulière au Co vers 695K.Nous finissons par l'étude des retournements d'aimantation super-paramagnétiques de nanoplots de Co permettant de comparer ce couplage spin-réseau aux mesures récentes.
APA, Harvard, Vancouver, ISO, and other styles
3

Blondet, Gaëtan. "Système à base de connaissances pour le processus de plan d'expériences numériques." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2363/document.

Full text
Abstract:
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile
In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry
APA, Harvard, Vancouver, ISO, and other styles
4

Hoock, Jean-Baptiste. "Contributions to Simulation-based High-dimensional Sequential Decision Making." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00912338.

Full text
Abstract:
My thesis is entitled "Contributions to Simulation-based High-dimensional Sequential Decision Making". The context of the thesis is about games, planning and Markov Decision Processes. An agent interacts with its environment by successively making decisions. The agent starts from an initial state until a final state in which the agent can not make decision anymore. At each timestep, the agent receives an observation of the state of the environment. From this observation and its knowledge, the agent makes a decision which modifies the state of the environment. Then, the agent receives a reward and a new observation. The goal is to maximize the sum of rewards obtained during a simulation from an initial state to a final state. The policy of the agent is the function which, from the history of observations, returns a decision. We work in a context where (i) the number of states is huge, (ii) reward carries little information, (iii) the probability to reach quickly a good final state is weak and (iv) prior knowledge is either nonexistent or hardly exploitable. Both applications described in this thesis present these constraints : the game of Go and a 3D simulator of the european project MASH (Massive Sets of Heuristics). In order to take a satisfying decision in this context, several solutions are brought : 1. Simulating with the compromise exploration/exploitation (MCTS) 2. Reducing the complexity by local solving (GoldenEye) 3. Building a policy which improves itself (RBGP) 4. Learning prior knowledge (CluVo+GMCTS) Monte-Carlo Tree Search (MCTS) is the state of the art for the game of Go. From a model of the environment, MCTS builds incrementally and asymetrically a tree of possible futures by performing Monte-Carlo simulations. The tree starts from the current observation of the agent. The agent switches between the exploration of the model and the exploitation of decisions which statistically give a good cumulative reward. We discuss 2 ways for improving MCTS : the parallelization and the addition of prior knowledge. The parallelization does not solve some weaknesses of MCTS; in particular some local problems remain challenges. We propose an algorithm (GoldenEye) which is composed of 2 parts : detection of a local problem and then its resolution. The algorithm of resolution reuses some concepts of MCTS and it solves difficult problems of a classical database. The addition of prior knowledge by hand is laborious and boring. We propose a method called Racing-based Genetic Programming (RBGP) in order to add automatically prior knowledge. The strong point is that RBGP rigorously validates the addition of a prior knowledge and RBGP can be used for building a policy (instead of only optimizing an algorithm). In some applications such as MASH, simulations are too expensive in time and there is no prior knowledge and no model of the environment; therefore Monte-Carlo Tree Search can not be used. So that MCTS becomes usable in this context, we propose a method for learning prior knowledge (CluVo). Then we use pieces of prior knowledge for improving the rapidity of learning of the agent and for building a model, too. We use from this model an adapted version of Monte-Carlo Tree Search (GMCTS). This method solves difficult problems of MASH and gives good results in an application to a word game.
APA, Harvard, Vancouver, ISO, and other styles
5

Dinaharison, Jean Bienvenue. "Conception d’une approche spatialisée à base d’agent pour coupler les modèles mathématiques et informatiques : application à la modélisation du processus écosystémique du sol." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS184.

Full text
Abstract:
Le sol est un environnement fortement hétérogène dans lequel de nombreux processus interagissent pour fournir des services écosystémiques. L'approche de couplage de modèle propose de définir ce type de système en utilisant une architecture modulaire dans laquelle les divers processus représentés par des modèles communiquent pour reproduire les différents aspects du mécanisme d'un phénomène tel que le fonctionnement du sol. Dans ce projet de thèse, développons une telle approche dans le but de modéliser le fonctionnement du sol. Les défis d'un tel projet réside sur la résolution des problèmes de représentation des processus du sol. Ces problèmes de représentation prennent leur origine du fait qu'on réutilise des modèles venant de disciplines variés pour décrire les processus. Cet hétérogénéité de représentation peut se résumer par l'écriture des modèles, le cadre d'exécution temporelle et la résolution des données décrites par les modèles. Ces contraintes de couplage, sont traités par bon nombre d'approches dans la littérature. Tous proposent des solutions satisfaisantes à ces contraintes dans leur domaines d'application respectives. Dans nôtre approche, nous utilisons le paradigme agent pour encapsuler les divers processus du sol. Ces processus communiquerons à travers l'espace en utilisant les ressources qui y sont présent. Le comportement des processus dépendent alors de la disponibilité des ressources. Un problème de coordination peut jaillir de ce type de couplage, les processus peuvent consommer de la ressource de manière simultanée alors que cette dernière peut ne pas supporter cette demande. Pour remédier à cela nous utilisons une technique en théorie d'action appelé Influence-Reaction afin de définir des stratégies pour gérer ce type de situation. Nous nous sommes inspiré des approches présente dans la littérature afin de gérer les différentes temporalités des processus. Cette approche de couplage a été appliqué à un modèle de décomposition de la matière organique ou plusieurs processus (vers de terre, microbes et racine) se disputent de la ressource dans un sol. Les résultats suggèrent que l'utilisation de nôtre approche sied à la modélisation du fonctionnement du sol, mais donnent aussi des indications plus précises quand à la disponibilité de la ressource
Soil is a highly heterogeneous environment in which many processes interact to provide ecosystem services. Model coupling approaches propose to define such system by using a modular architecture in which various processes, represented by models, communicate to reproduce different aspects of a phenomenon such as soil functioning. In this thesis project, we develop such an approach for the purpose of modelling soil functioning. The challenges of such a scheme lie in solving representation problems of soil processes. These representation problems originate from the fact that models from various disciplines are reused to describe the processes. By representations problems, we mean model description which can be (individual or equation based), the temporal execution settings and data resolution. These coupling constraints are addressed by a number of approaches in the literature. All of them propose satisfactory solutions to these constraints in their respective application fields. In our approach, we use the agent paradigm to encapsulate the various soil processes. Then processes will communicate through the space by using resources inside it. The behaviour of the processes then depends on the availability of resources. A coordination problem can arise from this type of coupling, as processes may consume the resource simultaneously while the resource may not support this demand. To overcome that matter, we use an action-theoretic technique called Influence-Reaction to define strategies to manage this type of situation. We used algorithms suggested by the abbundant litterature to manage any processes temporality issues. This coupling approach was applied to a model of organic matter decomposition in which several processes (earthworms, microbes and roots) compete for soil ressources. The results suggest that the use of our approach is suitable for modelling soil functioning, but also gives more accurate indications of resource availability
APA, Harvard, Vancouver, ISO, and other styles
6

Li, Haizhou. "Modeling and verification of probabilistic data-aware business processes." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22563/document.

Full text
Abstract:
Un large éventail de nouvelles applications met l’accent sur la nécessité de disposer de modèles de processus métier capables de manipuler des données imprécises ou incertaines. Du fait de la présence de données probabilistes, les comportements externes de tels processus métier sont non markoviens. Peu de travaux dans la littérature se sont intéressés à la vérification de tels systèmes. Ce travail de thèse étudie les questions de modélisation et d’analyse de ce type de processus métier. Il utilise comme modèle formel pour décrire les comportements des processus métier un système de transitions étiquetées dans lequel les transitions sont gardées par des conditions définies sur une base de données probabiliste. Il propose ensuite une approche de décomposition de ces processus qui permet de tester la relation de simulation entre processus dans ce contexte. Une analyse de complexité révèle que le problème de test de simulation est dans 2-EXPTIME, et qu’il est EXPTIME-difficile en termes de complexité d’expression, alors que du point de vue de la complexité en termes des données, il n’engendre pas de surcoût supplémentaire par rapport au coût de l’évaluation de requêtes booléennes sur des bases de données probabilistes. L’approche proposée est ensuite étendue pour permettre la vérification de propriétés exprimées dans les logiques P-LTL et P-CTL. Finalement, un prototype, nommé ‘PRODUS’, a été implémenté et utilisé dans le cadre d’une application liée aux systèmes d’information géographiques pour montrer la faisabilité de l’approche proposée
There is a wide range of new applications that stress the need for business process models that are able to handle imprecise data. This thesis studies the underlying modelling and analysis issues. It uses as formal model to describe process behaviours a labelled transitions system in which transitions are guarded by conditions defined over a probabilistic database. To tackle verification problems, we decompose this model to a set of traditional automata associated with probabilities named as world-partition automata. Next, this thesis presents an approach for testing probabilistic simulation preorder in this context. A complexity analysis reveals that the problem is in 2-exptime, and is exptime-hard, w.r.t. expression complexity while it matches probabilistic query evaluation w.r.t. data-complexity. Then P-LTL and P-CTL model checking methods are studied to verify this model. In this context, the complexity of P-LTL and P-CTL model checking is in exptime. Finally a prototype called ”PRODUS” which is a modeling and verification tool is introduced and we model a realistic scenario in the domain of GIS (graphical information system) by using our approach
APA, Harvard, Vancouver, ISO, and other styles
7

Sirin, Göknur. "Supporting multidisciplinary vehicle modeling : towards an ontology-based knowledge sharing in collaborative model based systems engineering environment." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0024/document.

Full text
Abstract:
Les systèmes industriels (automobile, aérospatial, etc.) sont de plus en plus complexes à cause des contraintes économiques et écologiques. Cette complexité croissante impose des nouvelles contraintes au niveau du développement. La question de la maitrise de la capacité d’analyse de leurs architectures est alors posée. Pour résoudre cette question, les outils de modélisation et de simulation sont devenus une pratique courante dans les milieux industriels afin de comparer les multiples architectures candidates. Ces outils de simulations sont devenus incontournables pour conforter les décisions. Pourtant, la mise en œuvre des modèles physiques est de plus en plus complexe et nécessite une compréhension spécifique de chaque phénomène simulé ainsi qu’une description approfondie de l’architecture du système, de ses composants et des liaisons entre composants. L’objectif de cette thèse est double. Le premier concerne le développement d’une méthodologie et des outils nécessaires pour construire avec précision les modèles de simulation des architectures de systèmes qu’on désire étudier. Le deuxième s’intéresse à l’introduction d’une approche innovante pour la conception, la production et l’intégration des modèles de simulations en mode « plug and play » afin de garantir la conformité des résultats aux attentes, notamment aux niveaux de la qualité et de la maturité. Pour accomplir ces objectifs, des méthodologies et des processus d’ingénierie des systèmes basés sur les modèles (MBSE) ainsi que les systèmes d’information ont été utilisés. Ce travail de thèse propose pour la première fois un processus détaillé et un outil pour la conception des modèles de simulation. Un référentiel commun nommé « Modèle de carte d'identité (MIC) » a été développé pour standardiser et renforcer les interfaces entre les métiers et les fournisseurs sur les plans organisationnels et techniques. MIC garantit l’évolution et la gestion de la cohérence de l’ensemble des règles et les spécifications des connaissances des domaines métiers dont la sémantique est multiple. MIC renforce également la cohérence du modèle et réduit les anomalies qui peuvent interférer pendant la phase dite IVVQ pour Intégration, Vérification, Validation, Qualification. Finalement, afin de structurer les processus de conception des modèles de simulation, le travail s’est inspiré des cadres de l’Architecture d’Entreprise en reflétant les exigences d’intégration et de standardisation du modèle opératoire de l’entreprise. Pour valider les concepts introduits dans le cadre de cette thèse, des études de cas tirés des domaines automobile et aérospatiale ont été réalisées. L'objectif de cette validation est d'observer l'amélioration significative du processus actuel en termes d'efficacité, de réduction de l'ambiguïté et des malentendus dans la modélisation et la simulation du système à concevoir
Simulation models are widely used by industries as an aid for decision making to explore and optimize a broad range of complex industrial systems’ architectures. The increased complexity of industrial systems (cars, airplanes, etc.), ecological and economic concerns implies a need for exploring and analysing innovative system architectures efficiently and effectively by using simulation models. However, simulations designers currently suffer from limitations which make simulation models difficult to design and develop in a collaborative, multidisciplinary design environment. The multidisciplinary nature of simulation models requires a specific understanding of each phenomenon to simulate and a thorough description of the system architecture, its components and connections between components. To accomplish these objectives, the Model-Based Systems Engineering (MBSE) and Information Systems’ (IS) methodologies were used to support the simulation designer’s analysing capabilities in terms of methods, processes and design tool solutions. The objective of this thesis is twofold. The first concerns the development of a methodology and tools to build accurate simulation models. The second focuses on the introduction of an innovative approach to design, product and integrate the simulation models in a “plug and play" manner by ensuring the expected model fidelity. However, today, one of the major challenges in full-vehicle simulation model creation is to get domain level simulation models from different domain experts while detecting any potential inconsistency problem before the IVVQ (Integration, Verification, Validation, and Qualification) phase. In the current simulation model development process, most of the defects such as interface mismatch and interoperability problems are discovered late, during the IVVQ phase. This may create multiple wastes, including rework and, may-be the most harmful, incorrect simulation models, which are subsequently used as basis for design decisions. In order to address this problem, this work aims to reduce late inconsistency detection by ensuring early stage collaborations between the different suppliers and OEM. Thus, this work integrates first a Detailed Model Design Phase to the current model development process and, second, the roles have been re-organized and delegated between design actors. Finally an alternative architecture design tool is supported by an ontology-based DSL (Domain Specific Language) called Model Identity Card (MIC). The design tools and mentioned activities perspectives (e.g. decisions, views and viewpoints) are structured by inspiration from Enterprise Architecture Frameworks. To demonstrate the applicability of our proposed solution, engine-after treatment, hybrid parallel propulsion and electric transmission models are tested across automotive and aeronautic industries
APA, Harvard, Vancouver, ISO, and other styles
8

Prodel, Martin. "Modélisation automatique et simulation de parcours de soins à partir de bases de données de santé." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM009/document.

Full text
Abstract:
Les deux dernières décennies ont été marquées par une augmentation significative des données collectées dans les systèmes d'informations. Cette masse de données contient des informations riches et peu exploitées. Cette réalité s’applique au secteur de la santé où l'informatisation est un enjeu pour l’amélioration de la qualité des soins. Les méthodes existantes dans les domaines de l'extraction de processus, de l'exploration de données et de la modélisation mathématique ne parviennent pas à gérer des données aussi hétérogènes et volumineuses que celles de la santé. Notre objectif est de développer une méthodologie complète pour transformer des données de santé brutes en modèles de simulation des parcours de soins cliniques. Nous introduisons d'abord un cadre mathématique dédié à la découverte de modèles décrivant les parcours de soin, en combinant optimisation combinatoire et Process Mining. Ensuite, nous enrichissons ce modèle par l’utilisation conjointe d’un algorithme d’alignement de séquences et de techniques classiques de Data Mining. Notre approche est capable de gérer des données bruitées et de grande taille. Enfin, nous proposons une procédure pour la conversion automatique d'un modèle descriptif des parcours de soins en un modèle de simulation dynamique. Après validation, le modèle obtenu est exécuté pour effectuer des analyses de sensibilité et évaluer de nouveaux scénarios. Un cas d’étude sur les maladies cardiovasculaires est présenté, avec l’utilisation de la base nationale des hospitalisations entre 2006 et 2015. La méthodologie présentée dans cette thèse est réutilisable dans d'autres aires thérapeutiques et sur d'autres sources de données de santé
During the last two decades, the amount of data collected in Information Systems has drastically increased. This large amount of data is highly valuable. This reality applies to health-care where the computerization is still an ongoing process. Existing methods from the fields of process mining, data mining and mathematical modeling cannot handle large-sized and variable event logs. Our goal is to develop an extensive methodology to turn health data from event logs into simulation models of clinical pathways. We first introduce a mathematical framework to discover optimal process models. Our approach shows the benefits of combining combinatorial optimization and process mining techniques. Then, we enrich the discovered model with additional data from the log. An innovative combination of a sequence alignment algorithm and of classical data mining techniques is used to analyse path choices within long-term clinical pathways. The approach is suitable for noisy and large logs. Finally, we propose an automatic procedure to convert static models of clinical pathways into dynamic simulation models. The resulting models perform sensitivity analyses to quantify the impact of determinant factors on several key performance indicators related to care processes. They are also used to evaluate what-if scenarios. The presented methodology was proven to be highly reusable on various medical fields and on any source of event logs. Using the national French database of all the hospital events from 2006 to 2015, an extensive case study on cardiovascular diseases is presented to show the efficiency of the proposed framework
APA, Harvard, Vancouver, ISO, and other styles
9

Michel, Thierry. "Test en ligne des systèmes à base de microprocesseur." Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343488.

Full text
Abstract:
Cette thèse traite de la vérification en ligne, par des moyens matériels, du flot de contrôle d'un système a base de microprocesseur. Une technique de compaction est utilisée pour faciliter cette vérification (analyse de signature). La plupart des méthodes proposées jusqu'ici imposent une modification du programme d'application, afin d'introduire dans celui-ci des propriétés invariantes (la signature en chaque point de l'organigramme est indépendante des chemins préalablement parcourus). Les méthodes proposées ici, au contraire, ont comme caractéristique principale de ne pas modifier le programme vérifie et utilisent un dispositif de type processeur, disposant d'une mémoire locale, pour assurer l'invariance de la signature. Deux méthodes sont ainsi décrites. La première est facilement adaptable a différents microprocesseurs et présente une efficacité qui la place parmi les meilleures méthodes proposées jusqu'ici. La seconde methode a été dérivée de la première dans le but de diminuer la quantité d'informations nécessaire au test. Cette dernière methode a été implantée sur un prototype d'unité centrale d'automate programmable (avec la société télémécanique) et son efficacité a été évaluée par des expériences d'injection de fautes. Le cout d'implantation particulièrement faible dans le cas du prototype réalise peut permettre d'envisager une évolution de celui-ci vers un produit industriel
APA, Harvard, Vancouver, ISO, and other styles
10

EUGENE, REMI. "Etude architecturale, modelisation et realisation d'un processeur a base de gapp pour le traitement d'images temps reel et la simulation par automate cellulaire." Université Louis Pasteur (Strasbourg) (1971-2008), 1990. http://www.theses.fr/1990STR13043.

Full text
Abstract:
Le traitement bas niveau d'images requiert des structures particulieres de processeurs des lors que des contraintes temps reel interviennent. Nous etudions dans cette these l'adequation des processeurs a base d'une unite de calcul compose de plusieurs milliers d'unites de calcul bit serie utilisees en mode de fonctionnement simd et interconnectees par un reseau a maille carree. L'etude porte successivement sur une classification des structures d'integration de telles unites de calcul, sur une modelisation des performances des solutions d'integrations et sur une comparaison des modeles pour diverses classes d'algorithmes. Cette etude est suivie de la description d'un processeur realise a base de gapp et de la description d'une realisation en cours a base d'elsa
APA, Harvard, Vancouver, ISO, and other styles
11

Michau, Alexandre. "Dépôts chimiques en phase vapeur de revêtements à base de chrome sur surfaces complexes pour environnements extrêmes : expérimental et simulation." Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0088/document.

Full text
Abstract:
La protection des gaines de combustible de réacteur nucléaire contre l’oxydation à haute température en conditions accidentelles est essentielle pour garantir leur intégrité, c’est-à-dire celle de la première barrière de confinement. Celle-ci peut s’effectuer par le dépôt d’un revêtement sur leur paroi interne et ce sont les procédés CVD qui sont les plus à même de le faire. Il s’agit plus précisément du procédé DLI-MOCVD qui a été utilisé ici pour déposer des revêtements à base de chrome (chrome métallique Cr(S) cristallisé) et de carbures de chrome (carbures de chrome CrxCy amorphes non recyclés, recyclés et CrxSizCy dopés au Si), réputés pour leur bonne résistance à l’oxydation. Afin d’améliorer la qualité des revêtements, le procédé de dépôt a été optimisé à l’aide de simulations numériques. Après une réflexion sur le mécanisme chimique, un modèle cinétique réactionnel du dépôt d’un revêtement CrxCy amorphe a pu être ajusté et validé. Il a aussi été montré que la solution utilisée de précurseur organométallique bis(arène)chrome et de solvant toluène pouvait être directement recyclée, augmentant ainsi le potentiel d’industrialisation du procédé. Les propriétés physico-chimiques et structurales des revêtements déposés avec ce procédé ont été caractérisées. Une étude des propriétés mécaniques de ces revêtements a par ailleurs été entreprise. Il en ressort que, comparés à des revêtements apparentés déposés par d’autres procédés, ceux déposés par DLIMOCVD possèdent notamment une dureté élevée (jusqu’à une trentaine de GPa), des contraintes résiduelles en compression, une bonne adhérence avec leur substrat et enfin une résistance à l’usure abrasive différente suivant la température. L’évaluation de leur résistance à l’oxydation à 1200 °C a révélé les excellentes performances des revêtements en carbures de chrome amorphes, qui permettent de retarder l’oxydation catastrophique de plus de deux heures pour une épaisseur de 10 µm. Tous les autres revêtements augmentent la tenue en température des substrats en zircaloy mais ne retardent pas autant l’oxydation catastrophique
Nuclear fuel cladding tubes resistance against high temperature oxidation during accident conditions is crucial because it means protecting the first containment barrier. This can be done by coating the inner wall of the cladding tube with CVD processes, which are most likely to do so. More specifically, we used DLI-MOCVD to grow chromium based (Cr(S), metallic crystalline chromium) and chromium carbides based (amorphous chromium carbides CrxCy, recycled CrxCy, silicon doped CrxSizCy) coatings, known for their good oxidation resistance. The coating process was optimized using numerical modelling to improve coatings performance. A reaction kinetics model of the deposition process of amorphous CrxCy coatings was adjusted and validated after the identification of the chemical mechanism. It was also shown that the liquid solution containing organometallic precursor (bis(arene)chromium) and solvent (toluene) could be directly recycled, thereby increasing the industrialization potential of such process. Physical, chemical and structural properties of coatings deposited with this process were characterized. A study of the coatings mechanical properties has also been undertaken. It shows that compared to related coatings grown with other processes, those deposited by DLI-MOCVD exhibit a particularly high hardness (up to 30 GPa), compressive residual stresses, good adhesion with the substrate and finally a different abrasive wear resistance depending on the temperature. The assessment of their oxidation resistance at 1200 °C revealed excellent performances of amorphous chromium carbides coatings, which can delay catastrophic oxidation up to two hours with only a 10 µm thickness. All the other coatings only increase the thermal resistance of zircaloy substrates
APA, Harvard, Vancouver, ISO, and other styles
12

Hamonier, Julien. "Analyse par ondelettes du mouvement multifractionnaire stable linéaire." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00753510.

Full text
Abstract:
Le mouvement brownien fractionnaire (mbf) constitue un important outil de modélisation utilisé dans plusieurs domaines (biologie, économie, finance, géologie, hydrologie, télécommunications, etc.) ; toutefois, ce modèle ne parvient pas toujours à donner une description suffisamment fidèle de la réalité, à cause, entre autres, des deux limitations suivantes : d'une part le mbf est un processus gaussien, et d'autre part, sa rugosité locale (mesurée par un exposant de Hölder) reste la même tout le long de sa trajectoire, puisque cette rugosité est partout égale au paramètre de Hurst H qui est une constante. En vue d'y remédier, S. Stoev et M.S. Taqqu (2004 et 2005) ont introduit le mouvement multifractionnaire stable linéaire (mmsl) ; ce processus stochastique strictement α-stable (StαS), désigné par {Y(t)}, est obtenu en remplaçant la mesure brownienne par une mesure StαS et le paramètre de Hurst H par une fonction H(.) dépendant de t. On se place systématiquement dans le cas où cette fonction est continue et à valeurs dans l'intervalle ouvert ]1/α,1[. Il convient aussi de noter que l'on a pour tout t, Y(t)=X(t,H(t)), où {X(u,v)} est le champ stochastique StαS, tel que pour tout v fixé, le processus {X(u,v)} est un mouvement fractionnaire stable linéaire. L'objectif de la thèse est de mener une étude approfondie du mmsl, au moyen de méthodes d'ondelettes ; elle consiste principalement en trois parties. (1) On détermine de fins modules de continuité, globaux et locaux de {Y(t)} ; cela repose essentiellement sur une nouvelle représentation de {X(u,v)}, sous la forme d'une série aléatoire, dont on montre la convergence presque sûre dans certains espaces de Hölder. (2) On introduit, via la base de Haar, une autre représentation de {X(u,v)} en série aléatoire ; cette dernière permet la mise en place d'une méthode de simulation efficace du mmsl, ainsi que de ses parties hautes et basses fréquences. (3) On construit des estimateurs par ondelettes du paramètre fonctionnel H(.) du mmsl, ainsi que de son paramètre de stabilité α.
APA, Harvard, Vancouver, ISO, and other styles
13

Olinda, Ricardo Alves de. "Modelagem estatística de extremos espaciais com base em processos max-stable aplicados a dados meteorológicos no estado do Paraná." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-17092012-103936/.

Full text
Abstract:
A maioria dos modelos matemáticos desenvolvidos para eventos raros são baseados em modelos probabilísticos para extremos. Embora as ferramentas para modelagem estatística de extremos univariados e multivariados estejam bem desenvolvidas, a extensão dessas ferramentas para modelar extremos espaciais integra uma área de pesquisa em desenvolvimento muito ativa atualmente. A modelagem de máximos sob o domínio espacial, aplicados a dados meteorológicos é importante para a gestão adequada de riscos e catástrofes ambientais nos países que tem a sua economia profundamente dependente do agronegócio. Uma abordagem natural para tal modelagem é a teoria de extremos espaciais e o processo max-stable, caracterizando-se pela extensão de dimensões infinitas da teoria de valores extremos multivariados, podendo-se então incorporar as funções de correlação existentes na geoestatística e consequentemente, verificar a dependência extrema por meio do coeficiente extremo e o madograma. Neste trabalho descreve-se a aplicação de tais processos na modelagem da dependência de máximos espaciais de precipitação máxima mensal do estado do Paraná, com base em séries históricas observadas em estações meteorológicas. Os modelos propostos consideram o espaço euclidiano e uma transformação denominada espaço climático, que permite explicar a presença de efeitos direcionais, resultantes de padrões meteorológicos sinóticos. Essa metodologia baseia-se no teorema proposto por De Haan (1984) e nos modelos de Smith (1990) e de Schlather (2002), verifica-se também o comportamento isotrópico e anisotrópico desses modelos via simulação Monte Carlo. Estimativas são realizadas através da máxima verossimilhança pareada e os modelos são comparados usando-se o Critério de Informação Takeuchi. O algoritmo utilizado no ajuste é bastante rápido e robusto, permitindo-se uma boa eficiência computacional e estatística na modelagem da precipitação máxima mensal, possibilitando-se a modelagem dos efeitos direcionais resultantes de fenômenos ambientais.
The most mathematical models developed for rare events are based on probabilistic models for extremes. Although the tools for statistical modeling of univariate and multivariate extremes are well-developed, the extension of these tools to model spatial extremes data is currently a very active area of research. Modeling of maximum values under the spatial domain, applied to meteorological data is important for the proper management of risks and environmental disasters in the countries where the agricultural sector has great influence on the economy. A natural approach for such modeling is the theory of extreme spatial and max-stable process, characterized by infinite dimensional extension of multivariate extreme value theory, and we can then incorporate the current correlation functions in geostatistics and thus, check the extreme dependence through the extreme coefficient and the madogram. This thesis describes the application of such procedures in the modeling of spatial maximum dependency of monthly maximum rainfall of Paraná State, historical series based on observed meteorological stations. The proposed models consider the Euclidean space and a transformation called climatic space, which makes it possible to explain the presence of directional effects resulting from synoptic weather patterns. This methodology is based on the theorem proposed by De Haan (1984) and Smith (1990) models and Schlather (2002), checking the isotropic and anisotropic behavior these models through Monte Carlo simulation. Estimates are performed using maximum pairwise likelihood and the models are compared using the Takeuchi information criterion. The algorithm used in the fit is very fast and robust, allowing a good statistical and computational efficiency in monthly maximum rainfall modeling, allowing the modeling of directional effects resulting from environmental phenomena.
APA, Harvard, Vancouver, ISO, and other styles
14

Girard-Desprolet, Romain. "Filtrage spectral plasmonique à base de nanostructures métalliques adaptées aux capteurs d'image CMOS." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT053/document.

Full text
Abstract:
Les capteurs d'image connaissent un regain d'intérêt grâce à la croissance remarquable du secteur de la communication sans fil, et leurs fonctionnalités tendent à se diversifier. Plus particulièrement, une application récente connue sous le nom de capteur de luminosité ambiante (ALS de l'acronyme anglais) est apparue dans le but de proposer un ajustement intelligent du rétro-éclairage dans les appareils mobiles pourvus d'écrans. Les avancées technologiques ont permis la fabrication de smartphones toujours plus fins, ce qui impose une contrainte importante sur la hauteur des capteurs de lumière. Cette réduction d'épaisseur peut être réalisée grâce à l'utilisation de filtres spectraux innovants, plus fins et entièrement sur puce. Dans cette thèse, nous présentons l'étude et la démonstration de filtres plasmoniques adaptés à une intégration dans des produits ALS commerciaux. Les structures de filtrage les plus performantes sont identifiées avec une importance particulière accordée à la stabilité des filtres par rapport à l'angle d'incidence de la lumière et à son état de polarisation. Des schémas d'intégration compatibles CMOS et respectant les contraintes d'une fabrication à l'échelle du wafer sont proposés. Les résonances de plasmon sont étudiées afin d'atteindre des propriétés optiques optimales et une méthodologie spécifique à partir d'un véritable cahier des charges client a été utilisée pour obtenir des performances ALS optimisées. La robustesse des filtres plasmoniques aux dispersions de procédé est analysée à travers l'identification et la modélisation des imprécisions et des défauts typiques d'une fabrication sur wafer 300 mm. A la lumière de ces travaux, une démonstration expérimentale de filtres ALS plasmoniques est réalisée avec le développement d'une intégration à l'échelle du wafer et avec la caractérisation et l'évaluation des performances des structures fabriquées afin de valider la solution plasmonique
Image sensors have experienced a renewed interest with the prominent market growth of wireless communication, together with a diversification of functionalities. In particular, a recent application known as Ambient Light Sensing (ALS) has emerged for a smarter screen backlight management of display-based handheld devices. Technological progress has led to the fabrication of thinner handsets, which imposes a severe constraint on light sensors' heights. This thickness reduction can be achieved with the use of an innovative, thinnest and entirely on-chip spectral filter. In this work, we present the investigation and the demonstration of plasmonic filters aimed for commercial ALS products. The most-efficient filtering structures are identified with strong emphasis on the stability with respect to the light angle of incidence and polarization state. Integration schemes are proposed according to CMOS compatibility and wafer-scale fabrication concerns. Plasmon resonances are studied to reach optimal optical properties and a dedicated methodology was used to propose optimized ALS performance based on actual customers' specifications. The robustness of plasmonic filters to process dispersions is addressed through the identification and the simulation of typical 300 mm fabrication inaccuracies and defects. In the light of these studies, an experimental demonstration of ALS plasmonic filters is performed with the development of a wafer-level integration and with the characterization and performance evaluation of the fabricated structures to validate the plasmonic solution
APA, Harvard, Vancouver, ISO, and other styles
15

Petitdemange, Eva. "SAMUFLUX : une démarche outillée de diagnostic et d'amélioration à base de doubles numériques : application aux centres d'appels d'urgence de trois SAMU." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2020. http://www.theses.fr/2020EMAC0012.

Full text
Abstract:
L’engorgement des structures d’urgence médicale est une réalité à laquelle les SAMU (Service d’Aide Médicale Urgente) n’échappent pas (5 à 15% d’augmentation des appels par an). De récents événements comme la pandémie de Covid-19 montrent les limites du système actuel pour faire face aux situations de crise. Le renfort en moyens humains ne peut être la seule solution face à ce constat et il devient incontournable de construire de nouveaux modèles organisationnels tout en visant une qualité de service permettant de répondre à 99% des appels entrants en moins de 60 secondes. Toutefois, ces modèles doivent prendre en compte la grande hétérogénéité des SAMU et de leur fonctionnement. A la lumière de ces constats, le travail de recherche présenté dans ce manuscrit a pour but d'évaluer l'efficacité organisationnelle et la résilience des SAMU dans la prise en charge des flux d'appels téléphoniques d'urgence pour faire face au quotidien et aux situations de crise. Cette évaluation nous permet de proposer et de tester de nouveaux schémas organisationnels afin de faire des préconisations adaptées aux particularités des centres d'appels d'urgence. Dans une première partie, nous proposons une méthodologie outillée pour le diagnostic et l'amélioration des centres d'appels d'urgence. Elle se décompose en deux grands volets : l'étude des données issues des centres d'appel d'urgence puis la conception et l'utilisation d'un double numérique. Pour chaque étape de cette méthodologie, nous proposons un outil associé. Dans une seconde partie, nous appliquons le premier volet de la méthodologie aux données de nos SAMU partenaires. Il s'agit d'être capable d'extraire de l'information et des connaissances des données de téléphonies ainsi que des processus métiers pour le traitement des appels d'urgence. La connaissance ainsi extraite permet de concevoir un double numérique qui soit proche du comportement réel des SAMU. Enfin dans une troisième partie, nous utilisons la matière produite précédemment pour modéliser et paramétrer un double numérique déployé sur un moteur de simulation à événements discret. Il nous permet de tester plusieurs scénarios en jouant sur différentes organisations de gestion de l'appel. Grâce à cela, nous faisons des préconisations sur les types d'organisations à adopter afin d'améliorer les performances des centres d'appel
The demand for emergency medical services has been significant and increasing over the last decade. In a constrained medico-economic context, the maintenance of operational capacities represents a strategic strake in front of the risk of congestion and insufficient accessibility for the population. Recent events such as the COVID-19 pandemic show the limits of the current system to face crisis situations. Reinforcement in human resources cannot be the only solution in front of this observation and it becomes unavoidable to build new organizational models while aiming at a quality of service allowing to answer 99% of the incoming calls in less than 60 seconds (90% in 15s and 99% in 30s MARCUS report and HAS recommendation October 2020). However, these models must take into account the great heterogeneity of EMS and their operation. In the light of these findings, the research work presented in this manuscript aims to evaluate the organizational effiectiveness and resilience of EMS in managing the flow of emergency telephone calls to deal with daily life and crisis situations. This evaluation allows us to propose and test new organizational schemes in order to make recommendations adpated to the particularities of emergency call centers. In a first part, we propose a methodology equipped for the diagnosis and improvement of emergency call centers. It can be broken down into two main parts: the study of data from emergency call centers, and then the design and use of a dual digital system. For each step of this methodology, we propose an associated tool. In a second part, we apply the first part of the methodology to our partner EMS data. The aim is to be able to extract information and knowledge from the telephony data as well as from the business processes for handling emergency calls. The knowledge thus extracted makes it possible to design a digital duplicate that is close to the real behavior of the EMS. Finally, in a third part, we use the material produced previously to model and parameterize a digital duplicate deployed on a discrete event simulation engine. It allows us to test several scenarios by playing on different call management organizations. Thanks to this, we make recommendations on the types of organizations to adopt in order to improve the performance of call centers
APA, Harvard, Vancouver, ISO, and other styles
16

Fromm, Bradley S. "Linking phase field and finite element modeling for process-structure-property relations of a Ni-base superalloy." Thesis, Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/45789.

Full text
Abstract:
Establishing process-structure-property relationships is an important objective in the paradigm of materials design in order to reduce the time and cost needed to develop new materials. A method to link phase field (process-structure relations) and microstructure-sensitive finite element (structure-property relations) modeling is demonstrated for subsolvus polycrystalline IN100. A three-dimensional (3D) experimental dataset obtained by orientation imaging microscopy performed on serial sections is utilized to calibrate a phase field model and to calculate inputs for a finite element analysis. Simulated annealing of the dataset realized through phase field modeling results in a range of coarsened microstructures with varying grain size distributions that are each input into the finite element model. A rate dependent crystal plasticity constitutive model that captures the first order effects of grain size, precipitate size, and precipitate volume fraction on the mechanical response of IN100 at 650°C is used to simulate stress-strain behavior of the coarsened polycrystals. Model limitations and ideas for future work are discussed.
APA, Harvard, Vancouver, ISO, and other styles
17

Bergier, Jean-Yves. "Analyse et modélisation du processus de propagation des effets des actions militaires d'influence au sein d'une population cible : approche par la culture et les réseaux sociaux." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0752/document.

Full text
Abstract:
L’étude de la conflictualité armée dans les pays en développement et des effets des interventions extérieures visant à la circonscrire constitue un enjeu majeur et multidisciplinaire. La complexité des processus sociaux entrelacés dans de tels contextes génère des défis particuliers pour les approches de modélisation et simulation informatique. En effet la forme des conflits actuels, centrés autour des populations locales, a amené les forces de stabilisation à développer des actions dites d'influence, qui se donnent pour but de convaincre les locaux de la légitimité des opérations. Ce travail en retient trois (opérations psychologiques OMI/PSYOPS, opérations civilo-militaires et Key Leader Engagements) et propose une modélisation permettant de représenter la propagation de leurs effets au sein d'une population virtuelle réaliste. Cela nécessite une représentation détaillée des mécanismes psychologiques de persuasion et d’influence et des structures sociales considérées, et constitue donc un apport à l’analyse des processus de communication au sein de réseaux sociaux. On fait le choix d'une simulation sociale orientée agents permettant de représenter d'une part un échantillon composé uniquement d'individus (jusqu’à environ 10 000) dotés de mécanismes de traitement réalistes, et d'autre part la complexité des sphères de sociabilité collective en générant cette population sous forme d'un réseau multicouche. Le modèle conceptuel ainsi conçu permet d’intégrer pour chaque étape des critères pertinents pour la simulation des actions, mais aussi, eut égard à la nature même de celles-ci et de leurs enjeux, d’éclairer certains mécanismes sociaux caractéristiques d’un conflit armé
The study, analysis and understanding of armed violence phenomenons in developing countries and of the effects of international military interventions aimed at resolving them is a crucial contemporary issue. These situations coincidentally present, considering the plethora and complexity of the implicated and intertwined social processes, a challenge for social computing, modeling and simulation. A challenge but also an opportunity, as the evolution of the forms of conflict, today centered on the local populations, has prompted the armies tasked with implementing stabilization missions to develop influence actions. Such operations, overall concerned with persuading the locals of the legitimacy of the operations, allow a more comprehensive approach to conflict resolution, beyond the simple use of force. Modeling some of these specific actions (PSYOPS, CIMIC, and Key Leader Engagement) is a credible project and a contribution to analysis of communication and persuasion processes in social networks by taking into account detailed and specific social and cultural factors. This research thus presents a conceptual model allowing simulation of the effects of these specific actions of influence in a realistic civilian population. We chose an agent-based approach as these lend particularly well with this type of research, allowing us to generate a group of up to 10,000 agents, composed solely of individuals for a detailed cognitive treatment, and structured as a multilayer network for representing complex sociality. Given the nature of such actions and their context of application, such a model also highlights some social mechanisms typical of armed conflict situations
APA, Harvard, Vancouver, ISO, and other styles
18

Boulon, Julien. "Approche multi-échelle de la formation des particules secondaires." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697022.

Full text
Abstract:
Dans le cadre de l'étude de l'évolution du système climatique terrestre, comprendre la composition gazeuse et particulaire de l'atmosphère est un enjeu majeur dans notre compréhension de la Terre et de son atmosphère, de son passé et de son évolution à venir. Les aérosols secondaires, i.e. formés par nucléation, représentent la source la plus importante en nombre des aérosols atmosphériques mais prédire où, quand et en quelle proportion ces aérosols sont formés dans l'atmosphère demeure à ce jour un exercice peu fiable. C'est dans ce contexte que cette étude s'est attachée à compléter nos connaissances des processus conduisant à la formation et à la croissance des particules atmosphériques secondaires. Des études réalisées à partir de mesures de terrain à long terme sur différents sites d'altitude en Europe ont permis de mettre en évidence différentes spéciations verticales de la nucléation démontrant que ce phénomène semble être jusqu'à deux fois plus fréquents à la frontière avec la basse troposphère libre que dans la couche limite planétaire. D'autre part ces mêmes études ont pu mettre en évidence que les mécanismes conduisant à la nucléation de nouvelles particules se différencient avec l'altitude impliquant un rôle plus important de la voie de formation induite par les ions ainsi que des composés organiques volatils. La contribution de cette dernière famille de composés à la nucléation a été également testée durant plusieurs campagnes d'expérimentation en systèmes réactifs ainsi qu'en chambre de simulation atmosphérique. Différents comportements et paramétrisation de la nucléation selon la nature chimique du composé parent ont pu être mis en évidence. Enfin, des études numériques réalisées à partir de données de terrain et d'expérimentation ont permis d'explorer, d'infirmer, de confirmer et de proposer différentes approches numériques afin de simuler les évènements de formation des aérosols secondaires.
APA, Harvard, Vancouver, ISO, and other styles
19

Marbach, Peter 1966. "Simulation-based optimization of Markov decision processes." Thesis, Massachusetts Institute of Technology, 1998. http://hdl.handle.net/1721.1/9660.

Full text
Abstract:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1998.
Includes bibliographical references (p. 127-129).
Markov decision processes have been a popular paradigm for sequential decision making under uncertainty. Dynamic programming provides a framework for studying such problems, as well as for devising algorithms to compute an optimal control policy. Dynamic programming methods rely on a suitably defined value function that has to be computed for every state in the state space. However, many interesting problems involve very large state spaces ( "curse of dimensionality"), which prohibits the application of dynamic programming. In addition, dynamic programming assumes the availability of an exact model, in the form of transition probabilities ( "curse of modeling"). In many situations, such a model is not available and one must resort to simulation or experimentation with an actual system. For all of these reasons, dynamic programming in its pure form may be inapplicable. In this thesis we study an approach for overcoming these difficulties where we use (a) compact (parametric) representations of the control policy, thus avoiding the curse of dimensionality, and (b) simulation to estimate quantities of interest, thus avoiding model-based computations and the curse of modeling. ,Furthermore, .our approach is not limited to Markov decision processes, but applies to general Markov reward processes for which the transition probabilities and the one-stage rewards depend on a tunable parameter vector 0. We propose gradient-type algorithms for updating 0 based on the simulation of a single sample path, so as to improve a given performance measure. As possible performance measures, we consider the weighted reward-to-go and the average reward. The corresponding algorithms(a) can be implemented online and update the parameter vector either at visits to a certain state; or at every time step . . . ,(b) have the property that the gradient ( with respect to 0) of the performance 'measure converges to O with probability 1. This is the strongest possible result · for gradient:-related stochastic approximation algorithms.
by Peter Marbach.
Ph.D.
APA, Harvard, Vancouver, ISO, and other styles
20

Krutz, Nicholas J. "On the Path-Dependent Microstructure Evolution of an Advanced Powder Metallurgy Nickel-base Superalloy During Heat Treatment." The Ohio State University, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=osu1606949447780975.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Sennersten, Charlotte. "Model-based Simulation Training Supporting Military Operational Processes." Doctoral thesis, Karlskrona : Blekinge Institute of Technology, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-00469.

Full text
Abstract:
In military training contexts, fast and long term decisions are intermixed where survival and security are prioritized. Simulation-based training, here applied to ground patrols in Afghanistan, can provide preparation for mission critical and life critical operations prior to exposure to real danger. Optimising the effectiveness of simulation-based training raises the need for more detailed representations of the competences required, both for simulation design and for evaluating simulation effectiveness. These needs are here considered in terms of three research questions . The first research question asks how objects trigger dialogue in observational tasks. Eye gaze tracking and recorded dialogue provide a foundation for proposing the cognitive operational structures behind how objects and dialogue are structured when people work together when collaborating in simulation-based training sessions. The objects are tracked along with related observational tasks and the communication between people in a team in ground vehicles and in the Tactical Operations Centre (TOC). The second research question asks how the results of simulation-based training for emergency situations can be described and evaluated. The last research question asks how debriefing and learning create and refine cognitive comprehension, the competency developed in a group. Low level visual cognition in a tactical environment is explored using an eye gaze tracking system integrated with a simulation environment. The integrated system has been evaluated, its accuracy characterized, and the system was then used to evaluate hypotheses related to visual queuing and target selection. The research questions are then explored more broadly based upon two exploratory field studies of simulation-based training sessions held for military staff before leaving for ISAF in Afghanistan. Study methods here include eye gaze tracking, video and audio recording, behavioral observation and retrospective questions. The field studies were conducted at the Swedish Life Guard Regiment sub-departments: International Training Unit(IntUtbE), pre-deployment training for Peace support operations, and Swedish Armed Forces International Centre (SWEDINT), with their Simulation, Modeling and Practical Platform. Based upon data obtained in the field studies, cognitive models of decision processes involved in operational task performance are developed to provide a basis for answering the research questions. Cognitive modelling begins with the Belief, Desire and Intension (BDI) model. This model is then modified in several steps to cover different levels of decision making revealed by the field studies, including an intrapersonal and organizational layer, an educational layer, a layer where objects are build into the algorithm as a basis for purposive behavior, and finally a team competency layer built largely during debriefing sessions. These models can be used to evaluate simulation-based training effectiveness, to provide feedback both in real time and retrospectively to trainees and teams, and potentially could be used in operational systems to provide real-time information about individual and group state during operations, for decision enhancement, and potentially as elements of the implementation of automated operational forces.
APA, Harvard, Vancouver, ISO, and other styles
22

Kritchanchai, Duangpun. "Responsiveness of order fulfillment processes." Thesis, University of Nottingham, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.326547.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Eid, Abdelrahman. "Stochastic simulations for graphs and machine learning." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I018.

Full text
Abstract:
Bien qu’il ne soit pas pratique d’étudier la population dans de nombreux domaines et applications, l’échantillonnage est une méthode nécessaire permettant d’inférer l’information.Cette thèse est consacrée au développement des algorithmes d’échantillonnage probabiliste pour déduire l’ensemble de la population lorsqu’elle est trop grande ou impossible à obtenir.Les techniques Monte Carlo par chaîne de markov (MCMC) sont l’un des outils les plus importants pour l’échantillonnage à partir de distributions de probabilités surtout lorsque ces distributions ont des constantes de normalisation difficiles à évaluer.Le travail de cette thèse s’intéresse principalement aux techniques d’échantillonnage pour les graphes. Deux méthodes pour échantillonner des sous-arbres uniformes à partir de graphes en utilisant les algorithmes de Metropolis-Hastings sont présentées dans le chapitre 2. Les méthodes proposées visent à échantillonner les arbres selon une distribution à partir d’un graphe où les sommets sont marqués. L’efficacité de ces méthodes est prouvée mathématiquement. De plus, des études de simulation ont été menées et ont confirmé les résultats théoriques de convergence vers la distribution d’équilibre.En continuant à travailler sur l’échantillonnage des graphes, une méthode est présentée au chapitre 3 pour échantillonner des ensembles de sommets similaires dans un graphe arbitraire non orienté en utilisant les propriétés des processus des points permanents PPP. Notre algorithme d’échantillonnage des ensembles de k sommets est conçu pour surmonter le problème de la complexité de calcul lors du calcul du permanent par échantillonnage d’une distribution conjointe dont la distribution marginale est un kPPP.Enfin, dans le chapitre 4, nous utilisons les définitions des méthodes MCMC et de la vitesse de convergence pour estimer la bande passante du noyau utilisée pour la classification dans l’apprentissage machine supervisé. Une méthode simple et rapide appelée KBER est présentée pour estimer la bande passante du noyau de la fonction de base radiale RBF en utilisant la courbure moyenne de Ricci de graphes
While it is impractical to study the population in many domains and applications, sampling is a necessary method allows to infer information. This thesis is dedicated to develop probability sampling algorithms to infer the whole population when it is too large or impossible to be obtained. Markov chain Monte Carlo (MCMC) techniques are one of the most important tools for sampling from probability distributions especially when these distributions haveintractable normalization constants.The work of this thesis is mainly interested in graph sampling techniques. Two methods in chapter 2 are presented to sample uniform subtrees from graphs using Metropolis-Hastings algorithms. The proposed methods aim to sample trees according to a distribution from a graph where the vertices are labelled. The efficiency of these methods is proved mathematically. Additionally, simulation studies were conducted and confirmed the theoretical convergence results to the equilibrium distribution.Continuing to the work on graph sampling, a method is presented in chapter 3 to sample sets of similar vertices in an arbitrary undirected graph using the properties of the Permanental Point processes PPP. Our algorithm to sample sets of k vertices is designed to overcome the problem of computational complexity when computing the permanent by sampling a joint distribution whose marginal distribution is a kPPP.Finally in chapter 4, we use the definitions of the MCMC methods and convergence speed to estimate the kernel bandwidth used for classification in supervised Machine learning. A simple and fast method called KBER is presented to estimate the bandwidth of the Radial basis function RBF kernel using the average Ricci curvature of graphs
APA, Harvard, Vancouver, ISO, and other styles
24

Iyigunlu, Serter. "Agent-based modelling and simulation of airplane boarding processes." Thesis, Queensland University of Technology, 2015. https://eprints.qut.edu.au/83637/1/Serter_Iyigunlu_Thesis.pdf.

Full text
Abstract:
Passenger flow simulations are an important tool for designing and managing airports. This thesis examines the different boarding strategies for the Boeing 777 and Airbus 380 aircraft in order to investigate their current performance and to determine minimum boarding times. The most optimal strategies have been discovered and new strategies that are more efficient are proposed. The methods presented offer reduced aircraft boarding times which plays an important role for reducing the overall aircraft Turn Time for an airline.
APA, Harvard, Vancouver, ISO, and other styles
25

Clegg, David Richard. "A construction-specific simulation-based framework for earthworks." Thesis, Sheffield Hallam University, 1999. http://shura.shu.ac.uk/19480/.

Full text
Abstract:
Construction companies are operating within an increasingly competitive environment. Work often has to be tendered for on a very low profit basis. If the tender is too high, work is lost. If too low the contract may be won, but the job completed at a loss, unless more effective working methods can be found. Plans are used throughout the construction industry to allocate resources and schedule work. Yet, the planning tools used; Gantt chart, PERT and Queuing theory to name but a few, represent jobs as if they are static in duration, which in the complex, dynamic construction environment are clearly inappropriate. The EPSRC fuelled interest in developing a simulation methodology by suggesting that the construction industry could be considered similar to the traditional manufacturing industry. The manufacturing industry faced similar production dilemmas, work was completed but using inefficient resource configurations, causing bottlenecks, increased work-in-progress leading to higher costs. To reduce number of problems the manufacturing industry sought to utilise and develop a planning technique that had the capacity for modelling the dynamic nature of the industry. Discrete-event simulation enables the problems associated with manufacturing to be anticipated and minimised, as opposed to constantly fire-fighting. Since using simulation has accrued such impressive benefits within the manufacturing industry it is therefore not without credence to believe that the construction industry could also obtain saving from embracing this management tool. Simulation has been applied to model a number of scenarios within the construction industry. Similarities between the applications were sought and an area for further development was identified. A problem was modeled using the most frequently encountered simulation paradigms found in the manufacturing and construction industries, 'Activity cycle' and 'Process based'. Of the two methodologies, 'Process based' was selected for the development of further models. A conclusion drawn from the research is that simulation is not being utilized within the construction industry due to the perception that it requires an excessive use of resources. The research project identified that the model building process may be simplified through the development of generic simulation modules. These generic modules enable a simulation model to be developed quickly and easily by a non-simulation practitioner. The generic modules can be connected to represent the layout of an earthmoving operation. A host of scenarios can thus be modeled with the minimum of time and effort. To ensure that only significant data and process logic was collected and included within the modules the experimental methodology factor analysis was employed. Using this experimental technique, the relationship between and significance of ten different factors were established. Further experiments were performed on the most significant factors establishing an appropriate level of detail for those factors. It was beyond the scope of this thesis to develop modules for every conceivable construction process. Therefore, a methodology is given documenting the development of the chosen construction processes.
APA, Harvard, Vancouver, ISO, and other styles
26

Qasim, M. "Improving highways construction processes using computer-based simulation techniques." Thesis, University of Salford, 2018. http://usir.salford.ac.uk/49496/.

Full text
Abstract:
Roads are long-term infrastructure investments and are a valuable asset to the community. While it is crucial to construct new roads for various societal functions, maintaining the existing ones is also essential to develop a safe and accessible road network. Road construction projects suffer from tight schedules, massive traffic volumes, low budgets and environmental constraints that affect the productivity of road construction. Road sector is quite fragmented, and various companies are involved in a construction process. Most of these businesses have their internal procedures that are usually different from other stakeholders, which make it more complicated to improve a particular process. This research aimed to improve highways construction processes at the activity level by using the integration of manual and computer-based simulation tools. This research involved simulating two different as-is process highways related operations to experiment different what-if scenarios that are not possible otherwise to try in real life. It also involved investigating the underutilisation of simulation techniques in the highway sector. The case studies chosen for this project were resurfacing (maintenance) and earthworks (construction) operations. This integration of simulation and lean boosted the output of various highways maintenance and construction operations and maximised the efficiency of resources involved. The data was collected from reports, on-site observations and constant collaboration with the industry partners. This research succeeded in developing two artefacts (two detailed, lean-integrated simulation models) which were based on real projects and were verified and validated by the experts from highways and simulation backgrounds. It involved using Design Science or Constructive research methodology to identify an industry based problem, study it in detail and then develop a practical solution which can be implemented by industry to solve this issue. The developed models are based on two particular case studies; however, they are designed in such a way that they can be easily modified according to the needs and conditions of different countries and similar projects. There are thousands of simulation models available online but lack the ability and freedom to change accordingly and do not have detailed guidelines about its construction, usage and adjustments. A significant knowledge gap exists regarding improvement of construction processes. Existing optimisation approaches are based on manual procedures, are fragmented and not making the best use of computer-aided methods to improve operations. As the industry is becoming more competitive, there is a need to enhance various construction (decision making and ground level) activities that can ultimately improve the efficiency for overall construction projects. Current improvement approaches mostly involve manual procedures like Value Stream Mapping, DRIVE (Define-Review-Identify-Verify-Execute), PDCA (Plan-Do-Check-Act) and process mapping etc. These processes can further be enhanced by using a computer-based environment to experiment different what-if situations. The demand for enhancement can be fulfilled by utilising computer-based simulation methods that have already proven its ability in manufacturing, process and production industries. This research contributes to the existing body of knowledge by adapting constructive research methodology or design science method for developing a practical solution to improve highways/construction processes. The research is based on two real-life case studies, and all data collection is being done within the structure of case studies. These projects are first studied in detail, and then different experimental scenarios are performed to improve the as-is processes. This research was based on two different sorts of highways operations (resurfacing and earthworks), and the findings are limited to these two operations only. Even though these operations are the most frequent and important ones, there are many other processes which can also be studied and improved in the same manner. At the same time, the models created in this research are designed not to be very project-specific and can be used in projects of a similar nature.
APA, Harvard, Vancouver, ISO, and other styles
27

Christeleit, Deborah. "Use of Simulation to Reinforce Evidence-based Collection Processes." UNF Digital Commons, 2011. http://digitalcommons.unf.edu/etd/209.

Full text
Abstract:
Proper collection of blood cultures is needed to identify pathogens causing serious infections and direct appropriate antibiotic therapy. Blood culture contamination can lead to longer hospital stays, incorrect antibiotic treatment, additional testing, and overall increased costs for the patient and hospital. Blood culture collection technique is the most important factor affecting contamination rates. The purpose of this project was to determine the effect of simulation reinforcement of blood culture collection processes on the rate of contamination of blood cultures drawn by nurses in a community medical center emergency department. This one-group before-and-after cohort study utilized a convenience sample of 50 nurses who collect blood cultures on adult clients. Each participant completed a pretest, attended a simulation in-service class, and completed a posttest immediately after the simulation and again one-month later. There was significant knowledge gained from pretest to immediate posttest, with no significant decrease in knowledge at I-month post-intervention. The 3-month blood culture contamination rate was 3.26% prior to the intervention, 4% during the intervention period, 3.7% after the intervention, and 2% in months 4 aI1d 5 postintervention. The use of simulation in the professional development of practicing nurses has the potential to improve clinical practice performance and patient outcomes.
APA, Harvard, Vancouver, ISO, and other styles
28

Rannestad, Bjarte. "Exact Statistical Inference in Nonhomogeneous Poisson Processes, based on Simulation." Thesis, Norwegian University of Science and Technology, Department of Mathematical Sciences, 2007. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-10775.

Full text
Abstract:

We present a general approach for Monte Carlo computation of conditional expectations of the form E[(T)|S = s] given a sufficient statistic S. The idea of the method was first introduced by Lillegård and Engen [4], and has been further developed by Lindqvist and Taraldsen [7, 8, 9]. If a certain pivotal structure is satised in our model, the simulation could be done by direct sampling from the conditional distribution, by a simple parameter adjustment of the original statistical model. In general it is shown by Lindqvist and Taraldsen [7, 8] that a weighted sampling scheme needs to be used. The method is in particular applied to the nonhomogeneous Poisson process, in order to develop exact goodness-of-fit tests for the null hypothesis that a set of observed failure times follow the NHPP of a specic parametric form. In addition exact confidence intervals for unknown parameters in the NHPP model are considered [6]. Different test statistics W=W(T) designed in order to reveal departure from the null model are presented [1, 10, 11]. By the method given in the following, the conditional expectation of these test statistics could be simulated in the absence of the pivotal structure mentioned above. This extends results given in [10, 11], and answers a question stated in [1]. We present a power comparison of 5 of the test statistics considered under the nullhypothesis that a set of observed failure times are from a NHPP with log linear intensity, under the alternative hypothesis of power law intensity. Finally a convergence comparison of the method presented here and an alternative approach of Gibbs sampling is given.

APA, Harvard, Vancouver, ISO, and other styles
29

Hong, Seng-Phil. "Data base security through simulation." Virtual Press, 1994. http://liblink.bsu.edu/uhtbin/catkey/902465.

Full text
Abstract:
This research explores the complexities of database security, encompassing both the computer hardware and software. Also important is its nature as a people oriented issue. A risk analysis of a database system's security can be examined by creating a simulation model. Though, in order for it to be truly meaningful and accurate, all aspects of design, performance and procedure must be thoroughly and carefully scrutinized.Computer or data security is a major problem in today's world of data processing. This thesis outlines the security problem' and presents trends and issues. It also addresses current trends in computer security environments, database risk analysis, and simulations.Risk analysis is a technique used to quantitatively assess the relative value of protective measures. It is useful when appropriately applied and is in some cases required by regulatory agencies.The goal of security environments is to outline the framework which is valuable in assessing security issues and in establishing partitions in the overall environment within which this and other approaches to security can be examined.A simulation prototype is given which demonstrates the concepts of risk analysis for a database system.
Department of Computer Science
APA, Harvard, Vancouver, ISO, and other styles
30

Yuktadatta, Panurit. "Simulation of a parallel processor based small tactical system." Thesis, Monterey, California. Naval Postgraduate School, 1991. http://hdl.handle.net/10945/28538.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Kadi, Imène Yamina. "Simulation et monotonie." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0029.

Full text
Abstract:
Les travaux de cette thèse portent sur l'apport de la monotonie sur les méthodes de simulations. Dans un premier temps, nous nous intéressons à l'étude des différentes notions de monotonie utilisées dans la modélisation stochastique, en essayant de définir les relations qui existent entre elles. Trois concepts ont été définis dans ce domaine: la monotonie stochastique basée sur la comparaison stochastique, la monotonie réalisable et enfin, la monotonie événementielle utilisée dans la simulation parfaite. Cette étude a permis d'utiliser les propriétés de monotonie stochastique dans le cadre de la simulation parfaite monotone. D'un autre coté, nous avons proposé des codages monotones inversibles pour des systèmes dont la représentation naturelle est non monotone. Ce codage permet d'accélérer les simulations monotones et a trouvé son application dans la simulation de burst optiques. Un autre travail a été réalisé, cette fois-ci, dans le domaine de la simulation parallèle, il consiste à utiliser les propriétés de monotonie des systèmes simulés afin de mieux paralléliser le processus de simulation. Ce qui devrait produire une accélération conséquente des simulations
The work of this thesis concern the contribution of the monotony in simulation methods. Initially, we focus on the study of different monotonicity notions used in stochastic modeling, trying to define the relationships between them. Three concepts have been defined in this field: the stochastic monotonicity based on stochastic comparison, the realizable monotony and finally the events monotony used in the perfect simulation. This study allowed us to use the stochastic monotonicity properties under the monotone perfect simulation. On the other hand, we have proposed monotone invertible encodings for systems whose natural representation is not monotone. This encoding allows to accelerate monotonous simulations and found its application in the simulation of optical burst. Another work was done in the field of parallel simulation, it use monotonicity properties of simulated systems to better parallelize the simulation process. This should produce a substantial acceleration in simulations
APA, Harvard, Vancouver, ISO, and other styles
32

Fauvet, Marie-Christine. "ETIC : un SGBD pour la CAO dans un environnement partagé." Phd thesis, Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00328187.

Full text
Abstract:
Le système de gestion de bases de données propose se base sur un modèle de données oriente objet. Il permet la définition dynamique des objets et des types d'objet et l'expression de contraintes sur ces types. Il offre le concept de spécialisation. Un ensemble de fonctionnalités pour définir, gérer et contrôler les activités d'une équipe de concepteurs collaborant à la réalisation d'un projet est propose. De plus, un modèle de versions permettant de manifester, caractériser et retrouver les versions des objets CAO est défini
APA, Harvard, Vancouver, ISO, and other styles
33

Zhang, Zebin. "Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles." Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0047/document.

Full text
Abstract:
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires
The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
34

Bejo, Laszlo. "Simulation based modeling of the elastic properties of structural wood based composite lumber." Morgantown, W. Va. : [West Virginia University Libraries], 2001. http://etd.wvu.edu/templates/showETD.cfm?recnum=2058.

Full text
Abstract:
Thesis (Ph. D.)--West Virginia University, 2001.
Title from document title page. Document formatted into pages; contains xiv, 224 p. : ill. (some col.). Vita. Includes abstract. Includes bibliographical references (p. 149-155).
APA, Harvard, Vancouver, ISO, and other styles
35

Lau, C. C. "Development and assessment of a reactive simulation-based manufacturing planning and control system." Thesis, Queen's University Belfast, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.269057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Puig, Bénédicte. "Modélisation et simulation de processus stochastiques non gaussiens." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00003526.

Full text
Abstract:
L'objet de ce travail de recherche est de construire un modèle approché en vue de simuler les trajectoires d'un processus stochastique non gaussien strictement stationnaire sous la seule donnée (incomplète) de sa loi marginale d'ordre un, ou des N premiers moments de cette loi, et de sa fonction d'autocorrélation. La méthode de simulation développée au cours de cette thèse s'appuie sur deux méthodes bien connues de simulation de processus gaussiens : la méthode spectrale et la markovianisation. D'autre part, si seuls les N premiers moments de la loi marginale sont donnés, le principe de maximum d'entropie est utilisé pour choisir cette loi. A partir de la loi marginale est construite une transformation non linéaire qui est ensuite projetée sur la base des polynomes d'Hermite. Le modèle construit consiste donc en une transformation polynomiale d'un processus gaussien stationnaire standard dont la fonction d'autocorrélation est déterminée à l'aide d'un problème de minimisation. Cette méthode de simulation est mise en oeuvre dans des exemples numériques inspirés de l'ingénierie mécanique. Enfin, les convergences en moyenne quadratique et presque-sure du modèle ont été étudiées.
APA, Harvard, Vancouver, ISO, and other styles
37

Canicas, Jean-François. "Formalisation et simulation du processus de reconnaissance intermoléculaire." Bordeaux 1, 1985. http://www.theses.fr/1985BOR10585.

Full text
Abstract:
S'inscrivant dans le cadre plus general de la recherche et la conception de substances medicamenteuses nouvelles, ce travail vise a apporter une contribution a l'etude du processus de reconnaissance intermoleculaire. Il a pour but de completer les approches purement graphiques et liees aux calculs et minimisation d'energie par une demarche plus automatique et systematique. Il consiste, ainsi, a se donner des outils graphiques et des outils mathematiques, en l'occurence theorie de la geometrie des distances traitee a l'aide du vocabulaire des graphes, afin de proceder aux etapes suivantes: formalisation des problemes rencontres modelisation des partenaires moleculaires simulation de leurs interactions
APA, Harvard, Vancouver, ISO, and other styles
38

Canicas, Jean-François. "Formalisation et simulation du processus de reconnaissance intermoléculaire." Grenoble : ANRT, 1985. http://catalogue.bnf.fr/ark:/12148/cb37594545c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Lenôtre, Lionel. "Étude et simulation des processus de diffusion biaisés." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S079/document.

Full text
Abstract:
Nous considérons les processus de diffusion biaisés et leur simulation. Notre étude se divise en quatre parties et se concentre majoritairement sur les processus à coefficients constants par morceaux dont les discontinuités se trouvent le long d'un hyperplan simple. Nous commençons par une étude théorique dans le cas de la dimension un pour une classe de coefficients plus large. Nous donnons en particulier un résultat sur la structure des densités des résolvantes associées à ces processus et obtenons ainsi une méthode de calcul. Lorsque cela est possible, nous effectuons une inversion de Laplace de ces densités et donnons quelques fonctions de transition. Nous nous concentrons ensuite sur la simulation des processus de diffusions baisées. Nous construisons un schéma numérique utilisant la densité de la résolvante pour tout processus de Feller. Avec ce schéma et les densités calculées dans la première partie, nous obtenons une méthode de simulation des processus de diffusions biaisées en dimension un. Après cela, nous regardons le cas de la dimension supérieure. Nous effectuons une étude théorique et calculons des fonctionnelles des processus de diffusions biaisées. Ceci nous permet d'obtenir entre autre la fonction de transition du processus marginal orthogonal à l'hyperplan de discontinuité. Enfin, nous abordons la parallélisation des méthodes particulaires et donnons une stratégie permettant de simuler de grand lots de trajectoires de processus de diffusions biaisées sur des architectures massivement parallèle. Une propriété de cette stratégie est de permettre de simuler à nouveau quelques trajectoires des précédentes simulations
We consider the skew diffusion processes and their simulation. This study are divided into four parts and concentrate on the processes whose coefficients are piecewise constant with discontinuities along a simple hyperplane. We start by a theoretical study of the one-dimensional case when the coefficients belong to a broader class. We particularly give a result on the structure of the resolvent densities of these processes and obtain a computational method. When it is possible, we perform a Laplace inversion of these densities and provide some transition functions. Then we concentrate on the simulation of skew diffusions process. We build a numerical scheme using the resolvent density for any Feller processes. With this scheme and the resolvent densities computed in the previous part, we obtain a simulation method for the skew diffusion processes in dimension one. After that, we consider the multidimensional case. We provide a theoretical study and compute some functionals of the skew diffusions processes. This allows to obtain among others the transition function of the marginal process orthogonal to the hyperplane of discontinuity. Finally, we consider the parallelization of Monte Carlo methods. We provide a strategy which allows to simulate a large batch of skew diffusions processes sample paths on massively parallel architecture. An interesting feature is the possibility to replay some the sample paths of previous simulations
APA, Harvard, Vancouver, ISO, and other styles
40

Delay, Etienne. "Réflexions géographiques sur l'usage des systèmes multi agents dans la compréhension des processus d'évolution des territoires viticoles de fortes pentes : le cas de la Côte Vermeille et du Val di Cembra." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0037/document.

Full text
Abstract:
En ce début de XXIe siècle, le vin et la vigne constituent une richesse importante pour bon nombre de pays. Les territoires viticoles, tout en conservant leurs qualités d'espace de production, développent des stratégies d'adaptation à la globalisation du marché et aux attentes des consommateurs toujours plus versatiles. Or en raison de conditions orographiques particulières, les territoires de montagne et de fortes pentes voient leurs marges de manœuvre réduites. En effet, une grosse partie de leurs coûts de production reste bien souvent incompressible par rapport à la viticulture de plaine. Paradoxalement ces paysages viticoles, image du construit social et des équilibres environnementaux, participent à leur reconnaissance internationale. Le travail présenté ici est né en réponse à la sensibilité croissante de ces vignobles de fortes pentes. En nous appuyant sur deux territoires d'étude, en France le vignoble de la Côte Vermeille et en Italie le val di Cembra, nous questionnons les spécificités de la viticulture de fortes pentes. Notre approche met l'accent sur les possibilités offertes par des méthodes empiriques de modélisation à base d'agents pour proposer un regard renouvelé sur le rôle des interactions société-environnement dans le maintien et le développement de ces territoires sous contraintes. A travers une constellation de modèles multi-agents issus des questionnements récurrents des acteurs de la filière, et selon une démarche exploratoire et incrémentale, nous nous intéresserons ici à trois grands types de questions posées aux territoires viticoles de fortes pentes. Le premier concerne la place du marché et ses conséquences sur les dynamiques de couvert végétal à petite échelle. Le second type de questionnement explore également les dynamiques spatiales du couvert végétal, mais se place à mezzo-échelle, et propose de s'intéresser à la définition des règles socio-économiques simples qui sous-tendent les dynamiques foncières à l'échelle de quelques communes. Enfin le dernier volet de ce travail se place à grande échelle et s'intéresse à des phénomènes très descriptifs. L'ensemble de ces réflexions nous amènera ensuite à utiliser la modélisation co-construite avec les acteurs pour proposer une vision prospective globale pour les territoires de montagne et de fortes pentes. Cette approche prospective sera conduite en parallèle avec certains acteurs de la filière ce qui nous permettra de délimiter les variables structurelles propres aux systèmes de fortes pentes telles qu'elles sont ou non vécues par les acteurs. Basés sur la délimitation de ces variables, nous proposons enfin quatre scenarii prospectifs pour la viticulture en fortes pentes
Wine and wineyards stand nowadays as a significant wealth for a number of countries. While retaining their properties as production space, vine-growing regions are developing adaptation strategies to market globalisation and to the ever more versatile consumer expectations. Yet, due to the corresponding specific orographic conditions in steep slope and mountain regions, actor's relative leeway is reducing ,. Comparatively to plain wine-growing, a large part of their production costs often remains indeed incompressible. On the other hand, these vine-growing landscape take advantage of such harsh conditions in terms of international recognition, as images of social construct and environmental equilibrium. The work presented here emerged as a response to this steep slope vineyards' sensitivity. This investigation relies on two study areas: the Côte Vermeille vineyards in France, and the val di Cembra in Italy. Our approach focuses on the opportunities granted by agent-based empirical modelling methods, in order to put forward a renewed look at the role of society-environment interactions in the sustainability and development of territories subject to constraints. Using an exploratory and incremental method, three significant issues of steep slope vine-growing regions have been addressed, thanks to a constellation of multi-agent models, derived from questioning actors of this sector. The first considers the market's impacts on the small-scale plant cover dynamics. The second issue focuses on meso-scale plant cover dynamics and questions the definition of simple socio-economic ruleset, within the frame of land property dynamics and applied to the scale of a few municipalities. The last section of this work is dedicated to some descriptive phenomena within a large scale. Thus, the sum of these reflections leads us to exploit co-designed modelling with the stakeholders in order to propose a global prospective vision for mountain and steep slope regions. This prospective approach is conducted in association with some of the players in the sector, thus allowing us to delineate the structural variables linked to steep slope vineyards' systems in agreement with their experience. Based on these delineated variables, four prospective scenarii are put forward for the steep slope vine-growing activity
APA, Harvard, Vancouver, ISO, and other styles
41

Xiang, Haiou. "BLUETOOTH-BASE WORM MODELING AND SIMULATION." Master's thesis, University of Central Florida, 2007. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/2669.

Full text
Abstract:
Bluetooth is one of the most popular technologies in the world in the new century. Meanwhile it attracts attackers to develop new worm and malicious code attacking Bluetooth wireless network. So far the growth of mobile malicious code is very fast and they have become a great potential threat to our society. In this thesis, we study Bluetooth worm in Mobile Wireless Network. Firstly we investigate the Bluetooth technology and several previously appeared Bluetooth worms, e.g. "Caribe","Comwar", and we find the infection cycle of a Bluetooth worm. Next, we develop a new simulator, Bluetooth Worm simulator (BTWS), which simulates Bluetooth worm' behaviors in Mobile wireless networks. Through analyzing the result, we find i) In ideal environment the mobility of Bluetooth device can improve the worm's propagation speed, but combining mobility and inquiry time issue would cause a Bluetooth worm to slow down its propagation under certain situation. ii) The number of initially infected Bluetooth devices mostly affects the beginning propagation speed of a worm, and energy issue can be ignored because the new technology can let Bluetooth device keeping work for a long time. iii) Co-channel interference and setting up monitoring system in public place can improve the security of Bluetooth wireless network.
M.S.
School of Electrical Engineering and Computer Science
Engineering and Computer Science
Computer Science MS
APA, Harvard, Vancouver, ISO, and other styles
42

Dahlström, Christina. "Quantitative microscopy of coating uniformity." Doctoral thesis, Mittuniversitetet, Institutionen för tillämpad naturvetenskap och design, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:miun:diva-16454.

Full text
Abstract:
Print quality demands for coated papers are steadily growing, and achieving coating uniformity is crucial for high image sharpness, colour fidelity, and print uniformity. Coating uniformity may be divided into two scales: coating thickness uniformity and coating microstructure uniformity, the latter of which includes pigment, pore and binder distributions within the coating layer. This thesis concerns the investigation of both types of coating uniformity by using an approach of quantitative microscopy.First, coating thickness uniformity was analysed by using scanning electron microscope (SEM) images of paper cross sections, and the relationships between local coating thickness variations and the variations of underlying base sheet structures were determined. Special attention was given to the effect of length scales on the coating thickness vs. base sheet structure relationships.The experimental results showed that coating thickness had a strong correlation with surface height (profile) of base sheet at a small length scale. However, at a large length scale, it was mass density of base sheet (formation) that had the strongest correlation with coating thickness. This result explains well the discrepancies found in the literature for the relationship between coating thickness variation and base sheet structure variations. The total variance of coating thickness, however, was dominated by the surface height variation in the small scale, which explained around 50% of the variation. Autocorrelation analyses were further performed for the same data set. The autocorrelation functions showed a close resemblance of the one for a random shot process with a correlation length in the order of fibre width. All these results suggest that coating thickness variations are the result of random deposition of particles with the correlation length determined by the base sheet surface textures, such as fibre width.In order to obtain fundamental understandings of the random deposition processes on a rough surface, such as in paper, a generic particle deposition model was developed, and systematic analyses were performed for the effects of particle size, coat weight (average number of particles), levelling, and system size on coating thickness variation. The results showed that coating thickness variation3grows with coat weight, but beyond a certain coat weight, it reaches a plateau value. A scaling analysis yielded a universal relationship between coating thickness variation and the above mentioned variables. The correlation length of coating thickness was found to be determined by average coat weight and the state of underlying surfaces. For a rough surface at relatively low coat weight, the correlation length was typically in the range of fibre width, as was also observed experimentally.Non-uniformities within the coating layer, such as porosity variations and binder distributions, are investigated by using a newly developed method: field emission scanning electron microscopy (FESEM) in combination with argon ion beam milling technique. The combination of these two techniques produced extremely high quality images with very few artefacts, which are particularly suited for quantitative analyses of coating structures. A new evaluation method was also developed by using marker-controlled watershed segmentation (MCWS) of the secondary electron images (SEI).The high resolution imaging revealed that binder enrichment, a long disputed subject in the area, is present in a thin layer of a 500 nm thickness both at the coating surface and at the base sheet/coating interface. It was also found that the binders almost exclusively fill up the small pores, whereas the larger pores are mainly empty or depleted of binder.
APA, Harvard, Vancouver, ISO, and other styles
43

Liu, ke. "A Simulation Based Approach to EstimateEnergy Consumption for Embedded Processors." Thesis, Högskolan i Halmstad, Centrum för forskning om inbyggda system (CERES), 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-29913.

Full text
Abstract:
Embedded systems have entered a new era in which system designers have to consider more and more strict energy consumption constraints. This thesis reviewsprevious studies of the processor energy consumption estimation. Particularly, wefocus on instruction-level energy consumption for embedded processors and explorethe energy consumption model for manycore architecture in real traffic pattern.The purpose of this thesis project is to estimate energy consumption and constructan energy model using an instruction-set simulator for embedded processors. OpenVirtual Platforms (OVP) and Epiphany Single Core Simulator (ESCS) are used toobtain an instruction sequence for a given software. Then, the functionality of energyconsumption estimation is integrated into OVP.Our energy consumption estimation approach categorizes instructions in fourgroups and uses base energy cost of each category to calculate the total energyconsumption for an application that runs on Epiphany core and ARM Cortex M0.The energy consumption estimation for Epiphany core has been successfully testedby BEEBS benchmarks. Details of the derivation process, results and analysis ofenergy consumption estimation methods are provided.
APA, Harvard, Vancouver, ISO, and other styles
44

Tang, Gula. "Research on distributed warning system of water quality in Mudan river based on EFDC and GIS." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD023/document.

Full text
Abstract:
Le système de simulation et d'avis précoce d'alerte est un outil puissant pour la surveillance de la qualité de l'eau de la rivière Mudan, une rivière importante dans les régions froides du nord-est de la Chine et qui se jette finalement dans la rivière de l'Amour en Russie. Ainsi la qualité de l'eau dans la rivière Mudan est une préoccupation importante non seulement au niveau local et régional,mais aussi au niveau international. L'objectif de cette étude est de créer un système de simulation et d'avis précoce d'alerte pour que la distribution spatio-temporelle de la qualité de l'eau durant les périodes de couverture glaciaire et d'eaux libres soit simulée et visualisée précisément et afin que l'on puisse appréhender la variation spatiale de polluants sur le cours de rivière. La thèse est structurée en 7 chapitres. Dans le premier chapitre nous décrivons le contexte de l'étude et faisons un état de lieu des recherches actuelles. Dans le chapitre Il, la comparaison des modèles principaux disponibles pour l'évaluation de la qualité de l'eau est réaliser ainsi que le choix du meilleur modèle comme base pour créer le système de modélisation. Dans le chapitre Ill, la construction du modèle,les conditions limites requises et les paramètres pour le modèle ont été vérifiés et étalonnés. Une procédure de simulation distribuée est conçue dans le chapitre IV pour améliorer l'efficacité de la simulation. Le chapitre V concerne la programmation et la réalisation la de simulation distribuée et le chapitre VI les techniques fondamentales pour mettre en œuvre le système. Le chapitre VII est la conclusion. Il y a trois points innovants dans ce travail: un modèle bidimensionnel de dynamique de fluides de l'environnement pour la rivière Mudan, une méthode efficace du calcul distribué et un prototype de système de simulation et d'avis précoce d'alerte qui peuvent largement améliorer la capacité de surveillance et de gestion de la qualité de l'eau de la rivière Mudan ou d'autres rivières similaires
Simulation and Early Warning System (SEWS) is a powerful tool for river water quality monitoring. Mudan River, an important river in northeastern cold regions of China, can run out of China into Russia. Thus, the water quality of Mudan River is highly concerned not only locally andregionally but also internationally. Objective of this study is to establish an excellent SEWS of water quality so that the spatio-temporal distribution of water quality in both open-water and ice-covered periods can be accurately simulated and visualized to understand the spatial variation of pollutants along the river course. The dissertation is structured into 7 chapters, chapter 1 outlines the background of the study and reviews the current progress. Chapter Il compares the main available models for evaluating river water quality so that a better model can be selected as the basis to establish a modeling system for Mudan River. Chapter Ill establishes the model, the required boundary conditions and parameters for the model were verified and calibrated. Chapter IV, a distributed simulation procedure was designed to increase the simulation efficiency. Chapter V discusses more about the programing and operational issues of the distributed simulation. Chapter VI is about the core techniques to implement the system. Chapter VII is the conclusion of the study to summarize the key points and innovations of the study. The study has the following three points as innovation : a two-dimensional environmental fluid dynamics model for Mudan River, an efficient distributed model computational method and a prototype of SEWS, which can greatly improve the capability of monitoring and management of water quality in Mudan River and other similar rivers
APA, Harvard, Vancouver, ISO, and other styles
45

El, Harabi Rafika. "Supervision des processus chimiques à base de modèles Bond Graphs." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10074/document.

Full text
Abstract:
Le travail de thèse proposé concerne la conception intégrée des algorithmes de surveillance des processus chimiques à base de modèles bond graph. Cette recherche est réalisée dans le cadre de la thématique «Bond graphs pour la supervision des procédés énergétiques» développée entre l’Université de Gabés (Tunisie) et l’Ecole Polytechnique Universitaire de Lille (France). Les processus chimiques sont des procédés polluants et à risque. Ils nécessitent alors pour la protection de l’environnement et du personnel des systèmes de surveillance en ligne pour la détection précoce et l’identification des défaillances. Un processus chimique est le siège de phénomènes de nature diverse : chimiques et ou biochimiques, thermo-fluidique, …. Leur modélisation nécessite alors une approche unifiée. L’outil bond graph par son caractère multidisciplinaire est bien adapté à cette tâche. D’autre part, cet outil peut aussi être utilisé pour la conception d’algorithmes de diagnostic grâce à ses propriétés comportementales, causales et structurelles et déterminer ainsi les conditions de surveillabilité structurelle des équipements pertinents sans calcul numérique. Les principales scientifiques contributions peuvent être résumées comme suit : (i) élaboration d’une bibliothèque de modèles Bond Graph de composants et phénomènes chimiques (ii) méthodologie de diagnostic à base de bond graphs pour la génération d’indicateurs de fautes sensibles à l’apparition des réactions secondaires sources de pollution et d’explosion, (iii) diagnostic robuste aux incertitudes paramétriques du modèle Bond Graphs couplés, (iv) informatisation des procédures d’analyse de surveillabilité d’une classe de procédés chimiques, (v) application à un procédé réel (installation d’estérification)
The proposed Ph.D. thesis deals with integrated design of bond graph model based for health monitoring of chemical processes. This research work is performed within the framework of the topic “Bond graphs for supervision of energetic processes" developed between the University of Gabés (Tunisia) and “Polytech’Lille”, the Engineering School within the University of Science and Technology of Lille. The chemical processes are polluting processes and with risk. They need, for staff safety and environmental protection, online surveillance for early detection and the identification of the failures. chemical processes occur phenomena of various nature: chemical and or biochemical, thermo-fluidic… Their modeling requires a unified approach. The Bond graph as a multidisciplinary tool is well suited to this task.Furthermore, this tool can be used also for the design of diagnosis algorithms thanks to its behavioral, causal and structural properties, and allows providing structural diagnosability conditions of the pertinent equipment without numerical calculation. The main scientific contributions of this research can be summarized as follows: (i)elaboration of a data base of dynamic bond graph models of components and chemical phenomena, (ii) methodology of bond graph model based diagnosis for systematic generation of fault indicators sensitive to the appearance of the secondary reactions source of pollution and explosion, (iii) robust diagnosis based on coupled uncertain bond graph model, (iv) computerization of the diagnosability analysis procedures applied to a class of a chemical process, (v) application to a real process (installation of esterification)
APA, Harvard, Vancouver, ISO, and other styles
46

Bouchaala, Charfeddine Olfa. "Gestion sensible au métier des processus à base de services." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL004/document.

Full text
Abstract:
Face à un environnement métier très dynamique, les entreprises expriment un grand besoin de gestion de leurs processus métiers de point de vue métier. Il existe trois types d’approche de gestion sensible aux changements de l’environnement métier : à savoir les approches impératives, déclaratives et hybrides. Les approches déclaratives sont très flexibles. Cependant, elles sont très couteuses en termes de temps. En contre partie, les approches impératives sont très efficaces mais trop rigide. Les approches hybrides, à leur tour, essaient de concilier entre les approches impératives et déclaratives afin d’augmenter le niveau concurrentiel des entreprises. Néanmoins, elles nécessitent un effort d’alignement entre la logique métier et la logique du processus. En outre, nous constatons que certaines approches ne sont pas faisables en pratique puisqu’ils n’utilisent pas les standards des processus.De plus, l’efficacité et la flexibilité sont antagonistes. Par conséquent, dans cette thèse, nous nous intéressons à la gestion sensible au métier visant à : (1) concilier les techniques déclaratives et les techniques impératives en une approche hybride pour tirer profit de leurs avantages, (2) préserver les standards des processus, et (3) minimiser l'effort des concepteurs. Nous avons ainsi proposé une nouvelle approche hybride pour la gestion des processus métiers. Nous avons modélisé la gestion d’un processus métier par un processus de gestion connecté au premier qui permet de le superviser et le configurer. Ce processus de gestion est généré grâce à une modélisation sémantique des relations entre les processus métiers, les services et l’environnement métier. Nous avons également implémenté cette approche et l'évaluer en comparaison avec les approches existantes de gestion sensible aux changements de l'environnement métier
Continuous business environment changes urge companies to adapt their processes from a business environment point of view. Indeed, companies struggle to find a balance between adapting their processes and keeping competitiveness. While the imperative nature of business processes is too rigid to adapt them at run-time, the declarative one of the purely rule based business processes is, however, very time consuming. Hybrid approaches in turn try to reconcile between these approaches aiming to reach the market requirements. Nevertheless, they also need an effort for aligning business logic and process logic. Therefore, in this thesis, we focus on business environment-aware management of service-based business processes aiming at conciliating imperative and declarative approaches. Our challenge is to develop a hybrid management approach that preserves industry standards to describe and to manage SBPs as well as minimizes designers’ efforts. Based on a semantic modeling of business environment, business processes as well as their relationships, and a control dependency analysis of business processes, we are able to synthesize a controller, itself modeled as a process, connected to the business process to be monitored and configured at run-time. We also validated the feasibility of our management approach by implementing the framework Business Environment-Aware Management for Service-based Business processes (BEAM4SBP). Experimentations show the efficiency of our approach with respect to other BEAM approaches
APA, Harvard, Vancouver, ISO, and other styles
47

Villefranche, Laurent, and Frédéric Serin. "Simulateur de gestion d'un terminal à conteneurs : simulation discrète par macro-processus et processus complementaires." Rouen, 1996. http://www.theses.fr/1996ROUES002.

Full text
Abstract:
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l'évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d'activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d'étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), l'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé Simulateur de Gestion d'un Terminal à Conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des resources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
48

Ben, Salah Fatma. "Modélisation et simulation à base de règles pour la simulation physique." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2293.

Full text
Abstract:
La simulation physique des objets déformables est au cœur de plusieurs applications dans l’informatique graphique. Dans ce contexte, nous nous intéressons à l’élaboration d’une plate-forme, qui combine le modèle topologique des Cartes Généralisées avec un ou plusieurs modèles mécaniques, pour l’animation physique d’objets maillés déformables, pouvant endurer des transformations topologiques comme des déchirures ou des fractures.Pour offrir un cadre aussi général que possible, nous avons adopté une approche à base de règles de manipulation et de transformation de graphes, telle que proposée par le logiciel JERBOA. Cet environnement offre des possibilités de prototypage rapide de différents modèles mécaniques. Il nous a permis de définir précisément le stockage des informations mécaniques dans la description topologique du maillage et de simuler les déformations en utilisant une base topologique pour le calcul des interactions et l’affectation des forces. Toutes les informations mécaniques sont ainsi stockées dans le modèle topologique, sans recours à une structure auxiliaire.La plate-forme réalisée est générale. Elle permet de simuler des objets 2D ou 3D, avec différents types de maillages, non nécessairement homogènes. Elle permet de simuler différents modèles mécaniques, continus ou discrets, avec des propriétés diverses d’homogénéité et d’isotropie. De plus, différentes solutions d’évolution topologique ont été proposées. Elles impliquent la sélection d’un critère déclenchant les modifications et un type de transformation proprement dit. Notre approche a également permis de réduire les mises à jour du modèle mécanique en cas de déchirure/fracture
The physical simulation of deformable objects is at the core of several computer graphics applications. In this context, we are interested in the creation of a framework, that combines a topological model, namely Generalized Maps, with one or several mechanical models, for the physical animation of deformable meshed objects that can undergo topological modifications such as tearing or fractures.To obtain a general framework, we chose to rely on graph manipulation and transformation rules, proposed by the JERBOA software. This environment provided us with fast prototyping facilities for different mechanical models. It allowed us to precisely define how to store mechanical properties in the topological description of a mesh and simulate its deformation in a topologically-based manner for interaction computation and force distribution. All mechanical properties are stored in the topological model without any external structure.This framework is general. It allows for the simulation of 2D or 3D objects, with different types of meshes, including non homogeneous ones. It also allowed for the simulation of several, continuous or discrete, mechanical models with various properties of homogeneity and isotropy. Furthermore, different methods to simulate topological modifications have been implemented in the framework. They include both the selection of a criterion to trigger topological modifications and a transformation type. Our approach also managed to reduce the number of updates of the mechanical model after tearing / fracture
APA, Harvard, Vancouver, ISO, and other styles
49

Glardon, Carmen. "Simulation et optimisation du processus constructif de rénovation d'immeubles /." [S.l.] : [s.n.], 1995. http://library.epfl.ch/theses/?nr=1355.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Droux, Jean-Jacques. "Simulation numérique bidimensionnelle et tridimensionnelle de processus de solidification /." [S.l.] : [s.n.], 1991. http://library.epfl.ch/theses/?nr=901.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography