To see the other types of publications on this topic, follow the link: Simulation séquentielle.

Dissertations / Theses on the topic 'Simulation séquentielle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Simulation séquentielle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wackernagel, Hans. "Géostatistique et assimilation séquentielle de données." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00542362.

Full text
Abstract:
La géostatistique spatio-temporelle traditionnelle n'est pas en mesure de décrire adéquatement la dynamique, en général fortement non-linéaire, de processus spatio-temporels multivariables. Pour cela des modèles de transport physico-chimiques sont en général bien mieux adaptés. Cependant, étant donné que ces derniers ne maîtrisent pas totalement la complexité des processus qu'ils cherchent à décrire, soit parce qu'ils sont basés sur des hypothèses simplificatrices, soit parce que l'information servant à établir les conditions initiales et aux limites est imparfaite, il est opportun d'introduire des techniques statistiques servant à les guider pour assimiler un flot de mesures émanant de capteurs automatiques. Des projets récents au Centre de Géostatistique de l'Ecole des Mines de Paris ont permis d'explorer l'application de ces techniques dans le domaine de l'océanographie et en pollution de l'air. Il s'est très vite avéré que la géostatistique offrait des concepts et des approches qui pouvaient contribuer à enrichir les techniques d'Assimilation Séquentielle de Données. La thèse de Laurent Bertino et des publications ultérieures ont permis de développer cette thématique porteuse, dont la présente synthèse établit un compte-rendu.
APA, Harvard, Vancouver, ISO, and other styles
2

Meneveaux, Daniel. "Simulation d'éclairage dans des environnements architecturaux complexes : approches séquentielle et parallèle." Phd thesis, Université Rennes 1, 1998. http://tel.archives-ouvertes.fr/tel-00007237.

Full text
Abstract:
Effectuer des calculs d'illumination globale pour des environnements complexes et les visualiser de manière interactive demeure un problème difficile en synthèse d'images. En effet, la radiosité hiérarchique est un processus très coûteux en termes de temps de calcul et de ressources mémoire, même pour des scènes de complexité moyenne. Par conséquent, dans le cas d'environnements complexes, une étape de précalcul est nécessaire. Ce précalcul consiste à découper la scène en plusieurs régions (appelées cellules) et évaluer les relations de visibilité entre ces régions. La méthode de découpage (ou de structuration) que nous proposons est inspirée de l'analyse d'images et consiste à mettre en correspondance des modèles génériques de cellules avec des éléments géométriques déduits de la scène. Comparée à la technique de subdivision binaire de l'espace, cette méthode fournit des résultats beaucoup plus convaincants car le nombre de cellules obtenues est plus faible et par conséquent les calculs de visibilité et de simulation d'éclairage se trouvent simplifiés. A chaque étape de la simulation d'éclairage, seule une petite partie de la scène réside en mémoire. Les informations géométriques et photométriques nécessaires à la représentation des objets de la scène sont stockées sur disque. La simulation de la propagation de la lumière est alors considérée comme la composition de tâches élémentaires consistant à (i) charger en mémoire les informations nécessaires à la simulation, (ii) effectuer les calculs de radiosité, (iii) remettre à jour la base de données sur le disque. Néanmoins, afin de réduire les nombreux échanges d'information entre le disque et la mémoire, il est nécessaire d'ordonner les calculs de manière efficace. Pour cela, nous proposons plusieurs stratégies d'ordonnancement des calculs reposant sur une prédiction des coûts de ces échanges d'informations à court, moyen ou long terme. Ces stratégies utilisent les connaissances relatives à la structuration de la scène en cellules et les relations de visibilité qui existent entre elles. Nous avons mis en oeuvre une version parallèle de cet algorithme à l'aide de l'environnement de programmation MPI (Message Passing Interface). Dans ce cas, toutes les données sont stockées sur un disque commun à tous les processeurs afin de réduire le nombre de messages et leur taille. Chaque processeur effectue les calculs pour un ensemble de régions selon les mêmes stratégies d'ordonnancement que l'algorithme séquentiel. Un mécanisme d'équilibrage de charge dynamique suivant une technique de vol de tâche (task stealing) permet d'éviter que certains processeurs restent inactifs au cours des calculs. Enfin, la terminaison de l'algorithme est réalisée à l'aide d'une reconfiguration dynamique des processeurs en anneau qui permet également la gestion de la convergence de l'algorithme.
APA, Harvard, Vancouver, ISO, and other styles
3

Klaudel, Witold. "Contribution aux logiciels de simulation généralisée basée sur une approche séquentielle et l'emploi de flux d'information." Châtenay-Malabry, Ecole centrale de Paris, 1989. http://www.theses.fr/1989ECAP0085.

Full text
Abstract:
La présente érude définit une nouvelle conception de la modélisation des états stationnaires des installations chimiques. Cette conception augmente l'efficacité numérique de l'approche modulo-séquenteille. Elle s'appuie sur l'existence de plusieurs variantes admissibles de calcul des unités technologiques. L'étude introduit de nouvelles notions comme le graphe de flux d'information au cours des calculs et l'arbre de complexité des calculs. On présente des algorithmes de leur transformation qui optimisent les calculs.
APA, Harvard, Vancouver, ISO, and other styles
4

Poli, Emmanuelle. "Stratigraphie séquentielle haute-résolution, modèles de dépôt et géométrie 2D-3D des séquences triasiques de la marge téthysienne ardéchoise." Dijon, 1997. http://www.theses.fr/1997DIJOS081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Rivallain, Mathieu. "Étude de l'aide à la décision par optimisation multicritère des programmes de réhabilitation énergétique séquentielle des bâtiments existants." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00861172.

Full text
Abstract:
Sous nos latitudes, l'usage des bâtiments existants et les consommations énergétiques associées (chauffage, climatisation, ventilation, eau chaude sanitaire, éclairage et autres usages) sont responsables d'impacts considérables sur l'Environnement. De plus, le renouvellement du parc existant étant inférieur à 1% par an, dans la plupart des pays développés, la réhabilitation des bâtiments constitue un levier majeur de réduction des consommations d'énergie et des émissions de gaz à effet de serre. Cependant, l'identification de stratégies optimales de réhabilitation énergétique, incluant la planification des actions dans le temps, demeure une problématique complexe pour les acteurs de la Construction. Ces travaux de thèse visent à produire des connaissances afin de contribuer à l'aide à la décision pour l'identification de programmes efficaces de réhabilitation énergétique, à partir de méthodes d'optimisation multicritères. Les solutions (programmes séquentiels de réhabilitation énergétique) sont optimisées en termes de composition et de phasage. La composition est définie par la combinaison de mesures de réhabilitation mise en oeuvre. Celles-ci concernent l'enveloppe des bâtiments (isolation thermique, remplacement des fenêtres, surfaces de fenêtres) et le remplacement des équipements de chauffage, ventilation et production d'ECS. Pour chacune des mesures, plusieurs alternatives sont envisagées. Le phasage correspond à la permutation de ces mesures, définissant la séquence de mise en oeuvre. Les solutions sont évaluées sur une base multicritère et sur le cycle de vie. Les fonctions objectifs ciblent les impacts environnementaux de l'ACV (Analyse de Cycle de Vie), des indicateurs économiques, le bien-être des occupants par le confort thermique adaptatif en été. Des modèles d'ACV et d'analyse du coût du cycle de vie, utilisant la simulation thermique dynamique pour le calcul des besoins de chauffage et des températures intérieures, ont été développés pour l'évaluation des performances des solutions. Etant donnée la nature mathématique du problème (multicritère, combinatoire, à variables discrètes et à fonctions objectifs implicites non-linéaires), deux méthodes d'optimisation multicritères sont étudiées : les algorithmes génétiques (NSGA II) et la programmation dynamique. Dans l'approche génétique, la modélisation des solutions, sous la forme d'un couple de chromosomes, permet d'identifier des programmes séquentiels efficaces de réhabilitation énergétique et d'analyser les surfaces de compromis, en termes de définition et performances des solutions, de compromis entre les critères de décision. A partir de la représentation du problème par un graphe séquentiel, la programmation dynamique permet alors de comparer les solutions approchées issues de l'algorithme génétique, ou d'approches court-termistes, au front de Pareto exact. L'optimisation exacte a également été exploitée pour analyser la sensibilité des solutions à différents paramètres de modélisation dont le comportement des occupants, l'évolution des prix de l'énergie, la durée de vie des composants de réhabilitation. Les contraintes budgétaires s'appliquant au projet de réhabilitation ont été ensuite intégrées dans un algorithme génétique multicritère sous contraintes, adapté à l'étude des stratégies de réhabilitation sous la contrainte d'un plan de financement. Enfin, l'approche génétique a été étendue depuis l'échelle du bâtiment à celle du par cet l'optimisation exacte a été utilisée pour caractériser les typologies de bâtiment en réhabilitation. L'intérêt des différentes méthodes est illustré sur une étude de cas (...)
APA, Harvard, Vancouver, ISO, and other styles
6

Emery, Xavier. "Simulation conditionnelle de modèles isofactoriels." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001185.

Full text
Abstract:
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
APA, Harvard, Vancouver, ISO, and other styles
7

Shields, Jean-Philippe. "Élaboration du modèle conceptuel flexible et extensible d'une architecture logicielle orientée-objet permettant la parallélisation et la distribution d'une architecture de simulation séquentielle." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24474/24474.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sakho, Ibrahima. "Synthèse et simulation d'algorithmes systoliques." Phd thesis, Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00323979.

Full text
Abstract:
Proposition d'une méthode dite de positionnement pour la conception d'algorithmes parallèles pour réseaux symboliques composés de cellules programmables. Simulation d'algorithmes symboliques dans le langage Occam, caractérisé par un mécanisme de synchronisation locale. Quelques résultats partiels sur une conjecture a propos du plus long cycle que peut générer séquentiellement un réseau booléen monotone sont présentés
APA, Harvard, Vancouver, ISO, and other styles
9

Langlais, Clothilde. "Étude de la variabilité interannuelle des échanges côte-large : simulation haute résolution de la dynamique du Golfe du Lion." Toulon, 2007. http://www.theses.fr/2007TOUL0030.

Full text
Abstract:
Le milieu côtier est une zone de transition entre continent et mer du large. Les interactions entre le courant Nord, composante de la circulation à l'échelle du bassin méditerranéen occidental, et la circulation côtière (upwelling côtier, formation d'eau dense, cascading. Panache du Rhône,. . ) revêtent d'une importance capitale pour l'étude des échanges côte-large qui sont un facteur clef (et encore peu maîtrisé) des modifications du milieu marin à l'échelle climatique. Pour cette étude, on utilise le modèle OPA. 9. 0 MEMO en configuration côtière avec une haute résolution horizontale (1,25km) et verticale (130 niveaux verticaux) sur une longue période 1990-2000. Deux problématiques sont au coeur de cette étude. Tout d'abord, l'étude en interannuel et à haute résolution du Golfe du Lion n'a jamais été effectuée et apparaît comme pertinente dans le cadre des échanges côte-large. Les sorties numériques nous permettent d'étudier la variabilité interannuelle des processus d'échanges afin de comprendre et de quantifier le bilan qui s'opère le long du talus. De plus, la mise en oeuvre et l'utilisation d'OPA sur cette zone a permis d'évaluer les possibilités et les limites du modèle en zone côtière microtidal ; ce qui est en accord avec les besoins actuels de la communauté scientifique (Mercator. Meisea, Godae) qui cherche à inclure les zones côtières dans les systèmes de prévisions
Questions of global change entail elucidation of the processes that determine the exchanges between coastal ocean and deep sea. Fluxes across, ocean shelves are dominated by complex coastal dynamics and in the microtidal site of the Gulf of Lions, mixing and dispersion are dominated by interactions between coastal processes (freshwater dynamics associated to the Rhône river discharge, coastal upwellings, dense water formation and cascading) and the North Mediterranean shelf current. To know how these processes operate and interact, a regional model of the Gulf of Lions has been integrated over the 10 year period 1990-2000. The model is based on the NEMO code, with a 1/64" resolution and 130 vertical z-levels. Two main objectives can be underlined. The numerical outputs allow us to investigate the interanmial variability of the coastal circulation and fluxes across the shelf break and then to strike a balance, of the exchanges at the Gulf of Lion's margin over a quasi-climatic period. Coastal modelling and forecasting is a major challenge for the scientific community, and this study allow us to evaluate the modelling ability of the NEMO code in a coastal and microtidal application
APA, Harvard, Vancouver, ISO, and other styles
10

Aunay, Bertrand. "Apport de la stratigraphie séquentielle à la gestion et à la modélisation des ressources en eau des aquifères côtiers." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00275467.

Full text
Abstract:
Lieu de développement économique et démographique intense, les zones littorales font l'objet de pressions importantes sur l'environnement et, en particulier, sur les ressources en eau. Bien que la gestion des eaux souterraines côtières bénéficie de nombreux résultats issus de la recherche scientifique, une des problématiques majeures reste la connaissance de la géométrie des aquifères. Des interprétations géologiques de la genèse du bassin Plio-Quaternaire du Roussillon, issues de la stratigraphie séquentielle, sont confrontées, par l'intermédiaire d'une base données, à l'hydrogéologie de cet hydrosystème complexe localisé sur la partie littorale des Pyrénées-Orientales. L'étude statistique des points de prélèvement (distribution des crépines, productivité des forages...), l'analyse fonctionnelle (traitement du signal des chroniques piézométriques), l'hydrochimie et la géophysique électrique ont été utilisées afin d'élaborer un modèle conceptuel hydrogéologique des écoulements à l'échelle du bassin et de son prolongement vers le domaine offshore. La présence de la mer, de zones à salinité résiduelle et de cours d'eaux littoraux contribue à augmenter la salinité d'un aquifère libre supérieur (Quaternaire) sus-jacent aux différents aquifères captifs (Pliocène) exploités pour l'eau potable dans la zone littorale. La vulnérabilité face aux intrusions salines de cette ressource de bonne qualité, tant sur le point de vue quantitatif que qualitatif est appréhendée par modélisation. Dans le domaine offshore, le rôle protecteur des formations géologiques à faible et moyenne perméabilité est mis en évidence vis-à-vis de la préservation de la qualité de l'eau potable.
APA, Harvard, Vancouver, ISO, and other styles
11

Gardet, Caroline. "Modélisation multi-échelles de réservoir et calage d'historique de production." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066645/document.

Full text
Abstract:
Dans cette thèse, nous proposons deux algorithmes multi-échelles pour la simulation de modèles géologiques de réservoir. Le premier algorithme relève des méthodes géostatistiques à deux points. Il s'agit d'une simulation séquentielle Gaussienne avec variable secondaire. Dans notre approche multi-échelle, la variable secondaire est supposée connue à une deuxième échelle, de résolution plus grossière. Elle représente alors la tendance ou moyenne de la variable principale. A partir d'une paramétrisation adéquate, on montre que le calage des propriétés du modèle géologique à l'échelle grossière est plus efficace que le calage de ces mêmes propriétés à l'échelle fine. Notre méthode est applicable aux variables continues et aux variables discrètes.Le deuxième algorithme est une adaptation d'un algorithme de synthèse de texture aux problèmes de réservoir. C'est un algorithme de simulation multipoints qui nécessite l'utilisation d'une image d'entrainement. Il permet de reproduire des objets géologiques de formes complexes comme des chenaux ou des réseaux de fractures. Comme tous les algorithmes multipoints, il requiert des temps de calcul important. Nous montrons alors comment l'introduction d'une échelle intermédiaire permet de diminuer ce temps de calcul et d'améliorer la reproduction des grandes structures. Nous testons deux techniques pour diminuer davantage encore le temps de calcul : le scan partiel de l'image d'entrainement ou l'organisation des informations extraites de cette même image
In this manuscript, we propose two multiscale algorithms for the simulation of geological reservoir models.The first algorithm is based on two-points statistics methods. It is based upon the sequential Gaussian simulation with a secondary variable. In our multiscale approach, the scale of the secondary variable is considered as a second scale of coarser resolution. It represents the trend or the average of the primary variable. In the context of history-matching, it can be shown that adjusting the properties of the geological model at the coarse scale is more effective than doing the same at the fine scale provided a suitable parameterization technique is used. Our method holds for both continuous and discrete variables. The second algorithm is rooted in texture synthesis techniques developed in computer graphics and modified to cope with reservoir simulation. This is a multipoint simulation algorithm. As such, it requires the use of a training image. It permits to simulates complex geological objects like channels or networks of fractures. However, as all multipoint algorithms, it requires significant computation times. We show how the introduction of an intermediate scale reduces the computation time and improves the reproduction of large structures. We also test two techniques to further reduce the computation time: the partial scan of the training image and the preliminary organization of the information extracted from this image
APA, Harvard, Vancouver, ISO, and other styles
12

Bosch, Daphnée. "Simulation, fabrication et caractérisation électrique de transistors MOS avancés pour une intégration 3D monolithique." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT077.

Full text
Abstract:
De nos jours, l’industrie microélectronique doit maitriser un véritable « déluge de données » et une demande toujours en croissance de fonctionnalités ajoutées pour les nouveaux secteurs de marchés tels que la 5G, l’internet des objets, l’intelligence artificielle… Par ailleurs, l’énergie et sa gestion est un enjeu majeur au sein des architectures Von-Neumann traditionnelles. Dans ce cadre, ce travail de thèse explore l’intégration 3D monolithique ainsi que des dispositifs pour le calcul dans la mémoire. Premièrement, l’intégration 3D monolithique n’est pas perçue uniquement comme une alternative à la loi de Moore mais permet de diversifier les circuits. Les avantages de cette intégration sont analysés en détails et en particulier, une aide à la stabilité des mémoires SRAM (Static Random Access Memory) est proposée. Cette aide améliore significativement la stabilité ainsi que les performances des SRAM de l’étage supérieur, sans dégrader l’empreinte silicium. Secondement, des transistors sans jonctions (junctionless), compatibles avec une intégration 3D séquentielle sont étudiés. Les dispositifs sont simulés, fabriqués et caractérisés électriquement pour des applications digitales et analogiques. En particulier, l’impact du dopage canal sur la variabilité est analysée. Egalement des briques à basse température (<500°C) sont développées. Troisièmement, une structure 3D innovante combinant des transistors sans jonctions empilées et des mémoires résistives (RRAM) est étudiée. Cette technologie permet de faire des opérations Booléennes au sein de la mémoire en utilisant l’approche Scouting logique
Nowadays, Microelectronics industry must handle a real “data deluge” and a growing demand of added functionalities due to the new market sector of Internet Of Things, 5G but also Artificial Intelligence... At the same time, energy becomes a major issue and new computation paradigms emerge to break the traditional Von-Neumann architecture. In this context, this PhD manuscript explores both 3D monolithic integration and nano-electronic devices for In-Memory Computing. First, 3D monolithic integration is not seen only as an alternative to Moore’s law historic scaling but also to leverage circuit diversification. The advantages of this integration are analysed in depth and in particular an original top-tier Static Random Access Memories (SRAM) assist is proposed, improving significantly SRAM stability and performances without area overhead. In a second time, an original transistor architecture, called junctionless, suitable for 3D-monolithic integration is studied in detail. Devices are simulated, fabricated and electrically characterised for mixed digital/analog applications. In particular, the impact of channel doping density on mismatch is tackled. Also, low temperature (<500°C) junctionless bricks are developed and device optimization trade-off are discussed. In a third time, an innovative 3D structure combining state of the art devices: junctionless stacked Silicon nanowires and Resistive Random Access Memories (RRAM) is envisioned. This technology is proved to enable In-Memory Boolean operations through a so-called “scouting logic” approach
APA, Harvard, Vancouver, ISO, and other styles
13

Heinrich, Franz. "Modélisation, prédiction et optimisation de la consommation énergétique d'applications MPI à l'aide de SimGrid." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM018/document.

Full text
Abstract:
Les changements technologiques dans la communauté du calcul hauteperformance (HPC) sont importants, en particulier dans le secteurdu parallélisme massif avec plusieurs milliers de cœurs de calcul sur unGPU unique ou accélérateur, et aussi des nouveaux réseaux complexes.La consommation d’énergie de ces machines continuera de croître dans les années à venir,faisant de l’énergie l’un des principaux facteurs de coût.Cela explique pourquoi même la métrique classique"flop / s", généralement utilisé pour évaluer les applications HPC etles machines, est progressivement remplacé par une métrique centré surl’énergie en "flop / watt".Une approche pour prédire la consommation d'énergie se fait parsimulation, cependant, une prédiction précise de la performance estcruciale pour estimer l’énergie. Dans cette thèse, nouscontribuons à la prédiction de performance et d'énergie des architectures HPC.Nous proposons un modèle énergétique qui a été implémenté dans unsimulateur open source, sg. Nous validons ce modèle avec soin eten le comparant systématiquement avec des expériences réelles.Nous utilisons cette contribution pour évaluer les projetsexistants et nous proposons de nouveaux governors DVFS spécialementconçus pour le contexte HPC
The High-Performance Computing (HPC) community is currently undergoingdisruptive technology changes in almost all fields, including a switch towardsmassive parallelism with several thousand compute cores on a single GPU oraccelerator and new, complex networks. Powering a massively parallel machinebecomesThe energy consumption of these machines will continue to grow in the future,making energy one of the principal cost factors of machine ownership. This explainswhy even the classic metric "flop/s", generally used to evaluate HPC applicationsand machines, is widely regarded as to be replaced by an energy-centric metric"flop/watt".One approach to predict energy consumption is through simulation, however, a pre-cise performance prediction is crucial to estimate the energy faithfully. In this thesis,we contribute to the performance and energy prediction of HPC architectures. Wepropose an energy model which we have implemented in the open source SimGridsimulator. We validate this model by carefully and systematically comparing itwith real experiments. We leverage this contribution to both evaluate existingand propose new DVFS governors that are part*icularly designed to suit the HPCcontext
APA, Harvard, Vancouver, ISO, and other styles
14

Hoock, Jean-Baptiste. "Contributions to Simulation-based High-dimensional Sequential Decision Making." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00912338.

Full text
Abstract:
My thesis is entitled "Contributions to Simulation-based High-dimensional Sequential Decision Making". The context of the thesis is about games, planning and Markov Decision Processes. An agent interacts with its environment by successively making decisions. The agent starts from an initial state until a final state in which the agent can not make decision anymore. At each timestep, the agent receives an observation of the state of the environment. From this observation and its knowledge, the agent makes a decision which modifies the state of the environment. Then, the agent receives a reward and a new observation. The goal is to maximize the sum of rewards obtained during a simulation from an initial state to a final state. The policy of the agent is the function which, from the history of observations, returns a decision. We work in a context where (i) the number of states is huge, (ii) reward carries little information, (iii) the probability to reach quickly a good final state is weak and (iv) prior knowledge is either nonexistent or hardly exploitable. Both applications described in this thesis present these constraints : the game of Go and a 3D simulator of the european project MASH (Massive Sets of Heuristics). In order to take a satisfying decision in this context, several solutions are brought : 1. Simulating with the compromise exploration/exploitation (MCTS) 2. Reducing the complexity by local solving (GoldenEye) 3. Building a policy which improves itself (RBGP) 4. Learning prior knowledge (CluVo+GMCTS) Monte-Carlo Tree Search (MCTS) is the state of the art for the game of Go. From a model of the environment, MCTS builds incrementally and asymetrically a tree of possible futures by performing Monte-Carlo simulations. The tree starts from the current observation of the agent. The agent switches between the exploration of the model and the exploitation of decisions which statistically give a good cumulative reward. We discuss 2 ways for improving MCTS : the parallelization and the addition of prior knowledge. The parallelization does not solve some weaknesses of MCTS; in particular some local problems remain challenges. We propose an algorithm (GoldenEye) which is composed of 2 parts : detection of a local problem and then its resolution. The algorithm of resolution reuses some concepts of MCTS and it solves difficult problems of a classical database. The addition of prior knowledge by hand is laborious and boring. We propose a method called Racing-based Genetic Programming (RBGP) in order to add automatically prior knowledge. The strong point is that RBGP rigorously validates the addition of a prior knowledge and RBGP can be used for building a policy (instead of only optimizing an algorithm). In some applications such as MASH, simulations are too expensive in time and there is no prior knowledge and no model of the environment; therefore Monte-Carlo Tree Search can not be used. So that MCTS becomes usable in this context, we propose a method for learning prior knowledge (CluVo). Then we use pieces of prior knowledge for improving the rapidity of learning of the agent and for building a model, too. We use from this model an adapted version of Monte-Carlo Tree Search (GMCTS). This method solves difficult problems of MASH and gives good results in an application to a word game.
APA, Harvard, Vancouver, ISO, and other styles
15

Schegg, Pierre. "Autonomous catheter and guidewire navigation for robotic percutaneous coronary interventions." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILB007.

Full text
Abstract:
Cette thèse porte sur la navigation automatique de guides et cathéters dans les artères coronaires. Dans un premier temps, nous introduisons le contexte de la cardiologie interventionnelle et le cas particulier des interventions coronaires percutanées. Nous justifions aussi l'utilité de la robotisation de ces procédures. Nous faisons ensuite le pont entre le problème de la navigation de guides et le contrôle de robots déformables, puis examinons les travaux existants sur le même sujet.Notre étude commence par la conception de simulations dynamiques réalistes des artères, du coeur et de leur interaction avec les instruments chirurgicaux. Cela a nécessité la collecte de données patient, la compréhension de l'influence du battement cardiaque sur la déformation des artères et comment cette déformation impacte la navigation de guides. Les interventions coronaires percutanées considérées reposent également fortement sur les contacts entre les instruments et les parois arterielles, ce qui est une difficulté supplémentaire au regard du temps de simulation ainsi que de leur précision.Nous avons ensuite utilisé ces simulations pour formuler le problème de la navigation de guides dans les artères coronaires comme un problème de prise de décision séquentielle. Nous avons défini les espaces d'état et d'action correspondants et conçu une fonction de récompense adéquate. Nous avons testé plusieurs stratégies de contrôle, y compris des mèthodes de contrôle basées sur un modèle inverse et des méthodes de recherche arborescente. Nous avons également proposé une nouvelle combinaison de ces méthodes qui atteint de bonnes performances dans les cas de figure testés.Finalement nous avons conçu un algorithme de vision et un schéma de recallage permettant de transférer les algorithmes de commande sur un robot physique. L'algorithme de contrôle en boucle fermé ainsi constitué a été testé sur deux fantômes en silicone différents sur lesquels l'algorithme atteint un taux de succès comparable à une navigation manuelle et à une navigation en télé-opérant le robot
This thesis focuses on automatic navigation of guidewires and catheters in the coronary arteries. We first introduce the context of interventional cardiology and percutaneous coronary interventions. We also justify the use of a robot for those procedures. We then link the guidewire navigation problem to the control of soft robots and review the existing literature.Our study starts with building realistic, dynamic simulations of the arteries, heart and their interaction with the instruments. This required the gathering of patient data, understanding how the heart beat motion deforms the heart and how these deformations impact guidewire navigation. Percutaneous coronary interventions are also very contact dense which is a challenge for both simulation speed and accuracy.We then used these simulations to frame the problem of navigating the coronaries as a sequential decision making problem. We determined the corresponding state and action spaces and devised a reward. We tested a variety of control schemes on the navigation problem, including inverse model based control and tree-search based control and proposed a novel combination of both which achieves good performance in navigating the coronaries.Finally, we design a vision algorithm and registration scheme to transfer the algorithms to a physical robot. The closed loop control scheme was tested on two different silicone phantoms and achieves the same success rate as navigating by hand or by tele-operating the robot
APA, Harvard, Vancouver, ISO, and other styles
16

De, Quatrebarbes Céline. "Un modèle d'équilibre général calculable pour questionner la TVA dans les pays en développement : les cas du Niger et du Sénégal." Thesis, Clermont-Ferrand 1, 2015. http://www.theses.fr/2015CLF10461.

Full text
Abstract:
La TVA est une taxe ad valorem facturée par les entreprises à leurs clients mais dont seule la différence entre la taxe collectée par l’entreprise et celle qu’elle a supportée sur ses achats est reversée à l’ Etat. Selon ce mécanisme, la TVA repose uniquement sur la consommation finale et semble adaptée aux principes d’une taxe indirecte optimale pour la maximisation du bien-être collectif. Cependant, dans les PED, la taille de l’assiette, les problèmes de remboursement des crédits de TVA et le non assujettissement de certains producteurs, modifient le fonctionnement de la taxe. Afin d’appréhender l’impact de la TVA dans les PED avec un nouveau regard, les effets de la taxe sur l’allocation des ressources et la distribution des revenus sont étudiés à l’aide d’un Modèle d’ Equilibre Général Calculable ad hoc appliquée à des problématiques spécifiques au Niger et au Sénégal. Les résultats des simulations montrent que l’analyse de l’impact de la TVA ne peut pas se contenter d’un discours commun, ni du point de vue du consommateur, ni de celui du producteur
In theory, VAT has always been considered as a consumption tax (Lauré, 1957). Liable producers transfer to the government the difference between the VAT collected on sales and the VAT paid on their inputs. VAT is therefore a tax on final consumption born by the consumer and collected by the producer. With tax abatement principle, VAT seems adapted to the principals of an optimal indirect tax for the maximization of the collective wellbeing. However, if VAT exemptions are implemented or if the tax administration is inefficient in issuing refunds for VAT credits or simply due to non-liable producers, VAT increases producer’s tax burden and viewing the VAT only as a consumption tax becomes inaccurate. In order to take into account these complexities, we built the first Computable General Equilibrium Model in order to shed some light on resources allocation and income distributions of the tax in Niger and Senegal. Simulation results show that an analysis of the VAT’s impact cannot rely only on a common line, neither from the consumer’s nor the producer’s point of view
APA, Harvard, Vancouver, ISO, and other styles
17

Cavallera, Philippe. "Simulation de pannes temporelles dans les circuits séquentiels." Montpellier 2, 1997. http://www.theses.fr/1997MON20043.

Full text
Abstract:
Les pannes temporelles, ou pannes de delai, modelisent des defauts physiques ou de conception qui perturbent le fonctionnement normal des circuits uniquement a frequence elevee. Cette these propose de realiser la simulation de pannes temporelles dans les circuits sequentiels. Les phenomenes produits par une panne temporelle sont differents suivant que l'on considere la partie combinatoire comme etant le siege d'une erreur, ou une erreur ayant transite par un element de memorisation. Pour les circuits sequentiels qui ne possedent pas d'architecture specifique qui permette de se ramener a l'etude d'un circuit combinatoire (architecture scan), il est necessaire de propager pendant plusieurs cycles d'horloges les effets d'une panne apres son activation avant qu'elle n'apparaisse en sortie. La methode mise en place pour simuler les pannes de delai internes a un bloc combinatoire fait appel a une technique implicite basee sur le principe du trace de chemin critique. Cette approche permet de determiner rapidement et simplement l'ensemble des pannes detectees par une paire de vecteurs de test donnee. Pour propager les erreurs logiques qui resultent de l'activation des pannes dans un bloc combinatoire, nous avons developpe une technique basee sur le principe de la simulation deductive. Cette approche permet de propager simplement, non seulement le site, mais aussi les informations temporelles relatives a la detection des pannes de delai
APA, Harvard, Vancouver, ISO, and other styles
18

Magnier, Janine. "Représentation symbolique et vérification formelle de machines séquentielles." Montpellier 2, 1990. http://www.theses.fr/1990MON20134.

Full text
Abstract:
Les travaux presentes ont pour objet la definition des bases formelles necessaires au developpement d'un systeme logiciel permettant la verification de machines sequentielles. La representation definie en logique temporelle par des formules valides elementaires permet de decrire le comportement des machines sequentielles; les regles d'unification de ces formules generent les comportements sur n'importe quel intervalle de temps: appeles evenements temporels. Ensuite, la definition formelle de la sensibilite d'un evenement temporel permet de generer des sequences de verification ou de demontrer des proprietes des machines considerees. Le memoire comporte les points suivants: 1) definition d'une representation symbolique de machines sequentielles en logique temporelle; 2) definition des formules representant la sensibilite, les conditions de sensibilite a une modification d'evenement temporel; 3) procedures d'etablissement de ces formules; 4) illustration de la generation de sequences (synchronisation, differenciation) et la demonstration de proprietes des machines (equivalence d'etats, machines minimales. . . )
APA, Harvard, Vancouver, ISO, and other styles
19

Marquer, Yoann. "Caractérisation impérative des algorithmes séquentiels en temps quelconque, primitif récursif ou polynomial." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1121/document.

Full text
Abstract:
Les résultats de Colson ou de Moschovakis remettent en question que le modèle récursif primitif puisse calculer une valeur par tous les moyens possibles : il y a toutes les fonctions voulues mais il manque des algorithmes. La thèse de Church exprime donc plutôt ce qui peut être calculé que comment le calcul est fait. Nous utilisons la thèse de Gurevich formalisant l'idée intuitive d'algorithme séquentiel par les Abstract States Machines (ASMs).Nous représentons les programmes impératifs par le langage While de Jones, et une variante LoopC du langage de Meyer et Ritchie permettant de sortir d'une boucle lorsqu'une condition est remplie. Nous dirons qu'un langage caractérise une classe algorithmique si les modèles de calcul associés peuvent se simuler mutuellement, en utilisant une dilatation temporelle et un nombre borné de variables temporaires. Nous prouvons que les ASMs peuvent simuler While et LoopC, que si l'espace est primitif récursif alors LoopC est en temps récursif primitif, et que sa restriction LoopC_stat où les bornes des boucles ne peuvent être mises à jour est en temps polynomial. Réciproquement, une étape d'ASM peut être traduite par un programme sans boucle, qu'on peut répéter suffisamment en l'insérant dans un programme qui est dans While si la complexité est quelconque, dans LoopC si elle est récursif primitif, et dans LoopC_stat si elle est polynomiale.Ainsi While caractérise les algorithmes séquentiels en temps quelconque, LoopC ceux en temps et espace récursifs primitifs, et LoopC_stat ceux en temps polynomial
Colson and Moschovakis results cast doubt on the ability of the primitive recursive model to compute a value by any means possible : the model may be complete for functions but there is a lack of algorithms. So the Church thesis express more what can be computed than how the computation is done. We use Gurevich thesis to formalize the intuitive idea of sequential algorithm by the Abstract States Machines (ASMs).We formalize the imperative programs by Jones' While language, and a variation LoopC of Meyer and Ritchie's language allowing to exit a loop if some condition is fulfilled. We say that a language characterizes an algorithmic class if the associated models of computations can simulate each other using a temporal dilatation and a bounded number of temporary variables. We prove that the ASMs can simulate While and LoopC, that if the space is primitive recursive then LoopC is primitive recursive in time, and that its restriction LoopC_stat where the bounds of the loops cannot be updated is in polynomial time. Reciprocally, one step of an ASM can be translated into a program without loop, which can be repeated enough times if we insert it onto a program in While for a general complexity, in LoopC for a primitive recursive complexity, and in LoopC_stat for a polynomial complexity.So While characterizes the sequential algorithms, LoopC the algorithms in primitive recursive space and time, and LoopC_stat the polynomial time algorithms
APA, Harvard, Vancouver, ISO, and other styles
20

Winter, Audrey. "Modèles d'appariement du greffon à son hôte, gestion de file d'attente et évaluation du bénéfice de survie en transplantation hépatique à partir de la base nationale de l'Agence de la Biomédecine." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS024/document.

Full text
Abstract:
La transplantation hépatique (TH) est la seule intervention possible en cas de défaillance hépatique terminale. Une des limitations majeures à la TH est la pénurie d'organes. Pour pallier ce problème, les critères de sélection des donneurs ont été élargis avec l'utilisation de foie de donneurs dits à "critères étendus" (extended criteria donor (ECD)). Cependant, il n'existe pas de définition univoque de ces foies ECD. Un score donneur américain a donc été mis en place : le Donor Risk Index (DRI), pour qualifier ces greffons. Mais à qui doit-on donner ces greffons "limites"? En effet, une utilisation appropriée des greffons ECD pourrait réduire la pénurie d'organes. Le but de cette thèse est d'établir un nouveau système d'allocation des greffons qui permettrait à chaque greffon d'être transplanté au candidat dont la transplantation permettra le plus grand bénéfice de survie et d'évaluer l'appariement entre donneurs et receveurs en tenant compte des greffons ECD.La première étape a consisté à effectuer une validation externe du DRI ainsi que du score qui en découle : l'Eurotransplant-DRI. Toutefois la calibration et la discrimination n'étaient pas maintenus dans la base française. Un nouveau score pronostique donneur a donc été élaboré : le DRI-Optimatch, à l'aide d'un modèle de Cox donneur ajusté sur les covariables receveur. Le modèle a été validé par bootstrap avec correction de la performance par l'optimisme.La seconde étape consista à explorer l'appariement entre donneur et receveur afin d'attribuer les greffons ECD de manière optimale. Il a été tenu compte des critères donneurs et receveurs, tels qu'évalués par le DRI-Optimatch et par le MELD (Model for End-stage Liver Disease, score pronostique receveur), respectivement. La méthode de stratification séquentielle retenue s'inspire du principe de l'essai contrôlé randomisé. Nous avons alors estimé, à l'aide de rapport de risques, quel bénéfice de survie un patient donné (repéré à l'aide du MELD) pourrait avoir avec un greffon donné (repéré à l'aide du DRI-Optimatch) en le comparant avec le groupe de référence composé des patients (même MELD), éligibles à la greffe, restés sur liste dans l'attente d'un meilleur greffon (DRI-Optimatch plus petit).Dans une troisième étape, nous avons développé un système d'allocation basé sur le bénéfice de survie alliant deux grands principes dans l'allocation de greffons; l'urgence et l'utilité. Dans ce type de système, un greffon alloué est attribué au patient avec la plus grande différence entre la durée de vie post-transplantation prédite et la durée estimée sur la liste d'attente pour un donneur spécifique. Ce modèle est principalement basé sur deux modèles de Cox : un pré-greffe et un post-greffe. Dans ces deux modèles l'évènement d'intérêt étant le décès du patient, pour le modèle pré-greffe, la censure dépendante a été prise en compte. En effet, sur liste d'attente le décès est bien souvent censuré par un autre évènement : la transplantation. Une méthode dérivée de l'Inverse Probability of Censoring Weighting a été utilisée pour pondérer chaque observation. De plus, données longitudinales et données de survie ont aussi été utilisées. Un modèle "en partie conditionnel", permettant d'estimer l'effet de covariables dépendantes du temps en présence de censure dépendante, a été utilisé pour modéliser la survie pré-greffe.Après avoir développé un nouveau système d'allocation, la quatrième et dernière étape, nous a permis de l'évaluer à travers de simulation d'évènement discret ou DES : Discret Event Simulation
Liver transplantation (LT) is the only life-saving procedure for liver failure. One of the major impediments to LT is the shortage of organs. To decrease organ shortage, donor selection criteria were expanded with the use of extended criteria donor (ECD). However, an unequivocal definition of these ECD livers was not available. To address this issue, an American Donor Risk Index (DRI) was developed to qualify those grafts. But to whom should those ECD grafts be given? Indeed, a proper use of ECD grafts could reduce organ shortage. The aim of this thesis is to establish a new graft allocation system which would allow each graft to be transplanted in the candidate whose LT will allow the greatest survival benefit; and to evaluate the matching between donors and recipients taking into account ECD grafts.The first step was the external validation of the DRI as well as the resultant Eurotransplant-DRI score. However, calibration and discrimination were not maintained on the French database. A new prognostic donor score: the DRI-Optimatch was then developed using a Cox donor model with adjustment on recipient covariates. The model was validated by bootstrapping with correction of the performance by the optimism.The second step was to explore the matching between donors and recipients in order to allocate ECD grafts optimally. Consideration should be given to the donor and recipient criteria, as assessed by the DRI-Optimatch and the Model for End-stage Liver Disease (MELD), respectively. The sequential stratification method retained is based on the randomized controlled trial principle. We then estimated, through hazard ratios, the survival benefit for different categories of MELD and DRI-Optimatch compared against the group of candidates remaining on the wait list (WL) and waiting for a transplant with a graft of better quality (lower DRI-Optimatch).In the third step, we have developed an allocation system based on survival benefit combining the two main principles in graft allocation; urgency and utility. In this system, a graft is allocated to the patient with the greatest difference between the predicted post-transplant life and the estimated waiting time for a specific donor. This model is mainly based on two Cox models: pre-LT and post-LT. In these two models the event of interest being the death of the patient, for the pre-graft model, the dependent censoring was taken into account. Indeed, on the WL, death is often censored by another event: transplantation. A method derived from Inverse Probability of Censoring Weighting was used to weight each observation. In addition, longitudinal data and survival data were also used. A partly conditional model, to estimate the effect of time-dependent covariates in the presence of dependent censoring, was therefore used for the pre-LT model.After developing a new allocation system, the fourth and final step was to evaluate it through Discrete Event Simulation (DES)
APA, Harvard, Vancouver, ISO, and other styles
21

Saadi, Toufik. "Résolution séquentielles et parallèles des problèmes de découpe / placement." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2008. http://tel.archives-ouvertes.fr/tel-00354737.

Full text
Abstract:
Les problèmes de découpe et de placement sont des problèmes combinatoires. Ils sont classes dans la catégorie des problèmes NP-Complets et admettent de nombreuses applications en industrie, en systèmes multiprocesseurs. Nous proposons dans cette thèse, plusieurs méthodes de résolution exactes et approchées, séquentielles et parallèles du problème de découpe et de placement à deux dimensions.
APA, Harvard, Vancouver, ISO, and other styles
22

Goffinet, Étienne. "Clustering multi-blocs et visualisation analytique de données séquentielles massives issues de simulation du véhicule autonome." Thesis, Paris 13, 2021. http://www.theses.fr/2021PA131090.

Full text
Abstract:
La validation des systèmes avancés d’aide à la conduite reste l’un des plus grands défis que les constructeurs automobiles doivent relever pour fournir des voitures autonomes sûres. La validation fiable de ces systèmes nécessite d’évaluer la qualité et la cohérence de leur réaction dans un large éventail de scénarios de conduite. Dans ce contexte, les systèmes de simulation à grande échelle contournent les limites de la validation physique et produisent d’importantes quantités de séries temporelles en haute dimension. Le défi est de trouver des informations utiles dans ces ensembles de données multivariées non étiquetées qui peuvent contenir des variables bruitées, parfois corrélées ou non informatives. Cette thèse propose plusieurs outils basés sur des modèles probabilistes pour le regroupement non-supervisé de séries temporelles univariées et multivariées, basés sur une approche Dictionnaire ou dans un cadre bayésien non paramétrique. L’objectif est de trouver automatiquement des groupes pertinents et naturels de comportements de conduite et, dans le cas multivarié, d’effectuer une sélection de modèles et une réduction de la dimension des séries temporelles multivariées. Les méthodes sont expérimentées sur des jeux de données simulés et appliquées à des cas d’usage industriels du Groupe Renault
Advanced driving-assistance systems validation remains one of the biggest challenges car manufacturers must tackle to provide safe driverless cars. The reliable validation of these systems requires to assess their reaction’s quality and consistency to a broad spectrum of driving scenarios. In this context, large-scale simulation systems bypass the physical «on-tracks» limitations and produce important quantities of high-dimensional time series data. The challenge is to find valuable information in these multivariate unlabelled datasets that may contain noisy, sometimes correlated or non-informative variables. This thesis propose several model-based tool for univariate and multivariate time series clustering based on a Dictionary approach or Bayesian Non Parametric framework. The objective is to automatically find relevant and natural groups of driving behaviors and, in the multivariate case, to perform a model selection and multivariate time series dimension reduction. The methods are experimented on simulated datasets and applied on industrial use cases from Groupe Renault Coclustering
APA, Harvard, Vancouver, ISO, and other styles
23

Tomas, Jean. "Caractérisation par simulation de la métastabilité des circuits séquentiels : application à des structures VLSI." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10580.

Full text
Abstract:
Le travail presente consiste en la realisation d'un logiciel d'aide a la conception de circuits unifieurs, appele remus (recherche des etats metastables dans les circuits unifieurs par simulation), en vue de leur optimisation vis-a-vis de la metastabilite. Ce programme, ecrit en pascal, implante sur micro-vax est bati autour du simulateur electrique spice. Les algorithmes implantes permettent d'obtenir la courbe d'incertitude de l'unifieur avec en temps de calcul reduit. Les resultats de sept circuits temoins sont presentes comparativement
APA, Harvard, Vancouver, ISO, and other styles
24

Stroh, Rémi. "Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC049/document.

Full text
Abstract:
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage
The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system
APA, Harvard, Vancouver, ISO, and other styles
25

Benhallam, Abdelahad. "Contribution à l'étude de l'algorithme à pile pour le décodage séquentiel des codes convolutionnels : conception d'un logiciel de simulation du décodeur." Toulouse, INPT, 1988. http://www.theses.fr/1988INPT083H.

Full text
Abstract:
On etudie le decodage sequentiel a pile des codes convolutionnels, perfores ou non, a l'aide de la simulaton du decodeur. On effectue d'abord une parametrisation des differents modules de la chaine de communication afin d'avaluer l'influence des parametres intervenant dans le comportement du decodeur. On evalue, ensuite, en fonction de ces parametres, une serie de grandeurs nous renseignant sur la facon dont le decodage d'un message donne s'est deroule. On evalue, egalement, le taux d'erreur sur les bits (teb), la probabilite de debordement de la memoire utilisee (pile et tampon d'entree), ainsi que la taille de la pile necessaire pour un teb donne. Le temps de decodage a ete etudie en detail; ainsi que d'autres grandeurs telles que la profondeur du retour en arriere ou le nombre de recherches dans l'arbre
APA, Harvard, Vancouver, ISO, and other styles
26

Galvao, Ferreira Afonso. "Contributions à la recherche dans des ensembles ordonnés : du séquentiel au parallèle." Phd thesis, Grenoble INPG, 1990. http://tel.archives-ouvertes.fr/tel-00336447.

Full text
Abstract:
Le problème de la recherche d'un élément dans un ensemble donne est un des problèmes fondamentaux en informatique non numérique, lie, par exemple, aux bases de données, a la compilation, a l'optimisation combinatoire, etc... Dans cette thèse nous abordons le problème de la recherche dans des ensembles ordonnes et quelques problèmes qui lui sont lies. Une matrice est dite triée si elle possédé une relation d'ordre total sur chaque ligne et chaque colonne. Un cas particulier est l'ensemble des matrices définies par x+y, la somme cartésienne de deux vecteurs tries. Après un tour d'horizon des problèmes de la sélection, de la recherche et du tri sur des ensembles de la forme x=y, nous démontrons des bornes inférieures et introduisons des bornes supérieures pour les problèmes de la recherche et de la sélection. Nous proposons, en outre, plusieurs algorithmes parallèles pour la recherche dans x+y. Ensuite nous montrons comment appliquer ces résultats a la resolution en parallèle du problème de décision du sac-a-dos, ou, étant donnes plusieurs objets et un sac de capacité définie a remplir, on veut décider s'il existe une combinaison des objets qui remplit exactement le sac. Des algorithmes avec une accélération optimale sont introduits pour divers modèles de machines parallèles a mémoire partagée et distribuée. Pour ce problème les approches existantes se ramènent soit a la recherche dans x+y, soit a la traversée d'un espace combinatoire a l'aide de la technique du Branch & Bound. Cette dernière technique est aussi discutée dans ce travail, ou nous présentons un algorithme de Branch & Bound en vue de la resolution de problèmes d'optimisation combinatoire sur la connexion machine. Enfin, toujours dans le domaine de l'optimisation combinatoire, nous étudions le comportement de l'algorithme de recuit simule. Nous prouvons que, malgré la confiance qu'il inspire et sa grande utilisation pour des application
APA, Harvard, Vancouver, ISO, and other styles
27

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Full text
Abstract:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
APA, Harvard, Vancouver, ISO, and other styles
28

Guglielmetti, Aurore. "Étude numérique du soudage par impulsion magnétique." Thèse, Compiègne, 2012. http://constellation.uqac.ca/2531/1/030358614.pdf.

Full text
Abstract:
Cette thèse traite de la simulation numérique du processus de soudage par impulsion magnétique. Le but est de pouvoir prédire la soudabilité d'un essai. Une première partie permet de se familiariser avec le procédé et une recherche bibliographique est présentée. Le soudage par explosion sert de comparatif pour dégager les critères de soudabilité, tandis que les études numériques sur le formage par impulsion magnétique permettent une première approche de la modélisation par le couplage séquentiel. La seconde section traite de la simulation électromagnétique dans ANSYS, simulation qui part d'un courant imposé dans une bobine pour arriver au calcul des forces de Lorentz qui vont propulser le tube extérieur sur le tube intérieur, tout deux placés de façon concentrique dans la bobine. Le modèle développé est vérifié et une étude de sensibilité des paramètres matériau et de dispositif est menée. Dans la troisième partie le modèle mécanique est développé dans ABAQUS/Explicit et les différentes opportunités de couplage ainsi que les nombreuses difficultés présentées. Par un couplage séquentiel, un outil de simulation du formage a été codé et par couplage séquentiello-faible, l'outil de simulation du soudage. Enfin une dernière partie permet d'exploiter l'outil numérique pour optimiser les essais ; l'analyse est faite selon 3 critères : vitesse d'impact, vitesse de collision et angle d'impact. Dans un premier temps, une étude de sensibilité rend compte des tendances des influences des divers paramètres ; ensuite un cas concret fictif est pris et une méthode est mise en place pour optimiser les paramètres que l'utilisateur choisira afin de parvenie au meilleur cordon de soudure.
APA, Harvard, Vancouver, ISO, and other styles
29

Péron, Samuel. "Nature et contrôle des systèmes fluviatiles du domaine Ouest Péri-Téthysien au trias inférieur : sédimentologie de faciès, reconstitutions paléoenvironnementales et simulations climatiques." Rennes 1, 2005. http://www.theses.fr/2005REN1S074.

Full text
Abstract:
Cette étude stratigraphique et paléoclimatique permet de mieux définir le rôle du climat dans la préservation et l'architecture des sédiments continentaux. Le Trias inférieur continental (Buntsandstein) du Bassin germanique a été étudié sur le terrain et en subsurface. L'établissement d'un modèle de faciès et stratigraphique montre l'évolution d'un paysage sédimentaire fluvio-éolien fortement influencée par les flux de sédiments et d'eau. Les géométries et les paléoenvironnements traduisent l'évolution d'un système endoréique devenant exoréique après une discontinuité tectonique majeure. Des reconstitutions paléogéographiques globales et W péri-téthysiennes ont permis de contraindre un modèle climatique (AGCM). Deux altitudes hercyno-appalachiennes sont testés afin de simuler les conditions climatiques possibles. Nous observons des climats contrastés sur le bassin et les reliefs. La différence d'altitude modifie peu l'humidité du bassin.
APA, Harvard, Vancouver, ISO, and other styles
30

Lachat, Cédric. "Conception et validation d'algorithmes de remaillage parallèles à mémoire distribuée basés sur un remailleur séquentiel." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00932602.

Full text
Abstract:
L'objectif de cette thèse était de proposer, puis de valider expérimentalement, un ensemble de méthodes algorithmiques permettant le remaillage parallèle de maillages distribués, en s'appuyant sur une méthode séquentielle de remaillage préexistante. Cet objectif a été atteint par étapes : définition de structures de données et de schémas de communication adaptés aux maillages distribués, permettant le déplacement à moindre coût des interfaces entre sous-domaines sur les processeurs d'une architecture à mémoire distribuée ; utilisation d'algorithmes de répartition dynamique de la charge adaptés aux techniques parallèles de remaillage ; conception d'algorithmes parallèles permettant de scinder le problème global de remaillage parallèle en plusieurs sous-tâches séquentielles, susceptibles de s'exécuter concurremment sur les processeurs de la machine parallèle. Ces contributions ont été mises en oeuvre au sein de la bibliothèque parallèle PaMPA, en s'appuyant sur les briques logicielles MMG3D (remaillage séquentiel de maillages tétraédriques) et PT-Scotch (repartitionnement parallèle de graphes). La bibliothèque PaMPA offre ainsi les fonctionnalités suivantes : communication transparente entre processeurs voisins des valeurs portées par les noeuds, les éléments, etc. ;remaillage, selon des critères fournis par l'utilisateur, de portions du maillage distribué, en offrant une qualité constante, que les éléments à remailler soient portés par un unique processeur ou bien répartis sur plusieurs d'entre eux ; répartition et redistribution de la charge des maillages pour préserver l'efficacité des simulations après remaillage.
APA, Harvard, Vancouver, ISO, and other styles
31

Meinvielle, Marion. "Ajustement optimal des paramètres de forçage atmosphérique par assimilation de données de température de surface pour des simulations océaniques globales." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00681484.

Full text
Abstract:
La température de surface de l'océan (SST) est depuis l'avènement des satellites, l'une des variables océaniques la mieux observée. Les modèles réalistes de circulation générale océanique ne la prennent pourtant pas en compte explicitement dans leur fonction de forçage. Dans cette dernière, seules interviennent les variables atmosphériques à proximité de la surface (température, humidité, vitesse du vent, radiations descendantes et précipitations) connues pour être entachées d'incertitudes importantes dès lors qu'on considère l'objectif d'étudier la variabilité à long terme de l'océan et son rôle climatique. La SST est alors classiquement utilisée en assimilation de données pour contraindre l'état du modèle vers une solution en accord avec les observations mais sans corriger la fonction de forçage. Cette approche présente cependant les inconvénients de l'incohérence existant potentiellement entre la solution " forcée " et " assimilée ". On se propose dans cette thèse de développer dans un contexte réaliste une méthode d'assimilation de données de SST observée pour corriger les paramètres de forçage atmosphérique sans correction de l'état océanique. Le jeu de forçage faisant l'objet de ces corrections est composé des variables atmosphériques issues de la réanalyse ERAinterim entre 1989 et 2007. On utilise pour l'estimation de paramètres une méthode séquentielle basée sur le filtre de Kalman, où le vecteur d'état est augmenté des variables de forçage dont la distribution de probabilité a priori est évaluée via des expériences d'ensemble. On évalue ainsi des corrections de forçage mensuelles applicables dans un modèle libre pour la période 1989-2007 en assimilant la SST issue de la base de données de Hurrel (Hurrel, 2008), ainsi qu'une climatologie de salinité de surface (Levitus, 1994). Cette étude démontre la faisabilité d'une telle démarche dans un contexte réaliste, ainsi que l'amélioration de la représentation des flux océan-atmosphère par l'exploitation d'observations de la surface de l'océan.
APA, Harvard, Vancouver, ISO, and other styles
32

Berkane, Bachir. "Vérification des systèmes matériels numériques séquentiels synchrones : application du langage Lustre et de l'outil de vérification Lesar." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00340909.

Full text
Abstract:
La validation fonctionnelle d'un système matériel consiste a vérifier le système vis-a-vis de son fonctionnement attendu. Il existe deux façons de spécifier ce fonctionnement attendu. D'une part, la spécification peut être donnée sous forme d'une description fonctionnelle complète. D'autre part, l'expression de cette spécification peut être donnée sous forme d'un ensemble de propriétés temporelles critiques. Ces deux façons de spécifier les systèmes matériels ont donne lieu a deux problèmes de vérification. Notre domaine d'étude concerne les systèmes matériels numériques séquentiels synchrones. Le travail présente dans ce document développe une approche de vérification unifiée, fondée sur le modèle de machines d'états finis, pour résoudre les deux problèmes de vérification sur ces systèmes. Dans cette approche, tout probleme de vérification se ramène a définir une machine d'états finis sur laquelle la vérification sera réalisée. L'application du langage lustre et de l'outil de vérification Lesar associe a été étudiée dans le but de valider cette approche. Dans cette application, la resolution des deux problèmes de vérification se ramène a définir un programme lustre ayant une seule sortie. La vérification consiste a vérifier que cette sortie est la constante booléenne 1. Cette vérification est réalisée automatiquement par l'outil de vérification Lesar
APA, Harvard, Vancouver, ISO, and other styles
33

Makhlouf, Azmi. "Régularité fractionnaire et analyse stochastique de discrétisations ; Algorithme adaptatif de simulation en risque de crédit." Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00460269.

Full text
Abstract:
Cette thèse concerne trois sujets de probabilités numériques et de mathématiques financières. D'abord, nous étudions le module de régularité L2 en temps de la composante Z d'une EDSR markovienne à coefficients lipschitziens, mais dont la fonction terminale g est irrégulière. Ce module est lié à l'erreur d'approximation par schéma d'Euler. Nous montrons, de façon optimale, que l'ordre de convergence est explicitement lié à la régularité fractionnaire de g. Ensuite, nous proposons une méthode de Monte-Carlo séquentielle pour le calcul efficace du prix d'une tranche de CDO, basée sur des variables de contrôle séquentielles, dans un cadre où les taux de recouvrement sont aléatoires et i.i.d. Enfin, nous analysons l'erreur de couverture associée à la stratégie en Delta-Gamma. La régularité fractionnaire de la fonction payoff joue un rôle crucial dans le choix des dates de rebalancement, afin d'atteindre des vitesses de convergence optimales.
APA, Harvard, Vancouver, ISO, and other styles
34

Makhlouf, Azmi. "Régularité fractionnaire et analyse stochastique de discrétisations ; Algorithme adaptatif de simulation en risque de crédit." Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0154.

Full text
Abstract:
Cette thèse concerne trois sujets de probabilités numériques et de mathématiques financières. D'abord, nous étudions le module de régularité L2 en temps de la composante Z d'une EDSR markovienne à coefficients lipschitziens, mais dont la fonction terminale g est irrégulière. Ce module est lié à l'erreur d'approximation par schéma d'Euler. Nous montrons, de façon optimale, que l'ordre de convergence est explicitement lié à la régularité fractionnaire de g. Ensuite, nous proposons une méthode de Monte-Carlo séquentielle pour le calcul efficace du prix d'une tranche de CDO, basée sur des variables de contrôle séquentielles, dans un cadre où les taux de recouvrement sont aléatoires et i. I. D. Enfin, nous analysons l'erreur de couverture associée à la stratégie en Delta-Gamma. La régularité fractionnaire de la fonction payoff joue un rôle crucial dans le choix des dates de rebalancement, afin d'atteindre des vitesses de convergence optimales
This thesis deals with three issues from numerical probability and mathematical finance. First, we study the L2-time regularity modulus of the Z-component of a Markovian BSDE with Lipschitz-continuous coefficients, but with irregular terminal function g. This modulus is linked to the approximation error of the Euler scheme. We show, in an optimal way, that the order of convergence is explicitly connected to the fractional regularity of g. Second, we propose a sequential Monte-Carlo method in order to efficiently compute the price of a CDO tranche, based on sequential control variates. The recoveries are supposed to be i. I. D. Random variables. Third, we analyze the tracking error related to the Delta-Gamma hedging strategy. The fractional regularity of the payoff function plays a crucial role in the choice of the trading dates, in order to achieve optimal rates of convergence
APA, Harvard, Vancouver, ISO, and other styles
35

Rabineau, Marina. "UN MODELE GEOMETRIQUE ET STRATIGRAPHIQUE DES SEQUENCES DE DEPÔTS QUATERNAIRES SUR LA MARGE DU GOLFE DU LION : ENREGISTREMENT DES CYCLES CLIMATIQUES DE 100 000 ANS." Phd thesis, Université Rennes 1, 2001. http://tel.archives-ouvertes.fr/tel-00136517.

Full text
Abstract:
Le Golfe du Lion a fait l'objet de nombreuses explorations depuis les débuts de l'Océanographie. Pourtant, plusieurs questions clefs n'ont pas été résolues et sont toujours l'objet de controverses. Quels sont les mécanismes de dépôts ? Quelle est la durée des séquences enregistrées ? Quelle est la relation entre les séquences sédimentaires, les cycles glacioeustatiques quaternaires et la tectonique ?
La zone d'étude d'environ 40 x 40 km est située à la charnière de la plate-forme externe et du haut de pente, dans la partie occidentale du Golfe, au large du Languedoc, où la plate-forme atteint 70 km de large. La base de données est constituée 1) d'un levé sismique Très Haute Résolution (Sparker) dense (espacement de 400 à 1000 m) et 2) d'une dizaine de carottages atteignant 10 m de longueur. L'approche retenue comprend un volet analytique des données géologiques (interprétation des profils sismiques et des carottes par Stratigraphie Sismique et Séquentielle) et un volet de modélisation géométrique et stratigraphique permettant de caractériser, de quantifier et de simuler les séquences sédimentaires reconnues. Cette double approche analytique et modélisatrice, menée de façon concomitante, permet des allers-retours entre la donnée d'origine, le modèle géologique, la valeur des paramètres et les simulations stratigraphiques qui testent plusieurs scenarii géologiques.
L'analyse des géométries 3D permet de dégager un motif élémentaire de dépôt constitué par un couple de prismes PI (à clinoformes faiblement pentus <1° déposés en amont de la plate-forme) et PII (à clinoformes fortement pentus d'environ 4 ° déposés en aval de la plate-forme). Ce motif de dépôt, fondamentalement horizontal, est récurrent et sert à la hiérarchisation des unités sismiques en grandes séquences de dépôt. Il correspond à l'enregistrement d'un cycle glacioeustatique de 100 000 ans (interglaciaire-glaciaire) : le prisme PI correspond aux dépôts prodeltaïques de « haut à moyen niveau marin » ; le prisme PII, aux dépôts littoraux de plus bas niveau du maximum glaciaire du cycle. Cette interprétation rejoint celle proposée par Aloïsi en 1986. Au total, cinq séquences correspondant aux cinq derniers cycles glacio-eustatiques sont donc enregistrées sur la plate-forme occidentale du Golfe du Lion. La base des séries étudiées remonte à 540 000 ans (stade isotopique 12). Les cycles très courts (20 000 ans ou moins) ne sont pas clairement exprimés dans les géométries de dépôt. Les conditions hydrodynamiques exercent un contrôle sur les géométries des séquences de dépôts qui peut brouiller ou effacer l'empreinte des cycles climatiques dans les séquences sédimentaires. Les canyons de l'Aude et de l'Hérault sont globalement inactifs pendant les hauts niveaux marins. Pendant les bas niveaux, leur fonctionnement est variable (transport, érosion et dépôt).
Les simulations stratigraphiques et la restitution des couples de prismes observés et exceptionnellement bien préservés dans cette zone du Golfe du Lion donnent une signification géologique et valident la transformation « simple » des courbes isotopiques O18/O16 en courbes eustatiques. Cette étude donne aussi la première quantification du taux de subsidence moyenne (totale) de la plate-forme du Golfe du Lion pendant le Pléistocène supérieur à moyen (540 ka). La subsidence prend la forme d'un basculement vers le large qui atteint 250 m/Ma à 70 km de la côte actuelle (en bordure de plate-forme). On a calculé, à partir des géométries visibles sur les profils sismiques pétroliers, un taux de subsidence identique sur l'ensemble du Plioquaternaire ; le taux de subsidence est donc constant depuis 5,3 Ma, il ne crée pas de séquence mais permet la préservation, l'empilement et la reconnaissance des séquences glacioeustatiques successives.
APA, Harvard, Vancouver, ISO, and other styles
36

Voon, Lew Yan, and Lew Fock Chong. "Contribution au test intégré déterministe : structures de génération de vecteurs de test." Montpellier 2, 1992. http://www.theses.fr/1992MON20035.

Full text
Abstract:
Ce memoire concerne la synthese de structures de generation de vecteurs de test (gvt) deterministes. Une etude empirique, basee sur des simulations exhaustives, des sequences generees par des registres a decalage a retroaction lineaire et non-lineaire montre que ces derniers sont inaptes a produire des sequences de vecteurs de test deterministes. Nous avons donc etendu notre recherche au cas general de machine d'etats finis lineaire et autonome (mefla) avec inversion. Apres avoir presente les principes fondamentaux d'une mefla avec inversion, nous proposons une methode de synthese de structures gvt deterministes et deterministe/pseudo-aleatoire
APA, Harvard, Vancouver, ISO, and other styles
37

Liang, Yan. "Mise en œuvre d'un simulateur en OCCAM pour la conception d'architectures parallèles à base d'une structure multiprocesseur hiérarchique." Compiègne, 1989. http://www.theses.fr/1989COMPD176.

Full text
Abstract:
La simulation est devenue une étape indispensable dans la phase de conception de machines parallèles et permet d'éviter la construction de prototypes couteux. Dans cette thèse, un simulateur orienté vers des processus parallèles en langage OCCAM a été développé. Notre objectif a été de concevoir un simulateur adapté à un réseau de transputers pour la réalisation d'un prototype de machine parallèle utilisant des liaisons directes entre les transputers par les canaux séries. A titre d'exemple de simulation, une architecture parallèle (coprocesseur) à base d'une structure multiprocessor hiérarchique : maître-esclave a été réalisée au niveau processeur-mémoire-commutateur. La performance théorique est évaluée à l'aide des deux modèles analytiques dont l'un est une combinaison de systèmes ouverts M/M/1, et l'autre est un système ouvert M/M/s. La performance expérimentale a été mesurée respectivement sur les tâches indépendantes et les tâches séquentielles. La configuration expérimentale de sa performance théorique permet d'avoir un aperçu général sur les avantages et les limites d'une structure coprocesseur et d'envisager une implémentation ultérieure
The simulation has become an indispensable phase for conception of parallel processing systems, and enables to avoid construction of expensive prototypes. In this paper, a parallel process-oriented simulator written in OCCAM language has been developed. Our objective is to conceive a simulator adapted to a network of transputers for prototyping parallel processing systems by connecting directly the serial transputer channels. As a simulation example, a parallel processor system (coprocessor) based on hierarchical structure : master-slave has been realized at the processor-memory-switch level. The performance analysis is obtained via two queuing models : the former as independent M/M/1 systems and the latter as a M/M/s system. The experimental performance is measured respectively based on the independent tasks and the sequential tasks. The comparison of analytic and experimental results enables us to constate the advantage and limit of the coprocessor and to encourage us to its implementation
APA, Harvard, Vancouver, ISO, and other styles
38

Robert, Yves. "Algorithmique parallèle : réseaux d'automates, architectures systoliques, machines SIMD et MIMD." Habilitation à diriger des recherches, Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00319876.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Corbier, Franck. "Modélisation et émulation de la partie opérative pour la recette en plateforme d'équipements automatisés." Nancy 1, 1989. http://www.theses.fr/1989NAN10505.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Duff, Christopher. "Codage d'automates et théorie des cubes intersectants." Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00339918.

Full text
Abstract:
Cette thèse propose une methode de codage optimise d'automate synchrone dans un environnement du type compilateur de silicium. Dans une première partie, on recherche sur le graphe d'état des situations prédictives de minimisation des équations des variables internes et des sorties. Ceci définit des contraintes sur le codage en terme d'une liste de groupes d'adjacence d'états a immerger sur des faces ou cubes de l'hypercube. Dans une deuxième partie le codage est réalisé en satisfaisant au mieux ces affectations de faces et leurs intersections. Les principes de base de cette approche sont les suivants: (i) pour la première phase, la recherche de situations prédictives de minimisation est fondée sur la théorie des paires de partition de Hartmannis. Les situations sont recherchées entrée par entrée; cette approche locale permettra de faire face aux grandes complexités; remarquons que le codage des entrées n'est pas aborde. La priorité est donnée aux fusions potentielles de monômes dans les équations. On ne recherchera pas de façon indifférenciée comme dans d'autres approches (mustang) toutes les minimisations possibles incluant les factorisations. En effet, il est raisonnablement estime que seule la fusion de monômes assure un gain de surface et en connectique; (ii) pour la deuxième phase, les techniques d'immersion dans l'hypercube seront très sophistiquées. Elles reprendront une représentation de l'hypercube par le treillis de l'ensemble des parties de n éléments. Pour résoudre les problèmes des contraintes intersectantes, c'est-a-dire des contraintes impliquant des sous-ensembles d'états en commun, une théorie dite théorie des cubes intersectant sera proposée. Les résultats de cette thèse ont donne lieu a un logiciel intégré dans le système asyl. Les résultats obtenus en gain de surface sur silicium, de chemin critique et de facteurs de routage sont les meilleurs actuellement connus
APA, Harvard, Vancouver, ISO, and other styles
41

Hatoum, Rana. "Removal of micropollutants with activated sludge : proposition of a new kinetic model and special focus on hydrodynamic reactor configuration and local mixing." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0331.

Full text
Abstract:
L'un des défis auxquels la conservation de l'environnement est actuellement confrontée est la réduction des rejets de micropolluants par les effluents des stations d’épuration des eaux usées. Les procédés biologiques sont les traitements les plus couramment utilisés, mais ces techniques classiques n’ont pas été conçues dans le but d’éliminer les micropolluants (MPs). Dans ce travail, l’amélioration de l’élimination de sept composés de micropolluants (des produits pharmaceutiques et un produit chimique industriel) qui couvrent divers degrés de biodégradabilité est étudiée à l’aide du procédé de traitement par boues activées. Pour atteindre cet objectif, une méthodologie expérimentale suivie d'une stratégie de simulation a été développée. L'étude systématique de l'impact des paramètres opérationnels des stations d'épuration sur les MPs, tels que l’âge des boues (SRT), le temps de passage (HRT) et la concentration de biomasse (CTSS), sur les MPs a été quantifiée expérimentalement dans neuf installations de réacteur discontinu (SBR). L’augmentation de SRT a amélioré l’élimination des MPs, à l’exception de deux antibiotiques macrolides. L'application d'un HRT plus élevé a quant à elle conduit aussi à une amélioration. De manière plus intéressante, nos résultats ont indiqué que, contrairement à ce qui est postulé, le taux d’élimination des micropolluants n’est pas proportionnel à la concentration en biomasse, en particulier pour celles élevées. Comparé aux taux d’élimination à 3 et 5 g L-1 de biomasse, une augmentation supplémentaire à 8 gTSS L-1 n'a produit qu'un effet modéré inattendu. Une nouvelle cinétique de la loi de puissance a été étudiée afin de couvrir toute la gamme des conditions de concentration de biomasse dans les systèmes à boues activées. Elle prend en compte la limitation du transport des micropolluants vers la biomasse quand sa concentration est élevée. Dans ce cas, il a été aussi montré que le transport des micropolluants repose sur la diffusion moléculaire. Ce processus a été ajouté à l’équation cinétique proposée. Un programme de simulation de station d’épuration (SBR et continu) a été développé. Les résultats numériques utilisant la nouvelle cinétique correspondent bien aux résultats expérimentaux. Les simulations montrent que d’une part, l’amélioration de l’agitation locale du mélange favorise grandement l’élimination, d’autre part, l’étagement du réacteur en lui conférant une hydrodynamique proche d’une très grande cascade de réacteurs contribue aussi à améliorer fortement l’élimination des MPs. Ceci peut être obtenu en construisant des réacteurs en chicanes d’une largeur de 2 m et d’une longueur déployée de plus de 200 m. Finalement, l’association de ces deux processus locale et globale permet de considérablement augmenter l’élimination des MPs moyennement et lentement biodégradables
One of the main challenges currently facing environmental conservation is to reduce the discharge of micropollutants (MPs) from wastewater treatment plants outflows (WWTPs). Biological aerobic processes are the most commonly used treatment, but conventional systems were not conceived with the objective of eliminating micropollutants (MPs). In this work, the removal enhancement of seven micropollutants compounds (pharmaceuticals and industrial chemical) which cover various degree of biodegradability was studied using activated sludge process. To achieve this goal, an experimental methodology followed by a simulation strategy were developed. The systematic study of the impact of WWTPs operational parameters, such as sludge retention time (SRT), hydraulic retention time (HRT) and biomass concentration (CTSS), on the MPs removal was experimentally quantified in nine Sequencing Batch Reactor (SBR) setups. The enhancement of the SRT increased the removal of all the MPs except for two macrolides antibiotics. Application of a higher HRT did also improve MPs removal as could be expected from the measured removal rate constants. More interestingly, our results indicated that, contrary to what is postulated, the removal rate of micropollutants is not proportional to biomass concentration, especially for high ones. Compared to removal rates at 3 to 5 gTSS L- 1 of biomass, an additional increase at 8 gTSS L-1 produced only an unexpected moderate effect. New kinetics of the power law have been studied to cover the full range of biomass concentration conditions in activated sludge systems. It takes into account the limitation of the transport of micropollutants to biomass when its concentration is high. In this case, it has also been shown that the transport of micropollutants is based on molecular diffusion. This process has been added to the proposed kinetic equation. A simulation program of a wastewater treatment plant (SBR and continuous) has been developed. The numerical results using the new kinetics corresponded well to the experimental results. The simulations showed that, on the one hand, the improvement of the local mixing of the mixture greatly favors the elimination, on the other hand, the tiering of the reactor configuration by giving it a hydrodynamic close to a very large cascade of reactors also contributes to greatly improve the elimination of MPs. This can be achieved by building baffle reactors with a width of 2 m and an extended length of more than 200 m. Finally, the combination of these two local and global processes makes it possible to considerably increase the elimination of moderately and slowly biodegradable MPs
APA, Harvard, Vancouver, ISO, and other styles
42

Bacchus, Alexandre. "Représentativité de la modélisation aux éléments finis pour le diagnostic de machines synchrones de grande puissance." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10014/document.

Full text
Abstract:
Nous avons développé une méthode d'identification de courts-circuits et d'excentricités statiques d'un turboalternateur en fonctionnement. Cette méthode doit être non seulement capable d'identifier le type de défaut, mais également sa gravité et sa localisation. Pour cela, la force électromotrice issue d'une sonde de flux radiale est considérée pour identifier les défauts de la machine. Les méthodes d'apprentissage ayant fait leur preuve sur ce type de problématique, un ensemble d'échantillons des défauts, i.e. matrice des prototypes, est construit grâce à des simulations par la méthode des éléments finis de la machine dans un grand nombre d'états de fonctionnement. Le but est alors d'identifier la classe (le défaut) de mesures expérimentales en considérant les sorties de simulations. Pour faire cela, une maquette de turboalternateur est modélisée et les sorties de simulation sont comparées aux mesures expérimentales. L'application de méthodes de classification supervisée choisies selon la forme des données montre qu'on peut atteindre des taux de bonne classification de 79 % pour les courts-circuits et 93 % pour les excentricités après un traitement spécifique des attributs et un recalage des sorties de simulation. Une règle d'identification du type de défaut est également mise en place au travers d'une classification hiérarchique. Celle-ci donne d'excellents résultats pour lesquels toutes les mesures expérimentales sont assignées au bon type de défaut. Enfin, un automate à états finis permet d'améliorer les résultats précédents en tenant compte de l'évolution temporelle de l'état de fonctionnement de la machine. Ainsi, un taux de bonne classification de 91.5 % pour l'identification de courts-circuits est obtenu
An identification method of rotor inter-turn short-circuits and static eccentricities of an operating turboalternator is developed. This approach provides the type of the machine functional state such as its seriousness and location. The electromotive force obtained from a radial flux sensor is considered in order to identify the machine faults. Some previous works have shown that learning methods are efficient to characterize precisely the fault of a machine. Thus, a fault signatures data set, i.e. prototypes matrix, is built thanks to simulations using finite element method applied to the machine considering a great number of functional states. Therefore, the goal of this work is to identify the class (fault) of experimental measurements using the simulated output. To do that, a small scale alternator is modelled and simulation outputs are compared to the experimental measurements. The application of supervised classification method chosen beyond the shape of data shows that a good classification rate of 79 % for short-circuits and 93 % for eccentricities can be achieved thanks to specific features and simulation output treatments. An identification rule of the fault type is designed by considering a hierarchical classification approach. It achieves excellent results since all experimental measurements are assigned to the right type of fault. Finally, the use of a finite state automaton achieves better results for short-circuits identification by taking into account the temporal evolution of the machine functional state
APA, Harvard, Vancouver, ISO, and other styles
43

Piteros, Panagiotis. "De l'utilisation de méta-modèles pour la modélisation et l'analyse de la réponse radar des forêts." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC029/document.

Full text
Abstract:
Dans ce travail, une nouvelle approche de conduite des observations radar de la forêt est proposée. Elle combine des méthodes statistiques pour l’analyse de sensibilité et les plans d’expériences numériques séquentiels et un code de calcul simulant la rétrodiffusion d’une forêt en vue de l’élaboration d’un modèle approché (métamodèle) à moindre coût numérique. L’introduction de ces outils mathématiques a pour objectif d’aider à la planification et à l’exécution des simulations radar et à l’organisation et l’analyse de leurs résultats. D’une part, les techniques de l’analyse de sensibilité sont appliquées afin de classer par ordre d’importance les paramètres d’entrée du modèle et d’identifier les paramètres de la forêt les plus significatifs ainsi que leurs effets sur le signal radar. D’autre part, la construction d’un métamodèle adaptable accélère le code de calcul, en préservant la physique du phénomène. Le cadre opérationnel de ce modèle approché sert finalement à introduire le principe du radar cognitif dans notre stratégie. Dans ce cas, une analyse rapide du signal reçu est nécessaire pour concevoir, en temps réel, le nouveau signal à émettre. De cette façon, les observations du radar simulées incluent en temps réel l’effet de l’environnement illuminé grâce aux simulations plus rapides et ciblées
In this work, a new approach to conduct the radar observations of forests is proposed. It combines statistical methods for sensitivity analysis and adaptive design of simulation experiments and a numerical code simulating the the forest backscattering for the use of a approximate model (metamodel) with less computational cost. The introduction of these mathematical tools has as an objective to assist the design and the execution of radar simulations and at the organization and the analysis of their results. On the one hand, the sensitivity analysis techniques were applied in order to classify the input parameters by means of their importance and to identify the most significant forest parameters as well as their effects on the radar signal. On the other hand, the construction of an adaptive metamodel accelerates the simulation model, while keeping the physics of the phenomenom. The operational frame of this approximate model serves finally in the introduction of the cognitive radar principle in our strategy. In that case, a fast analysis of the received signal is necessary to design, in real time, the new signal to be emitted. That way, the simulated radar observations take into account in real time the effect of the illuminated environment, thanks to the more focused and fast simulations
APA, Harvard, Vancouver, ISO, and other styles
44

Brégère, Margaux. "Stochastic bandit algorithms for demand side management Simulating Tariff Impact in Electrical Energy Consumption Profiles with Conditional Variational Autoencoders Online Hierarchical Forecasting for Power Consumption Data Target Tracking for Contextual Bandits : Application to Demand Side Management." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM022.

Full text
Abstract:
L'électricité se stockant difficilement à grande échelle, l'équilibre entre la production et la consommation doit être rigoureusement maintenu. Une gestion par anticipation de la demande se complexifie avec l'intégration au mix de production des énergies renouvelables intermittentes. Parallèlement, le déploiement des compteurs communicants permet d'envisager un pilotage dynamique de la consommation électrique. Plus concrètement, l'envoi de signaux - tels que des changements du prix de l'électricité – permettrait d'inciter les usagers à moduler leur consommation afin qu'elle s'ajuste au mieux à la production d'électricité. Les algorithmes choisissant ces signaux devront apprendre la réaction des consommateurs face aux envois tout en les optimisant (compromis exploration-exploitation). Notre approche, fondée sur la théorie des bandits, a permis de formaliser ce problème d'apprentissage séquentiel et de proposer un premier algorithme pour piloter la demande électrique d'une population homogène de consommateurs. Une borne supérieure d'ordre T⅔ a été obtenue sur le regret de cet algorithme. Des expériences réalisées sur des données de consommation de foyers soumis à des changements dynamiques du prix de l'électricité illustrent ce résultat théorique. Un jeu de données en « information complète » étant nécessaire pour tester un algorithme de bandits, un simulateur de données de consommation fondé sur les auto-encodeurs variationnels a ensuite été construit. Afin de s'affranchir de l'hypothèse d'homogénéité de la population, une approche pour segmenter les foyers en fonction de leurs habitudes de consommation est aussi proposée. Ces différents travaux sont finalement combinés pour proposer et tester des algorithmes de bandits pour un pilotage personnalisé de la consommation électrique
As electricity is hard to store, the balance between production and consumption must be strictly maintained. With the integration of intermittent renewable energies into the production mix, the management of the balance becomes complex. At the same time, the deployment of smart meters suggests demand response. More precisely, sending signals - such as changes in the price of electricity - would encourage users to modulate their consumption according to the production of electricity. The algorithms used to choose these signals have to learn consumer reactions and, in the same time, to optimize them (exploration-exploration trade-off). Our approach is based on bandit theory and formalizes this sequential learning problem. We propose a first algorithm to control the electrical demand of a homogeneous population of consumers and offer T⅔ upper bound on its regret. Experiments on a real data set in which price incentives were offered illustrate these theoretical results. As a “full information” dataset is required to test bandit algorithms, a consumption data generator based on variational autoencoders is built. In order to drop the assumption of the population homogeneity, we propose an approach to cluster households according to their consumption profile. These different works are finally combined to propose and test a bandit algorithm for personalized demand side management
APA, Harvard, Vancouver, ISO, and other styles
45

Rohmer, Tom. "Deux tests de détection de rupture dans la copule d'observations multivariées." Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5933.

Full text
Abstract:
Résumé : Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans ce travail de thèse, nous proposons deux tests non paramétriques de détection de ruptures dans la distribution d’observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d’alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multiplicateurs est proposée pour la statistique de test ; sa validité asymptotique sous l’hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d’un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l’une utilise un rééchantillonnage de la statistique, l’autre est fondée sur une estimation de la loi limite de la statistique de test. // Abstract : It is very well-known that the marginal distributions of a random vector do not characterize the distribution of the random vector. When the marginal distributions are continuous, the work of Sklar ensures the existence and uniqueness of a function called copula which can be regarded as capturing the dependence between the components of the random vector. The cumulative distribution function of the vector can then be rewritten using only the copula and the marginal cumulative distribution functions. In this work, we propose two non-parametric tests for change-point detection, particularly sensitive to changes in the copula of multivariate time series. They improve on recent propositions and are more powerful for relevant alternatives involving a change in the copula. The finite-sample behavior of these tests is investigated through Monte Carlo experiments. The first test is based on a Cramér-von Mises statistic and on the sequential empirical copula process. A multiplier resampling scheme is suggested and its asymptotic validity under the null hypothesis is demonstrated under strong mixing conditions. The second test focuses on the detection of a change in Spearman’s rho. Monte Carlo simulations reveal that this test is more powerful than the first test for alternatives characterized by a change in Spearman’s rho. Two approaches to compute approximate p-values for the test are studied empirically and theoretically. The first one is based on resampling, the second one consists of estimating the asymptotic null distribution of the test statistic.
APA, Harvard, Vancouver, ISO, and other styles
46

Ritter, G. "Nouvelle méthodologie de simulation symbolique, permettant la vérification des circuits séquentiels décrits à des niveaux d'abstraction différents." Phd thesis, 2001. http://tel.archives-ouvertes.fr/tel-00163429.

Full text
Abstract:
Nous proposons une nouvelle méthodologie de simulation symbolique, permettant la vérification des circuits séquentiels décrits à des niveaux d'abstraction différents. Nous avons utilisé un outil automatique de vérification formelle afin de montrer l'équivalence entre une description structurelle précisant les détails de réalisation et sa spécification comportementale. Des descriptions au niveau portes logiques issues d'un outil de synthèse commercial ont été comparées à des spécifications comportementales et structurelles au niveau transfert des registres. Cependant, il n'est pas nécessaire que la spécification soit synthésable ni qu'elle soit équivalente à la réalisation à chaque cycle d'horloge. Ultérieurement cette méthode pourra aussi s'appliquer à la vérification des propriétés. La simulation symbolique est exécutée en suivant des chemins dont l'outil garantit la cohérence logique. Nous obtenons un bon compromis entre précision et vitesse en détectant des équivalences grâce à un ensemble extensible de techniques. Nous utilisons des diagrammes de décisions binaires (OBDD) pour détecter les équivalences dans certains cas particuliers. Nous évitons l'explosion combinatoire en utilisant les résultats des autres techniques de détection et en ne représentant qu'une petite partie du problème à vérifier par des diagrammes de décisions. La coopération de toutes les techniques, et la génération de traces permettant la correction d'erreurs, ont été rendues possibles par le fait que nous associons des relations à des classes d'équivalence, au lieu de manipuler des expressions symboliques.
APA, Harvard, Vancouver, ISO, and other styles
47

Fiset, Stéphanie. "Traitement séquentiels et parallèles dans la dyslexie lettre-par-lettre : étude de cas et simulation chez le lecteur normal." Thèse, 2004. http://hdl.handle.net/1866/14724.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Morin, Léonard Ryo. "A dynamic sequential route choice model for micro-simulation." Thèse, 2012. http://hdl.handle.net/1866/9829.

Full text
Abstract:
Dans les études sur le transport, les modèles de choix de route décrivent la sélection par un utilisateur d’un chemin, depuis son origine jusqu’à sa destination. Plus précisément, il s’agit de trouver dans un réseau composé d’arcs et de sommets la suite d’arcs reliant deux sommets, suivant des critères donnés. Nous considérons dans le présent travail l’application de la programmation dynamique pour représenter le processus de choix, en considérant le choix d’un chemin comme une séquence de choix d’arcs. De plus, nous mettons en œuvre les techniques d’approximation en programmation dynamique afin de représenter la connaissance imparfaite de l’état réseau, en particulier pour les arcs éloignés du point actuel. Plus précisément, à chaque fois qu’un utilisateur atteint une intersection, il considère l’utilité d’un certain nombre d’arcs futurs, puis une estimation est faite pour le restant du chemin jusqu’à la destination. Le modèle de choix de route est implanté dans le cadre d’un modèle de simulation de trafic par événements discrets. Le modèle ainsi construit est testé sur un modèle de réseau routier réel afin d’étudier sa performance.
In transportation modeling, a route choice is a model describing the selection of a route between a given origin and a given destination. More specifically, it consists of determining the sequence of arcs leading to the destination in a network composed of vertices and arcs, according to some selection criteria. We propose a novel route choice model, based on approximate dynamic programming. The technique is applied sequentially, as every time a user reaches an intersection, he/she is supposed to consider the utility of a certain number of future arcs, followed by an approximation for the rest of the path leading up to the destination. The route choice model is implemented as a component of a traffic simulation model, in a discrete event framework. We conduct a numerical experiment on a real traffic network model in order to analyze its performance.
APA, Harvard, Vancouver, ISO, and other styles
49

Lavoie, Patrick. "Contribution d'un débriefing au jugement clinique d'étudiants infirmiers lors de simulations de détérioration du patient." Thèse, 2016. http://hdl.handle.net/1866/18588.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography