Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Simulation de processus distribués.

Dissertationen zum Thema „Simulation de processus distribués“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Simulation de processus distribués" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Aliouat, Makhlouf. „Reprise de processus dans un environnement distribué après pannes matérielles transitoires ou permanentes“. Phd thesis, Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00320133.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Rafaralahy, Hugues. „Modélisation d'un processus thermique et reconstruction de l'état et des défauts pour une classe de systèmes à paramètres distribués de type parabolique“. Nancy 1, 1993. http://www.theses.fr/1993NAN10223.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire concernent d'une part la modélisation et la simulation numérique d'un processus thermique industriel et, d'autre part, la reconstruction de l'état et le diagnostic pour une classe de systèmes à paramètres distribués de type parabolique. Dans une première partie, la modélisation d'un four de réchauffe de billettes, de type poussant, alimenté au gaz naturel est réalisée. Ce modèle est un système à paramètres repartis de type parabolique décrivant la conduction de la chaleur avec des conditions aux frontières de type Fourier non linéaires représentant les transferts de chaleur par convection et rayonnement. Pour mettre en évidence les fluctuations de température sur la longueur des billettes (nécessaire à l'optimisation de la qualité du produit et des conditions de laminage) nous considérons un modèle à deux dimensions d'espace. Un algorithme d'intégration numérique, permettant d'analyser les fluctuations du profil de température et de simuler l'évolution thermique des billettes pendant la phase de chauffe, est proposé. La deuxième partie est consacrée à la synthèse d'observateurs de l'état de dimension finie pour les systèmes de dimension infinie évoqués ci-dessus en passant par une réduction de la dimension de ces systèmes via les polynômes orthogonaux généralisés. L'approche adoptée est basée sur les observateurs à grand gain des systèmes localisés. La robustesse de celle-ci par rapport aux erreurs de modélisation des paramètres est étudiée. Une version d'ordre réduit de cet observateur est proposée. La troisième partie concerne l'estimation simultanée de l'état et des défauts. Deux cas sont considères, à savoir les défauts de mesures de type ponctuel (biais, dérivés de capteurs. . . ) Et les défauts de système de type distribue. Aucune hypothèse a priori n'est faite sur la dynamique de ces défauts. La solution proposée est basée sur l'observation de l'état des systèmes singuliers non linéaires localisés. Un de nos principaux objectifs est de proposer des solutions réalisables sur calculateurs, donc de dimension finie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Trieu, Thanh Ngoan. „Open data and environment simulation : environmental and social simulation on distributed process systems based on irregular cell space“. Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0047.

Der volle Inhalt der Quelle
Annotation:
La combinaison d’automates cellulaires (CA) et de systèmes distribués offre un moyen simple de modéliser les problèmes environnementaux et sociaux en divisant les zones d’intérêt en segments spatiales discrètes pour le calcul parallèle. L’évolution de l’état de chaque segment est divisée en étapes temporelles discrètes. Les divisions géographiques en tant qu’espace cellulaire irrégulier permettent de tirer parti des données ouvertes pour alimenter les systèmes de simulation. Les données sont analysées pour en déduire les règles de transition apportant des influences distribuées dans un quartier. Une étude de cas de modélisation de la propagation épidémique basée sur les divisions administratives est présentée. Étant donné l’hypothèse que l’épidémie se propage aux personnes vivant dans le quartier, un système de simulation est généré en fonction des voisins adjacents avec des conditions initiales de collecte à partir du portail de données ouvertes du gouvernement. Une approche hybride est introduite avec la coopération entre les tuiles régulières et les espaces cellulaires irréguliers dans la modélisation des activités côtières. Une simulation environnementale est nécessaire pour représenter les caractéristiques du sol et de la mer qui se propagent dans les deux espaces. Ces caractéristiques sont très différentes en raison de la capacité et de la réaction du sol, et du comportement de la mer, en particulier les courants et les marées. Le problème des marées vertes est modélisé lorsque les nutriments sont présents en concentrations élevées et piégés par les courants de marée
The combination of Cellular automata (CA) and distributed systems provide a simple way to model environmental and social issues by dividing the relevant areas into discrete spatial segments for parallel computation. The state evolution of each segment is divided into discrete time steps. Geographic divisions as irregular cell space give a chance to take advantage of Open Data in feeding the simulation systems. Data are analyzed to deduce the transition rules bringing distributed influences in a neighborhood. A case study of epidemic propagation modeling based on geographic divisions is presented. Given an assumption that the epidemic is spreading to people living in the neighborhood, a simulation system is generated based on adjacent neighbors with initial conditions collected from the government open data portal. A hybrid approach is introduced with the cooperation between regular tiles and irregular cellspaces in modeling shore activities. Environmental simulation is needed to represent ground and sea characteristics modeling spreading occurring on both spaces. These characteristics are very different due to soil capability and reaction, and sea behavior, in particular currents and tides. The problem of green tides is modeled when nutrients arepresented in high concentrations and entrapped by tidal currents
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Gnouma, Raouf. „Aide à la calibration d'un modèle hydrologique distribué au moyen d'une analyse des processus hydrologiques : application au bassin versant de l'Yzeron“. Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0084/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans le contexte des recherches actuelles en hydroogie consacrées à l'amélioration des performances des modèles hydrologiques à l'aide des connaissances acquises par l'approche expérimentale. Le bassin versant de l'yzeron (A=147,3 km2), situé à l'Ouest de l'agglomération lyonnaise, constitue le terrain d'étude. Après un état de l'art concernant les processus hydrologiques de génèse des écoulements et la modélisation hydrologique distribuée, le modèle WISTOO a été implémenté sur le bassin de l'Yzeron. Ce premier travail de modélisation a soulevé les différents problèmes, déjà évoqués dans la littérature, d'une modélisation hydrologique distribuée. Il a montré qu'une connaissance sur le comportement hydrologique de la région d'étude est nécessaire. Dans la deuxième partie de ce travail et à l'aide d'une analyse spatiale, utilisant les différentes couches thématiques disponibles, trois sous-bassins versants supposés représentatifs de caractéristiques dominantes liées aux écoulements ont été sélectionnés. Ensuite, une approche expérimentale a été menée, sur ces entités spatiales, à deux échelles : celle du sous-bassin versant (analyse pluie-débit et traçage géochimique) et celle du versant (suivi du niveau piézométrique). L'application du traçage géochimique a permis d'émettre des hypothèses sur le comportement hydrologique de ces entités. Pour une approche à plus petite échelle, une série de piézomètres a été installée sur deux versants ce qui a permis un suivi temporel du niveau piézométrique lors de quelques événements averse-crue. L'association des deux techniques (traçage géochimique et suivi à l'échelle du versant) ainsi que les analyses pluie-débit globales nous ont permis d'apporter quelques éléments de compréhension sur les processus hydrologiques dominants associés aux bassins représentatifs du bassin de l'Yzeron. Une première tentative d'intégration de cette connaissance dans le calage du modèle distribué constitue le dernier chapitre de la thèse
The present work is a contribution to the recent research topics in hydrology devoted to the amelioration of hydrological modelling performance on the base of field knowledge. The study catchment is the Yzeron basin (A = 147,3 km²) located at the west of Lyon. Following a state of the art review concerning hydrological processes for runoff generation and distributed hydrological modelling, the WISTOO model was implemented in the Yzeron basin. This first work of modelling raised the different problems of the distributed hydrological modelling, already evoked in the literature, and stresses the importance of knowledge about the hydrological behaviour of the study catchment is necessary. In the second part of this work, a spatial analysis was carried out, using the different available thematic layers, leading to the selection of three representative sub-catchments. A field experimental approach has been conducted at two scales : catchment (runoff-rainfall analysis and geochemical tracing) and hillslope scale (piezometric level measurements). The geochemical tracing application has made it possible to propose some hypotheses on the hydrological behaviour of these entities. For a smaller scale approach, a set of piezometers have been installed on two hillslopes, which allowed monitoring of the piezometric level during some rainfall-runoff events. Association of two techniques (geochemical tracing and experimental investigation at the hillslope scale) and global rainfall-runoff analysis have finally permitted to improve our understanding of dominant hydrological processes associated to the representatives sub-catchments of Yzeron basin. A first tentative of integration of this knowledge in to the calibration process of WISTOO model constitutes the last chapter of this work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Cauffriez, Laurent. „Méthodes et modèles pour l'évaluation de la sûreté de fonctionnement de systèmes automatisés complexes : Application à l'exploitation de lignes de production - Application à la conception de systèmes intelligents distribués“. Habilitation à diriger des recherches, Université de Valenciennes et du Hainaut-Cambresis, 2005. http://tel.archives-ouvertes.fr/tel-00289414.

Der volle Inhalt der Quelle
Annotation:
La nécessité de prendre en considération les aspects sûreté de fonctionnement des systèmes automatisés, dès la phase de conception, pour tendre vers le concept de « systèmes automatisés sûrs de fonctionnement » représente aujourd'hui un enjeu majeur.
Nous présentons dans cette Habilitation à Diriger les Recherches le concept de systèmes automatisés sûrs de fonctionnement et procédons à une analyse de la problématique globale de la conception de tels systèmes. Nous identifions clairement les frontières des différents systèmes constituant les systèmes automatisés sûrs de fonctionnement : processus physique, systèmes d'automatisation, systèmes de sécurité, systèmes de contrôlabilité du risque (barrières). Pour ce faire, nous nous appuyons sur la notion de service rendu.
Nous introduisons ensuite les différents concepts de sûreté de fonctionnement des systèmes en dégageant deux grands niveaux : la sûreté de fonctionnement prédictive et la gestion de la sûreté de fonctionnement avec prise en compte des risques pour l'Homme et l'environnement. Cette étude aborde les aspects normatifs incontournables pour les systèmes industriels et décline notre point de vue sur la notion de complexité. L'identification de ces grands axes de recherche en conception des systèmes automatisés sûrs de fonctionnement nous permet de situer dans la communauté scientifique nos activités de recherche, dont les contributions et résultats sont présentés dans le mémoire selon deux axes :
• L'axe I porte sur la sûreté de fonctionnement de processus physiques avec une application à l'évaluation des paramètres FMD (Fiabilité-Maintenabilité-Disponibilité) des lignes de production dans le but d'en améliorer la performance,
• L'axe II porte sur la sûreté de fonctionnement des systèmes d'automatisation à intelligence distribuée avec la proposition d'une démarche de conception de tels systèmes et d'un formalisme pour la spécification des besoins et contraintes d'architecture, l'originalité de cette méthode repose sur la volonté d'obtenir une architecture validée par des paramètres de sûreté quantifiés.
De ces travaux découlent nos activités de recherche actuelles et futures relatives à l'analyse systémique de la sûreté de fonctionnement des systèmes complexes et à l'exploration de voies de recherche pour la proposition d'une méthodologie générique, indépendante du domaine d'application, pour la conception de systèmes complexes sûrs de fonctionnement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lucas, Pierre-Yves. „Modélisations, Simulations, Synthèses pour des réseaux dynamiques de capteurs sans fil“. Thesis, Brest, 2016. http://www.theses.fr/2016BRES0114/document.

Der volle Inhalt der Quelle
Annotation:
L’intégration de l’environnement et des systèmes d’information progresse très vite depuis 10 ans. Cette intégration permet de suivre des évolutions naturelles, physiques, sociétales ; de les mesurer, de les comprendre ; quelquefois de les contrôler. On peut assimiler cette intégration à des besoins, tels que les changements climatiques ou les économies de ressources ; mais aussi à des progrès technologiques dans les domaines des systèmes miniatures, des communications sans fil et des capteurs.Dans ce contexte, nous avons d’abord effectué un apprentissage technologique, en réalisant plusieurs petits systèmes et des logiciels applicatifs de bas et de haut niveau. Nous nous sommes attaqués à la partie frontale des chaînes logicielles, celle qui permet de passer des bases de données pour Systèmes d’Information Géographique à l’implantation et l’exploitation de systèmes distribués de capteurs. QuickMap est ainsi un logiciel de navigation multi-services, incluant OpenStreetMap, construit pour le placement des capteurs et la spécification de systèmes de cellules physiques.Sur la plateforme NetGen, nous avons réalisé un simulateur concurrent associant un ou plusieurs mobiles à un ou plusieurs champs de capteurs. Une application est l’étude des interactions entre satellite en orbites basses, réseaux de capteurs lointains et stations de contrôle.Le séquencement par le temps permet d’associer plusieurs activités aériennes et au sol, en bénéficiant de hautes performances.Enfin, les questionnements méthodologiques ont amené à considérer la possibilité de virtualisation, à la fois du capteur, en le recouvrant d’une machine virtuelle, et à la fois du système d’observation distribué, en utilisant la plateforme NetGen.Nous avons maquetté un capteur et son interface radio en termes de processus communicants, en cherchant à réduire la complexité et la diversité de la programmation des petits systèmes matériels.Plusieurs de nos réalisations sont effectives et servent à des projets de recherche actifs.Cette thèse a été réalisée à l’Université de Brest, laboratoire Lab-STICC, grâce à une allocation de la communauté brestoise BMO
The integration of environment and information systems is progressing quickly since 10 years. This allows to monitor natural, physical or societal evolutions; to capture their logic and sometimes to control their effects. This integration is feasible thanks to many technical and scientific progresses: sensors, wireless communications, system on chips, batteries, distributed systems and geo-localization. The benefits are important for climate change monitoring and resource savings.In this context, we have firstly achieved a learning of technologies and several practical system realizations. We have produced a navigation software (QuickMap) allowing to interface gis databases and tile servers similar to OpenStreetMap, taking care of sensor locations and outputs. QuickMap is also a nice frontend to produce cellular systems oriented to physical simulations.Using the NetGen platform, we have produced a simulation framework allowing to schedule mobile moves with sensor field activities. A case study was leo satellites visiting remote sensor systems, with investigations on two algorithms suitable for data collection and control.Finally we have addressed the question of observation system virtualization by using an high level, process oriented virtual machine (tvm) to control the wireless link, a step forward to make the distributed and local behaviours homogeneous in terms of programming and simulation.Many of our developments are currently involved in active projects.This thesis was funded by a grant of Brest Metropole Oceane (BMO) and was achieved in a wireless research group at University of Brest, Lab-STICC laboratory
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Vitay, Julien. „Emergence de fonctions sensorimotrices sur un substrat neuronal numérique distribué“. Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00096818.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le domaine des neurosciences
computationnelles dont le but est de modéliser des fonctions
cognitives complexes par le biais de simulations
informatiques et numériques en s'inspirant du fonctionnement
cérébral. Contrairement à une approche descendante nécessitant de
connaître une expression analytique de la fonction à simuler,
l'approche ascendante retenue permet d'observer
l'émergence d'une fonction grâce à l'interaction de populations de
neurones artificiels sans qu'elle soit connue à l'avance. Dans un
premier temps, nous présentons un modèle de réseau de neurones
particulier, les champs neuronaux, dont les propriétés
dynamiques de résistance au bruit et de continuité spatio-temporelle permettent cette émergence. Afin de guider l'émergence de transformations sensorimotrices sur ce substrat, nous présentons ensuite l'architecture des
systèmes visuel et moteur pour mettre en évidence le rôle central de l'attention visuelle dans la réalisation de ces fonctions
par le cerveau. Nous proposons ensuite un schéma
fonctionnel des transformations sensorimotrices dans lequel la
préparation d'une saccade oculaire guide l'attention vers une rÈgion
de l'espace visuel et permet la programmation du mouvement. Nous décrivons enfin un modèle computationnel de déplacement du point d'attention qui, en utilisant une mémoire de travail spatiale
dynamique, permet la recherche séquentielle d'une cible dans une scène visuelle grâce au phénomène d'inhibition de retour. Les performances de ce modèle (résistance au bruit, au mouvement des objets et à l'exécution de saccades) sont analysées en simulation et sur une plate-forme robotique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Yaghi, Mohammed. „Phase Field Modeling of Water Solidification : A Port-Hamiltonian Approach“. Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10198.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente une étude sur la modélisation, la formulation par le formalisme des Systèmes Hamiltoniens à ports et la discrétisation des processus de solidification dont l'interface est supposée diffuse et est modélisée par l'approche des champs de phase. Ses travaux traitent en détail de la solidification de l'eau dans le contexte de fournir des modèles numériques adaptés à la simulation, à la conception et au contrôle de procédés de purification de l'eau. Le premier chapitre rappelle d'abord de manière synthétique les modèles physiques de systèmes biphasique et de leur interface. Il présente ensuite en détail l'approche des champs de phase pour la modélisation des interfaces diffuses ainsi que le modèle thermodynamique du système biphasique. Puis il rappelle le modèle dynamique de la solidification d'une espèce, en particulier de l'eau, comme un système de deux équations d'évolution, l'équation d'Allen-Cahn et l'équation de bilan d'énergie. Ces modèles sont basés sur les propriétés thermodynamiques employant l'entropie totale comme potentiel thermodynamique. Dans le deuxième chapitre, après le rappel de la définition de systèmes hamiltoniens dissipatifs à port frontière, on rappelle que l'on peut formuler l'équation d'Allen-Cahn ainsi que le modèle de solidification complet sous cette forme, en augmentant les variables d'état avec le gradient de la variable de champ de phase. Puis l'on montre que les relations thermodynamiques issues des données sont exprimées en termes de variables intensives et mènent à une formulation hamiltonienne à port implicite. Le dernier chapitre se concentre sur la discrétisation préservant la structure du processus de solidification en utilisant la Méthode des Éléments Finis Partitionnés. Cela garantit que le modèle discrétisé conserve des propriétés clés telles que la conservation de l'énergie et la passivité. Le chapitre développe les formulations faibles, les projections et les hamiltoniens discrets pour l'équation de la chaleur et l'équation d'Allen-Cahn, puis développe la discrétisation du modèle de solidification complet. La principale contribution de ce chapitre réside dans la méthodologie de discrétisation appliquée au modèle Port Hamiltonien implicite du processus de solidification en utilisant l'entropie comme fonction génératrice. Globalement, cette thèse propose une approche pour la modélisation, la simulation et le contrôle des processus de solidification en utilisant le cadre Hamiltoniens à ports. Les résultats posent une base complète pour de futures recherches et développements dans les systèmes à paramètres distribués avec interfaces mobiles, en particulier pour les applications en ingénierie environnementale et chimique
This thesis presents a study on modeling, formulating, and discretizing solidification processes using the Port Hamiltonian framework combined with the phase field approach. The goal is to provide numerical models suitable for simulating, designing, and controlling such processes. It addresses the challenges of representing and controlling phase change phenomena in distributed parameter models with moving interfaces, with a particular focus on the solidification of pure water. The work has been motivated by the development of green processes for water purification technologies such as cyclic melt and crystallization of water, which offer a low-energy solution while minimizing the use of hazardous materials. The first chapter recalls briefly the physical models of multiphase systems and the description of the interface between the phases, in terms of thin or diffuse interfaces. It presents the phase field theory and the associated thermodynamical models of the multiphase systems. Finally, it expresses the dynamics of solidification processes as a coupled system of evolution equations consisting of the Allen-Cahn equation and energy balance equations. A main contribution of this chapter consists in a comprehensive presentation of solidification using the entropy functional approach within the phase field framework. In the second chapter, the Port Hamiltonian formulation of the dynamics of solidification processes using the phase field approach is developed. This chapter introduces Boundary Port Hamiltonian Systems and shows how an extension of the state space to the gradient of the phase field variable leads to a Port Hamiltonian formulation of the solidification model. The model is written in such a way that it utilizes the available thermodynamic data for liquid water and ice, allowing for a detailed and physically-based modeling, leading to an implicit Boundary Port Hamiltonian model. The final chapter focuses on the structure-preserving discretization of the solidification process using the Partitioned Finite Element Method. This ensures that the discretized model retains the Port Hamiltonian structure and, in turn, the key properties such as energy conservation and passivity. The chapter covers weak formulations, projections, and discrete Hamiltonians for the heat equation and the Allen-Cahn equation, leading to the spatial discretization of the solidification model. The principal contribution of this chapter lies in the discretization methodology applied to the implicit Port Hamiltonian model of the solidification process using entropy as the generating function. Overall, this thesis provides structured models of solidification processes using the Port Hamiltonian framework, providing a foundation for their physics-based simulation and control and for future research and development in distributed parameter systems with moving interfaces, particularly for environmental and chemical engineering applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Mallmann-Trenn, Frederik. „Analyse probabiliste de processus distribués axés sur les processus de consensus“. Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE058/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'étude des processus stochastiques décentralisés. Parmi les exemples typiques de ces processus figurent la dynamique météorologique, la circulation automobile, la façon dont nous rencontrons nos amis, etc. Dans cette thèse, nous exploitons une large palette d'outils probabilistes permettant d'analyser des chaînes de Markov afin d'étudier un large éventail de ces processus distribués : modèle des feux de forêt (réseaux sociaux), balls-into-bins avec suppression, et des dynamiques et protocoles de consensus fondamentaux tels que Voter Model, 2-Choices, et 3-Majority
This thesis is devoted to the study of stochastic decentralized processes. Typical examples in the real world include the dynamics of weather and temperature, of traffic, the way we meet our friends, etc. We take the rich tool set from probability theoryfor the analysis of Markov Chains and employ it to study a wide range of such distributed processes: Forest Fire Model (social networks), Balls-into-Bins with Deleting Bins, and fundamental consensus dynamics and protocols such as the Voter Model, 2-Choices, and 3-Majority
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Barger, Pavol. „Evaluation et validation de la fiabilité et de la disponibilité des systèmes d'automatisation à intelligence distribuée, en phase dynamique“. Nancy 1, 2003. http://www.theses.fr/2003NAN10222.

Der volle Inhalt der Quelle
Annotation:
L'étude de la sûreté de fonctionnement des systèmes d'automatisation est un sujet qui nécessite la prise en compte de différentes caractéristiques telles que les modes de fonctionnement, la présence d'un réseau de communication, etc. Des méthodes d'étude existent mais aucune ne peut être appliquée avec une vue d'ensemble. L'approche proposée consiste en une analyse du comportement dynamique, à la fois du point de vue fonctionnel et dysfonctionnel. Les Réseaux de Petri colorés (CPN) sont utilisés pour la modélisation de chaque composant et l'analyse est faite par une simulation de Monte Carlo sur le logiciel Design/CPN. L'apport original de la thèse consiste en proposition d'une approche permettant à la fois la conception des composants et de leur intégration pour constituer un système complet, par l'utilisation d'un outil unique permettant d'intégrer des points de vue à l'interface de trois communautés : l'automatique, l'informatique et la sûreté de fonctionnement
The control systems dependability study is a task in which different characteristics have to be taken into account, such as functioning modes, communication network presence, etc. Some study methods exist but their application fields cannot represent the system globally. The approach proposed is based on the dynamic behavior analysis considering both functional and malfunctional behavior with a focus on the dynamic system configuration (state/phase). Colored Petri Nets (CPN) are used for modeling. Monte Carlo simulation is the main analysis method and is implemented in the Design/CPN software. The main study results include a proposition of system components models and the subsequent analysis by simulation. The original contribution is the proposition of one unified approach enabling the components modeling as well as their connection while using one single tool and expressing the viewpoints common to three areas: control systems, computer engineering and dependability assessment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Zemmari, Akka. „Contribution à l'analyse d'algorithmes distribués“. Bordeaux 1, 2000. http://www.theses.fr/2000BOR10609.

Der volle Inhalt der Quelle
Annotation:
La premiere partie de cette these est consacree a l'etude du degre de parallelisme des monoides de commutation modelisant les executions distribuees des algorithmes. Apres une presentation du modele et des differents resultats deja etablis, nous donnons des methodes pour calculer ce degre, l'outil principal utilise etant les marches aleatoires et les chaines de markov. La deuxieme partie s'interesse au probleme des synchronisations dans les reseaux anonymes. Des travaux ulterieurs ont montre que sous quelques hypotheses, on ne peut resoudre ce probleme de maniere deterministe, nous proposons donc et analysons des algorithmes probabilistes resolvant ce probleme, nous etudions egalement leur efficacite. La troisieme partie est consacree a l'etude d'un algorithme d'election dans un reseau en arbre ou dans tout reseau ou un arbre couvrant est disponible. Nous montrons que sous quelques hypotheses, le(s) sommet(s) median(a) a (ont) la probabilite la plus elevee d'etre elu(s), et nous donnons quelques implementations possibles de cet algorithme. Dans la derniere partie, nous nous interessons a l'etude de la taille memoire necessaire pour coder les tables de routage adaptatives dans un reseau de processeurs. Les principaux resultats de cette partie concernent la compacite de ces tables. En effet, nous montrons que tout reseau supporte un routage par intervalle -adaptatif de compacite 1. Si on impose au moins un plus court chemin, nous donnons une borne inferieure pour la compacite et, enfin, nous montrons que la difference entre la compacite dans le cas deterministe et la compacite dans le cas adaptatif peut etre tres grande.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Grandemange, Quentin. „Contribution à la modélisation et à la détection d'anomalies du traffic Internet à partir de mesures d'un coeur de réseau opérateur“. Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0061.

Der volle Inhalt der Quelle
Annotation:
Grâce au partenariat avec l'entreprise luxembourgeoise Post Luxembourg, nous avons pu tester différentes méthodes pour mesurer le trafic interdomaine à la bordure de leur réseau avec Internet. Le choix s'est porté sur une technologie existante : Netflow. Avec ces données nous avons pu réaliser diverses analyses afin de comprendre l'évolution du trafic en fonction de différents paramètres comme l'heure de la journée, le jour de la semaine... D'après ces analyses, plusieurs solutions ont été envisagées pour modéliser le trafic. Deux méthodes ont été proposées et testées sur des données réelles : une méthode d'analyse de séries temporelles et une méthode de machine learning reposant sur les processus gaussiens. Ces techniques ont été comparées sur différents systèmes autonomes. Les résultats sont satisfaisants pour les deux méthodes avec un avantage pour la méthode des processus gaussiens. Cette thèse propose le développement d'une solution logicielle ANODE mise en production chez Post Luxembourg et permettant l'analyse de bout en bout du trafic de cœur de réseau : mesure de données, modélisation, prédiction et détection d'anomalies
Inter-domain routing statistics are not usually publicly available but with the partnership with Post Luxembourg, we deployed a network wide measurements of Internet traffic. Those statistics show clear daily and weekly pattern and several points of interest. From all the information gathered, two modelling approach were chosen: the first one from the time series domain and the second one from the machine learning approach. Both were tested on several dataset of autonomous systems and the second one, Gaussian Process, was kept for the next steps. The proposal of this study is the development of a software solution called ANODE, which is used at Post Luxembourg, allowing the analysis of backbone traffic: measurments, modelling, forecasting and anomaly detection
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Pirson, Alain. „Conception et simulation d'architectures parallèles et distribuées pour le traitement d'images“. Grenoble INPG, 1990. http://www.theses.fr/1990INPG0052.

Der volle Inhalt der Quelle
Annotation:
L'exploitation automatique d'une information de nature visuelle met en uvre des systemes de traitement particuliers. La diversite des operations et les puissances de calcul requises aboutissent a des structures fondees sur les notions de concurrence et de traitements distribues. Le present travail identifie une machine de vision a une association d'entites intelligentes specialisees, dialoguant par echanges de messages conformement au modele de parallelisme introduit par le language occam. Il propose une architecture du type reseau de processeurs enrichis. Il s'agit d'une approche multiprocesseur classique dans laquelle chaque nud est complete de ressources specifiques. Ces ressources couvrent non seulement les taches de traitement, mais egalement les dialogues inter-nuds. Une telle architecture beneficie de l'homogeneite des reseaux multiprocesseurs et de la puissance de ressources specialisees. Sa mise en uvre est celle d'une structure distribuee ou chaque nud recoit sa part du travail. Cette approche debouche sur une realisation originale, l'architecture atila. Structure modulaire, elle s'articule autour d'un reseau de transputers assortis de coprocesseurs dedies au traitement d'images et relies par de puissants dispositifs de communication
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Slimi, Redouane. „Modélisation et simulation des systèmes distribués étalable par automates cellulaires“. Perpignan, 2008. http://www.theses.fr/2008PERP0877.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans cette thèse concerne l’élaboration de modèles déterministes ou probabilistes pour la simulation de systèmes complexes qui exhibent un phénomène d’étalement spatial. Cette modélisation est basée sur le paradigme automates cellulaires qui permet de mieux étudier le concept mathématique d’étalabilité déjà introduit avec le formalisme équations aux dérivées partielles. La simulation des modèles considérés a bénéficié des facilités d’implémentation des automates cellulaires considérés comme des machines autonomes qui permettent un traitement parallèle de l’information. Nous avons d'abord lié la notion d'étalibilité à la théorie de croissance des formes. Les résultats de simulation permettent de valider la théorie générale de convergence vers une forme asymptotique, appliquée aux domaines où l'état du système vérifie une propriété spatiale donnée. Nous avons ensuite établi une connexion entre l'étalibilité et la théorie de percolation en étudiant la croissance d'une propriété en milieu hétérogène
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Hicheur, Awatef. „Modélisation et analyse des processus Workflows reconfigurables et distribués par les ECATNets récursifs“. Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0645.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous proposons un nouveau modèle pour la modélisation et l'analyse des processus workflows reconfigurables et distribués, appelé ECATNet récursif (RECATNet). Les RECATNets sont une combinaison saine des ECATnets ordinaires (Extended Concurrent Algebraic Terms Nets) et des réseaux de Petri récursifs. L'intérêt majeur des RECATNets, dont nous précisons la syntaxe et la sémantique, est d'offrir un mécanisme récursif approprié à la modélisation de la création et de la suppression dynamique de processus. Nous montrons aussi à travers ce modèle la vérification des critères de correction des processus workflows (la cohérence et la compatibilité). La sémantique des RECATNets traduite en termes de lal ogique de réécriture nous permet le prototypage rapide et la vérification formelle de ces prpriétés à l'aide de l'outil de réccriture Maude. Nous proposons aussi une expension temporelle du modèle des RECATNets pour la repréensation explicite des contraintes de temps liées aux workflows reconfigurables. Pour une analyse complète, nous avons développé une méthode de construction du graphe des classes d'états spécifique aux T-RECATNets que nous avons implémenté dans le cadre de la logique de réécriture
In this thesis, we propose a new model for the modeling and the analysis of distributed and reconfigurable worklow processes, namely Recursive ECATNets (RECATNets). RECATNets are sound combination of the ordinary ECATNets (Extended Concurrent Algebraic Terms Nets) and the recursive Petri nets. The interest of RECATNets which we precise their syntax and semantics, is to offer a reursive mechanism appropiate for the modeling of the dynamic creation and suppression of processes. We show also, via this model, the verification of the correction criteria of workflow processes (soundness and compatibility). The semantic of RECATNets is described in terms of rewriting logic allows the rapid prototyping and the formal verification of these properties using the Maude system. We propose also a temporal extension of the RECATNets model for the explicit representation of time constraints of reconfigurable workflows. For a complete verification, we also develop a method for the construction of the state class graph of the T-RECATNets and implement it in the framework of the rewriting logic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Bui, Marc. „Étude comportementale d'algorithmes distribués de contrôle“. Paris 11, 1989. http://www.theses.fr/1989PA112242.

Der volle Inhalt der Quelle
Annotation:
Cette thèse étudie les problèmes de contrôle qui se posent lorsqu'on veut gérer des réseaux de processeurs à mémoires locales ou machines distribuées. Le chapitre 1 a pour objet la mise en évidence de l'expression de problèmes distribués sous forme d'équations à l'aide du concept de point fixe qui offre une vision unificatrice de l'algorithmique distribuée. Le chapitre 2 propose une modélisation markovienne pour représenter localement les processus distribués et globalement les relations s'établissant entre ces processus. L'intérêt théorique et la pertinence de ce modèle markovien sont prouvés par son application à plusieurs problèmes: en effet, il permet de résoudre de façon satisfaisante et complète le problème du "dîner des philosophes" (chapitre 9), celui de l'exclusion mutuelle (chapitre 4) et celui de l'inter blocage (chapitre 5) en définissant une famille de de règles de bon fonctionnement. Dans chacun de ces 3 chapitres, sont traitées les implications des comportements locaux sur le comportement global et le réglage des paramètres du modèle afin d'obtenir un fonctionnement optimal des algorithmes distribués (selon des critères adéquats). Dans ces études, l'équité se révèle avoir un rôle important ct dans le chapitre 6, cette notion est étudiée après avoir été mis en évidence par des expériences de programmation en Occam sur réseau de Transputers. Enfin, le chapitre 7 présente l'application du calcul diffusant à la résolution du problème de détection de situations stables exprimées par des équations de point-fixe.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Vieira, De Mello Aline. „Tlmdt : une stratégie de modélisation basée sur temps distribué pour la simulation prallèle de systèmes multi-processeurs intégrés sur puce“. Paris 6, 2013. http://www.theses.fr/2013PA066201.

Der volle Inhalt der Quelle
Annotation:
Les architectures matérielles innovantes dans l’industrie de la microélectronique se caractérisent principalement par leur niveau incroyablement élevé de parallélisme. Plusieurs environnements de conception industriels et académiques sont apparus pour aider dans la modélisation, la simulation et la mise au point de “Massively Parallel Multi-Processors System on Chip” (MP2SoCs). Le langage de description matérielle SystemC est le point commun de tous ces environnements. La bibliothèque SystemC de classes C++ permet de décrire le matériel à différents niveaux d’abstraction, allant de RTL synthétisable à la modélisation de niveau transactionnel (TLM). Cependant, quand il s’agit de simuler une architecture contenant des centaines de processeurs, même la vitesse de simulation fourni par l’approche TLM n’est pas suffisante. Simultanément, les stations de travail multi-coeur sont de plus acessible au grand public. Malheureusement, le noyau de simulation SystemC est entièrement séquentiel et ne peut pas exploiter la puissance de traitement offerte par ces machines multi-coeurs. L’objectif stratégique de cette thèse est de proposer une approche de modélisation avec temps, pour les architectures numériques multi-processeurs complexes à mémoire partagée, appelée modélisation au niveau transaction avec temps distribué (TLM-DT). L’idée principale de l’approche TLM-DT est de ne plus utiliser le temps global de simulation SystemC, rendant ainsi possible l’utilisation d’un moteur de simulation véritablement parallèle et permettant une réduction significative du temps de simulation avec une perte limitée de précision
Innovative hardware architectures in the microelectronics industry are mainly characterized by their incredibly high level of parallelism. Despite their relative novelty, Multi-Processors System on Chip (MPSoCs) containing a few cores tend to be replaced by Massively Parallel MPSoCs (MP2SoCs), which integrate dozens or hundreds of processor cores interconnected through a possibly hierarchical network on chip. Several industrial and academic frameworks appeared to help modeling, simulating and debugging MP2SoC architectures. The SystemC hardware description language is the effective backbone of all these frameworks, which allows to describe the hardware at various levels of abstraction, ranging from synthesizable RTL (more accurate and very slow) to TLM (less accurate and very fast). However, when it comes to simulate an architecture containing hundreds of processors, even the simulation speed brought by TLM is not enough. Simultaneously, multi-core workstations are becoming the mainstream. Unfortunately, the genuine SystemC simulation kernel is fully sequential and cannot exploit the processing power provided by these multi-cores machines. In this context, the strategic goal of this thesis is to propose a general modeling approach for timed TLM virtual prototyping of shared memory MP2SoCs, called Transaction Level Modeling with Distributed Time (TLM-DT). The main idea of the TLM-DT approach is not to use anymore the SystemC global simulation time, becoming possible to use a truly parallel simulation engine and providing a significant reduction in simulation time with a limited loss of precision
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Geisweiller, Nil. „Étude sur la modélisation et la vérification probabiliste d'architectures de simulations distribuées pour l'évaluation de performances“. Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0003.

Der volle Inhalt der Quelle
Annotation:
L'objectif défini dans cette thèse est d’utiliser les récentes techniques de model checking probabiliste afin de vérifier des contraintes de performances sur des architectures de simulations distribuées. L'aspect probabiliste de l'approche permet à la fois de réduire la complexité du modèle et d’exprimer des contraintes de performances plus souples. Dans cette thèse nous avons dans un premier temps tenté d’utiliser le model checking probabiliste afin de formuler et de vérifier de telles contraintes de performances. Nous avons utilisé le model checker PRISM et confronté les résultats obtenus avec des données réelles provenant de simulations distribuées. Ceci a permis de révéler une difficulté fondamentale de cette démarche : il est difficile de choisir les coefficients du modèle pour que les résultats obtenus par le model checker coïncident avec la réalité. En clair, le modèle doit être réaliste. Afin de surmonter cette difficulté nous avons d’abord utilisé des algorithmes d'approximation qui ont permis d’obtenir des modèles plus réalistes mais sans structure, les rendant difficilement compréhensibles et manipulables. Afin de remédier à ce problème nous avons adapté un de ces algorithmes d’approximation, permettant d’induire des distributions de type phase à partir d’un ensemble de temps d’absorption, pour lui permettre d’opérer sur des modèles décrit dans l’algébre PEPA, un langage de modélisation basé sur une approche compositionnelle. L'algorithme a ensuite été étendu afin de fonctionner avec des exécutions partiellement observables au lieu de temps d’absorption, permettant ainsi de travailler sur des modèles PEPA sans état absorbant. Les expérimentations s’appuient sur le logiciel EMPEPA, distribué librement en Open-source, développé dans le cadre des travaux de thèse, et implantant en particulier ces deux algorithmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Rosa, Cristian. „Évaluation de la Performance et de la Correction de Systèmes Distribués“. Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00749039.

Der volle Inhalt der Quelle
Annotation:
Les systèmes distribués sont au cœur des technologies de l'information. Il est devenu classique de s'appuyer sur multiples unités distribuées pour améliorer la performance d'une application, la tolérance aux pannes, ou pour traiter problèmes dépassant les capacités d'une seule unité de traitement. La conception d'algorithmes adaptés au contexte distribué est particulièrement difficile en raison de l'asynchronisme et du non-déterminisme qui caractérisent ces systèmes. La simulation offre la possibilité d'étudier les performances des applications distribuées sans la complexité et le coût des plates-formes d'exécution réelles. Par ailleurs, le model checking permet d'évaluer la correction de ces systèmes de manière entièrement automatique. Dans cette thèse, nous explorons l'idée d'intégrer au sein d'un même outil un model checker et un simulateur de systèmes distribués. Nous souhaitons ainsi pouvoir évaluer la performance et la correction des applications distribuées. Pour faire face au problème de l'explosion combinatoire des états, nous présentons un algorithme de réduction dynamique par ordre partiel (DPOR), qui effectue une exploration basée sur un ensemble réduit de primitives de réseau. Cette approche permet de vérifier les programmes écrits avec n'importe laquelle des interfaces de communication proposées par le simulateur. Nous avons pour cela développé une spécification formelle complète de la sémantique de ces primitives réseau qui permet de raisonner sur l'indépendance des actions de communication nécessaire à la DPOR. Nous montrons au travers de résultats expérimentaux que notre approche est capable de traiter des programmes C non triviaux et non modifiés, écrits pour le simulateur SimGrid. Par ailleurs, nous proposons une solution au problème du passage à l'échelle des simulations limitées pour le CPU, ce qui permet d'envisager la simulation d'applications pair-à-pair comportant plusieurs millions de nœuds. Contrairement aux approches classiques de parallélisation, nous proposons une parallélisation des étapes internes de la simulation, tout en gardant l'ensemble du processus séquentiel. Nous présentons une analyse de la complexité de l'algorithme de simulation parallèle, et nous la comparons à l'algorithme classique séquentiel pour obtenir un critère qui caractérise les situations où un gain de performances peut être attendu avec notre approche. Un résultat important est l'observation de la relation entre la précision numérique des modèles utilisés pour simuler les ressources matérielles, avec le degré potentiel de parallélisation atteignables avec cette approche. Nous présentons plusieurs cas d'étude bénéficiant de la simulation parallèle, et nous détaillons les résultats d'une simulation à une échelle sans précédent du protocole pair-à-pair Chord avec deux millions de nœuds, exécutée sur une seule machine avec un modèle précis du réseau.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Rosa, Cristian. „Vérification des performances et de la correction des systèmes distribués“. Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10113/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes distribués sont au coeur des technologies de l'information.Il est devenu classique de s'appuyer sur multiples unités distribuées pour améliorer la performance d'une application, la tolérance aux pannes, ou pour traiter problèmes dépassant les capacités d'une seule unité de traitement. La conception d'algorithmes adaptés au contexte distribué est particulièrement difficile en raison de l'asynchronisme et du non-déterminisme qui caractérisent ces systèmes. La simulation offre la possibilité d'étudier les performances des applications distribuées sans la complexité et le coût des plates-formes d'exécution réelles. Par ailleurs, le model checking permet d'évaluer la correction de ces systèmes de manière entièrement automatique. Dans cette thèse, nous explorons l'idée d'intégrer au sein d'un même outil un model checker et un simulateur de systèmes distribués. Nous souhaitons ainsi pouvoir évaluer la performance et la correction des applications distribuées. Pour faire face au problème de l'explosion combinatoire des états, nous présentons un algorithme de réduction dynamique par ordre partiel (DPOR), qui effectue une exploration basée sur un ensemble réduit de primitives de réseau. Cette approche permet de vérifier les programmes écrits avec n'importe laquelle des interfaces de communication proposées par le simulateur. Nous avons pour cela développé une spécification formelle complète de la sémantique de ces primitives réseau qui permet de raisonner sur l'indépendance des actions de communication nécessaire à la DPOR. Nous montrons au travers de résultats expérimentaux que notre approche est capable de traiter des programmes C non triviaux et non modifiés, écrits pour le simulateur SimGrid. Par ailleurs, nous proposons une solution au problème du passage à l'échelle des simulations limitées pour le CPU, ce qui permet d'envisager la simulation d'applications pair-à-pair comportant plusieurs millions de noeuds. Contrairement aux approches classiques de parallélisation, nous proposons une parallélisation des étapes internes de la simulation, tout en gardant l'ensemble du processus séquentiel. Nous présentons une analyse de la complexité de l'algorithme de simulation parallèle, et nous la comparons à l'algorithme classique séquentiel pour obtenir un critère qui caractérise les situations où un gain de performances peut être attendu avec notre approche. Un résultat important est l'observation de la relation entre la précision numérique des modèles utilisés pour simuler les ressources matérielles, avec le degré potentiel de parallélisation atteignables avec cette approche. Nous présentons plusieurs cas d'étude bénéficiant de la simulation parallèle, et nous détaillons les résultats d'une simulation à une échelle sans précédent du protocole pair-à-pair Chord avec deux millions de noeuds, exécutée sur une seule machine avec un modèle précis du réseau
Distributed systems are in the mainstream of information technology. It has become standard to rely on multiple distributed units to improve the performance of the application, help tolerate component failures, or handle problems too large to fit in a single processing unit. The design of algorithms adapted to the distributed context is particularly difficult due to the asynchrony and the nondeterminism that characterize distributed systems. Simulation offers the ability to study the performance of distributed applications without the complexity and cost of the real execution platforms. On the other hand, model checking allows to assess the correctness of such systems in a fully automatic manner. In this thesis, we explore the idea of integrating a model checker with a simulator for distributed systems in a single framework to gain performance and correctness assessment capabilities. To deal with the state explosion problem, we present a dynamic partial order reduction algorithm that performs the exploration based on a reduced set of networking primitives, that allows to verify programs written for any of the communication APIs offered by the simulator. This is only possible after the development of a full formal specification with the semantics of these networking primitives, that allows to reason about the independency of the communication actions as required by the DPOR algorithm. We show through experimental results that our approach is capable of dealing with non trivial unmodified C programs written for the SimGrid simulator. Moreover, we propose a solution to the problem of scalability for CPU bound simulations, envisioning the simulation of Peer-to-Peer applications with millions of participating nodes. Contrary to classical parallelization approaches, we propose parallelizing some internal steps of the simulation, while keeping the whole process sequential. We present a complexity analysis of the simulation algorithm, and we compare it to the classical sequential algorithm to obtain a criteria that describes in what situations a speed up can be expected. An important result is the observation of the relation between the precision of the models used to simulate the hardware resources, and the potential degree of parallelization attainable with this approach. We present several case studies that benefit from the parallel simulation, and we show the results of a simulation at unprecedented scale of the Chord Peer-to-Peer protocol with two millions nodes executed in a single machine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Cavaliere, Domenico. „DAMeSI : un profil pour l'évaluation de performances des systèmes d'automatisation distribués“. Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL032N.

Der volle Inhalt der Quelle
Annotation:
L'augmentation de la complexité de projets de conception/rénovation des architectures des systèmes d'information des lignes de production nécessite la mise en œuvre de méthodes/outils assurant leur validation avant de l'implantation. Le profil UML, nommé DAMeSI (Description d'Architectures Manufacturières et de Systèmes d'Information), formalise une méthode de modélisation modulaire permettant la validation par des techniques de simulation. L'originalité de DAMeSI est d'identifier deux classes d'utilisateurs: l'architecte et l'expert de modélisation. Cette distinction permet d'identifier toujours la meilleure synthèse afin de mieux répondre à la contrainte d'applicabilité en milieu industriel. DAMeSI et également le nom de l'environnement logiciel supportant le profil proposé. Cet environnement est ouvert est paramétrable ce qui permet l'extension de ses fonctionnalités actuelles. Une passerelle vers l'outil de simulation Opnet (Opnet Technologies) garantie la simulation de modèles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Rosa, Cristian. „Vérification des performances et de la correction des systèmes distribués“. Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10113.

Der volle Inhalt der Quelle
Annotation:
Les systèmes distribués sont au coeur des technologies de l'information.Il est devenu classique de s'appuyer sur multiples unités distribuées pour améliorer la performance d'une application, la tolérance aux pannes, ou pour traiter problèmes dépassant les capacités d'une seule unité de traitement. La conception d'algorithmes adaptés au contexte distribué est particulièrement difficile en raison de l'asynchronisme et du non-déterminisme qui caractérisent ces systèmes. La simulation offre la possibilité d'étudier les performances des applications distribuées sans la complexité et le coût des plates-formes d'exécution réelles. Par ailleurs, le model checking permet d'évaluer la correction de ces systèmes de manière entièrement automatique. Dans cette thèse, nous explorons l'idée d'intégrer au sein d'un même outil un model checker et un simulateur de systèmes distribués. Nous souhaitons ainsi pouvoir évaluer la performance et la correction des applications distribuées. Pour faire face au problème de l'explosion combinatoire des états, nous présentons un algorithme de réduction dynamique par ordre partiel (DPOR), qui effectue une exploration basée sur un ensemble réduit de primitives de réseau. Cette approche permet de vérifier les programmes écrits avec n'importe laquelle des interfaces de communication proposées par le simulateur. Nous avons pour cela développé une spécification formelle complète de la sémantique de ces primitives réseau qui permet de raisonner sur l'indépendance des actions de communication nécessaire à la DPOR. Nous montrons au travers de résultats expérimentaux que notre approche est capable de traiter des programmes C non triviaux et non modifiés, écrits pour le simulateur SimGrid. Par ailleurs, nous proposons une solution au problème du passage à l'échelle des simulations limitées pour le CPU, ce qui permet d'envisager la simulation d'applications pair-à-pair comportant plusieurs millions de noeuds. Contrairement aux approches classiques de parallélisation, nous proposons une parallélisation des étapes internes de la simulation, tout en gardant l'ensemble du processus séquentiel. Nous présentons une analyse de la complexité de l'algorithme de simulation parallèle, et nous la comparons à l'algorithme classique séquentiel pour obtenir un critère qui caractérise les situations où un gain de performances peut être attendu avec notre approche. Un résultat important est l'observation de la relation entre la précision numérique des modèles utilisés pour simuler les ressources matérielles, avec le degré potentiel de parallélisation atteignables avec cette approche. Nous présentons plusieurs cas d'étude bénéficiant de la simulation parallèle, et nous détaillons les résultats d'une simulation à une échelle sans précédent du protocole pair-à-pair Chord avec deux millions de noeuds, exécutée sur une seule machine avec un modèle précis du réseau
Distributed systems are in the mainstream of information technology. It has become standard to rely on multiple distributed units to improve the performance of the application, help tolerate component failures, or handle problems too large to fit in a single processing unit. The design of algorithms adapted to the distributed context is particularly difficult due to the asynchrony and the nondeterminism that characterize distributed systems. Simulation offers the ability to study the performance of distributed applications without the complexity and cost of the real execution platforms. On the other hand, model checking allows to assess the correctness of such systems in a fully automatic manner. In this thesis, we explore the idea of integrating a model checker with a simulator for distributed systems in a single framework to gain performance and correctness assessment capabilities. To deal with the state explosion problem, we present a dynamic partial order reduction algorithm that performs the exploration based on a reduced set of networking primitives, that allows to verify programs written for any of the communication APIs offered by the simulator. This is only possible after the development of a full formal specification with the semantics of these networking primitives, that allows to reason about the independency of the communication actions as required by the DPOR algorithm. We show through experimental results that our approach is capable of dealing with non trivial unmodified C programs written for the SimGrid simulator. Moreover, we propose a solution to the problem of scalability for CPU bound simulations, envisioning the simulation of Peer-to-Peer applications with millions of participating nodes. Contrary to classical parallelization approaches, we propose parallelizing some internal steps of the simulation, while keeping the whole process sequential. We present a complexity analysis of the simulation algorithm, and we compare it to the classical sequential algorithm to obtain a criteria that describes in what situations a speed up can be expected. An important result is the observation of the relation between the precision of the models used to simulate the hardware resources, and the potential degree of parallelization attainable with this approach. We present several case studies that benefit from the parallel simulation, and we show the results of a simulation at unprecedented scale of the Chord Peer-to-Peer protocol with two millions nodes executed in a single machine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Djahanguir, Amir Hossein. „Accélération de la simulation logico-fonctionnelle : simulateur à évènements discrets totalement distribués“. Toulouse, INSA, 1989. http://www.theses.fr/1989ISAT0017.

Der volle Inhalt der Quelle
Annotation:
Les deux principaux types de simulation (compilee et a evenements discrets) ont ete experimentes selon une approche parallele relativement nouvelle qui offre une facilite de programmation et d'apprehension d'un monde reel en termes de processus concurrents. Le simulateur a evenements discrets a ete mis en oeuvre sur un reseau de processeurs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Jacewicz, Przemyslaw. „Modélisation et simulation des systèmes distribués par automates cellulaires : application en écologie“. Perpignan, 2002. http://www.theses.fr/2002PERP0455.

Der volle Inhalt der Quelle
Annotation:
Le travail réalisé dans cette thèse concerne la modélisation, l'analyse et la simulation par les automates cellulaires de certaines classes de systèmes à paramètres répartis. Les notions d'étalabilité, d'identification et d'estimation de paramètres y sont traités. Une application en écologie à une dynamique de végétation y est développée. Plusieurs simulations ont été effectuées en utilisant aussi bien des logiciels de calcul formel que des programmes spécifiques écrits essentiellement en C++
The work developed in this thesis concerns modeling, analysis and simulation by cellular automata approach, of some classes of distributed parameter systems. The concepts of spreadability, identification and parameters estimation are studied. An application to vegetation dynamics is developed. Various simulation examples are performed using both symbolic languages and specific programs mainly written in C++
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Fix, Jérémy. „Mécanismes numériques et distribués de l'anticipation motrice“. Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00336194.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le domaine des neurosciences computationnelles dont le but est de modéliser des fonctions cognitives complexes par le biais de simulations informatiques et numériques en s'inspirant du fonctionnement cérébral. Les modèles et simulations proposées reposent sur le paradigme des champs neuronaux, que nous exploitons pour étudier dans quelle mesure des capacités cognitives complexes peuvent être le résultat émergeant de l'interaction de cellules élémentaires simples.

Nous nous intéressons dans cette thèse à la modélisation de l'attention visuelle, avec ou sans mouvement oculaire. Pour guider le développement de nos modèles, nous proposons dans une première partie une revue de données psychologiques et physiologiques sur l'attention visuelle avant de proposer un modèle computationnel de l'attention visuelle sans saccade oculaire. Puis, nous nous intéressons dans une seconde partie à la manière dont on peut intégrer les saccades oculaires dans nos modèles en s'inspirant des données anatomiques et physiologiques sur le contrôle des saccades oculaires chez le primate. Les performances des différents mécanismes proposés sont évalués en simulation en les appliquant à des tâches de recherche visuelle.

Nos travaux de thèse permettent également d'étudier un paradigme de calcul original qui repose sur des calculs distribués, asynchrones, numériques et adaptatifs qui permettent d'envisager le déploiement des mécanismes proposés dans ce cadre sur des supports de calculs parallèles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Atamna, Youcef. „Réseaux de Petri temporisés stochastiques classiques et bien formés. Définition, analyse et application aux systèmes distribués temps réel“. Toulouse 3, 1994. http://www.theses.fr/1994TOU30095.

Der volle Inhalt der Quelle
Annotation:
Cette these s'inscrit dans le cadre general de l'utilisation de techniques de specification formelle lors de la phase de conception de systemes logiciels et materiels. Plus precisement, l'objectif est de definir, developper et appliquer un modele formel, base sur les reseaux de petri, permettant la modelisation et des analyses, a la fois qualitatives et quantitatives, des systemes informatiques distribues temps reel. Les principales contributions de cette these concernent: ? definition du modele reseaux de petri temporises stochastiques (rdpts) qui permet d'exprimer sans contraintes, des combinaisons d'une grande variete de distributions temporelles. La methodologie d'exploitation de ce modele, transparente aux types de distributions, est une methode approchee (concept de temps moyen conditionnel de sejour) basee sur la construction de l'objet graphe d'etats probabilise, qui definit un cadre unique permettant a la fois des analyses qualitatives et quantitatives, ? definition d'une methodologie d'obtention automatique de vues abstraites quantifiees de graphes d'etats probabilises ; elle a ete egalement etendue aux graphes d'etats temporises, ? definition du modele reseaux colores temporises stochastiques bien formes qui combine le pouvoir d'expression temporelle du modele rdpts avec le pouvoir de representation concise et structuree du modele reseaux colores bien formes. L'analyse de ce modele est basee sur la construction directe et automatique de l'objet graphe d'etats probabilise symbolique, qui possede la propriete dite agregation-desagregation de toute premiere importance pour optimiser la resolution de systemes de grande taille, ? conception et developpement de l'outil logiciel rpts base sur le modele reseaux de petri temporises stochastiques, ainsi que l'application de ce modele a la modelisation, la verification des proprietes et l'evaluation de performances des protocoles de communication temps reel
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Toto-Zarasoa, Velotiaray. „Codage de sources distribués : outils et applications à la compression vidéo“. Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00539044.

Der volle Inhalt der Quelle
Annotation:
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation
Distributed source coding is a technique that allows to compress several correlated sources, without any cooperation between the encoders, and without rate loss provided that the decoding is joint. Motivated by this principle, distributed video codin has emerged, exploiting the correlation between the consecutive video frames, tremendously simplifying the encoder, and leaving the task of exploiting the correlation to the decoder. The first part of our contributions in this thesis presents the asymmetric coding of binary sources that are not uniform. We analyze the coding of non-uniform Bernoulli sources, and that of hidden Markov sources. For both sources, we first show that exploiting the distribution at the decoder clearly increases the decoding capabilities of a given channel code. For the binary symmetric channel modeling the correlation between the sources, we propose a tool to estimate its parameter, thanks to an EM algorithm. We show that this tool allows to obtain fast estimation of the parameter, while having a precision that is close to the Cramer-Rao lower bound. In the second part, we develop some tools that facilitate the coding of the previous sources. This is done by the use of syndrome-based Turbo and LDPC codes, and the EM algorithm. This part also presents new tools that we have developed to achieve the bounds of asymmetric and non-asymmetric distributed source coding. We also show that, when it comes to non-uniform sources, the roles of the correlated sources are not symmetric. Finally, we show that the proposed source models are well suited for the video bit planes distributions, and we present results that proof the efficiency of the developed tools. The latter tools improve the rate-distortion performance of the video codec in an interesting amount, provided that the correlation channel is additive
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Tang, Gula. „Research on distributed warning system of water quality in Mudan river based on EFDC and GIS“. Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD023/document.

Der volle Inhalt der Quelle
Annotation:
Le système de simulation et d'avis précoce d'alerte est un outil puissant pour la surveillance de la qualité de l'eau de la rivière Mudan, une rivière importante dans les régions froides du nord-est de la Chine et qui se jette finalement dans la rivière de l'Amour en Russie. Ainsi la qualité de l'eau dans la rivière Mudan est une préoccupation importante non seulement au niveau local et régional,mais aussi au niveau international. L'objectif de cette étude est de créer un système de simulation et d'avis précoce d'alerte pour que la distribution spatio-temporelle de la qualité de l'eau durant les périodes de couverture glaciaire et d'eaux libres soit simulée et visualisée précisément et afin que l'on puisse appréhender la variation spatiale de polluants sur le cours de rivière. La thèse est structurée en 7 chapitres. Dans le premier chapitre nous décrivons le contexte de l'étude et faisons un état de lieu des recherches actuelles. Dans le chapitre Il, la comparaison des modèles principaux disponibles pour l'évaluation de la qualité de l'eau est réaliser ainsi que le choix du meilleur modèle comme base pour créer le système de modélisation. Dans le chapitre Ill, la construction du modèle,les conditions limites requises et les paramètres pour le modèle ont été vérifiés et étalonnés. Une procédure de simulation distribuée est conçue dans le chapitre IV pour améliorer l'efficacité de la simulation. Le chapitre V concerne la programmation et la réalisation la de simulation distribuée et le chapitre VI les techniques fondamentales pour mettre en œuvre le système. Le chapitre VII est la conclusion. Il y a trois points innovants dans ce travail: un modèle bidimensionnel de dynamique de fluides de l'environnement pour la rivière Mudan, une méthode efficace du calcul distribué et un prototype de système de simulation et d'avis précoce d'alerte qui peuvent largement améliorer la capacité de surveillance et de gestion de la qualité de l'eau de la rivière Mudan ou d'autres rivières similaires
Simulation and Early Warning System (SEWS) is a powerful tool for river water quality monitoring. Mudan River, an important river in northeastern cold regions of China, can run out of China into Russia. Thus, the water quality of Mudan River is highly concerned not only locally andregionally but also internationally. Objective of this study is to establish an excellent SEWS of water quality so that the spatio-temporal distribution of water quality in both open-water and ice-covered periods can be accurately simulated and visualized to understand the spatial variation of pollutants along the river course. The dissertation is structured into 7 chapters, chapter 1 outlines the background of the study and reviews the current progress. Chapter Il compares the main available models for evaluating river water quality so that a better model can be selected as the basis to establish a modeling system for Mudan River. Chapter Ill establishes the model, the required boundary conditions and parameters for the model were verified and calibrated. Chapter IV, a distributed simulation procedure was designed to increase the simulation efficiency. Chapter V discusses more about the programing and operational issues of the distributed simulation. Chapter VI is about the core techniques to implement the system. Chapter VII is the conclusion of the study to summarize the key points and innovations of the study. The study has the following three points as innovation : a two-dimensional environmental fluid dynamics model for Mudan River, an efficient distributed model computational method and a prototype of SEWS, which can greatly improve the capability of monitoring and management of water quality in Mudan River and other similar rivers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Messika, Stéphane. „Méthodes probabilistes pour la vérification des systèmes distribués“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00136083.

Der volle Inhalt der Quelle
Annotation:
Les probabilités sont de plus en plus utilisées dans la conception et l'analyse des systèmes logiciels et matériels informatiques. L'introduction des tirages aléatoires dans les algorithmes concurrents et distribués permet de résoudre certains problèmes insolubles dans le cadre déterministe et de réduire la complexité de nombreux autres. Nous avons été amenés à étudier deux types de propriétés probabilistes. La convergence : cette propriété assure que, quel que soit l'état de départ et quel que soit l'enchainement des actions, le système atteindra toujours (avec probabilité 1) un ensemble donné d'états d'arrivée en un nombre fini d'actions (auto-stabilisation).L'accessibilité : ce type de propriété répond à des questions telles que "quelle est la probabilité p qu'une exécution partant d'un état initial donné atteigne un état final donné ? Quelles sont les bornes maximales et minimales de p ?" En ce qui concerne le premier point, nous avons développé de nouveaux critères permettant d'assurer la convergence et d'en calculer la vitesse (mixing time). Ces crotères utilisent l'analogie avec des modèles de physiquestatistique (champs de Markov) et exploitent des outils d'analyse probabiliste classiques (coupling, chaînes de Markov, processus de décision markoviens). Pour le second point, nous avons obtenu des résultats pratiques sur la vérification de protocoles de communication, comme le protocole Ethernet, en les modélisant à l'aide d'automates temporisés probabilistes et utilisant des outils de model-checking temporisés (HyTech) et probabiliste (PRISM, APMC).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Azeli, Nourelhouda. „Maintenance prévisionnelle des systèmes de production géographiquement distribués sous ressources limitées“. Electronic Thesis or Diss., Troyes, 2022. http://www.theses.fr/2022TROY0017.

Der volle Inhalt der Quelle
Annotation:
Cette thèse aborde la problématique de l’aide à la décision de maintenance prévisionnelle pour des systèmes de production géographiquement dispersés (GDPS). La structure des GDPS représente un défi important pour l'établissement de stratégies de maintenance efficaces et des stratégies de maintenance prévisionnelle sont particulièrement adaptées. Cependant, la question de la disponibilité des ressources de maintenance doit être analysée et intégrée. Dans cette thèse, nous proposons trois politiques de maintenance prévisionnelles prenant en compte des ressources limitées de maintenance pour un GDPS dont les sites de production se dégradent graduellement. Les trois politiques proposées visent à optimiser un critère économique en sélectionnant l'ensemble de sites à maintenir. Les deux premières politiques s’appuient sur des données d’inspections périodiques. La première politique sélectionne pour la maintenance, la permutation des sites qui maximise la fiabilité du système après réparation, sans prise en compte des distances. La deuxième politique construit la tournée des sites à maintenir en tenant compte des ressources disponibles et des distances entre les sites. Enfin, la troisième politique est une politique dynamique. Elle se base sur des données de surveillance en temps réel des niveaux de dégradation pour adapter la tournée. Nous avons utilisé la simulation Monte Carlo pour évaluer le critère économique asymptotique. L’efficacité des politiques proposées est démontrée par comparaison avec des politiques plus classiques
This thesis addresses the problem of predictive maintenance decision making for geographically dispersed production systems (GDPS). The structure of GDPS represents an important challenge for the establishment of efficient maintenance strategies. Predictive maintenance strategies are particularly suitable. However, the issue of the availability of maintenance resources must be analyzed and integrated. In this thesis, we propose three predictive maintenance policies considering limited maintenance resources for a GDPS with gradually degrading production sites. The three proposed policies aim at optimizing an economic criterion by selecting the set of sites to be maintained. The first two policies are based on periodic inspection data. The first policy selects for maintenance, the permutation of sites that maximizes the reliability of the system after repair, without considering the distances. The second policy constructs the tour of sites to be maintained from the available resources and the distances between sites. Finally, the third policy is a dynamic policy. It relies on real-time monitoring data of degradation levels to adapt the tour. We used Monte Carlo simulation to evaluate the asymptotic economic criterion. The effectiveness of the proposed policies is demonstrated by comparison with more conventional policies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Kadi, Imène Yamina. „Simulation et monotonie“. Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0029.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse portent sur l'apport de la monotonie sur les méthodes de simulations. Dans un premier temps, nous nous intéressons à l'étude des différentes notions de monotonie utilisées dans la modélisation stochastique, en essayant de définir les relations qui existent entre elles. Trois concepts ont été définis dans ce domaine: la monotonie stochastique basée sur la comparaison stochastique, la monotonie réalisable et enfin, la monotonie événementielle utilisée dans la simulation parfaite. Cette étude a permis d'utiliser les propriétés de monotonie stochastique dans le cadre de la simulation parfaite monotone. D'un autre coté, nous avons proposé des codages monotones inversibles pour des systèmes dont la représentation naturelle est non monotone. Ce codage permet d'accélérer les simulations monotones et a trouvé son application dans la simulation de burst optiques. Un autre travail a été réalisé, cette fois-ci, dans le domaine de la simulation parallèle, il consiste à utiliser les propriétés de monotonie des systèmes simulés afin de mieux paralléliser le processus de simulation. Ce qui devrait produire une accélération conséquente des simulations
The work of this thesis concern the contribution of the monotony in simulation methods. Initially, we focus on the study of different monotonicity notions used in stochastic modeling, trying to define the relationships between them. Three concepts have been defined in this field: the stochastic monotonicity based on stochastic comparison, the realizable monotony and finally the events monotony used in the perfect simulation. This study allowed us to use the stochastic monotonicity properties under the monotone perfect simulation. On the other hand, we have proposed monotone invertible encodings for systems whose natural representation is not monotone. This encoding allows to accelerate monotonous simulations and found its application in the simulation of optical burst. Another work was done in the field of parallel simulation, it use monotonicity properties of simulated systems to better parallelize the simulation process. This should produce a substantial acceleration in simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Puig, Bénédicte. „Modélisation et simulation de processus stochastiques non gaussiens“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00003526.

Der volle Inhalt der Quelle
Annotation:
L'objet de ce travail de recherche est de construire un modèle approché en vue de simuler les trajectoires d'un processus stochastique non gaussien strictement stationnaire sous la seule donnée (incomplète) de sa loi marginale d'ordre un, ou des N premiers moments de cette loi, et de sa fonction d'autocorrélation. La méthode de simulation développée au cours de cette thèse s'appuie sur deux méthodes bien connues de simulation de processus gaussiens : la méthode spectrale et la markovianisation. D'autre part, si seuls les N premiers moments de la loi marginale sont donnés, le principe de maximum d'entropie est utilisé pour choisir cette loi. A partir de la loi marginale est construite une transformation non linéaire qui est ensuite projetée sur la base des polynomes d'Hermite. Le modèle construit consiste donc en une transformation polynomiale d'un processus gaussien stationnaire standard dont la fonction d'autocorrélation est déterminée à l'aide d'un problème de minimisation. Cette méthode de simulation est mise en oeuvre dans des exemples numériques inspirés de l'ingénierie mécanique. Enfin, les convergences en moyenne quadratique et presque-sure du modèle ont été étudiées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Canicas, Jean-François. „Formalisation et simulation du processus de reconnaissance intermoléculaire“. Bordeaux 1, 1985. http://www.theses.fr/1985BOR10585.

Der volle Inhalt der Quelle
Annotation:
S'inscrivant dans le cadre plus general de la recherche et la conception de substances medicamenteuses nouvelles, ce travail vise a apporter une contribution a l'etude du processus de reconnaissance intermoleculaire. Il a pour but de completer les approches purement graphiques et liees aux calculs et minimisation d'energie par une demarche plus automatique et systematique. Il consiste, ainsi, a se donner des outils graphiques et des outils mathematiques, en l'occurence theorie de la geometrie des distances traitee a l'aide du vocabulaire des graphes, afin de proceder aux etapes suivantes: formalisation des problemes rencontres modelisation des partenaires moleculaires simulation de leurs interactions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Canicas, Jean-François. „Formalisation et simulation du processus de reconnaissance intermoléculaire“. Grenoble : ANRT, 1985. http://catalogue.bnf.fr/ark:/12148/cb37594545c.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Lenôtre, Lionel. „Étude et simulation des processus de diffusion biaisés“. Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S079/document.

Der volle Inhalt der Quelle
Annotation:
Nous considérons les processus de diffusion biaisés et leur simulation. Notre étude se divise en quatre parties et se concentre majoritairement sur les processus à coefficients constants par morceaux dont les discontinuités se trouvent le long d'un hyperplan simple. Nous commençons par une étude théorique dans le cas de la dimension un pour une classe de coefficients plus large. Nous donnons en particulier un résultat sur la structure des densités des résolvantes associées à ces processus et obtenons ainsi une méthode de calcul. Lorsque cela est possible, nous effectuons une inversion de Laplace de ces densités et donnons quelques fonctions de transition. Nous nous concentrons ensuite sur la simulation des processus de diffusions baisées. Nous construisons un schéma numérique utilisant la densité de la résolvante pour tout processus de Feller. Avec ce schéma et les densités calculées dans la première partie, nous obtenons une méthode de simulation des processus de diffusions biaisées en dimension un. Après cela, nous regardons le cas de la dimension supérieure. Nous effectuons une étude théorique et calculons des fonctionnelles des processus de diffusions biaisées. Ceci nous permet d'obtenir entre autre la fonction de transition du processus marginal orthogonal à l'hyperplan de discontinuité. Enfin, nous abordons la parallélisation des méthodes particulaires et donnons une stratégie permettant de simuler de grand lots de trajectoires de processus de diffusions biaisées sur des architectures massivement parallèle. Une propriété de cette stratégie est de permettre de simuler à nouveau quelques trajectoires des précédentes simulations
We consider the skew diffusion processes and their simulation. This study are divided into four parts and concentrate on the processes whose coefficients are piecewise constant with discontinuities along a simple hyperplane. We start by a theoretical study of the one-dimensional case when the coefficients belong to a broader class. We particularly give a result on the structure of the resolvent densities of these processes and obtain a computational method. When it is possible, we perform a Laplace inversion of these densities and provide some transition functions. Then we concentrate on the simulation of skew diffusions process. We build a numerical scheme using the resolvent density for any Feller processes. With this scheme and the resolvent densities computed in the previous part, we obtain a simulation method for the skew diffusion processes in dimension one. After that, we consider the multidimensional case. We provide a theoretical study and compute some functionals of the skew diffusions processes. This allows to obtain among others the transition function of the marginal process orthogonal to the hyperplane of discontinuity. Finally, we consider the parallelization of Monte Carlo methods. We provide a strategy which allows to simulate a large batch of skew diffusions processes sample paths on massively parallel architecture. An interesting feature is the possibility to replay some the sample paths of previous simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Reuillon, Romain. „Simulations stochastiques en environnements distribués : application aux grilles de calcul“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00731242.

Der volle Inhalt der Quelle
Annotation:
Contrairement aux modèles déterministes, le déroulement d'un modèle stochastique est conditionné par la réalisation de variables aléatoires. L'utilisation de hasard permet d'approcher un résultat le plus souvent incalculable de manière déterministe. En contrepartie, il est nécessaire d'estimer les paramètres des distributions associées aux quantités aléatoires en sortie du modèle stochastique. Ce calcul requiert l'exécution de multiples réplications indépendantes de la même expérience et de ce fait, d'une importante quantité de calcul. Toutes les simulations stochastiques comportent par conception un aspect naturellement parallèle. Elles représentent ainsi une des applications phares pour l'utilisation d'environnements de calculs distribués permettant de partager de la puissance de calcul à l'échelle mondiale, appelée grille de calcul. Bien que 50% des cycles des plus gros supercalculateurs de la planète soient consommés par des calculs stochastiques, les techniques de génération parallèle de nombres pseudoaléatoires sont méconnues. Il existe de ce fait un risque bien réel de produire et de publier des résultats de simulations stochastiques erronés. Cette thèse présente l'état de l'art des méthodes pour la distribution des réplications de simulations stochastiques et contribue à leur développement. Elle propose ainsi des méthodes novatrices permettant d'assurer une traçabilité dans le processus complexe de distribution de simulations stochastiques. Elle expose enfin des applications dans les domaines de l'imagerie médicale nucléaire et des simulations environnementales totalisant plus de 70 années de calcul sur un ordinateur séquentiel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Fleury, Cédric. „Modèles de conception pour la collaboration distante en environnements virtuels distribués : del'architecture aux métaphores“. Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0012.

Der volle Inhalt der Quelle
Annotation:
Nos contributions visent à améliorer la collaboration dans les environnements virtuels tant au niveau de l'architecture distribuée qu'au niveau des métaphores de collaboration. Pour garantir que tous les utilisateurs perçoivent le même état de l'environnement virtuel au même moment, nous proposons un premier modèle d'adaptation dynamique de la distribution des données sur le réseau. Nous proposons un deuxième modèle d'architecture logicielle qui sépare les données de l'environnement virtuel de cette partie réseau et des composants spécifiques à chaque utilisateur. Pour permettre à des utilisateurs utilisant des dispositifs matériels différents de collaborer, nous avons défini un troisième modèle qui intègre chaque utilisateur dans l'environnement virtuel en tenant compte de son environnement réel. Dans le cadre du projet ANR Collaviz, ces trois modèles ont permis de mettre en œuvre un framework qui a été utilisé pour réaliser plusieurs expérimentations de collaboration à distance
This PhD work aims to improve the collaboration between users: we propose some new models for designing collaborative virtual environments to deal with the distributed architecture, but also to integrate some new metaphors for the collaboration. To ensure that all users have the same state of the virtual environment at the same time, we propose a first model to dynamically adapt the data distribution on the network. We also propose a second software architecture model which clearly separates the data of the virtual environment from the network layer and from the users’ specific components. To enable several users using different material devices to collaborate, we describe a third model which integrate the users in the virtual environment by taking account of their real environment. In the context of the ANR Collaviz project, these three models make possible to design a new framework that can be used to realize some experimentations of remote collaboration
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Villefranche, Laurent, und Frédéric Serin. „Simulateur de gestion d'un terminal à conteneurs : simulation discrète par macro-processus et processus complementaires“. Rouen, 1996. http://www.theses.fr/1996ROUES002.

Der volle Inhalt der Quelle
Annotation:
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l'évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d'activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d'étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), l'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé Simulateur de Gestion d'un Terminal à Conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des resources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Glardon, Carmen. „Simulation et optimisation du processus constructif de rénovation d'immeubles /“. [S.l.] : [s.n.], 1995. http://library.epfl.ch/theses/?nr=1355.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Droux, Jean-Jacques. „Simulation numérique bidimensionnelle et tridimensionnelle de processus de solidification /“. [S.l.] : [s.n.], 1991. http://library.epfl.ch/theses/?nr=901.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Roudier, Pascale. „Synthèse de paysages réalistes par simulation de processus d'érosion“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1993. http://tel.archives-ouvertes.fr/tel-00835373.

Der volle Inhalt der Quelle
Annotation:
Cette thèse entre dans le cadre de la synthèse d'images de paysages s'appuyant sur une nouvelle modélisation des terrains par simulation dynamique de processus géomorphologiques. La restitution des phénomènes naturels agissant sur la création et l'évolution des reliefs semble un des moyens les plus sûrs pour obtenir des paysages réalistes. Après une présentation des différentes modélisations de terrain existantes, le modèle proposé est détaillé. Il s'appuie sur la création de terrains géologiquement contrastés sur lesquels sont appliqués des processus déterministes d'érosion. Le relief est constitué d'une surface topographique à laquelle est associée la représentation volumique d'un sous-sol, qui permet de déterminer en chaque point des paramètres géologiques intervenant dans la simulation. Celle-ci suit une méthode itérative utilisant des lois simulant l'érosion gravitaire et mécanique, la dissolution chimique et la sédimentation. L'écoulement et le transport de matière entre les points s'effectuent par le biais d'un graphe de parcours qui traduit la structure du réseau hydrographique. La simulation implique l'évolution (altimétrique et géologique) du relief et la création du réseau associé. Deux algorithmes de rendu sont ensuite proposés pour visualiser le relief modélisé. Ils incluent la représentation du réseau hydrographique et des lignes de crête. Le réalisme des images est accru par le plaquage sur le relief de textures naturelles de végétation, générées par une technique de spot noise et l'ajout d'effets visuels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Cantegrit, Eric. „Modélisation et simulation orientées objets des processus par lot“. Lille 1, 1988. http://www.theses.fr/1988LIL10045.

Der volle Inhalt der Quelle
Annotation:
L'objectif est de préciser les évolutions du processus face à des défaillances des objets technologiques et d'examiner les réactions des opérateurs de pilotage soit pour bâtir une base d'expertise des pilotes chevronnés, soit pour faire l'apprentissage des pilotes néophytes, soit aussi pour vérifier la qualité de la programmation de la partie commande vis-à-vis de la sécurité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Marti, Aliod Carles. „Simulation de processus de stockage chimique pour l'énergie renouvelable“. Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30358.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la présente thèse englobe différents processus liés au stockage d'énergie provenant de sources renouvelables. Concrètement, cette thèse vise à étudier, d'un point de vue théorique, les processus liés à la réaction de Sabatier assistée par plasma (CO 2 + 4 H2 → CH4 + 2 H2O), où le catalyseur hétérogène est composé d'éléments Ni / Ru. La recherche est par conséquent divisée en thèmes développés dans les spécialités de chaque partenaire. À l'université de Pérouse, les processus plasma / phase gazeuse sont pris en compte, concrètement l'étude de l'OH + H 2 selon la méthode quantique classique. La principale procédure innovante a été d'ajouter une surface potentielle à longue portée à la surface d'énergie potentielle (PES) déjà disponible, en la convertissant en une surface appropriée pour les processus non réactifs, tout en maintenant la précision de la mesure initiale, nécessaire aux processus réactifs. Dans ce sens, nous avons mené une étude sur la diffusion OH + H2 en utilisant une méthode quantique classique, traitant les vibrations quantiques et classiquement les translations et les rotations. Le bon accord entre les probabilités réactives classiques quantiques spécifiques à l'état et les probabilités quantiques complètes correspondantes a conduit à l'extension de l'étude aux probabilités d'état à état pour les échanges d'énergie vibratoire non réactifs. L'étude a montré que la dynamique de la réaction H 2 dépend de l'excitation vibratoire, alors que celle non réactive est principalement adiabatique sur le plan vibratoire. Au contraire, la dynamique réactionnelle de l'OH n'est pas affectée par son excitation vibratoire, alors que la non-réactive pourrait en produire un pompage jusqu'à des états vibratoires plus élevés. Dans l'université Paul Sabatier de Toulouse, les grappes et nanoparticules de Ru, faisant partie du catalyseur industriel, sont étudiées selon l'approche DFTB. L'intention était d'étudier la capacité de la DFTB à fournir des résultats fiables sur la structure électronique, les propriétés structurelles et la stabilité des systèmes monométalliques à base de ruthénium, allant de petites grappes à des nanoparticules plus grosses et globalement.[...]
The aim of the present thesis encompasses different processes related to the storage of energy coming from renewable sources. Concretely, this thesis aims to study, from a theoretical point of view, the processes related to the plasma-assisted Sabatier reaction (CO 2 + 4 H2 → CH4 + 2 H2O), where the heterogeneous catalyst is composed by Ni/Ru elements. The research is consequently split in the topics developed at each partner specialties. In the university of Perugia, the plasma/gas phase processes are considered, concretely the study of the OH + H 2 using the quantum-classical method. The main innovative procedure has been to add a long-range potential tail to the already available. Potential Energy Surface (PES), converting it into a suitable one for non reactive processes, while maintaining the accuracy of the ab initio, necessary for the reactive processes. In this sense we carried out a study of OH + H2 scattering using a quantum-classical method, treating quantally vibrations and classically both translations and rotations. The good agreement between the state specific quantum- classical reactive probabilities and the corresponding full quantum ones prompted the extension of the study to state to state probabilities for non reactive vibrational energy exchange. The study showed that H 2 reactive dynamics depends on the vibrational excitation, while the non reactive one is mainly vibrationally adiabatic. On the contrary, OH reactive dynamics is not affected by its vibrational excitation, whereas the non reactive one might produce some pumping up to higher vibrational states. In the university Paul Sabatier of Toulouse, the Ru clusters and nanoparticles, part of the industrial catalyst are studied using the DFTB approach. The intend was to investigate the ability of DFTB to provide reliable results about electronic structure, structural properties and stability of monometallic ruthenium systems covering the size range from small clusters to larger nanoparticles and the bulk. Due to the fact that the electronic bonding and structural organization of ruthenium cluster are somewhat specific in regard of other metal clusters, it is challenging to examine whether DFTB is able to account for such peculiarities. Parallel-Tempering Molecular Dynamics (PTMD), was used in combination with periodic quenching to achieve global optimization of neutral, cationic and anionic clusters in the range n=3-20.[...]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Cantegrit, Eric. „Modélisation et simulation orientées objets des processus par lot“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376123822.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Rachah, Amira. „Modélisation mathématique, simulation et contrôle de processus de cristallisation“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2528/.

Der volle Inhalt der Quelle
Annotation:
Ce travail est dédié à la modélisation mathématique des processus de cristallisation afin de les simuler, les optimiser et les commander. Dans un premier temps, nous présentons les principes de la modélisation, les notions fondamentales de la cristallisation et l'exploitation numérique des modèles de cristallisation. Dans un second temps, nous traitons le modèle mathématique de cristallisation du KCl avec dissolution des fines et classification du produit en mode continu. Ce modèle est décrit par une équation aux dérivées partielles hyperbolique couplée avec une équation intégro-différentielle. Sur un plan théorique, nous prouvons l'existence et l'unicité de solution du modèle, en utilisant les courbes caractéristiques et le principe du point fixe de Banach. Par ailleurs, nous présentons une simulation numérique du modèle. Dans un troisième temps, nous développons le modèle mathématique de la cristallisation du a-lactose monohydraté en mode semi-continu. Ensuite, nous passons à l'étude d'existence et d'unicité globale de solution du modèle établi. Enfin, nous présentons une étude de contrôle optimal dans le cas de la cristallisation du a-lactose monohydraté en utilisant les solveurs ACADO et PSOPT en calculant les profils optimaux de remplissage et de refroidissement. L'objectif est de conférer au produit synthétisé les spécifications voulues afin que le produit soit conforme aux cahiers de charge de l'industrie
In this thesis we are concerned with the mathematical modeling of crystallization processes in order to understand, simulate, optimize and control them. We first present the principles of modeling, the fundamentals of crystallization and the numerical exploitation of models of crystallization. We then discuss exemplary a mathematical model of crystallization of KCl in continuous operational mode with dissolution of fines and product classiffication. This model is described by a hyperbolic partial differential equation coupled with an integro-differential equation. To justify the theoretical model, we prove existence and uniqueness of solutions using the method of characteristics and the Banach fixed-point theorem. We then present numerical simulations of the studied processes. In a third part of the thesis we develop and present a mathematical model of solvated crystallization of a-lactose monohydrate in semi-batch operational mode. We justify the model by proving global existence and uniqueness of solutions. Finally, we study the optimal control of crystallization of a-lactose monohydrate in semi-batch mode using the solvers ACADO and PSOPT. Optimal cooling and filling strategies are computed in order to enhance the properties of the solid
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Grandemange, Quentin. „Contribution à la modélisation et à la détection d'anomalies du traffic Internet à partir de mesures d'un coeur de réseau opérateur“. Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0061/document.

Der volle Inhalt der Quelle
Annotation:
Grâce au partenariat avec l'entreprise luxembourgeoise Post Luxembourg, nous avons pu tester différentes méthodes pour mesurer le trafic interdomaine à la bordure de leur réseau avec Internet. Le choix s'est porté sur une technologie existante : Netflow. Avec ces données nous avons pu réaliser diverses analyses afin de comprendre l'évolution du trafic en fonction de différents paramètres comme l'heure de la journée, le jour de la semaine... D'après ces analyses, plusieurs solutions ont été envisagées pour modéliser le trafic. Deux méthodes ont été proposées et testées sur des données réelles : une méthode d'analyse de séries temporelles et une méthode de machine learning reposant sur les processus gaussiens. Ces techniques ont été comparées sur différents systèmes autonomes. Les résultats sont satisfaisants pour les deux méthodes avec un avantage pour la méthode des processus gaussiens. Cette thèse propose le développement d'une solution logicielle ANODE mise en production chez Post Luxembourg et permettant l'analyse de bout en bout du trafic de cœur de réseau : mesure de données, modélisation, prédiction et détection d'anomalies
Inter-domain routing statistics are not usually publicly available but with the partnership with Post Luxembourg, we deployed a network wide measurements of Internet traffic. Those statistics show clear daily and weekly pattern and several points of interest. From all the information gathered, two modelling approach were chosen: the first one from the time series domain and the second one from the machine learning approach. Both were tested on several dataset of autonomous systems and the second one, Gaussian Process, was kept for the next steps. The proposal of this study is the development of a software solution called ANODE, which is used at Post Luxembourg, allowing the analysis of backbone traffic: measurments, modelling, forecasting and anomaly detection
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Huck, Emmanuel. „Simulation de haut niveau de systèmes d'exploitations distribués pour l'exploration matérielle et logicielle d'architectures multi-noeuds hétérogènes“. Phd thesis, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00781961.

Der volle Inhalt der Quelle
Annotation:
Concevoir un système embarqué implique de trouver un compromis algorithme/architecture en fonction des contraintes temps-réel. Thèse : pour concevoir un MPSoC et plus particulièrement avec les circuits reconfigurables modifiant le support d'exécution en cours de fonctionnement, la nécessaire validation des comportements fluctuants d'un système réactif impose une évaluation préalable que l'on peut réaliser par simulation (de haut niveau) tout en permettant l'exploration de l'espace de conception architectural, matériel mais aussi logiciel, au plus tôt dans le flot de conception. Le point de vue du gestionnaire de la plateforme est adopté pour explorer à haut niveau les réactions du système aux choix de partitionnement impactés par l'algorithmique des services du système d'exploitation et leurs implémentations possibles. Pour cela un modèle modulaire de services d'OS simule fonctionnellement et conjointement en SystemC le matériel, les tâches logicielles et le système d'exploitation, répartis sur plusieurs noeuds d'exécution hétérogènes communicants. Ce modèle a permis d'évaluer l'architecture temps-réel idéale d'une application dynamique de vision robotique conjointement à l'exploration des services de gestion d'une zone reconfigurable modélisée. Ce modèle d'OS a aussi été intégré dans un simulateur de MPSoC hétérogène d'une puissance estimé à un Tera opérations par seconde.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Occello, Michel. „Blackboards distribués et parallèles : application au contrôle de systèmes dynamiques en robotique et en informatique musicale“. Nice, 1993. http://www.theses.fr/1993NICE4627.

Der volle Inhalt der Quelle
Annotation:
Le problème aborde dans cette thèse consiste en l'élaboration d'outils informatiques pour le contrôle intelligent de processus dynamiques, c'est-à-dire des systèmes intelligents temps réel. Ces outils doivent posséder des capacités de décision et d'assistance aux opérateurs, ils mettent en jeu de nombreux types d'expertise travaillant souvent en coopération. Dans le cadre de l'intelligence artificielle distribuée, le concept de blackboard peut être vu comme un cadre organisationnel basé sur le partage d'informations pour un système multi-agents. L'adéquation du concept de blackboard à la réalisation d'outils pour le contrôle est étudiée afin d'en dégager les avantages et les limites, de façon à construire un modèle satisfaisant aux contraintes du domaine. Une synthèse des études sur les systèmes blackboard dans le contrôle et sur le parallélisme dans ces systèmes montre que le problème est la construction d'une architecture répondant au besoin du temps réel. L'étude des opportunités de l'utilisation des blackboards pour le temps réel permet de dégager quelques recommandations. Ensuite, un modèle original de système blackboard parallèle temps réel pour le contrôle est présenté. Une représentation ensembliste du concept tel qu'il est interprète dans un contexte multi-agents a été choisie. La description des agents et des données partagées suffit à la spécification d'un tel système. La transparence d'un mécanisme de contrôle artificiel conduit à la généricité du contrôle. L'absence de modélisation formelle dans la théorie des blackboards et la généricité souhaitée pour l'architecture, motivent un essai de description des différents composants (agents et contrôle) à l'aide de réseaux de Petri. Un outil de développement base sur ce modèle est proposé. Enfin, cette thèse propose une décomposition des grandes fonctions du contrôle de processus dynamiques à l'aide de systèmes blackboards spécifiques. Trois applications valident le modèle et la décomposition basée sur des blackboards. Elles sont issues de l'informatique musicale, de la téléopération et de la robotique mobile
This thesis deals with the design of software tools for « intelligent » process control, i. E. Real time intelligent software. These tools need decision making and operator assistance capabilities. They involve many types of cooperating knowledge. In Distributed Artificial Intelligence, the blackboard concept can be viewed as a orgnisational framework for multi agent systems. The adaptation of the blackboard concept to the design of control tools is studied in order to show advantages and limits and to build a model according to the constraints of the domain. A synthesis of the studies on blackboard in existing control systems and on the use of parallelism in this system shows that the problem is the specification of an architecture able to meet real time constraints. Then, an original model of real time parallel blackboard is presented. A representation of the concept in this framework using mathematical sets is chosen. The specification of agents and shared data is sufficient to describe the system. A generic control unit is proposed. The components of the model are described using Petri nets. A development tool based on this model is presented. Finally, this thesis proposes a decomposition of the problem of process control based on specialized blackboards. Three applications valid the model and the decomposition. They deal with computer music robotics and teleoperation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Gautier, Guillaume Michel Jean. „Sur l’échantillonnage des processus ponctuels déterminantaux“. Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0002.

Der volle Inhalt der Quelle
Annotation:
Un processus ponctuel déterminantal (DPP) génère des configurations aléatoires de points ayant tendance à se repousser. La notion de répulsion est encodée par les sous-déterminants d’une matrice à noyau, au sens des méthodes à noyau en apprentissage artificiel. Cette forme algébrique particulière confère aux DPP de nombreux avantages statistiques et computationnels. Cette thèse porte sur l'échantillonnage des DPP, c'est à dire sur la conception d'algorithmes de simulation pour ce type de processus. Les motivations pratiques sont l'intégration numérique, les systèmes de recommandation ou encore la génération de résumés de grands corpus de données. Dans le cadre fini, nous établissons la correspondance entre la simulation de DPP spécifiques, dits de projection, et la résolution d'un problème d'optimisation linéaire dont les contraintes sont randomisées. Nous en tirons une méthode efficace d'échantillonnage par chaîne de Markov. Dans le cadre continu, certains DPP classiques peuvent être simulés par le calcul des valeurs propres de matrices tridiagonales aléatoires bien choisies. Nous en fournissons une nouvelle preuve élémentaire et unificatrice, dont nous tirons également un échantillonneur approché pour des modèles plus généraux. En dimension supérieure, nous nous concentrons sur une classe de DPP utilisée en intégration numérique. Nous proposons une implémentation efficace d'un schéma d'échantillonnage exact connu, qui nous permet de comparer les propriétés d'estimateurs Monte Carlo dans de nouveaux régimes. En vue d'une recherche reproductible, nous développons une boîte à outils open-source, nommée DPPy, regroupant les différents outils d'échantillonnage sur les DPP
Determinantal point processes (DPPs) generate random configuration of points where the points tend to repel each other. The notion of repulsion is encoded by the sub-determinants of a kernel matrix, in the sense of kernel methods in machine learning. This special algebraic form makes DPPs attractive both in statistical and computational terms. This thesis focuses on sampling from such processes, that is on developing simulation methods for DPPs. Applications include numerical integration, recommender systems or the summarization of a large corpus of data. In the finite setting, we establish the correspondence between sampling from a specific type of DPPs, called projection DPPs, and solving a randomized linear program. In this light, we devise an efficient Markov-chain-based sampling method. In the continuous case, some classical DPPs can be sampled by computing the eigenvalues of carefully randomized tridiagonal matrices. We provide an elementary and unifying treatment of such models, from which we derive an approximate sampling method for more general models. In higher dimension, we consider a special class of DPPs used for numerical integration. We implement a tailored version of a known exact sampler, which allows us to compare the properties of Monte Carlo estimators in new regimes. In the context of reproducible research, we develop an open-source Python toolbox, named DPPy, which implements the state of the art sampling methods for DPPs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Sbai, Mohamed. „Modélisation de la dépendance et simulation de processus en finance“. Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00451008.

Der volle Inhalt der Quelle
Annotation:
La première partie de cette thèse est consacrée aux méthodes numériques pour la simulation de processus aléatoires définis par des équations différentielles stochastiques (EDS). Nous commençons par l'étude de l'algorithme de Beskos et al. [13] qui permet de simuler exactement les trajectoires d'un processus solution d'une EDS en dimension 1. Nous en proposons une extension à des fins de calcul exact d'espérances et nous étudions l'application de ces idées à l'évaluation du prix d'options asiatiques dans le modèle de Black & Scholes. Nous nous intéressons ensuite aux schémas numériques. Dans le deuxième chapitre, nous proposons deux schémas de discrétisation pour une famille de modèles à volatilité stochastique et nous en étudions les propriétés de convergence. Le premier schéma est adapté à l'évaluation du prix d'options path-dependent et le deuxième aux options vanilles. Nous étudions également le cas particulier où le processus qui dirige la volatilité est un processus d'Ornstein-Uhlenbeck et nous exhibons un schéma de discrétisation qui possède de meilleures propriétés de convergence. Enfin, dans le troisième chapitre, il est question de la convergence faible trajectorielle du schéma d'Euler. Nous apportons un début de réponse en contrôlant la distance de Wasserstein entre les marginales du processus solution et du schéma d'Euler, uniformément en temps. La deuxième partie de la thèse porte sur la modélisation de la dépendance en finance et ce à travers deux problématiques distinctes : la modélisation jointe entre un indice boursier et les actions qui le composent et la gestion du risque de défaut dans les portefeuilles de crédit. Dans le quatrième chapitre, nous proposons un cadre de modélisation original dans lequel les volatilités de l'indice et de ses composantes sont reliées. Nous obtenons un modèle simplifié quand la taille de l'indice est grande, dans lequel l'indice suit un modèle à volatilité locale et les actions individuelles suivent un modèle à volatilité stochastique composé d'une partie intrinsèque et d'une partie commune dirigée par l'indice. Nous étudions la calibration de ces modèles et montrons qu'il est possible de se caler sur les prix d'options observés sur le marché, à la fois pour l'indice et pour les actions, ce qui constitue un avantage considérable. Enfin, dans le dernier chapitre de la thèse, nous développons un modèle à intensités permettant de modéliser simultanément, et de manière consistante, toutes les transitions de ratings qui surviennent dans un grand portefeuille de crédit. Afin de générer des niveaux de dépendance plus élevés, nous introduisons le modèle dynamic frailty dans lequel une variable dynamique inobservable agit de manière multiplicative sur les intensités de transitions. Notre approche est purement historique et nous étudions l'estimation par maximum de vraisemblance des paramètres de nos modèles sur la base de données de transitions de ratings passées
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie