Dissertationen zum Thema „Modèle distribué“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Modèle distribué.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Modèle distribué" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Girod, Thomas. „Un modèle d'apprentissage multimodal pour un substrat distribué d'inspiration corticale“. Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00547941.

Der volle Inhalt der Quelle
Annotation:
Le domaine des neurosciences computationnelles s'intéresse à la modélisation des fonctions cognitives à travers des modèles numériques bio-inspirés. Dans cette thèse, nous nous intéressons en particulier à l'apprentissage dans un contexte multimodal, c'est à dire à la formation de représentations cohérentes à partir de plusieurs modalités sensorielles et/ou motrices. Notre modèle s'inspire du cortex cérébral, lieu supposé de la fusion multimodale dans le cerveau, et le représente à une échelle mésoscopique par des colonnes corticales regroupées en cartes et des projections axoniques entre ces cartes. Pour effectuer nos simulations, nous proposons une bibliothèque simplifiant la construction et l'évaluation de modèles mésoscopiques. Notre modèle d'apprentissage se base sur le modèle BCM (Bienenstock-Cooper-Munro), qui propose un algorithme d'apprentissage non-supervisé local (une unité apprend à partir de ses entrées de manière autonome) et biologiquement plausible. Nous adaptons BCM en introduisant la notion d'apprentissage guidé, un moyen de biaiser la convergence de l'apprentissage BCM en faveur d'un stimulus choisi. Puis, nous mettons ce mécanisme à profit pour effectuer un co-apprentissage entre plusieurs modalités. Grâce au co-apprentissage, les sélectivités développées sur chaque modalité tendent à représenter le même phénomène, perçu à travers différentes modalités, élaborant ainsi une représentation multimodale cohérente dudit phénomène.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ta, Thanh Dinh. „Modèle de protection contre les codes malveillants dans un environnement distribué“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0040/document.

Der volle Inhalt der Quelle
Annotation:
La thèse contient deux parties principales: la première partie est consacrée à l’extraction du format des messages, la deuxième partie est consacrée à l’obfuscation des comportements des malwares et la détection. Pour la première partie, nous considérons deux problèmes: "la couverture des codes" et "l’extraction du format des messages". Pour la couverture des codes, nous proposons une nouvelle méthode basée sur le "tainting intelligent" et sur l’exécution inversée. Pour l’extraction du format des messages, nous proposons une nouvelle méthode basée sur la classification de messages en utilisant des traces d’exécution. Pour la deuxième partie, les comportements des codes malveillants sont formalisés par un modèle abstrait pour la communication entre le programme et le système d’exploitation. Dans ce modèle, les comportements du programme sont des appels systèmes. Étant donné les comportements d’un programme bénin, nous montrons de façon constructive qu’il existe plusieurs programmes malveillants ayant également ces comportements. En conséquence, aucun détecteur comportemental n’est capable de détecter ces programmes malveillants
The thesis consists in two principal parts: the first one discusses the message for- mat extraction and the second one discusses the behavioral obfuscation of malwares and the detection. In the first part, we study the problem of “binary code coverage” and “input message format extraction”. For the first problem, we propose a new technique based on “smart” dynamic tainting analysis and reverse execution. For the second one, we propose a new method using an idea of classifying input message values by the corresponding execution traces received by executing the program with these input values. In the second part, we propose an abstract model for system calls interactions between malwares and the operating system at a host. We show that, in many cases, the behaviors of a malicious program can imitate ones of a benign program, and in these cases a behavioral detector cannot distinguish between the two programs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Hinge, Antoine. „Dessin de graphe distribué par modèle de force : application au Big Data“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0092/document.

Der volle Inhalt der Quelle
Annotation:
Les graphes, outil mathématique pour modéliser les relations entre des entités, sont en augmentation constante du fait d'internet (par exemple les réseaux sociaux). La visualisation de graphe (aussi appelée dessin) permet d'obtenir immédiatement des informations sur le graphe. Les graphes issus d'internet sont généralement stockés de manière morcelée sur plusieurs machines connectées par un réseau. Cette thèse a pour but de développer des algorithmes de dessin de très grand graphes dans le paradigme MapReduce, utilisé pour le calcul sur cluster. Parmi les algorithmes de dessin, les algorithmes reposants sur un modèle physique sous-jacent pour réaliser le dessin permettent d'obtenir un bon dessin indépendamment de la nature du graphe. Nous proposons deux algorithmes par modèle de forces conçus dans le paradigme MapReduce. GDAD, le premier algorithme par modèle de force dans le paradigme MapReduce, utilise des pivots pour simplifier le calcul des interactions entre les nœuds du graphes. MuGDAD, le prolongement de GDAD, utilise une simplification récursive du graphe pour effectuer le dessin, toujours à l'aide de pivots. Nous comparons ces deux algorithmes avec les algorithmes de l'état de l'art pour évaluer leurs performances
Graphs, usually used to model relations between entities, are continually growing mainly because of the internet (social networks for example). Graph visualization (also called drawing) is a fast way of collecting data about a graph. Internet graphs are often stored in a distributed manner, split between several machines interconnected. This thesis aims to develop drawing algorithms to draw very large graphs using the MapReduce paradigm, used for cluster computing. Among graph drawing algorithms, those which rely on a physical model to compute the node placement are generally considered to draw graphs well regardless of the type of graph. We developped two force-directed graph drawing algorithms in the MapReduce paradigm. GDAD, the fist distributed force-directed graph drawing algorithm ever, uses pivots to simplify computations of node interactions. MuGDAD, following GDAD, uses a recursive simplification to draw the original graph, keeping the pivots. We compare these two algorithms with the state of the art to assess their performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Debrie, Jean-Luc. „Modèle "distribué" de transistor IGBT pour simulation de circuits en électronique de puissance“. Toulouse, INSA, 1996. http://www.theses.fr/1996ISAT0046.

Der volle Inhalt der Quelle
Annotation:
L'equation de diffusion ambipolaire, qui decrit la dynamique distribuee des charges dans les bases des composants bipolaires, peut etre resolue par le biais d'une analogie electrique. La these presente les fondements theoriques et la pratique de la nouvelle approche de modelisation ainsi permise, dans le cas representatif des transistors bipolaires a commande isolee (igbt). Les divers types d'igbt, a base homogene ou a couche tampon, sont pris en consideration. Le modele est valide d'un point de vue physique, les parametres de simulation etant extraits des donnees de structure et de technologie concernant les composants etudies. L'accord obtenu entre caracteristiques calculees et mesurees montre la pertinence de l'approche pour des objectifs de simulation des interactions composant-circuit en electronique de puissance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Nguyen, Quoc Son. „Application du modèle distribué événementiel SCS-LR pour la prévision des crues méditerranéennes : performances du modèle et variabilité spatiale des paramètres“. Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTG019/document.

Der volle Inhalt der Quelle
Annotation:
Les modèles pluie-débit sont des outils essentiels pour de nombreuses applications hydrologiques, notamment la prévision des crues. L’objet de cette thèse est d’examiner les performances d’un modèle événementiel distribué, dont l’intérêt est de résumer la représentation des processus à la phase de crue, et la condition initiale à un indice de saturation du bassin facilement observable ou accessible. Ce dernier dispense de modéliser la phase inter-crue, et simplifie la paramétrisation et le calage du modèle. Le modèle étudié combine une fonction de production type SCS et une fonction de transfert type lag and route, appliquées à une discrétisation du bassin en mailles carrées régulières.Le modèle est d’abord testé sur le bassin versant du Real Collobrier. Ce bassin méditerranéen est suivi depuis plus de 50 ans par l’IRSTEA, et dispose d’une exceptionnelle densité de mesures de pluies et de débits. Cet environnement favorable permet de limiter les incertitudes sur l’estimation des pluies et d’évaluer les performances intrinsèques du modèle. Dans ces conditions, les crues sont bien reconstituées à l’aide d’un jeu de paramètres unique pour l’ensemble des épisodes testés, à l’exception de la condition initiale du modèle. Celle-ci apparaît fortement corrélée avec l’humidité du sol en début d’épisode, et peut être prédéterminée de façon satisfaisante par le débit de base ou l’indice w2 fourni par le modèle SIM de Météo-France. Les performances du modèle sont ensuite étudiées en dégradant la densité des pluviomètres, et rendent compte du niveau de performances du modèle dans les cas que l’on rencontre le plus souvent. .La variabilité spatiale des paramètres du modèle est étudiée à l’échelle de différents sous-bassins du Real Collobrier. La comparaison a permis de mettre en évidence et de corriger un effet d’échelle concernant l’un des paramètres de la fonction de transfert. Les relations entre la condition initiale du modèle et les indicateurs d’humidités des sols en début d’épisode restent bonnes à l’échelle des sous-bassins, mais peuvent être significativement différentes selon les sous-bassins. Une seule relation ne permet pas de normaliser l’initialisation du modèle sur l’ensemble des sous-bassins, à une échelle spatiale de quelques km2 ou dizaines de km2. Dans le cas de l’indice d’humidité du sol w2, une explication possible est que cet indice ne prend pas en compte suffisamment finement les propriétés des sols. Enfin, la variabilité spatiale des paramètres du modèle est étudiée à l’échelle d’un échantillon d’une quinzaine de bassins méditerranéens de quelques centaines de km2, associés à des paysages et des fonctionnements hydrologiques divers. La comparaison montre qu’à cette échelle, le lien entre les indicateurs de saturation du bassin et la condition initiale peut rester stable par type de bassin, mais varie significativement d’un type de bassin à l’autre. Des pistes sont proposées pour expliquer cette variation.En conclusion, ce modèle événementiel distribué représente un excellent compromis entre performances et facilité de mise en œuvre. Les performances sont satisfaisantes pour un bassin donné ou pour un type de bassin donné. L’analyse et l’interprétation de la variabilité spatiale des paramètres du modèle apparaît cependant complexe, et doit faire l’objet du test d’autres indicateurs de saturation des bassins, par exemple mesures in situ ou mesures satellitaires de l’humidité des sols
Rainfall-runoff models are essential tools for many hydrological applications, including flood forecasting. The purpose of this thesis was to examine the performances of a distributed event model for reproducing the Mediterranean floods. This model reduces the parametrization of the processes to the flood period, and estimates the saturation of the catchment at the beginning of the event with an external predictor, which is easily observable or available. Such predictor avoids modelling the inter-flood phase and simplifies the parametrization and the calibration of the model. The selected model combines a distributed SCS production function and a Lag and Route transfer function, applied to a discretization of the basin in a grid of regular square meshes.The model was first tested on the Real Collobrier watershed. This Mediterranean basin has been monitored by IRSTEA for more than 50 years and has an exceptional density of rainfall and flow measurements. This favourable environment made it possible to reduce the uncertainties on the rainfall input and to evaluate the actual performances of the model. In such conditions, the floods were correctly simulated by using constant parameters for all the events, but the initial condition of the event-based model. This latter was highly correlated to predictors such as the base flow or the soil water content w2 simulated by the SIM model of Meteo-France. The model was then applied by reducing the density of the rain gauges, showing loss of accuracy of the model and biases in the model parameters for lower densities, which are representative of most of the catchments.The spatial variability of the model parameters was then studied in different Real Collobrier sub-basins. The comparison made it possible to highlight and correct the scale effect concerning one of the parameters of the transfer function. The catchment saturation predictors and the initial condition of the model were still highly correlated, but the relationships differed from some sub-catchments. Finally, the spatial variability of the model parameters was studied for other larger Mediterranean catchments, of which area ranged from some tenth to hundreds of square kilometres. Once more, the model could be efficiently initialized by the base flow and the water content w2, but significant differences were found from a catchment to another. Such differences could be explained by uncertainties affecting as well the rainfall estimation as the selected predictors. However, the relationships between the initial condition of the model and the water content w2 were close together for a given type of catchment.In conclusion, this distributed event model represents an excellent compromise between performance and ease of implementation. The performances are satisfactory for a given catchment or a given type of catchment. The transposition of the model to ungauged catchment is less satisfactory, and other catchment saturation indicators need to be tested, e.g. in situ measurements or satellite measurements of soil moisture
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

El, Houri Marwa. „Un modèle formel pour exprimer des politiques dynamiques pour contrôle d'accès et négociation dans un environnement distribué“. Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00492317.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de cette thèse est de définir un langage logique de haut niveau qui permet l'expression de politiques de sécurité complexes au sein d'un modèle de contrôle d'accès. Le développement de ce langage se fait en trois temps. Dans un premier temps nous présentons un modèle dynamique basé sur les rôles. Ainsi, nous considérons que l'évolution de l'état de sécurité d'un service dépend de l'exécution de ses fonctionnalités. Dans un deuxième temps nous définissons un formalisme basé sur les attributs qui offre plus de flexibilité en termes de spécifications des conditions de contrôle d'accès, et ajoutons la notion de workflow qui permet de modéliser le comportement d'un service. Dans un dernier temps, nous ajoutons un mécanisme de négociation qui permet à chaque service de définir sa propre politique d'échange avec les autres services dans l'environnement. La conception d'un tel cadre logique unifié facilite l'analyse de sûreté des politiques de sécurité puisque tous les facteurs qui influencent les décisions de contrôle d'accès sont pris en compte dans le même cadre. Ainsi le second objectif de cette thèse est d'étudier d'une part les principales propriétés de contrôle d'accès tels la délégation et la séparation des tâches et d'autre part les propriétés de sécurité pour la communication entre les différents services au niveau de la négociation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gillet, Pierre. „Modèle "distribué" de transistor bipolaire pour la C. A. O. Des circuits en électronique de puissance“. Toulouse, INPT, 1995. http://www.theses.fr/1995INPT003H.

Der volle Inhalt der Quelle
Annotation:
Ce memoire est consacre a la prise en compte de la nature distribuee de la dynamique des charges, dans la modelisation du transistor bipolaire de puissance destine a la conception assistee par ordinateur des circuits. Pour cela, nous proposons une methode de resolution analogique de l'equation de diffusion ambipolaire dans la zone de stockage de charge, basee sur une representation spectrale de la repartition des porteurs. Cette methode nous conduit a traiter un systeme de n equations differentielles du premier ordre, qui peut etre traduit sous forme de circuit electrique equivalent du type ligne rc serie. Ces lignes rc, a parametres variables dans le temps, representent le noyau de calcul du modele a partir duquel nous deduisons les grandeurs physiques internes responsables du comportement externe du dispositif. Ce noyau est complete par la representation des regions de base physique et d'emetteur traitees de maniere localisee, ainsi que l'influence du courant de deplacement, de la charge des porteurs en transit et du profil de dopage. Enfin, une comparaison simulation experience dans un environnement circuit simple mais realiste, mettant en evidence les interactions composant-circuit, montre le bien fonde de cette approche
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Siala, Beji Mariem. „Un modèle distribué pour la gestion du stock disponible dans les réseaux de distribution multi-niveaux“. Lyon, INSA, 2008. http://www.theses.fr/2008ISAL0031.

Der volle Inhalt der Quelle
Annotation:
La fonction Available-To-Promise (ATP) se situe au cœur de la relation entre une compagnie et ses clients ou prospects. Le rôle de cette fonction est de fournir, en réponse à des requêtes clients, des informations sur la disponibilité des produits. Le but de cette thèse est d’améliorer cette fonction ATP, dans le cadre d’un réseau de distribution multi-niveaux. Le modèle proposé est un modèle distribué basé sur les horizons. Pour l’horizon court terme, nous proposons la fonction ATP Effectif (ATPE). Cette fonction assure une meilleure gestion du stock local au sein des différentes entités du réseau de distribution. Pour l’horizon moyen terme, nous proposons la fonction ATPE Coopératif (ATPE-C) qui se base sur une approche multi-agent, utilisant le protocole « Contract Net », pour assurer le redéploiement des stocks entre les différentes entités du réseaux de distribution. Pour évaluer ces fonctions, nous avons développé un outil de simulation qui a servi non seulement à montrer l’efficacité des fonctions proposées mais aussi à étudier l’influence du degré de coopération du système et des agents sur les performances globales et individuelles
The Available-to-Promise (ATP) fonction is an important element to manage the relationship between a company and its current and prospective customers. The initial role of this fonction is to provide product availability information in order to promise customers' order requests. The purpose of the present thesis is to improve this A TP fonction, within a multi-echelon distribution network. The suggested model is a distributed mode! based on horizons. For the short-term horizon, we suggest the Effective A TP fonction (ATPE). This fonction provides a better local stock management within the different entities of the distribution network. For the medium-term horizon, we suggest the Cooperative ATPE fonction (ATPE-C) which is based on a multi-agent approach, using the "Contract Net" protocoJ to assure the inventory redeployment between the different entities of the distribution network. In order to assess these fonctions we have developed a simulation tool which allowed us to show the e:fficiency of the suggested functi. Ons as weil as to study the impact of the system and the agents' cooperation degree on the global and individual performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Tran-The, Hung. „Problème du Consensus dans le Modèle Homonyme“. Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00925941.

Der volle Inhalt der Quelle
Annotation:
So far, the distributed computing community has either assumed that all the processes of a distributed system have distinct identifiers or, more rarely, that the processes are anonymous and have no identifiers. These are two extremes of the same general model: namely, n processes use l different identifiers, where 1 l n. We call this model homonymous model. To determine the power of homonymous model as well as the importance of identifiers in distributed computing, this thesis studies the consensus problem, one of the most famous distributed computing problem. We give necessary and sufficient conditions on the number of identifiers for solving consensus in a distributed system with t faulty processes in the synchronous case. We show that in crash, send omission and general omission failures model, the uniform consensus is solvable even if processes are anonymous. Thus, identifiers are not useful in that case. However identifiers become important in Byzantine failures model: 3t + 1 identifiers is necessary and sufficient for Byzantine agreement. Surprisingly the number of identifiers must be greater than n+3t 2 in presence of three facets of uncertainty: partial synchrony, Byzantine failures and homonyms. This demonstrates two differences from the classical model (which has l = n): there are situations where relaxing synchrony to partial synchrony renders agreement impossible, and, in the partially synchronous case, increasing the number of correct processes can actually make it harder to reach agreement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Xu, Jin. „Un modèle multi-agent distribué et hybride pour la planification du transport à la demande temps réel“. Phd thesis, INSA de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00558769.

Der volle Inhalt der Quelle
Annotation:
Durant ces dernières années, la congestion du trafic urbain et la pollution de l'air sont devenus d'énormes problèmes dans de nombreuses villes dans le monde. Afin de réduire cette congestion, nous pouvons investir dans l'amélioration des infrastructures de la ville. Toutefois, cette solution reste très coûteuse à entreprendre et de ne permet pas de réduire la pollution de l'air. C'est pourquoi nous travaillons sur la mobilité intelligente afin de disposer d'une meilleure utilisation de la voiture. L'application de nouvelles technologies de l'information, tels que les systèmes multi-agents appliqués au contrôle de l'information de la circulation urbaine, a permis de créer et de déployer une gestion plus intelligente du trafic comme le système DRT (transport à la demande). L'objectif des systèmes multi-agents basés sur le DRT est de gérer les taxis de manière intelligente, afin d'accroître le nombre de passagers dans chaque véhicule, et en même temps à réduire le nombre de véhicules dans les rues. Cela permettra de réduire les émissions de CO2 et la pollution de l'air causée par les véhicules, ainsi que la congestion du trafic et les coûts financiers associés. La simulation multi-agents est considérée comme un outil efficace pour les services dynamiques urbains de la circulation. Toutefois, le principal problème est de savoir comment construire un agent à base de modèle pour cette problématique. Ces travaux de recherche présente une solution basée sur les systèmes multi-agents réactifs pour la problématique du transport à la demande (DRT), qui adopte une approche multi-agent de planification urbaine en utilisant des services de contrôle qui satisfont aux principales contraintes : réduction de la période totale creuse, demandes spéciales du client, augmentation du nombre de places utilisées dans un même taxi, utilisation du nombre minimal de véhicules, etc. Dans cette thèse, nous proposons un modèle multi-agents multicouche hybride distribué pour des problématiques en temps réel. Dans la méthode proposée, un agent pour chaque véhicule trouve un ensemble de routes pour sa recherche locale, et choisit un itinéraire en coopérant avec d'autres agents se trouvant dans son domaine de planification. Nous avons examiné expérimentalement, l'efficacité de la méthode proposée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Atohoun, Béthel Christian A. R. K. „Architecture logique d'un système multi agents de suivi multi caméra distribué : exploitation du modèle de croyance transférable“. Thesis, Littoral, 2013. http://www.theses.fr/2013DUNK0373/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente l'utilisation conjointe de la théorie de l'évidente et du suivi multi-hypothèses pour la modélisation et la gestion d'un système de suivi multi-caméras dans un environnement autoroutier. Le suivi est basé sur la ré-identification des objets (véhicules) sur la base d'information visio-temporelles. Une concrétisation de ces concepts se traduit par la conception et la mise en oeuvre d'une architecture logicielle multi-agents de gestion du suivi multi-caméras. Après une présentation de l'état de l'art sur les cadres de gestion de l'incertain et celui relatif à fusion de l'information pour la mise en correspondance, et sur les systèmes multi-agents, notre apport dans ce travail se situe à trois niveaux. Le premier a été une adaptation de la phase de décision du modèle de croyance transférable pour y intégrer l'utilisation du suivi multi-hypothèses comme outil de levée d'ambigüité rn cas d'indécision face à une situation de mise en correspondance. Le second apport a été celui de proposer une architecture logicielle à base d'agents pour la gestion du système du suivi multi-caméras. Nous en avons proposé la modélisation globale ainsi que celle des agents et de leurs interactions en utilisant une démarche personnelle d'analyse mais toutefois inspirée de langages et outils de modélisation tels que Agent UML et MaSE pour ne citer que ceux-là, du fait qu'il n'existe pas réellement un standard normalisé à ce jour dans ce domaine. Notre troisième apport a été de faire un début d'implémentation de notre architecture logicielle à base d'agent en nous basant sur la plateforme JADE (Java Agent DEvelopment Framework). Quelques expérimentations et discussions des résultats sont présentées à la fin pour déboucher sur nos conclusions et perspectives
This thesis presents the joint use of the theory of evidence and multiple hypothesis tracking for modeling and managing a system for monitoring multiple cameras in a motorway. The tracking is based on the re-identification of objects (vehicles) on the basis of visuals and times informations. A realization of these concepts results in the design and implementation of a software architecture for multiple agents management of multiple camera tracking system. After presenting the state of the art on the frameworks of uncertainty management and that on information fusion for the matching, and the multi-agent systems, our contribution in this work is on two or three levels. The first was an adaptation of the decision phase of the transferable belief model to incorporate the use of multi-hypotheses tracking as a tool of ambiguity survey in case of indecision in matching situation. The second contribution was a proposition of agent-based software architecture for management of a multiple cameras tracking system. We have proposed the global system modeling as well as agents and their interactions modeling using a personal analysis method but nevertheless inspired by modelisation languages and tolls such as Agent UML, MaSE and others, because there is not yet a standard and normalized tool on the subject. Our third contribution was to begin an implementation of our agent-based software architecture using JADE (Java Agent Development Framework). Some experiment and discussions are presented at the end to lead to our conclusions and perspectives
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Gindraud, François. „Système distribué à adressage global et cohérence logicielle pourl’exécution d’un modèle de tâche à flot de données“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM001/document.

Der volle Inhalt der Quelle
Annotation:
Les architectures distribuées sont fréquemment utilisées pour le calcul haute performance (HPC). Afin de réduire la consommation énergétique, certains fabricants de processeurs sont passés d’architectures multi-cœurs en mémoire partagée aux MPSoC. Les MPSoC (Multi-Processor System On Chip) sont des architectures incluant un système distribué dans une puce.La programmation des architectures distribuées est plus difficile que pour les systèmes à mémoire partagée, principalement à cause de la nature distribuée de la mémoire. Une famille d’outils nommée DSM (Distributed Shared Memory) a été développée pour simplifier la programmation des architectures distribuées. Cette famille inclut les architectures NUMA, les langages PGAS, et les supports d’exécution distribués pour graphes de tâches. La stratégie utilisée par les DSM est de créer un espace d’adressage global pour les objets du programme, et de faire automatiquement les transferts réseaux nécessaires lorsque ces objets sont utilisés. Les systèmes DSM sont très variés, que ce soit par l’interface fournie, les fonctionnalités, la sémantique autour des objets globalement adressables, le type de support (matériel ou logiciel), ...Cette thèse présente un nouveau système DSM à support logiciel appelé Givy. Le but de Givy est d’exécuter sur des MPSoC (MPPA) des programmes sous la forme de graphes de tâches dynamiques, avec des dépendances de flot de données (data-flow ). L’espace d’adressage global (GAS) de Givy est indexé par des vrais pointeurs, contrairement à de nombreux autres systèmes DSM à support logiciel : les pointeurs bruts du langage C sont valides sur tout le système distribué. Dans Givy, les objets globaux sont les blocs de mémoire fournis par malloc(). Ces blocs sont répliqués entre les nœuds du système distribué, et sont gérés par un protocole de cohérence de cache logiciel nommé Owner Writable Memory. Le protocole est capable de déplacer ses propres métadonnées, ce qui devrait permettre l’exécution efficace de programmes irréguliers. Le modèle de programmation impose de découper le programme en tâches créées dynamiquement et annotées par leurs accès mémoire. Ces annotations sont utilisées pour générer les requêtes au protocole de cohérence, ainsi que pour fournir des informations à l’ordonnanceur de tâche (spatial et temporel).Le premier résultat de cette thèse est l’organisation globale de Givy. Une deuxième contribution est la formalisation du protocole Owner Writable Memory. Le troisième résultat est la traduction de cette formalisation dans le langage d’un model checker (Cubicle), et les essais de validation du protocole. Le dernier résultat est la réalisation et explication détaillée du sous-système d’allocation mémoire : le choix de pointeurs bruts en tant qu’index globaux nécessite une intégration forte entre l’allocateur mémoire et le protocole de cohérence de cache
Distributed systems are widely used in HPC (High Performance Computing). Owing to rising energy concerns, some chip manufacturers moved from multi-core CPUs to MPSoC (Multi-Processor System on Chip), which includes a distributed system on one chip.However distributed systems – with distributed memories – are hard to program compared to more friendly shared memory systems. A family of solutions called DSM (Distributed Shared Memory) systems has been developed to simplify the programming of distributed systems. DSM systems include NUMA architectures, PGAS languages, and distributed task runtimes. The common strategy of these systems is to create a global address space of some kind, and automate network transfers on accesses to global objects. DSM systems usually differ in their interfaces, capabilities, semantics on global objects, implementation levels (hardware / software), ...This thesis presents a new software DSM system called Givy. The motivation of Givy is to execute programs modeled as dynamic task graphs with data-flow dependencies on MPSoC architectures (MPPA). Contrary to many software DSM, the global address space of Givy is indexed by real pointers: raw C pointers are made global to the distributed system. Givy global objects are memory blocks returned by malloc(). Data is replicated across nodes, and all these copies are managed by a software cache coherence protocol called Owner Writable Memory. This protocol can relocate coherence metadata, and thus should help execute irregular applications efficiently. The programming model cuts the program into tasks which are annotated with memory accesses, and created dynamically. Memory annotations are used to drive coherence requests, and provide useful information for scheduling and load-balancing.The first contribution of this thesis is the overall design of the Givy runtime. A second contribution is the formalization of the Owner Writable Memory coherence protocol. A third contribution is its translation in a model checker language (Cubicle), and correctness validation attempts. The last contribution is the detailed allocator subsystem implementation: the choice of real pointers for global references requires a tight integration between memory allocator and coherence protocol
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Gaillard, Charlotte. „Amélioration d'un modèle distribué d'érosion hydrique par la prise en compte spatiale de l'influence anthropique en milieu agricole“. Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2729.

Der volle Inhalt der Quelle
Annotation:
The following Ph.D. thesis is a contribution to the study of anthropic influences on soil erosion processes in an agricultural environment. Intensive exploitation of agricultural lands increases their fragility by amplifying their sensitivity to erosion and diffuse pollution. Agricultural areas are the focus of increased attention and are the object of numerous studies towards developing methodologies for their integrated management. At the center of the sustainable development issue, based on the compromise to be achieved between the controlled exploitation of resources and the preservation of areas in terms of soil and water quality, agricultural watershed management has become a priority in the fields of environmental research and organization. Modeling of physical functioning and the changes induced by man represents a solution to a better apprehension and understanding of the role of the different parameters involved in the dynamical hydrological and sedimentary processes and accordingly towards mastering more efficiently human effects on the different environments.The approach chosen is based on the spatial modeling of the anthropic influence on hydrological and sedimentary processes at the scale of the watershed combined with the use of remote sensing data for characterizing ground surface states. An existing erosion model was entirely reformulated for taking into consideration a certain number of these anthropic influences recognized as essential in soil erosion. These are namely the presence of tillage where orientation conditions flow directions as well as the spatial boundaries resulting from the organization of the landscape and which constitute obstacles to surface flows.The model was tested over a study site chosen for its high sensitivity to erosion, in Blosseville (Normandy, France).The site has been the object of multiple ground observations and hydrological monitoring over many years. Among the input parameters required for the model, certain are accessible through remote sensing. A methodology is proposed using satellite radar images for estimating ground moisture and surface roughness from the inversion of a radar backscattering model and permitting to take into consideration the spatial variability of these input parameters.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Häfliger, Claude Vincent. „Préparation à l'assimilation de hauteurs d'eau SWOT (Surface Water and Ocean Topography) dans un modèle hydrométéorologique distribué régional“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30266/document.

Der volle Inhalt der Quelle
Annotation:
Le satellite SWOT (Surface Water and Ocean Topography), dont le lancement est prévu aux horizons 2020, observera la hauteur d'eau sur les cours d'eau de largeur supérieure à 100 m, avec une répétitivité d'environ 5 jours sur la France, en repassant tous les 21 jours au dessus du même point. Ces données serviront d'une part à valider les modèles hydrologiques, et d'autre part à améliorer leur utilisation pour le suivi hydrologique. La finalité des travaux réalisés est d'assimiler des données SWOT virtuelles de hauteurs d'eau en rivière, en tenant compte de l'incertitude attendue des observations. À partir des produits d'assimilation, l'enjeu final est d'optimiser les valeurs du coefficient de rugosité du lit de la rivière, paramètre déterminant dans les modèles hydrologiques pour la régulation des écoulements. Dans un premier temps, plusieurs développements du modèle hydrométéorologique régional ISBA/MODCOU sont effectués. Les objectifs principaux sont d'introduire la simulation de profondeurs d'eau pour permettre une comparaison simple avec les futurs produits SWOT dans la suite des travaux, mais aussi, de manière plus générale d'améliorer l'hydrodynamique du modèle, en particulier les variations temporelles de vitesse d'écoulement en rivière. La prise en compte d'une vitesse variable des écoulements en rivière permet d'améliorer de façon significative la qualité des simulations, validées sur des stations de mesure in situ localisés sur le réseau de rivières du bassin versant de la Garonne. La comparaison des sorties ISBA/MODCOU avec celles des modèles hydrauliques détaillés sur la Garonne aval montre que le modèle simule plutôt bien les variations temporelles de hauteur d'eau, mais n'est pas capable de renseigner localement de bonnes profondeurs (à cause de la forte hétérogénéité spatiale de la géomorphologie non prise en compte dans ISBA/MODCOU). Après avoir développé et évalué le modèle sur le bassin de la Garonne, la deuxième étape est alors de mettre en place un schéma d'assimilation de données permettant d'assimiler des produits synthétiques SWOT dans le modèle. Le système d'assimilation utilisé repose sur la méthode du " Best Linear Unbiased Estimator " (BLUE). Dans notre cas, les données SWOT virtuelles servent à améliorer un paramètre hydrologique déterminant dans ISBA/MODCOU : le coefficient de rugosité de la rivière. Etant donné que SWOT n'est pas encore en orbite, il est nécessaire de simuler les observations que le satellite fournira. Connaissant son orbite, il est possible de simuler la trace issue des repassages du satellite au dessus du bassin de la Garonne. On peut ainsi déterminer sur un cycle complet de 21 jours quelles rivières seront observées, et à quels instants. Une simulation ISBA/MODCOU de référence a servi pour créer des observations virtuelles. On connaît donc la réalité vers laquelle on souhaite tendre : ce type d'expérience est appelé " expérience jumelle ". Le but est ainsi de partir volontairement d'un état perturbé du modèle, et d'arriver à se rapprocher au cours des cycles d'assimilation vers notre réalité connue. Les résultats montrent que le système d'assimilation permet de converger vers la simulation de référence (± 1 Ks pour le coefficient de rugosité, ± 5 cm pour la hauteur d'eau) sous certaines conditions. La fin des travaux est consacrée à la prise en compte d'erreurs de mesures SWOT plus réalistes (liées à l'instrument embarqué sur le satellite, à la déformation des ondes dans l'atmosphère, etc.), ainsi qu'à l'assimilation de données de hauteurs d'eau issues de modèles hydrauliques détaillés sur la Garonne avale. De plus, étant donné que SWOT n'observera pas des profondeurs en rivières mais des élévations d'eau par rapport à un niveau de référence, l'assimilation de variations temporelles de hauteurs d'eau dans ISBA/MODCOU est testée
The SWOT (Surface Water and Ocean Topography) mission will provide free water surface elevations, slopes and river widths for rivers wider than 100 m, with a repetitivity of about 5 days and a revisit time of 21 days over France. These data will allow to validate hydrological models and improve them to simulate the water cycle. The final goal is to assimilate virtual water surface elevations measured by SWOT, by taking into account the error of these measurements. By using these products, the goal is to improve the values of the roughness coefficient in a hydrological model. This coefficient is important because river flows are very sensitive to this parameter. First, several developpements are set up in the regional hydrometeorological model ISBA/MODCOU. These model improvements will make possible comparisons with the future SWOT products. The principal objective is to simulate river depths in order to make an easy comparison with the SWOT products in future works. This will also improve the hydrodynamics of the model, in particular the simulation of temporal variations of flow velocities in the river. The representation of a variable flow velocity significantly improves the quality of the simulations which are validated over in situ river gauges located in the Garonne catchment. The comparison of ISBA/MODCOU outputs with those of fine-scale hydraulic models in the downstream Garonne river shows that the temporal river height variations are well simulated, but that it is difficult to simulate locally the river depth (because the high spatial heterogeneity of the geomorphology is not taken into account in ISBA/MODCOU). After the developpement and evaluation of the model in the Garonne catchement, the second step is to build a data assimilation scheme able to assimilate synthetic SWOT data in the model. The data assimilation scheme is based on the " Best Linear Unbiased Estimator " (BLUE). In our case, virtual SWOT data are used to improve an important hydrological parameter in ISBA/MODCOU : the roughness coefficient of the river. Because SWOT is not yet in orbit, it is necessary to simulate future satellite observations. By knowing the orbit, it is possible to simulate the swath and revisit times of the satellite above the Garonne catchment. We can also know over a complete cycle of 21 days which rivers will be observed and when. A reference simulation of ISBA/MODCOU has been run to create virtual observations. In this way, we know the reality to which we want to tender. This kind of experiment is called " twin experiment ". The goal is to start volontary from a pertubed state of the model, and then to converge in the assimilation cycles to the known reality. Results show that the data assimilation system let to converge in the direction of the reference simulation (± 1 Ks for the roughness coefficient, ± 5 cm for the river height). The representation of more realistic SWOT errors is implemented at the end of the work (linked to the instrument on board, the deformation of the waves in the atmosphere, etc.), and also the data assimilation of river heights simulated by fine scale hydraulic models in the downstream Garonne. Furthermore, the assimilation of temporal variations of river depths in ISBA/MODCOU is tested, because SWOT will not observe river depths but surface water elevations above a known reference level
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Goundoul, N'golona. „Etude de la relation "averses-crues" : application d'un modèle global et essais de mise au point d'un modèle distribué sur le bassin versant du Bam-Bam (Tchad)“. Avignon, 1992. http://www.theses.fr/1992AVIG1001.

Der volle Inhalt der Quelle
Annotation:
D'une superficie de 1196 km2, le bassin versant du Bam-Bam est situé en région sahélienne et constitué de cinq bassins emboités de differentes tailles. L'étude de la dynamique des pluies sur le bassin, reflète les caractéristiques pluviométriques (homogénéite des formes, répartition spatiale) du Sahel en général. Un modèle hydrologique fondé sur la technique de l'hydrogramme unitaire est appliqué à chacun des bassins, avec comme objectif l'analyse et la prédétermination des crues. Les résultats satisfaisants obtenus en approche globale, confirment dans une certaine mesure, la préponderance du ruissellement rapide par rapport aux autres types d'écoulements (écoulement retardé, écoulement de base). La tentative d'approche distribuée révèle l'importance d'un autre type d'écoulement que le ruissellement rapide pour les bassins de superficie superieure à 100 km2. Nous suggérons une démarche tenant compte d'autres facteurs (géomorphologiques, pédologiques) en vue d'une amélioration probable de la modélisation hydrologique dans le Sahel
The Bam-Bam catchment area is about 1196 km2. It is located in the sahelian region and its comprised by five jointed watersheds of different surfaces. The dynamic study of mrainfalls reflects the characteristics of precipitation (homogeneity of form, spatial distribution) in the sahelian region in general. A hydrological model based on the unit hydrograph technique is used with aim of analysing and predetermining the floods for each sub-watershed. The resulds obtained by a humped model approach show the predominance of surface runoff in comparison with the other types of runoff (base runoff, delayed runoff). An attempt using a distributed model shows that, for the watersheds greater than 100 km2, direct runoff is not predominant. In order to improve modelisation in the sahelian region, we suggest the application of a process which takes into account other factors (geomorphogical, pedological)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Pérez, Marie Anne. „Modèle électrothermique distribué de transistor bipolaire à hétérojonction : application à la conception non linéaire d'amplificateurs de puissance optimisés en température“. Limoges, 1998. http://www.theses.fr/1998LIMO0029.

Der volle Inhalt der Quelle
Annotation:
Ce travail constitue une nouvelle approche sur la modelisation de transistors bipolaires a heterojonction et son utilisation pour la conception non lineaire d'amplificateurs de puissance a haut rendement. Un recapitulatif de la technique de modelisation de tbh developpee a l'ircom est expose. La nouvelle approche concerne la distribution thermique du modele et sa validation en petit signal. Cette distribution thermique nous a permis d'etudier le phenomene de crunch present dans les tbh multidoigts. Nous avons pu simuler les consequences du crunch en comportement statique et dynamique. Ce modele de tbh nous a aussi permis d'aborder une conception d'amplificateur de puissance optimise en temperature. Un amplificateur en bande x a ete concu et realise. Une analyse de stabilite a ete utilisee pour predire les problemes d'oscillations. Les mesures en boitier de cet amplificateur en petit signal et en puissance nous permettent de valider la methodologie de conception ainsi que le modele electrothermique utilise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Gnouma, Raouf. „Aide à la calibration d'un modèle hydrologique distribué au moyen d'une analyse des processus hydrologiques : application au bassin versant de l'Yzeron“. Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0084/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans le contexte des recherches actuelles en hydroogie consacrées à l'amélioration des performances des modèles hydrologiques à l'aide des connaissances acquises par l'approche expérimentale. Le bassin versant de l'yzeron (A=147,3 km2), situé à l'Ouest de l'agglomération lyonnaise, constitue le terrain d'étude. Après un état de l'art concernant les processus hydrologiques de génèse des écoulements et la modélisation hydrologique distribuée, le modèle WISTOO a été implémenté sur le bassin de l'Yzeron. Ce premier travail de modélisation a soulevé les différents problèmes, déjà évoqués dans la littérature, d'une modélisation hydrologique distribuée. Il a montré qu'une connaissance sur le comportement hydrologique de la région d'étude est nécessaire. Dans la deuxième partie de ce travail et à l'aide d'une analyse spatiale, utilisant les différentes couches thématiques disponibles, trois sous-bassins versants supposés représentatifs de caractéristiques dominantes liées aux écoulements ont été sélectionnés. Ensuite, une approche expérimentale a été menée, sur ces entités spatiales, à deux échelles : celle du sous-bassin versant (analyse pluie-débit et traçage géochimique) et celle du versant (suivi du niveau piézométrique). L'application du traçage géochimique a permis d'émettre des hypothèses sur le comportement hydrologique de ces entités. Pour une approche à plus petite échelle, une série de piézomètres a été installée sur deux versants ce qui a permis un suivi temporel du niveau piézométrique lors de quelques événements averse-crue. L'association des deux techniques (traçage géochimique et suivi à l'échelle du versant) ainsi que les analyses pluie-débit globales nous ont permis d'apporter quelques éléments de compréhension sur les processus hydrologiques dominants associés aux bassins représentatifs du bassin de l'Yzeron. Une première tentative d'intégration de cette connaissance dans le calage du modèle distribué constitue le dernier chapitre de la thèse
The present work is a contribution to the recent research topics in hydrology devoted to the amelioration of hydrological modelling performance on the base of field knowledge. The study catchment is the Yzeron basin (A = 147,3 km²) located at the west of Lyon. Following a state of the art review concerning hydrological processes for runoff generation and distributed hydrological modelling, the WISTOO model was implemented in the Yzeron basin. This first work of modelling raised the different problems of the distributed hydrological modelling, already evoked in the literature, and stresses the importance of knowledge about the hydrological behaviour of the study catchment is necessary. In the second part of this work, a spatial analysis was carried out, using the different available thematic layers, leading to the selection of three representative sub-catchments. A field experimental approach has been conducted at two scales : catchment (runoff-rainfall analysis and geochemical tracing) and hillslope scale (piezometric level measurements). The geochemical tracing application has made it possible to propose some hypotheses on the hydrological behaviour of these entities. For a smaller scale approach, a set of piezometers have been installed on two hillslopes, which allowed monitoring of the piezometric level during some rainfall-runoff events. Association of two techniques (geochemical tracing and experimental investigation at the hillslope scale) and global rainfall-runoff analysis have finally permitted to improve our understanding of dominant hydrological processes associated to the representatives sub-catchments of Yzeron basin. A first tentative of integration of this knowledge in to the calibration process of WISTOO model constitutes the last chapter of this work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Dubus, Jérémy. „Une démarche orientée modèle pour le déploiement de systèmes en environnements ouverts distribués“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00668936.

Der volle Inhalt der Quelle
Annotation:
Le déploiement reste l'une des étapes du cycle de vie des logiciels la moins standardisée et outillée à ce jour. Dans ce travail, nous identifions quatre grands défis à relever pour dé- ployer des systèmes logiciels distribués et hétérogènes. Le premier défi est de réussir à initier le consensus manquant autour d'un langage générique de déploiement de logiciels. Le deuxième défi consiste en la vérification statique de déploiements logiciels décrits dans ce langage pour assurer un déroulement correct avant d'exécuter les opérations de déploiement. Le troisième défi est de réaliser une plate-forme intergicielle capable d'interpréter ce langage et d'effectuer le déploiement de n'importe quel système logiciel réparti. Enfin le quatrième défi est d'appli- quer ces déploiements de systèmes dans les environnements ouverts distribués, c'est-à-dire les réseaux fluctuants et à grande échelle comme les réseaux ubiquitaires ou les grilles de calcul. Notre contribution consiste à définir une démarche de déploiement de systèmes distribués cen- trée sur quatre rôles pour relever ces défis : l'expert réseau, l'expert logiciel, l'administrateur système et l'architecte métier. D'un côté, l'approche DeployWare, conforme à l'ingénierie des modèles, est définie par un méta-modèle multi-rôles pour décrire le déploiement de la couche intergicielle du système ainsi que par une machine virtuelle capable d'exécuter automatique- ment le déploiement de cette couche. L'utilisation d'un langage de méta-modélisation permet d'écrire des programmes de vérification statique des modèles de déploiement. De l'autre côté, l'approche DACAR propose un méta-modèle d'architecture générique pour exprimer et exé- cuter le déploiement d'une application métier à base de composants. Cette double approche DeployWare/DACAR permet de prendre en compte, lors de la description du déploiement, les propriétés des environnements ouverts distribués selon une approche conforme à l'informatique auto-gérée. Notre contribution est validée par plusieurs expériences pour valider la capacité de prise en charge des environnements ouverts ubiquitaires, et pour éprouver l'hétérogénéité des technologies déployables dans le monde des services d'entreprise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Trudel, Mélanie. „Assimilation d'observations de débit et d'humidité du sol dans un modèle hydrologique distribué, application au bassin versant de la rivière des anglais“. Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/661/1/TRUDEL_M%C3%A9lanie.pdf.

Der volle Inhalt der Quelle
Annotation:
Les techniques d’assimilation de données permettent non seulement d’améliorer les simulations et prévisions d’un modèle par l’intégration d’observations, mais permettent aussi de porter un diagnostique sur le modèle et les observations. Peu de publications se sont intéressées à l’assimilation d’observations à un modèle hydrologique distribué à base physique simulant autant les débits en rivière que l’humidité du sol. L’objectif de cette thèse est donc d’évaluer l’impact de l’assimilation d’observations de débit et d’humidité du sol sur les simulations du modèle hydrologique CATHY. Un filtre d’ensemble de Kalman a été utilisé afin d’assimiler des observations de débit à l’exutoire, débits en amont, humidité du sol à différentes profondeur (15 cm, 45 cm et 90 cm) mesurées à l’aide de sondes (stations hydrométéorologiques) ainsi que des observations d’humidité du sol en surface estimées à l’aide de la télédétection radar. Une méthodologie permettant d’estimer l’humidité du sol en surface pour des sols nus ou de faible végétation à l’aide d’images radar multipolarisations (ENVISAT-ASAR) et polarimétriques (RADARSAT-2) a été développée. Une analyse de l’impact de la végétation a également été effectuée. L’utilisation de données polarimétriques plutôt que multipolarisation a permis d’améliorer l’estimation de l’humidité du sol pour les champs de faible végétation. La recherche a également permis de conclure que l’assimilation d’observations de débit à l’exutoire améliore les simulations de débits en amont. Par contre, l’assimilation des observations de débit (exutoire ou en amont) détériore les simulations d’humidité du sol. L’assimilation des observations d’humidité du sol a mise en évidence la présence d’un biais entre le modèle et les observations. L’élimination de ce biais devra faire l’objet de futures recherches. L’assimilation des observations d’humidité du sol a tout de même permis de constater que l’assimilation d’observations provenant d’une seule station a un impact similaire sur les simulations d’humidité du sol que l’assimilation d’observations provenant de cinq stations. De plus, elle a mise en évidence l’importance de la fréquence d’assimilation. L’assimilation d’observations d’humidité du sol en surface (radar) à seulement deux moments sur la période de 90 jours a eu très peu d’impact sur les simulations. Enfin, l’assimilation d’observations d’humidité du sol en plus de celle de débit à l’exutoire améliore les simulations de débits (exutoire et en amont) sans détériorer les simulations d’humidité du sol.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Rouhier, Laura. „Régionalisation d'un modèle hydrologique distribué pour la modélisation de bassins non jaugés. Application aux vallées de la Loire et de la Durance“. Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS316/document.

Der volle Inhalt der Quelle
Annotation:
Pour fournir des simulations fiables, les modèles hydrologiques nécessitent usuellement le calage de leurs paramètres sur des données de débit. Toutefois, ces dernières sont limitées et la plupart des bassins versants sont non jaugés. Des méthodes alternatives regroupées sous le terme de 'régionalisation' sont alors nécessaires pour estimer les paramètres des modèles. La thèse propose de combiner les trois méthodes les plus classiques afin de régionaliser les paramètres d'un modèle distribué sur deux grands bassins versants français : la Loire à Gien et la Durance à Cadarache. À partir des trois méthodes de régionalisation, le degré de spatialisation est adapté aux différents paramètres du modèle d'après leurs caractéristiques et leur rôle hydrologique. In fine, l'approche multi-méthode et multi-motif proposée (i) réduit considérablement le nombre de degrés de liberté du modèle, (ii) améliore la représentation de la variabilité physique du bassin et (iii) améliore très nettement les performances des simulations. En contexte non jaugé, la spatialisation des paramètres permet un gain d'environ 10 %, l'approche multi-méthode et multi-motif apportant en particulier un gain d'environ 7 % par rapport à une méthode de régionalisation unique. Malgré ces gains, l'impact de la spatialisation des forçages météorologiques demeure 6 fois plus important que spatialisation des paramètres
To provide reliable simulations, hydrological models usually require the calibration of their parameters over streamflow data. However, the latter are limited and most of the catchments remained ungauged. Consequently, alternative methods termed ‘regionalization’ are needed to estimate model parameters. The thesis proposes to combine the three classical methods in order to regionalize the parameters of a distributed model over two large French catchments: the Loire catchment at Gien and the Durance catchment at Cadarache. On the basis of the three regionalization methods, the degree of spatialization is adapted to the different model parameters according to their characteristics and their hydrological role. In fine, the proposed multi-method and multi-pattern approach (i) significantly reduces the number of degrees of freedom, (ii) improves the representation of the catchment physical variability, and (iii) significantly improves the performance of the simulations. In the ungauged context, the parameter spatialization allows an improvement of about 10%, and in particular, the multi-method and multi-pattern povides an improvement of about 7% compared to a single regionalization method. Despite these improvements, the impact of the climatic input spatialization remains 6 times greater than th parameter spatialization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Rouhier, Laura. „Régionalisation d'un modèle hydrologique distribué pour la modélisation de bassins non jaugés. Application aux vallées de la Loire et de la Durance“. Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS316.

Der volle Inhalt der Quelle
Annotation:
Pour fournir des simulations fiables, les modèles hydrologiques nécessitent usuellement le calage de leurs paramètres sur des données de débit. Toutefois, ces dernières sont limitées et la plupart des bassins versants sont non jaugés. Des méthodes alternatives regroupées sous le terme de 'régionalisation' sont alors nécessaires pour estimer les paramètres des modèles. La thèse propose de combiner les trois méthodes les plus classiques afin de régionaliser les paramètres d'un modèle distribué sur deux grands bassins versants français : la Loire à Gien et la Durance à Cadarache. À partir des trois méthodes de régionalisation, le degré de spatialisation est adapté aux différents paramètres du modèle d'après leurs caractéristiques et leur rôle hydrologique. In fine, l'approche multi-méthode et multi-motif proposée (i) réduit considérablement le nombre de degrés de liberté du modèle, (ii) améliore la représentation de la variabilité physique du bassin et (iii) améliore très nettement les performances des simulations. En contexte non jaugé, la spatialisation des paramètres permet un gain d'environ 10 %, l'approche multi-méthode et multi-motif apportant en particulier un gain d'environ 7 % par rapport à une méthode de régionalisation unique. Malgré ces gains, l'impact de la spatialisation des forçages météorologiques demeure 6 fois plus important que spatialisation des paramètres
To provide reliable simulations, hydrological models usually require the calibration of their parameters over streamflow data. However, the latter are limited and most of the catchments remained ungauged. Consequently, alternative methods termed ‘regionalization’ are needed to estimate model parameters. The thesis proposes to combine the three classical methods in order to regionalize the parameters of a distributed model over two large French catchments: the Loire catchment at Gien and the Durance catchment at Cadarache. On the basis of the three regionalization methods, the degree of spatialization is adapted to the different model parameters according to their characteristics and their hydrological role. In fine, the proposed multi-method and multi-pattern approach (i) significantly reduces the number of degrees of freedom, (ii) improves the representation of the catchment physical variability, and (iii) significantly improves the performance of the simulations. In the ungauged context, the parameter spatialization allows an improvement of about 10%, and in particular, the multi-method and multi-pattern povides an improvement of about 7% compared to a single regionalization method. Despite these improvements, the impact of the climatic input spatialization remains 6 times greater than th parameter spatialization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Beaujouan, Véronique. „Modélisation des transferts d'eau et d'azote dans les sols et les nappes. Développement d'un modèle conceptuel distribué. Applications à de petits bassins versants agricoles“. Rennes, ENSA, 2001. http://www.theses.fr/2001NSARD035.

Der volle Inhalt der Quelle
Annotation:
L'évaluation des actions de reconquête de la qualité de l'eau, notamment en ce qui conceme l'azote, peut passer par une étape de modélisation. Des hypothèses simples de fonctionnement des bassins versants ont ainsi été posées et un modèle hydrologique distribué, TNT, a été développé. Divers tests de TNT ont été effectués sur le bassin de Kervidy (Morbihan), et sur des bassins virtuels simples, aux géomorphologies contrastées: sensibilité aux paramètres et hypothèses; simulation du débit, de la profondeur de la nappe. . . Le domaine de validité de TNT regroupe les petits bassins versants agricoles, aux sols relativement perméables sur substrat imperméable, avec une nappe peu profonde, en climat tempéré humide. Après intégration de différents modules de transferts et transformations d'azote, TNT à été utilisé pour chercher à répondre à trois grands types de questions. L'influence de la localisation des cultures sur les flux d'azote a été étudiée. Les résultats de simulations simples, par couplage avec le modèle agronomique STICS, suggèrent que l'interposition d'une culture sous-fertilisée entre la rivière et une culture sur-fertilisée permet de limiter la pollution de la rivière. Les temps de transtert au sein d'un versant ont ensuite été simulés. Le versant étudié présente une forte inertie face aux transferts d'azote, et le modèle est sensible à la localisation de la fertilisation. Enfin, le lien entre géomorphologie et dénitrification a été étudié, ce qui a permis de vérifier la possiblité d'intégration de transformation d'azote à TNT et l'obtention de réponses spatiales différentes selon la morphologie des bassins. L'utilisation de TNT pour la caractérisation de bassins versants peut être envisagée, mais, actuellement, TNT doit être considéré comme un modèle d'analyse et d'aide à la recherche et non comme un modèle opérationnel de prédiction. Il est à utiliser avec précaution, avec des objectifs précis, dans un cadre de recherche et d'analyse de scénarios.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ventresque, Anthony. „Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes dans un système d'information distribué et hétérogène“. Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00457820.

Der volle Inhalt der Quelle
Annotation:
Les systèmes d'information font face à un problème de pertinence dans les recherches dû à l'augmentation considérable des données accessibles. De plus, le nombre d'appareils communicants ne cesse de croître et de menacer le modèle client/serveur. Une nouvelle architecture distribuée tend donc à s'imposer : les réseaux pair-à-pair (P2P). Mais ils sont peu économes en ressource réseau (une requête inonde le réseau) et offrent des fonctionnalités limitées (recherche par mots-clés). Dans les deux communautés, RI et systèmes P2P, les recherches penchent vers l'utilisation de sémantique. En informatique, les approches basées sur la sémantique nécessitent souvent de définir des ontologies. Le développement important et distribué des ontologies génère une hétérogénéité sémantique. La solution classique est d'utiliser des correspondances entre parties de deux ontologies. Mais c'est une solution qui est difficile à obtenir et qui n'est pas toujours complète. Souvent les parties non-partagées de deux ontologies ne sont pas gérées, ce qui entraîne une perte d'information. Notre solution : EXSI2D, utilise une expansion particulière, appelée expansion structurante, du côté de l'initiateur de requêtes. Cela lui permet de préciser les dimensions de sa requête sans modifier la requête elle-même. EXSI2D offre aussi la possibilité au fournisseur d'information d'interpréter l'expansion structurante dans sa propre ontologie. Ainsi, il est possible à chaque participant d'un système d'information sémantiquement hétérogène d'utiliser toute son ontologie, y compris les parties non partagées. Nous montrons aussi l'utilisation d'EXSI2D dans un système P2P, grâce à SPARTANBFS, un protocole « frugal » pour systèmes P2P non structurés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Ribès, André. „Contribution à la conception d'un modèle de programmation parallèle distribué et sa mise en oeuvre au sein de plates-formes orientées objet et composant“. Rennes 1, 2004. http://www.theses.fr/2004REN10144.

Der volle Inhalt der Quelle
Annotation:
Les simulations numériques sont devenues incontournables dans de nombreux projets industriels. Dans la recherche d'une simulation toujours plus précise, un nouveau type de simulation numérique, dont l'objectif est de simuler plusieurs physiques en même temps, est apparu. Les grilles informatiques, qui sont la mise en commun de ressources de différents centres de calcul connectés par des réseaux longue distance à très haut débit, offrent les ressources nécessaires à l'exécution de ce type d'application. Cette thèse s'intéresse à la définition d'un modèle de programmation pour ces applications. Il est basé sur la notion d'entité parallèle distribuée et de trois modèles qui permettent de gérer les différentes interactions entre deux entités. Ce modèle a permis de définir la notion d'objet et de composant parallèle distribué. Deux prototypes nommés PaCO++ et GridCCM ont permis de valider le modèle en obtenant de haute performance dans les communications entre deux entités.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Bessière, Hélène. „Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide“. Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7761/1/bessiere1.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années (Nîmes en 1988, Vaison-la-Romaine en 1992, Aude en 1999, Gard en 2002). Le groupe HydroEco de l'IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Bessière, Hélène. „Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide“. Phd thesis, Toulouse, INPT, 2008. https://hal.science/tel-04426689.

Der volle Inhalt der Quelle
Annotation:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années. Le groupe HydroEco de l’IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel
Intense flash floods, produced by severe thunderstorms, represent the most destructive hazard in the Mediterranean region. Human lives and properties are increasingly exposed to flood risks. Therefore, there is a clear need to improve real-time monitoring and flood forecasting. The HydroEco research group at IMFT (Institute of Fluid Mechanics of Toulouse) developed the MARINE model (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes), a distributed physically-based model, in order to forecast this kind of flood. A data assimilation process called the adjoint state method is implemented into the MARINE model. The principle of the adjoint method is to consider input parameters as control variables and optimize them by minimizing a cost function measuring the discrepancy between observations and model simulations. The procedure is tested on the Mediterranean Gardon d'Anduze catchment. A previous sensitivity analysis allows identifying the most sensitive parameters in order to avoid the “non-uniqueness problem” and overparameterization. Then a first application of the adjoint method aims at calibrating the model. The method enables to evaluate the model performance and contributes to either the validation of physical hypothesis or perspectives for the model structure improvements. A consistent set of parameters, in accordance with results achieved with a Monte-Carlo procedure, is then identified and simulated hydrographs are limited into a reduced range of uncertainties. The second application of the method is dedicated to flash flood forecasting. The first strategy employed is to use outlet flow information during the rising flood phase to estimate the peak. The second strategy employed is to use information of intermediate upstream gauging stations to predict the outlet flow. Both strategies allow anticipating, a few hours in advance, the peak which is crucial from an operational point of view
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Rejeb, Hejer. „Étude des problèmes d’ordonnancement sur des plates-formes hétérogènes en modèle multi-port“. Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14299/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux menés dans cette thèse concernent les problèmes d'ordonnancement sur des plates-formes de calcul dynamiques et hétérogènes et s'appuient sur le modèle de communication "multi-port" pour les communications. Nous avons considéré le problème de l'ordonnancement des tâches indépendantes sur des plates-formes maîtres-esclaves, dans les contextes statique et dynamique. Nous nous sommes également intéressé au problème de la redistribution de fichiers répliqués dans le cadre de l'équilibrage de charge. Enfin, nous avons étudié l'importance des mécanismes de partage de bande passante pour obtenir une meilleure efficacité du système
The results presented in this document deal with scheduling problems on dynamic and heterogeneous computing platforms under the "multiport" model for the communications. We have considered the problem of scheduling independent tasks on master-slave platforms, in both offline and online contexts. We have also proposed algorithms for replicated files redistribution to achieve load balancing. Finally, we have studied the importance of bandwidth sharing mechanisms to achieve better efficiency
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Morille, Benjamin. „Elaboration d’un modèle du climat distribué à l’échelle de l’abri et de la plante en cultures ornementales sous serres : analyse des transferts de masse et de chaleur, bilans énergétiques“. Rennes, Agrocampus Ouest, 2012. https://tel.archives-ouvertes.fr/tel-00958617.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est de développer un modèle numérique instationnaire permettant de simuler l’évolution du climat distribué sous serre pour des conditions de nuit en présence de chauffage et pour des conditions diurnes où l’influence du rayonnement solaire est prépondérante. La thèse s’appuie sur des approches expérimentales et numériques qui ont pour ambition d’être appliquées à deux situations, hivernales et pré-estivales correspondant aux problématiques auxquelles les producteurs doivent faire face : gestion de la température et de l'humidité avec une préoccupation de réduction des consommations énergétiques. Des campagnes de mesures ont été menées au printemps 2010 et à l’hiver 2011 pour, d'une part, améliorer la compréhension des interactions entre les paramètres climatiques, et d'autre part, fournir des données d’entrée et de validation aux modèles numériques. Les campagnes de mesures de nuit (hiver 2011) en présence de chauffage ont mis en évidence les besoins plus importants en chauffage et les températures de toiture plus basses lors des nuits claires. Les campagnes de mesure menées au printemps 2010 ont permis mettre en évidence l’influence prépondérante du rayonnement solaire sur la température et la transpiration du végétal ainsi que le phénomène de stockage-restitution de chaleur dans le sol. Enfin, la forte sensibilité du taux d’humidité ainsi que la moindre dépendance de la température vis-à-vis de la « qualité » de la ventilation a été démontrée. Les données expérimentales sont exploitées afin de mettre en oeuvre les modèles de transpiration adaptés aux conditions de culture sous serre. Les bilans hydriques réalisés sur le végétal divisé en deux couches fournissent des informations précieuses sur la distribution de la transpiration et des contributions de chaque couche. Les simulations numériques sont réalisées en 2D instationnaire, en application sur une situation nocturne (nuit claire et nuit nuageuse) et une situation diurne (journée parfaitement ensoleillée). Elles intègrent deux éléments novateurs : la résolution de l'ETR dans le couvert végétal et l'utilisation d'une routine permettant de simuler la condensation. L'évolution des paramètres climatiques simulés est validée sur la base des données expérimentales. Il apparait cependant que les écarts de température et d'humidité entre l'air dans et au dessus du végétal sont sous estimés. Enfin, les modèles numériques sont exploités pour réaliser des bilans hydriques et énergétiques
The objectives of this thesis are to develop a numerical tool which would be able to provide exhaustive information on the evolution of the distributed climate in a greenhouse. The thesis is based on experimental and numerical approaches and aims for giving information on the main concerns of the growers: the temperature and the humidity management with a special attention giving to the reduction of the energy consumptions. This is the reason why the study considers two situations in which these main concerns are the most pronounced. Experimental investigations on the climatic parameters have been led at the end of spring 2010 and at winter 2011 in order to increase the comprehension of the interaction between the physical mechanisms governing the climate and to provide data carry on the numerical part of this study. The higher heating needs and lower roof wall temperature during clear nights were evidence as well as most important role played by the solar radiation during days especially on temperature, the crop transpiration and the phenomenon of storage and restitution of heat in the ground. Then, the sensible ventilation efficiency impact on humidity and the lower on temperature are evidenced. Last, experimental data were also exploited through the application of transpiration models adapted to greenhouse conditions. Water balance on a crop divided into two layers provides supply information on the transpiration distribution. The unsteady 2D simulations consider night (clear, cloudy) and daytime (under clear sky conditions) situations. Innovative improvements are implemented into existing models : the RTE is solved in the canopy volume and provide the exact absorbed radiation in each crop layer all along the day and a condensation sub-routine is activated to simulate humidity rate evolution during the night. Models are validated against a large number of experimental climatic parameters. Simulations show good agreements with experimental data even if slight underestimations of humidity and temperature differences between above and inside crop air evidence the need of improvements on this point. Last, water and energy balances are obtained thanks to these models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Kaid, Achraf. „Modélisation électrothermique de composants de puissance discrets soumis à une surcharge électrique sous cadence“. Electronic Thesis or Diss., Strasbourg, 2023. http://www.theses.fr/2023STRAD057.

Der volle Inhalt der Quelle
Annotation:
La miniaturisation des composants électroniques est un défi majeur pour nos objets du quotidien. Cependant, cette miniaturisation entraîne une augmentation de la densité de puissance, une élévation de la température et une dégradation des performances et de la fiabilité des composants. Pour remédier à cela, il est donc important de prendre en compte les effets thermiques lors de la conception des composants. Ceci est fait à l'aide de la Conception Assistée par Ordinateur (CAO). Cette thèse a permis de développer un outil de simulation simple et efficace pour les composants électroniques de puissance. L’outil est basé sur l'utilisation de plusieurs modèles compacts distribués dans l'espace pour décrire un seul composant de puissance. Cela permet de déterminer l'évolution des grandeurs électriques et thermiques (courant, température…) à l'intérieur du composant de puissance. Notre méthode permet aussi de s’affranchir de la résolution numérique des équations de transport de charges et de chaleur dans les jonctions. Celles-ci doivent être finement discrétisées dans les méthodes de CAO conventionnelles basées sur la méthode des éléments finis, mais notre méthode utilise le calcul de modèles compacts ne nécessitant pas un tel niveau de discrétisation. Cet atout réduit considérablement les temps de simulation. Le développement d’une interface graphique a été réalisé pour une utilisation simplifiée de l’outil. Enfin, cette approche est suffisamment générale pour être appliquée à tous types de composants et pour modéliser d’autres domaines de la physique
The miniaturization of electronic components is a major challenge for our daily objects. However, this miniaturization leads to an increase in power density, an elevation in temperature, and a degradation of component performance and reliability. To remedy this, it is therefore important to take thermal effects into account during component design. This is done using Computer-Aided Design (CAD). This thesis allowed the development of a simple and effective simulation tool for power electronic components. The tool is based on the use of multiple compact models distributed in space to describe a single power component. This allows to determine the evolution of electrical and thermal quantities (current, temperature, etc.) inside the power component. Our method also avoids numerical resolution of charge and heat transport equations in junctions. These must be finely discretized in conventional CAD methods based on the finite element method, but our method uses the calculation of compact models that do not require such a level of discretization. This advantage significantly reduces simulation times. The development of a graphical user interface was carried out for simplified use of the tool. Finally, this approach is sufficiently general to be applied to any type of component and to model other types of physics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Nguyen, Gia Hien. „Fiabilité des réponses fournies par un réseau logique pair-à-pair“. Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00342652.

Der volle Inhalt der Quelle
Annotation:
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Nguyen, Gia Hien. „Fiabilité des réponses fournies par un réseau logique pair-à-pair“. Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10233.

Der volle Inhalt der Quelle
Annotation:
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations
This thesis improves the reliability of answers in semantic peer-to-peer networks in different ways. The first part of the thesis focuses on the problem of returning only well-founded answers of a query when the global network of such a system is inconsistent. Two algorithms have been proposed. The first one detects causes of inconsistencies. It terminates, is decentralized, complete and correct. The second algorithm uses the results of the first one in order to make only well-founded reasoning. It terminates, is decentralized and correct. Promising results have been obtained from experimentations. The second part of the thesis considers the problem of modeling and handling peers’ trust into returned answers. Based on a probabilistic setting, the proposed model of trust has a clear semantics and trust towards answers can be estimated by peers with a good precision using few observations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Chai, Anchen. „Simulation réaliste de l'exécution des applications déployées sur des systèmes distribués avec un focus sur l'amélioration de la gestion des fichiers“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI003/document.

Der volle Inhalt der Quelle
Annotation:
La simulation est un outil puissant pour étudier les systèmes distribués. Elle permet aux chercheurs d’évaluer différents scénarios de manière reproductible, ce qui est impossible à travers des expériences réelles. Cependant, les simulations reposent souvent sur des modèles simplifiés, dont le réalisme est trop rarement étudié dans la littérature. Ceci mène à une pertinence et une applicabilité discutables des résultats obtenus. Dans ce contexte, l'objectif principal de notre travail est d'améliorer le réalisme de la simulation en mettant l'accent sur le transfert de fichiers dans un système distribué à large échelle, tel que l’infrastructure de production EGI. Le réalisme de la simulation est étudié ici au travers de deux aspects principaux : le simulateur et le modèle de plate-forme (l’infrastructure distribuée). Ensuite, à partir de simulations réalistes, nous proposons des recommandations fiables pour améliorer la gestion des fichiers à travers des portails scientifiques, tels que la plate-forme d'imagerie virtuelle (VIP). Afin de reproduire de manière réaliste les comportements du système réel en simulation, nous devons en obtenir une vue de l'intérieur. Par conséquent, nous recueillons et analysons un ensemble de traces d’exécutions d'une application particulière exécutée sur EGI via VIP. En plus des traces, nous identifions et examinons les composants du système réel à reproduire de manière réaliste en simulation. Il s’agit, par exemple, des algorithmes utilisés pour la sélection d’un réplica dans le système de production. Nous simulons ensuite ces composants en utilisant les mécanismes mis à disposition par SimGrid. Nous construisons, à partir des traces, un modèle de plate-forme réaliste essentiel à la simulation des transferts des fichiers. La précision de notre modèle de plate-forme est évaluée en confrontant les résultats de simulations avec la vérité terrain des transferts réels. Nous montrons que le modèle proposé surpasse largement le modèle issu de l’état de l’art pour reproduire la variabilité réelle des transferts de fichiers sur EGI. Ce modèle est ensuite enrichi pour permettre l’analyse de nouveaux scénarios, au-delà de la reproduction des traces d’exécution en production. Enfin, nous évaluons différentes stratégies de réplication de fichiers par simulation en utilisant deux modèles différents: un modèle issu de l’état de l’art amélioré et notre modèle de plate-forme construit à partir des traces. Les résultats de simulations montrent que les deux modèles conduisent à des décisions de réplication différentes, même s’ils reflètent une topologie de réseau hiérarchique similaire. Ceci montre que le réalisme du modèle de plateforme utilisé en simulation est essentiel pour produire des résultats pertinents et applicables aux systèmes réels
Simulation is a powerful tool to study distributed systems. It allows researchers to evaluate different scenarios in a reproducible manner, which is hardly possible in real experiments. However, the realism of simulations is rarely investigated in the literature, leading to a questionable accuracy of the simulated metrics. In this context, the main aim of our work is to improve the realism of simulations with a focus on file transfer in a large distributed production system (i.e., the EGI federated e-Infrastructure (EGI)). Then, based on the findings obtained from realistic simulations, we can propose reliable recommendations to improve file management in the Virtual Imaging Platform (VIP). In order to realistically reproduce certain behaviors of the real system in simulation, we need to obtain an inside view of it. Therefore, we collect and analyze a set of execution traces of one particular application executed on EGI via VIP. The realism of simulations is investigated with respect to two main aspects in this thesis: the simulator and the platform model. Based on the knowledge obtained from traces, we design and implement a simulator to provide a simulated environment as close as possible to the real execution conditions for file transfers on EGI. A complete description of a realistic platform model is also built by leveraging the information registered in traces. The accuracy of our platform model is evaluated by confronting the simulation results with the ground truth of real transfers. Our proposed model is shown to largely outperform the state-of-the-art model to reproduce the real-life variability of file transfers on EGI. Finally, we cross-evaluate different file replication strategies by simulations using an enhanced state-of-the-art model and our platform model built from traces. Simulation results highlight that the instantiation of the two models leads to different qualitative decisions of replication, even though they reflect a similar hierarchical network topology. Last but not least, we find that selecting sites hosting a large number of executed jobs to replicate files is a reliable recommendation to improve file management of VIP. In addition, adopting our proposed dynamic replication strategy can further reduce the duration of file transfers except for extreme cases (very poorly connected sites) that only our proposed platform model is able to capture
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Condom, Thomas. „Dynamiques d'extension lacustre et glaciaire associées aux modifications du climat dans les Andes Centrales“. Paris 6, 2002. http://www.theses.fr/2002PA066401.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Pak, Lai Ting. „Modélisation hydrologique distribuée des écoulements surface-souterrain à l’échelle d’un bassin versant bananier en milieu tropical volcanique (Guadeloupe, France)“. Thesis, Montpellier, SupAgro, 2013. http://www.theses.fr/2013NSAM0014/document.

Der volle Inhalt der Quelle
Annotation:
Aux Antilles, la disponibilité limitée des ressources en contexte insulaire et l'activité agricole à aux niveaux d'intrants fragilisent les ressources en eau. Dans les zones bananières à forts niveaux d'intrants, des phénomènes de pollution des eaux sont particulièrement marqués, notamment du fait de l'usage d'un pesticide, la chlordécone. La connaissance du fonctionnement des systèmes hydrologiques à l'échelle du bassin versant représente un enjeu primordial pour pouvoir estimer l'exposition de l'écosystème aux pollutions et pour prévoir l'évolution des contaminations dans le temps. L'objectif de la thèse a été de développer une modélisation mécaniste représentant les processus hydrologiques de surface et souterrains à l'échelle d'un bassin versant sur substrat volcanique, sous climat tropical humide, situé en zone bananière en Guadeloupe. En premier a été développé un modèle parcellaire de bilan hydrique adapté au cas des cultures bananières. Il a pour originalité de prendre en compte l'importante redistribution de pluie opérée par le couvert bananier et d'en simuler les effets en matière d'intensité et d'hétérogénéité intra-parcellaire sur les termes du bilan hydrique. Les résultats d'analyse de sensibilité montrent que la redistribution de la pluie augmente le ruissellement de surface ainsi que la percolation, en cohérence avec les observations de terrain, mais impacte peu ou temporairement l'évapotranspiration et l'humidité du sol. Le calage du modèle sur des données expérimentales indiquent une performance améliorée de la simulation du ruissellement par rapport à un modèle ignorant le mécanisme de redistribution. En second, le bassin versant expérimental de Féfé (17.8 ha) a fait l'objet d'une approche de modélisation intégrant processus hydrologiques de surface et souterrains basée sur un chaînage itératif des modèles MHYDAS et MODFLOW. Confrontée à une année hydrologique de mesures de débits à l'exutoire et de piézométries, l'approche de chaînage de modèles de surface et souterrain apparaît pertinente. Une limite majeure est toutefois la non prise en compte de la zone non saturée dans le processus de recharge des aquifères. L'analyse des simulations et de leurs écarts avec les données observées conforte plusieurs hypothèses issues des analyses expérimentales : un ruissellement de surface fortement hortonien, une contribution majeure des écoulement souterrains au débit à l'exutoire. Elle indique toutefois également une indétermination des processus majeurs lors des périodes de fortes pluies. Différentes hypothèses sont proposées qu'il conviendra d'évaluer dans des travaux futurs. Ce travail constitue une première étape pour évaluer les chemins d'écoulement majeurs et les dynamiques des contaminations par les produits phytosanitaires dans un milieu volcanique tropical sous culture bananière
In the French West Indies (FWI), limited resources supply on island and farming with extensive uses of pesticides have damaged water resources. In environments under intensive banana production, water pollution can be of particular concern, with regards to the use of chlordecone, an insecticide to control the banana weevil. Understanding the hydrological behaviour of a catchment is a challenge in assessing the exposure of the ecosystem to pollutions and in predicting the long-term contamination dynamics. This thesis aimed at developing a model to simulate de surface and underground hydrological processes at the catchment scale on volcanic deposits in a humid tropical area covered by banana plantations in Guadeloupe. First, we developed an original water budget model at the plot scale, adapted to the banana canopy. It takes into account the high rainfall redistribution by banana cover and simulates the effects of modified rainfall intensities and within-plot heterogeneities on the water balance components. The sensitivity analysis showed that rainfall redistribution promotes surface runoff and percolation, in accordance with the field observations, but influences little or only temporarily the average field evapotranspiration and soil moisture. The model calibration tested on experimental data indicated improved runoff production performances compared to a model without rainfall redistribution. Secondly, the Féfé experimental catchment (17.8 ha) was studied with a linked iterative modelling approach (of MHYDAS and MODFLOW) that includes surface and underground hydrological processes. Tested against a year of outlet discharge and water table depth measurements, the linked modelling approach seems appropriate. However, the main limit of this approach was that it does not consider the transfer through the unsaturated zone when simulating the aquifers' recharge. The analysis of the results and of the differences between measured and simulated variables supported the hypothesis, from experimental analyses, that: the surface runoff is mainly Hortonian, groundwater flow is the main contributor to runoff at the catchment outlet. However, there was still uncertainty concerning the main processes during wet periods. Various hypotheses were suggested and should be investigated in future studies. This work represents a first step towards the evaluation of the major flow paths and contamination dynamics of pesticides on volcanic deposits in a humid tropical area covered by banana plantations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Gastin, Paul. „Un modele distribue“. Paris 7, 1987. http://www.theses.fr/1987PA077072.

Der volle Inhalt der Quelle
Annotation:
Le modele presente s'inspire de la theorie des langages. Son originalite est le refus de representer le parallelisme par intercalage des actions concurrentes. Les idees fortes reprises dans ce travail sont issues des langages csp et estelle. Il s'agit principalement de l'independance totale des processus en dehors des synchronisations, ces dernieres etant des rendez-vous. Un element du modele distribue sera en consequence un vecteur d'histoires (un four chaque processus) et un ensemble de synchronisations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Lyoubi, Ahmed. „Métrologie et modélisation du bruit basse fréquence dans les transistors à effet de champ : application à la CAO des sources dans les systèmes de communication“. Limoges, 2002. http://www.theses.fr/2002LIMO0037.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans ce mémoire concerne le développement d'un banc de mesure du bruit basse fréquence et la modélisation électrique distribuée des transistors à effet de champ hyperfréquences afin de disposer d'une description plus fine de ce composant pour la CAO des circuits micro-ondes. Une première approche utilise la modélisation dite classique qui permet de décrire le transistor par un circuit équivalent électrique intrinsèque. Cependant, les spécifications contraignantes imposées aux spectres de bruit des oscillateurs inclus dans les systèmes électroniques imposent une modélisation rigoureuse du comportement en bruit basse fréquence des composants actifs. Le bruit de phase d'un oscillateur étant étroitement lié au bruit basse fréquence du transistor utilisé, il faut étudier le comportement en bruit de fond du composant. En effet, la présence de bruit converti par modulation de phase et d'amplitude autour de la porteuse des oscillateurs, contribue à l' augmentation des taux d'erreurs et à la diminution de la sensibilité des radars pour ne citer que ces deux exemples. Pour cela un banc de mesure de bruit basse fréquence, composé d'un amplificateur de tension faible bruit, d'un amplificateur transimpédance et d'un analyseur FFT a été mis au point, et un modèle de TEC de type distribué incluant ces sources de bruit a été développé à partir de la caractérisation expérimentale. Puis ce modèle distribué en bruit basse fréquence nous a permis de comparer avec succés les mesures et les simulations du bruit de phase d'un oscillateur à résonatuer diélectrique, circuit constitutif d'une source millimétrique complète d'un radar anti-collision fonctionnant à 77 GHz, et ayant une fréquence d'oscillation de 19 GHz
This work concerns the development of the low frequency noise measurement set up and the distributed electrical modeling of field-effect transistors in order to lay out a precise and realistic description of this component for microwave CAD circuits. A first approach uses the classical model topology based on the non linear intrinsic model and the external parasitic elements. However, the constraining specifications imposed on the noise spectra of the oscillators within the electronic systems impose a rigorous modelling of the low frequency noise of the active devices. In oscillator circuits, low frequency noise sources are pratically the main causes of the resulting phase noise, so it is necessary to study the noise behaviour of the component. Indeed, the presence of noise converted by phase modulation and amplitude around the oscillator carrier, contribute for instance, to increase the bit error rate or to reduce the radar detector sensibility. In order to extract a realistic electrical noise models, a low frequency noise measurement set up, composed of a low noise voltage amplifier, a low noise transimpedance amplifier and an FFT analyzer, is developed. With this experimental characterization, the FET LF noise model is established from the distributed non linear model. The distribution of the low frequency noise current sources into the non linear model enabled us to compare successfully the measured and computed phase noise of the DRO at 19 GHz of millimeter wave sources of warning/avoidance car radar at 77 GHz
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Rahman, Anis. „La perception des visages en vidéos: Contributions à un modèle saillance visuelle et son application sur les GPU“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00923796.

Der volle Inhalt der Quelle
Annotation:
Les études menées dans cette thèse portent sur le rôle des visages dans l'attention visuelle. Nous avons cherché à mieux comprendre l'influence des visages dans les vidéos sur les mouvements oculaires, afin de proposer un modèle de saillance visuelle pour la prédiction de la direction du regard. Pour cela, nous avons analysé l'effet des visages sur les fixations oculaires d'observateurs regardant librement (sans consigne ni tâche particulière) des vidéos. Nous avons étudié l'impact du nombre de visages, de leur emplacement et de leur taille. Il est apparu clairement que les visages dans une scène dynamique (à l'instar de ce qui se passe sur les images fixes) modifie fortement les mouvements oculaires. En nous appuyant sur ces résultats, nous avons proposé un modèle de saillance visuelle, qui combine des caractéristiques classiques de bas-niveau (orientations et fréquences spatiales, amplitude du mouvement des objets) avec cette caractéristique importante de plus haut-niveau que constitue les visages. Enfin, afin de permettre des traitements plus proches du temps réel, nous avons développé une implémentation parallèle de ce modèle de saillance visuelle sur une plateforme multi-GPU. Le gain en vitesse est d'environ 130x par rapport à une implémentation sur un processeur multithread.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Garambois, Pierre-André. „Etude régionale des crues éclair de l'arc méditerranéen français. Elaboration de méthodologies de transfert à des bassins versants non jaugés“. Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0102/document.

Der volle Inhalt der Quelle
Annotation:
D’un point de vue climatique la région méditerranéenne est propice aux évènements pluvio-orageux intenses, particulièrement en automne. Ces pluies s’abattent sur des bassins versants escarpés. La promptitude des crues ne laisse qu’un temps très court pour la prévision. L’amplitude de ces crues dépend de la grande variabilité des pluies et des caractéristiques des bassins versants. Les réseaux d'observations ne sont habituellement pas adaptés à ces petites échelles spatiales et l'intensité des événements affecte souvent la fiabilité des données quand elles existent d’où l’existence de bassin non jaugés. La régionalisation en hydrologie s’attache à la détermination de variables hydrologiques aux endroits où ces données manquent. L’objectif de cette thèse est de contribuer à poser les bases d’une méthodologie adaptée à la transposition des paramètres d'un modèle hydrologique distribué dédié aux crues rapides de bassins versants bien instrumentés à des bassins versants non jaugés, et ce sur une large zone d’étude. L’outil utilisé est le modèle hydrologique distribué MARINE [Roux et al., 2011] dont l’une des originalités est de disposer d’un modèle adjoint permettant de mener à bien des calibrations et des analyses de sensibilité spatio-temporelles qui servent à améliorer la compréhension des mécanismes de crue et à l’assimilation de données en temps réel pour la prévision. L’étude des sensibilités du modèle MARINE aborde la compréhension des processus physiques. Une large gamme de comportements hydrologiques est explorée. On met en avant quelques types de comportements des bassins versants pour la région d’étude [Garambois et al., 2012a]. Une sélection des évènements de calibration et une technique de calibration multi évènements aident à l’extraction d’un jeu de paramètres par bassin versant. Ces paramétrisations sont testées sur des évènements de validation. Une méthode de décomposition de la variance des résultats conduit aux sensibilités temporelles du modèle à ses paramètres. Cela permet de mieux appréhender la dynamique des processus physiques rapides en jeu lors de ces crues [Garambois et al., 2012c]. Les paramétrisations retenues sont transférées à l’aide de similarités hydrologiques sur des bassins versants non jaugés, à des fins de prévision opérationnelle
Climate and orography in the Mediterranean region tend to promote intense rainfalls, particularly in autumn. Storms often hit steep catchments. Flood quickness only let a very short time lapse for forecasts. Peak flow intensity depends on the great variability of rainfalls and catchment characteristics. As a matter of facts, observation networks are not adapted to these small space-time scales and event severity often affects data fiability when they exist thus the notion of ungauged catchment emerges. Regionalization in hydrology seeks to determine hydrological variables at locations where these data lack. This work contributes to pose the bases of a methodology adapted to transpose parameterizations of a flash flood dedicated distributed hydrologic model from gauged catchments to ungauged ones, and for a large study area. The MARINE distributed hydrologic model is used [Roux et al., 2011], its originality lies in the automatically differentiated adjoint model able to perform calibrations and spatial-temporal sensitivity analysis, in order to improve understanding in flash flood generating mechanisms and real time data assimilation for hydrometeorological forecasts. MARINE sensitivity analysis addresses the question of physical process understanding. A large panel of hydrologic behaviours is explored. General catchment behaviours are highlighted for the study area [Garambois et al., 2012a]. Selected flood events and a multiple events calibration technique help to extract catchment parameter sets. Those parameterizations are tested on validation events. A variance decomposition method leads to parameter temporal sensitivity analysis. It enables better understanding in catching dynamics of physical processes involved in flash floods formation [Garambois et al., 2012c]. Parameterizations are then transfered from gauged catchments with hydrologic similarity to ungauged ones with a view to develop real time flood forecasting
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Avril, Quentin. „Détection de Collision pour Environnements Large Échelle : Modèle Unifié et Adaptatif pour Architectures Multi-coeur et Multi-GPU“. Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00642067.

Der volle Inhalt der Quelle
Annotation:
Les environnements de réalité virtuelle devenant de plus en plus complexes et de très grandes dimensions, un niveau d'interaction temps-réel devient impossible à garantir. En effet, de par leur complexité, due à une géométrie détaillée et aux propriétés physiques spécifiques, ces environnements large échelle engendrent un goulet d'étranglement calculatoire critique sur les algorithmes de simulation physique. Nous avons focalisé nos travaux sur la première étape de ces algorithmes qui concerne la détection de collision, car les problématiques font partie intégrante de ce goulet d'étranglement et leur complexité peut parfois se révéler quadratique dans certaines situations. Le profond bouleversement que subissent les architectures machines depuis quelques années ouvre une nouvelle voie pour réduire le goulet d'étranglement. La multiplication du nombre de cœurs offre ainsi la possibilité d'exécuter ces algorithmes en parallèle sur un même processeur. Dans le même temps, les cartes graphiques sont passées d'un statut de simple périphérique d'affichage graphique à celui de supercalculateur. Elles jouissent désormais d'une attention toute particulière de la part de la communauté traitant de la simulation physique. Afin de passer au large échelle et d'être générique sur la machine d'exécution, nous avons proposé des modèles unifiés et adaptatifs de correspondance entre les algorithmes de détection de collision et les architectures machines de type multi-coeur et multi-GPU. Nous avons ainsi défini des solutions innovantes et performantes permettant de réduire significativement le temps de calcul au sein d'environnements large échelle tout en assurant la pérennité des résultats. Nos modèles couvrent l'intégralité du pipeline de détection de collision en se focalisant aussi bien sur des algorithmes de bas ou de haut niveau. Nos modèles multi-coeur, GPU et multi-GPU allient différentes techniques de subdivision spatiale à des algorithmes basés topologie ainsi que des techniques d'équilibrage de charge basées sur le vol de données. Notre solution hybride permet d'accroitre l'espace et le temps de calcul ainsi que le passage au large échelle. L'association de ces nouveaux algorithmes nous a permis de concevoir deux modèles d'adaptation algorithmique dynamique basés, ou non, sur des scénarios de pré-calcul hors-ligne. Enfin, il nous est apparu indispensable d'ajouter au pipeline de détection de collision une nouvelle dimension révélant la prise en compte des architectures pour une exécution optimale. Grâce à ce formalisme, nous avons proposé un nouveau pipeline de détection de collision offrant une granularité de parallélisme sur processeurs multi-coeur. Il permet une exécution simultanée des différentes étapes du pipeline ainsi qu'un parallélisme interne à chacune de ces étapes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Bournez, Olivier. „Modèles Continus. Calculs. Algorithmique Distribuée“. Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2006. http://tel.archives-ouvertes.fr/tel-00123104.

Der volle Inhalt der Quelle
Annotation:
Les systèmes dynamiques continus permettent de modéliser de nombreux
systèmes physiques, biologiques, ou issus de l'informatique
distribuée. Nous nous intéressons à leur pouvoir de modélisation, et à
leurs propriétés en tant que systèmes de calculs, et plus généralement
aux propriétés calculatoires des modèles continus.

Les deux premiers chapitres ne visent pas à produire des résultats
nouveaux, mais à motiver ce travail, et à le mettre en
perspectives. Le chapitre 3 constitue un survol. Les chapitres 4, 5 et
l'annexe A présentent un panorama de quelques-uns de nos résultats
personnels en relations avec cette problématique.

Plus précisément, le chapitre 1 présente les systèmes dynamiques, avec
un point de vue classique et mathématique. Il vise d'une part à
souligner la richesse, et la subtilité des comportements possibles des
systèmes dynamiques continus, et d'autre part à mettre en évidence que
différents dispositifs sont intrinsèquement continus, et utilisables
comme tels pour réaliser des calculs. En outre nous insistons sur la
puissance de modélisation d'une classe de systèmes dynamiques, que
nous nommons les problèmes de Cauchy polynomiaux.

Les exemples du chapitre 2, issus de la bioinformatique, des modèles
de la biologie des populations, de la virologie biologique et de la
virologie informatique, et de l'algorithmique distribuée, se
distinguent de ceux du chapitre 1 par le fait qu'ils mettent
explicitement en jeu une certaine notion de concurrence entre agents.
Nous présentons la théorie des jeux, et ses modèles, en nous
focalisant sur certains de ses modèles du dynamisme. Ces modèles
continus deviennent naturels pour parler d'algorithmique distribuée,
en particulier dès que l'on a affaire à des systèmes de grandes
tailles, ou dont on ne contrôle pas les interactions. Nous pointons
quelques modèles de l'algorithmique distribuée qui intègrent ces
considérations, et le potentiel de l'utilisation des systèmes continus
pour l'algorithmique distribuée.

Le chapitre 3 constitue un survol de la théorie des calculs pour les
modèles à temps continu. La puissance des modèles de calculs à temps
et espace discrets est relativement bien comprise grâce à la thèse de
Church, qui postule que tous les modèles raisonnables et suffisamment
puissants ont la même puissance, celle des machines de Turing. On peut
aussi considérer des modèles où le temps est continu. Certaines
grandes classes de modèles ont été considérées dans la
littérature. Nous les reprenons dans ce chapitre, en présentant un
panorama de ce qui est connu sur leurs propriétés calculatoires.

Le chapitre 4 présente un résumé de quelques-uns de nos résultats
personnels à propos de la comparaison de la puissance de plusieurs
modèles à temps continu, en relations avec la thèse de Emmanuel
Hainry. Claude Shannon a introduit en 1941 le GPAC comme un modèle des
dispositifs de calculs analogiques. Les résultats de Shannon ont
longtemps été utilisés pour argumenter que ce modèle était plus faible
que l'analyse récursive, et donc que les machines analogiques sont
prouvablement plus faibles que les machines digitales. Avec Manuel
Campagnolo, Daniel Graça, et Emmanuel Hainry, nous avons prouvé
récemment que le GPAC et l'analyse récursive calculent en fait les
mêmes fonctions. Ce résultat prend toute sa perspective si l'on
comprend que les fonctions calculées par le GPAC correspondent aux
problèmes de Cauchy polynomiaux, dont le pouvoir de modélisation est
discuté dans le chapitre 1.

D'autre part, nous avons montré qu'il était possible de caractériser
algébriquement les fonctions élémentairement calculables et
calculables au sens de l'analyse récursive. Cela signifie d'une part
qu'il est possible de les caractériser en termes d'une sous-classe des
fonctions R-récursives à la Moore, ce qui étend les résultats de
Campagnolo, Costa, Moore, de la calculabilité discrète à l'analyse
récursive, mais aussi d'autre part, qu'il est possible de caractériser
ces fonctions de façon purement continue, par l'analyse, sans
référence à de la calculabilité.

Dans le chapitre 5, nous reprenons certains de nos résultats à propos
de caractérisations logiques de classes de complexité dans le modèle
de Blum Shub et Smale, en relations avec la thèse de Paulin Jacobé de
Naurois. Le modèle de Blum Shub et Smale constitue un modèle de calcul
à temps discret et à espace continu. Le modèle, défini initialement
pour parler de complexité algébrique de problèmes sur le corps des
réels, ou plus généralement sur un anneau, a été par la suite été
étendu par Poizat en un modèle de calculs sur une structure logique
arbitraire. Avec Paulin Jacobé de Naurois, Felipe Cucker et Jean-Yves
Marion, nous avons caractérisé syntaxiquement les classes de
complexité majeures dans ce modèle sur une structure arbitraire, à la
Bellantoni et Cook 1992.

Le chapitre 6 est consacré à une conclusion, dans laquelle nous
reprenons plusieurs questions et perspectives qui nous semblent
intéressantes.

Dans l'annexe A, nous discutons un point de vue sur les
hypercalculs. La question de l'existence de systèmes capables de
réaliser des hypercalculs, c'est-à-dire d'effectuer des calculs
exploitables qui ne seraient pas réalisables par aucune machine de
Turing, fait encore couler de l'encre et des controverses. Nous avons
été invité à exprimer notre point de vue dans un numéro spécial sur le
sujet, que nous reprenons en annexe A. Nous y rappelons plusieurs
mauvaises compréhensions fréquentes de la thèse de Church, et nous
présentons un panorama de plusieurs classes de systèmes mathématiques,
avec la caractérisation de leur puissance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Adla, Abdelkader. „Aide à la Facilitation pour une prise de Décision Collective : Proposition d'un Modèle et d'un Outil“. Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00514908.

Der volle Inhalt der Quelle
Annotation:
Nous nous plaçons dans le contexte de situations décisionnelles critiques où les activités de prise de décision collective sont généralement caractérisées par des sessions de coopération synchrones au sein d'environnements distribués dynamiques, évolutifs et souvent imprévisibles. Au cours de ces sessions, les participants agissent simultanément et depuis des points d'accès distribués sur des objets partagés en suivant des règles de coordination pouvant être implicites ou explicites et en utilisant un ensemble d'outils qui leur permettent de progresser de façon coordonnée. Chacun des participants prend quelques décisions partielles, celles-ci servant de base aux suivantes. La prise de décision nécessite alors une synergie d'efforts de plusieurs membres afin que chacun d'eux mette à contribution son savoir-faire. Les membres ayant différents intérêts, compétences et expériences ne sont plus situés dans la même pièce mais utilisent des informations venant d'autres acteurs via des réseaux de type Internet ou intranet. D'ailleurs, c'est grâce à cette synergie que les membres peuvent atteindre des résultats supérieurs à ceux que qu'ils auraient pu réaliser individuellement. Ainsi l'outil pour décider devient l'outil pour décider ensemble. La contribution principale de cette thèse dans le domaine d'aide à la facilitation de la prise de décision collaborative se trouve dans la conception et la mise en œuvre d'un modèle et d'un système dédiée à la facilitation de la prise de décision de groupe synchrone distribuée. Cette structure collective entre agents humains permet d'une part d'additionner et de mutualiser les savoirs et les capacités créatrices, et d'autre part de limiter l'incertitude inhérente au processus de prise de décision par l'échange et la comparaison des points de vue. L'idée directrice de ce modèle est de renforcer la communication ainsi que la coopération entre les différents acteurs impliqués dans la prise de décision collective. Il s'agit d'une phase de production et de résolution créative de problème individuelle précédant la présentation des contributions au collectif. Cette dynamique d'éclatement puis de regroupement implique des mécanismes de coopération et de communication entre le groupe et l'individu.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Barreto, Lucio Sangoi. „Modelo de otimiza??o para o planejamento da expans?o de sistemas de distribui??o considerando gera??o distribu?da“. Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2007. http://tede2.pucrs.br/tede2/handle/tede/3091.

Der volle Inhalt der Quelle
Annotation:
Made available in DSpace on 2015-04-14T13:56:40Z (GMT). No. of bitstreams: 1 395027.pdf: 14618614 bytes, checksum: be90478b9de0c440c3d346046ce172f1 (MD5) Previous issue date: 2007-08-16
Neste trabalho apresenta-se um modelo para o problema de planejamento em m?ltiplos est?gios da expans?o do sistema de distribui??o de energia, considerando gera??o distribu?da. O modelo de expans?o considera a amplia??o da capacidade das subesta??es existentes, a instala??o de novas subesta??es, o uso de gera??o distribu?da, e os diferentes tipos de altera??es poss?veis nos alimentadores (amplia??o, remo??o, uni?o, subdivis?o, transfer?ncia de carga e substitui??o de condutores). A fun??o objetivo a ser minimizada representa o valor presente dos custos totais de instala??o (alimentadores e subesta??es), de opera??o e manuten??o da rede e da gera??o distribu?da. O modelo considera restri??es operacionais, relacionadas com a capacidade dos equipamentos e com os limites de tens?o, e restri??es l?gicas, com o objetivo de reduzir o espa?o de busca. S?o apresentadas: (a) uma extens?o da formula??o linear disjuntiva que ? capaz de representar a inclus?o, a exclus?o e a substitui??o de ramos da configura??o inicial; (b) uma generaliza??o das restri??es relacionadas com a cria??o de novos caminhos que pode ser aplicada em topologias mais complexas. O modelo linear inteiro misto resultante permite que a solu??o ?tima seja obtida atrav?s de m?todos de programa??o matem?tica, tais como o algoritmo branch-and-bound. A validade e a efici?ncia do modelo s?o comprovadas atrav?s de exemplos de aplica??o em uma rede de distribui??o em m?dia tens?o. As simula??es realizadas consideram o problema de planejamento em tr?s est?gios de uma rede distribui??o de energia el?trica, admitindo cinco situa??es distintas: (a) planejamento independente de cada um dos tr?s est?gios; (b) planejamento multi-est?gio; (c) planejamento multi-est?gio com gera??o distribu?da; (d) planejamento multi-est?gio com gera??o distribu?da e restri??es de investimento; (e) planejamento multi-est?gio com gera??o distribu?da considerando tr?s n?veis de carregamento. ? realizada tamb?m uma an?lise da influ?ncia das restri??es adicionais, relacionando- as com o esfor?o computacional envolvido na determina??o da solu??o ?tima do problema.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Bradai, Amira. „Secured trust and reputation system : analysis of malicious behaviors and optimization“. Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0019/document.

Der volle Inhalt der Quelle
Annotation:
Les mécanismes de réputation offrent un moyen nouveau et efficace pour assurer le niveau nécessaire de confiance qui est indispensable au bon fonctionnement de tout système critique. Ce fonctionnement consiste à collecter les informations sur l’historique des participants et rendent public leur réputation. Le système guide les décisions en tenant compte de ces informations et ainsi faire des choix plussécurisés. Des mécanismes de réputation en ligne sont présents dans la plupart des sites e-commerce disponibles aujourd’hui. Les systèmes existants ont été conçus avec l’hypothèse que les utilisateurs partagent les informations honnêtement. Mais, beaucoup de systèmes de réputation sont en général un sujet d’attaque par les utilisateurs malveillants. L’attaque peut affecter la coopération, l’agrégation et l’´évaluation. Certains utilisateurs veulent utiliser les ressources du réseau, mais ne veulent pas contribuer en retour. Autres manipulent les évaluations de la confiance et donnent une mauvaise estimation. Nous avons vu récemment de plus en plus que ça devient évident que certains utilisateurs manipulent stratégiquement leurs évaluations et se comportent d’une façon malhonnête. Pour une protection adéquate contre ces utilisateurs, un système sécurisé pour la gestion de la réputation est nécessaire. Dans notre système, une entité centrale existe et peut agréger les informations. Cependant, Les réseaux pair à pair n’ont pas de contrôle central ou un référentiel ce qui rend la tâche plus difficile. Ainsi, le système de gestion de la réputation doit effectuer toutes les tâches de manière distribuée. Lorsque ce genre des systèmes est mis en œuvre, les pairs essaient de plus en plus de manipuler les informations. Cette thèse décrit les moyens pour rendre les mécanismes de réputation plus sécurisé en analysant les risques et en fournissant un mécanisme de défense. Différents types de comportements malveillants existent et pour chacun d’eux, nous présentons une analyse complète, des simulations et un exemple d’utilisation réel
Reputation mechanisms offer a novel and effective way of ensuring the necessary level of trust which is essential to the functioning of any critical system. They collect information about the history (i.e., past transactions) of participants and make public their reputation. Prospective participants guide their decisions by considering reputation information, and thus make more informative choices. Online reputation mechanisms enjoy huge success. They are present in most e-commerce sites available today, and are seriously taken into consideration by human users. Existing reputation systems were conceived with the assumption that users will share feedback honestly. But, such systems like those in peer to peer are generally compromise of malicious users. This leads to the problem in cooperation, aggregation and evaluation. Some users want to use resources from network but do not want to contribute back to the network. Others manipulate the evaluations of trust and provide wrong estimation. We have recently seen increasing evidence that some users strategically manipulate their reports and behave maliciously. For proper protecting against those users, some kind of reputation management system is required. In some system, a trusted third entity exists and can aggregate the information. However, Peer-to-peer networks don’t have any central control or repository. Large size of distributed and hybrid networks makes the reputation management more challenging task. Hence reputation management system should perform all the tasks in distributed fashion. When these kinds of systems are implemented, peers try to deceive them to take maximum advantage. This thesis describes ways of making reputation mechanisms more trustworthy and optimized by providing defense mechanism and analysis. Different kinds of malicious behaviors exist and for each one, we present a complete analysis, simulation and a real use case example in distributed and non-distributed way
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Rozoy, Brigitte. „Un modele de parallelisme : le monoide distribue“. Caen, 1987. http://www.theses.fr/1987CAEN2039.

Der volle Inhalt der Quelle
Annotation:
La mise en evidence d'equivalences des modeles mathematiques du parallelisme asynchrone nous amene a creer un nouveau modele dit monoide distribue qui constitue les differents modeles existants. Les problemes de cette etude sont la reconnaissabilite dans ce monoide et la terminaison distribuee dans les reseaux repartis asynchrones
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Gastin, Paul. „Un Modèle distribué“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376053112.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Nowak, Thomas. „Comportement transitoire d'algorithmes distribués et modèles de circuits“. Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-01061470.

Der volle Inhalt der Quelle
Annotation:
Le thème global de la thèse est le comportement transitoire de certains systèmes répartis. Les résultats peuvent être divisés en trois groupes : transients de matrices et systèmes max-plus, convergence de systèmes de consensus asymptotique et la modélisation de "glitches" dans des circuits numériques. Pour l'algèbre max-plus, les résultats sont des bornes supérieures sur les transients de matrices et système linéaires max-plus. Elles améliorent strictement les bornes publiées. La thèse inclut une discussion de l'impact des bornes dans des applications. Les preuves utilisent notamment des réductions de chemins. La thèse contient aussi des bornes plus précises pour les transients des indices critiques. Ces bornes sont, en fait, indépendantes des poids spécifiques et ne dépendent que de la structure du graphe de la matrice et son graphe critique. De plus, elles sont des généralisations strictes des bornes booléennes pour des graphes non pondérées; par exemple les bornes de Wielandt ou de Dulmage et Mendelsohn. Quant au consensus asymptotique, la thèse améliore des bornes supérieures sur le taux de convergence et établit de nouveaux résultats sur la convergence dans le cas où les agents n'ont pas nécessairement de confiance en soi, c'est-à-dire qu'ils peuvent ignorer leurs propres valeurs. Ces résultats sont notamment pour des réseaux complètement dynamiques. Elle contient aussi un exemple d'un réseau complètement statique dont le taux de convergence est dans le même ordre que celui d'une grande classe de réseaux dynamiques. La dernière partie de la thèse est sur la propagation de "glitches" (signaux transitoires très courts) dans des circuits numériques. Plus spécifiquement, elle traite des modèles à valeur discrète et temps continu pour des circuits numériques. Ces modèles sont utilisés dans des outils pour la conception de circuits car ils sont beaucoup plus vites que la résolution des équations différentielles. Cependant, comme c'est prouvé dans la thèse, les modèles existants ne prédisent pas correctement l'occurrence de glitches dans le signal sortant d'un circuit. De plus, la thèse contient une proposition d'un nouveau modèle qui ne partage pas les caractéristiques avec les modèles existants qui leur interdisent de prédire correctement l'occurrence de glitches.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Ma, Qiang. „Modélisation hydrologique déterministe pour les systèmes d'aide à la décision en temps réel : application au bassin versant Var, France“. Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4015/document.

Der volle Inhalt der Quelle
Annotation:
Les ressources en eau sont généralement considérées comme l'une des ressources naturelles les plus importantes du développement social, en particulier pour soutenir les usages domestiques, agricoles et industriels. Au cours de la dernière décennie, en raison de l'augmentation des activités humaines, telles que l'urbanisation et l'industrialisation, les impacts sociaux sur l'environnement naturel deviennent de plus en plus intenses. Par conséquent, de nos jours, les problèmes d'eau par rapport à avant deviennent plus compliqués. Pour faire face au problème complexe depuis les années 1970, les gens ont reconnu que le système d'aide à la décision (DSS) présente des avantages évidents. De plus, avec le développement de l'informatique et des techniques web, les DSS sont souvent utilisés pour appuyer la décision locale. Les décideurs pour gérer les ressources naturelles de la région en particulier les ressources en eau. La modélisation hydrologique en charge de la représentation des caractéristiques du bassin versant joue un rôle important dans le système d'aide à la décision environnementale (EDSS). Parmi les différents types de modèles, le modèle hydrologique distribué déterministe est capable de décrire l'état réel de la zone d'étude de manière plus détaillée et précise. Cependant, le seul obstacle à la limitation des applications de ce type de modèle est pointé vers le grand besoin de données demandé par sa configuration de modélisation. Dans cette étude d'évaluation de la modélisation hydrologique dans le projet AquaVar, un modèle distribué déterministe (MIKE SHE) est construit pour l'ensemble du bassin versant du Var avec moins d'informations de terrain disponibles dans la zone. Grâce à une stratégie de modélisation raisonnable, plusieurs hypothèses sont conçues pour résoudre les problèmes de données manquantes dans les intervalles de temps quotidiens et horaires. La simulation est étalonnée sur une échelle de temps quotidienne et horaire de 2008 à 2011, qui contient un événement de crue extrême en 2011. En raison des impacts des données manquantes sur les entrées et les observations du modèle, l'évaluation de l'étalonnage de la modélisation n'est pas seulement basée sur des coefficients statistiques tels que le coefficient de Nash, mais aussi des facteurs physiques (p. ex. valeurs maximales et débit total). Le modèle calibré est capable de décrire les conditions habituelles du système hydrologique varois, et représente également le phénomène inhabituel dans le bassin versant tel que les inondations et les sécheresses. Le processus de validation mis en œuvre de 2011 à 2014 dans l'intervalle de temps journalier et horaire confirme la bonne performance de la simulation dans le Var. La simulation MIKE SHE dans Var est l'une des parties principales du système de modélisation distribuée déterministe de l'EDSS d'AquaVar. Après l'étalonnage et la validation, le modèle pourrait être utilisé pour prévoir les impacts des événements météorologiques à venir (par exemple, des crues extrêmes) dans cette région et produire les conditions aux limites pour d'autres modèles distribués déterministes dans le système. La conception de l'architecture EDSS, la stratégie de modélisation et le processus d'évaluation de modélisation présentés dans cette recherche pourraient être appliqués comme un processus de travail standard pour résoudre les problèmes similaires dans d'autres régions
Water resource is commonly considered as one of the most important natural resources in social development especially for supporting domestic, agricultural and industrial uses. During the last decade, due to the increase of human activities, such as urbanization and industrialization, the social impacts on the natural environment become more and more intensive. Therefore, recently, water problems compared to before become more complicated. To deal with the complex problem, since 1970s, started from the companies, people recognized that the Decision Support System (DSS) has obvious advantages Moreover, with the development of computer science and web techniques, the DSS are commonly applied for supporting the local decision makers to manage the region natural resources especially the water resources. The hydrological modelling in charge of representing the catchment characteristics plays significant role in the Environment Decision Support System (EDSS). Among different kinds of models, the deterministic distributed hydrological model is able to describe the real condition of the study area in more detail and accurate way. However, the only obstacle to limit the applications of this kind of model is pointed to the large data requirement requested by its modelling set up. In this study of hydrological modelling assessment in AquaVar project, one deterministic distributed model (MIKE SHE) is built for the whole Var catchment with less field information available in the area. Through one reasonable modelling strategy, several hypothesises are conceived to solve the missing data problems within daily and hourly time intervals. The simulation is calibrated in both daily and hourly time scale from 2008 to 2011, which contains one extreme flood event at 2011. Due to the impacts of missing data on both model inputs and observations, the evaluation of modelling calibration is not only based on the statistic coefficients such as Nash coefficient, but also effected by some physical factors (e.g. peak values and total discharge). The calibrated model is able to describe usual condition of Var hydrological system, and also represent the unusual phenomenon in the catchment such as flood and drought event. The validation process implemented from 2011 to 2014 within both daily and hourly time interval further proves the good performance of the simulation in Var. The MIKE SHE simulation in Var is one of the main parts of the deterministic distributed modelling system in the EDSS of AquaVar. After the calibration and validation, the model could be able to use for forecasting the impacts of coming meteorological events (e.g. extreme flood) in this region and producing the boundary conditions for other deterministic distributed models in the system. The design of the EDSS architecture, modelling strategy and modelling evaluation process presented in this research could be applied as one standard working process for solving the similar problems in other region
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

De, Saqui-Sannes Pierre. „Conception basée modèle des systèmes temps réel et distribués“. Habilitation à diriger des recherches, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00010707.

Der volle Inhalt der Quelle
Annotation:
Les systèmes temps réel et distribués posent des problèmes complexes en termes de conception d'architecture et de description de comportements. De par leur criticité en vies humaines et leurs coûts de prototypage, ces systèmes ont motivé le développement d'une activité de recherche sur les langages de modélisation formelle et les techniques de validation basées modèle qui contribuent à la détection au plus tôt des erreurs de conception. Néanmoins, les langages formels ont eu un succès plus que limité dans l'industrie. L'arrivée du langage UML (Unified Modeling Language) a ouvert de nouveaux horizons pour l'intégration de langages de modélisation formelle dans une méthodologie de conception susceptible d'être mieux acceptée par les praticiens du domaine. En s'appuyant sur une expérience antérieure de la technique de description formelle Estelle et des extensions temporelles des réseaux de Petri, notre activité de recherche sur les cinq dernières années a débouché sur la production d'un profil UML nommé TURTLE (Timed UML and RT-LOTOS Environment). TURTLE surpasse UML 2.0 par ses extensions aux diagrammes d'analyse et de conception UML, sa sémantique formelle exprimée en RT-LOTOS, et ses outils de support (éditeur de diagrammes et outil de validation formelle combinant simulation et vérification basée sur une analyse daccessibilité). La méthodologie TURTLE trouve son champ d'application naturel dans la conception de systèmes temps réel et la validation d'architectures de communication en particulier. L'approche proposée a été appliquée avec succès à des systèmes satellitaires et des protocoles d'authentification.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Al, Masri Nada. „Modèle d'Administration des Systèmes Distribués à Base de Composants“. Phd thesis, INSA de Lyon, 2005. http://tel.archives-ouvertes.fr/tel-00474407.

Der volle Inhalt der Quelle
Annotation:
Component-Oriented Systems are increasingly evolving and being adopted by both industrial and academic worlds. They have resulted from the advances achieved in both software engineering and distributed systems. Component models such as JavaBeans, COM, CORBA were presented as reusable components that can be composed together to get a complete software. At the same time, advances in distributed systems lead to another type of component models such as EJB, DCOM and CCM that treat the distribution as their main objective. Platforms conforming to these models support a number of middleware services that facilitates the distribution without explicit intervention from the system developers. These platforms can be seen as dedicated hosting servers of the applications' components. In our works, we concentrate on the EJB component model; we present an administration platform for a federation of servers cooperating to host a number of applications. The federation includes different servers with different configurations, characteristics, services and resources. Our main objective is to manage the deployment of EJB components in the federation depending on their needs to the available resources and services offered by the servers. The proposed administration platform is based on the JMX instrumentation platform. We propose a 3-level instrumentation model to collect management information from 3 environment levels: network and system low level, application server level, and components level. The administration platform gets all necessary information about the execution environment from this instrumentation platform modeled in 3 levels where all the elements are also modeled as managed objects. Furthermore, the administration platform defines a number of services to control the deployment management in the federation such as a migration service, EJB evaluation service, and EJB instrumentation service. Beside these services, we define a number of rules to consider while taking decision concerning the deployment process and the communication between the application servers. To apply a non-centralized management over the nodes of the federation, we propose deploying the administration services on all servers in the federation to get a distributed management.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Paraiso, Fawaz. „soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01009918.

Der volle Inhalt der Quelle
Annotation:
L'informatique multi-nuages s'est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s'exécutant à des emplacements géographiques ré- partis. L'informatique multi-nuages consiste en l'utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d'accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d'architecture, de modèle et de technologies. L'utilisation de l'informatique multi-nuages se heurte à l'hétérogénéité et à la complexité des offres de nuage. Ainsi, l'informatique multi-nuages doit faire face aux défis de la portabilité, de l'approvisionnement, de l'élasticité et de la haute disponibilité que nous identifions dans cette thèse. Dans ce travail de thèse, nous proposons un modèle d'applications nommé soCloud qui adresse ces quatre défis. C'est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d'élasticité a été proposé pour exprimer efficacement l'élasticité d'applications multi-nuages par l'abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d'applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages : Windows Azure, DELL KACE, Amazon EC2, CloudBees, OpenShift, dotCloud, Jelastic, Heroku, Appfog et Eucalyptus. Ces expériences sont utilisées pour valider la nouveauté des solutions approtées. Grâce à notre contribution, nous visons à offrir un moyen simple et efficace pour concevoir, déployer, exécuter et gérer des applications distribuées pour des environnements multi- nuages en proposant un modèle et une plateforme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie