Dissertations / Theses on the topic 'Passage à message'

To see the other types of publications on this topic, follow the link: Passage à message.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 dissertations / theses for your research on the topic 'Passage à message.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Genaud, Stéphane. "Exécutions de programmes parallèles à passage de messages sur grille de calcul." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00440503.

Full text
Abstract:
Le document présente une synthèse de travaux sur le déploiement, l'utilisation et les techniques de mise en oeuvre d'applications développées selon un modèle de programmation à passage de messages sur des grilles de calcul. La première partie décrit les performances observées sur la période 2002-2006 sur une plateforme à l'échelle de la France, ainsi que les gains obtenus par équilibrage de charge. La deuxième partie décrit un intergiciel nouveau baptisé P2P-MPI qui synthétise un ensemble de propositions pour améliorer la prise en charge de tels programmes à passage de messages.
APA, Harvard, Vancouver, ISO, and other styles
2

Sabah, Quentin. "Siaam : Simple Isolation for an Actor-based Abstract Machine." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM082/document.

Full text
Abstract:
Dans cette thèse nous étudions l’isolation mémoire et les mesures de communications efficaces par passage de message dans le contexte des environnements à mémoire partagée et la programmation orientée-objets. L’état de l’art en la matière se base presque exclusivement sur deux techniques complémentaires dites de propriété des objets (ownership) et d’unicité de références (reference uniqueness) afin d’adresser les problèmes de sécurité dans les programmes concurrents. Il est frappant de constater que la grande majorité des travaux existants emploient des méthodes de vérification statique des programmes, qui requirent soit un effort d’annotations soit l’introduction de fortes contraintes sur la forme et les références vers messages échangés. Notre contribution avec SIAAM est la démonstration d’une solution d’isolation réalisée uniquement à l’exécution et basée sur le modèle de programmation par acteurs. Cette solution purement dynamique ne nécessite ni annotations ni vérification statique des programmes. SIAAM permet la communication sans copie de messages de forme arbitraire. Nous présentons la sémantique formelle de SIAAM ainsi qu’une preuve d’isolation vérifiée avec l’assistant COQ. L’implantation du modèle de programmation pour le langage Java est réalisé dans la machine virtuelle JikesRVM. Enfin nous décrivons un ensemble d’analyses statiques qui réduit automatiquement le cout à l’exécution de notre approche
In this thesis we study state isolation and efficient message-passing in the context of concurrent object-oriented programming. The ’ownership’ and ’reference uniqueness’ techniques have been extensively employed to address concurrency safety in the past. Strikingly the vast majority of the previous works rely on a set of statically checkable typing rules, either requiring an annotation overhead or introducing strong restrictions on the shape and the aliasing of the exchanged messages.Our contribution with SIAAM is the demonstration of a purely runtime, actor-based, annotation-free, aliasing-proof approach to concurrent state isolation allowing efficient communication of arbitrary objects graphs. We present the formal semantic of SIAAM, along with a machine-checked proof of isolation. An implementation of the model has been realized in a state-of-the-art Java virtual-machine and a set of custom static analyses automatically reduce the runtime overhead
APA, Harvard, Vancouver, ISO, and other styles
3

Kumar, Ratnesh. "Segmentation vidéo et suivi d'objets multiples." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4135/document.

Full text
Abstract:
Dans cette thèse nous proposons de nouveaux algorithmes d'analyse vidéo. La première contribution de cette thèse concerne le domaine de la segmentation de vidéos avec pour objectif d'obtenir une segmentation dense et spatio-temporellement cohérente. Nous proposons de combiner les aspects spatiaux et temporels d'une vidéo en une seule notion, celle de Fibre. Une fibre est un ensemble de trajectoires qui sont spatialement connectées par un maillage. Les fibres sont construites en évaluant simultanément les aspects spatiaux et temporels. Par rapport a l’état de l'art une segmentation de vidéo a base de fibres présente comme avantages d’accéder naturellement au voisinage grâce au maillage et aux correspondances temporelles pour la plupart des pixels de la vidéo. De plus, cette segmentation à base de fibres a une complexité quasi linéaire par rapport au nombre de pixels. La deuxième contribution de cette thèse concerne le suivi d'objets multiples. Nous proposons une approche de suivi qui utilise des caractéristiques des points suivis, la cinématique des objets suivis et l'apparence globale des détections. L'unification de toutes ces caractéristiques est effectuée avec un champ conditionnel aléatoire. Ensuite ce modèle est optimisé en combinant les techniques de passage de message et une variante de processus ICM (Iterated Conditional Modes) pour inférer les trajectoires d'objet. Une troisième contribution mineure consiste dans le développement d'un descripteur pour la mise en correspondance d'apparences de personne. Toutes les approches proposées obtiennent des résultats compétitifs ou meilleurs (qualitativement et quantitativement) que l’état de l'art sur des base de données
In this thesis we propose novel algorithms for video analysis. The first contribution of this thesis is in the domain of video segmentation wherein the objective is to obtain a dense and coherent spatio-temporal segmentation. We propose joining both spatial and temporal aspects of a video into a single notion Fiber. A fiber is a set of trajectories which are spatially connected by a mesh. Fibers are built by jointly assessing spatial and temporal aspects of the video. Compared to the state-of-the-art, a fiber based video segmentation presents advantages such as a natural spatio-temporal neighborhood accessor by a mesh, and temporal correspondences for most pixels in the video. Furthermore, this fiber-based segmentation is of quasi-linear complexity w.r.t. the number of pixels. The second contribution is in the realm of multiple object tracking. We proposed a tracking approach which utilizes cues from point tracks, kinematics of moving objects and global appearance of detections. Unification of all these cues is performed on a Conditional Random Field. Subsequently this model is optimized by a combination of message passing and an Iterated Conditional Modes (ICM) variant to infer object-trajectories. A third, minor, contribution relates to the development of suitable feature descriptor for appearance matching of persons. All of our proposed approaches achieve competitive and better results (both qualitatively and quantitatively) than state-of-the-art on open source datasets
APA, Harvard, Vancouver, ISO, and other styles
4

Glück, Olivier. "Optimisations de la bibliothèque de communication MPI pour machines parallèles de type " grappe de PCs " sur une primitive d'écriture distante." Paris 6, 2002. http://www.theses.fr/2002PA066158.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gabrié, Marylou. "Towards an understanding of neural networks : mean-field incursions." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEE035.

Full text
Abstract:
Les algorithmes d’apprentissage automatique utilisant des réseaux de neurones profonds ont récemment révolutionné l'intelligence artificielle. Malgré l'engouement suscité par leurs diverses applications, les excellentes performances de ces algorithmes demeurent largement inexpliquées sur le plan théorique. Ces problèmes d'apprentissage sont décrits mathématiquement par de très grands ensembles de variables en interaction, difficiles à manipuler aussi bien analytiquement que numériquement. Cette multitude est précisément le champ d'étude de la physique statistique qui s'attelle à comprendre, originellement dans les systèmes naturels, comment rendre compte des comportements macroscopiques à partir de cette complexité microscopique. Dans cette thèse nous nous proposons de mettre à profit les progrès récents des méthodes de champ moyen de la physique statistique des systèmes désordonnés pour dériver des approximations pertinentes dans ce contexte. Nous nous appuyons sur les équivalences et les complémentarités entre les algorithmes de passage de message, les développements haute température et la méthode des répliques. Cette stratégie nous mène d'une part à des contributions pratiques pour l'apprentissage non supervisé des machines de Boltzmann. Elle nous permet d'autre part de contribuer à des réflexions théoriques en considérant le paradigme du professeur-étudiant pour modéliser des situations d'apprentissage. Nous développons une méthode pour caractériser dans ces modèles l'évolution de l'information au cours de l’entraînement, et nous proposons une direction de recherche afin de généraliser l'étude de l'apprentissage bayésien des réseaux de neurones à une couche aux réseaux de neurones profonds
Machine learning algorithms relying on deep new networks recently allowed a great leap forward in artificial intelligence. Despite the popularity of their applications, the efficiency of these algorithms remains largely unexplained from a theoretical point of view. The mathematical descriptions of learning problems involves very large collections of interacting random variables, difficult to handle analytically as well as numerically. This complexity is precisely the object of study of statistical physics. Its mission, originally pointed towards natural systems, is to understand how macroscopic behaviors arise from microscopic laws. In this thesis we propose to take advantage of the recent progress in mean-field methods from statistical physics to derive relevant approximations in this context. We exploit the equivalences and complementarities of message passing algorithms, high-temperature expansions and the replica method. Following this strategy we make practical contributions for the unsupervised learning of Boltzmann machines. We also make theoretical contributions considering the teacher-student paradigm to model supervised learning problems. We develop a framework to characterize the evolution of information during training in these model. Additionally, we propose a research direction to generalize the analysis of Bayesian learning in shallow neural networks to their deep counterparts
APA, Harvard, Vancouver, ISO, and other styles
6

Barbier, Jean. "Statistical physics and approximate message-passing algorithms for sparse linear estimation problems in signal processing and coding theory." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC130.

Full text
Abstract:
Cette thèse s’intéresse à l’application de méthodes de physique statistique des systèmes désordonnés ainsi que de l’inférence à des problèmes issus du traitement du signal et de la théorie du codage, plus précisément, aux problèmes parcimonieux d’estimation linéaire. Les outils utilisés sont essentiellement les modèles graphiques et l’algorithme approximé de passage de messages ainsi que la méthode de la cavité (appelée analyse de l’évolution d’état dans le contexte du traitement de signal) pour son analyse théorique. Nous aurons également recours à la méthode des répliques de la physique des systèmes désordonnées qui permet d’associer aux problèmes rencontrés une fonction de coût appelé potentiel ou entropie libre en physique. Celle-ci permettra de prédire les différentes phases de complexité typique du problème, en fonction de paramètres externes tels que le niveau de bruit ou le nombre de mesures liées au signal auquel l’on a accès : l’inférence pourra être ainsi typiquement simple, possible mais difficile et enfin impossible. Nous verrons que la phase difficile correspond à un régime où coexistent la solution recherchée ainsi qu’une autre solution des équations de passage de messages. Dans cette phase, celle-ci est un état métastable et ne représente donc pas l’équilibre thermodynamique. Ce phénomène peut-être rapproché de la surfusion de l’eau, bloquée dans l’état liquide à une température où elle devrait être solide pour être à l’équilibre. Via cette compréhension du phénomène de blocage de l’algorithme, nous utiliserons une méthode permettant de franchir l’état métastable en imitant la stratégie adoptée par la nature pour la surfusion : la nucléation et le couplage spatial. Dans de l’eau en état métastable liquide, il suffit d’une légère perturbation localisée pour que se créer un noyau de cristal qui va rapidement se propager dans tout le système de proche en proche grâce aux couplages physiques entre atomes. Le même procédé sera utilisé pour aider l’algorithme à retrouver le signal, et ce grâce à l’introduction d’un noyau contenant de l’information locale sur le signal. Celui-ci se propagera ensuite via une "onde de reconstruction" similaire à la propagation de proche en proche du cristal dans l’eau. Après une introduction à l’inférence statistique et aux problèmes d’estimation linéaires, on introduira les outils nécessaires. Seront ensuite présentées des applications de ces notions. Celles-ci seront divisées en deux parties. La partie traitement du signal se concentre essentiellement sur le problème de l’acquisition comprimée où l’on cherche à inférer un signal parcimonieux dont on connaît un nombre restreint de projections linéaires qui peuvent être bruitées. Est étudiée en profondeur l’influence de l’utilisation d’opérateurs structurés à la place des matrices aléatoires utilisées originellement en acquisition comprimée. Ceux-ci permettent un gain substantiel en temps de traitement et en allocation de mémoire, conditions nécessaires pour le traitement algorithmique de très grands signaux. Nous verrons que l’utilisation combinée de tels opérateurs avec la méthode du couplage spatial permet d’obtenir un algorithme de reconstruction extrê- mement optimisé et s’approchant des performances optimales. Nous étudierons également le comportement de l’algorithme confronté à des signaux seulement approximativement parcimonieux, question fondamentale pour l’application concrète de l’acquisition comprimée sur des signaux physiques réels. Une application directe sera étudiée au travers de la reconstruction d’images mesurées par microscopie à fluorescence. La reconstruction d’images dites "naturelles" sera également étudiée. En théorie du codage, seront étudiées les performances du décodeur basé sur le passage de message pour deux modèles distincts de canaux continus. Nous étudierons un schéma où le signal inféré sera en fait le bruit que l’on pourra ainsi soustraire au signal reçu. Le second, les codes de superposition parcimonieuse pour le canal additif Gaussien est le premier exemple de schéma de codes correcteurs d’erreurs pouvant être directement interprété comme un problème d’acquisition comprimée structuré. Dans ce schéma, nous appliquerons une grande partie des techniques étudiée dans cette thèse pour finalement obtenir un décodeur ayant des résultats très prometteurs à des taux d’information transmise extrêmement proches de la limite théorique de transmission du canal
This thesis is interested in the application of statistical physics methods and inference to signal processing and coding theory, more precisely, to sparse linear estimation problems. The main tools are essentially the graphical models and the approximate message-passing algorithm together with the cavity method (referred as the state evolution analysis in the signal processing context) for its theoretical analysis. We will also use the replica method of statistical physics of disordered systems which allows to associate to the studied problems a cost function referred as the potential of free entropy in physics. It allows to predict the different phases of typical complexity of the problem as a function of external parameters such as the noise level or the number of measurements one has about the signal: the inference can be typically easy, hard or impossible. We will see that the hard phase corresponds to a regime of coexistence of the actual solution together with another unwanted solution of the message passing equations. In this phase, it represents a metastable state which is not the true equilibrium solution. This phenomenon can be linked to supercooled water blocked in the liquid state below its freezing critical temperature. Thanks to this understanding of blocking phenomenon of the algorithm, we will use a method that allows to overcome the metastability mimicing the strategy adopted by nature itself for supercooled water: the nucleation and spatial coupling. In supercooled water, a weak localized perturbation is enough to create a crystal nucleus that will propagate in all the medium thanks to the physical couplings between closeby atoms. The same process will help the algorithm to find the signal, thanks to the introduction of a nucleus containing local information about the signal. It will then spread as a "reconstruction wave" similar to the crystal in the water. After an introduction to statistical inference and sparse linear estimation, we will introduce the necessary tools. Then we will move to applications of these notions. They will be divided into two parts. The signal processing part will focus essentially on the compressed sensing problem where we seek to infer a sparse signal from a small number of linear projections of it that can be noisy. We will study in details the influence of structured operators instead of purely random ones used originally in compressed sensing. These allow a substantial gain in computational complexity and necessary memory allocation, which are necessary conditions in order to work with very large signals. We will see that the combined use of such operators with spatial coupling allows the implementation of an highly optimized algorithm able to reach near to optimal performances. We will also study the algorithm behavior for reconstruction of approximately sparse signals, a fundamental question for the application of compressed sensing to real life problems. A direct application will be studied via the reconstruction of images measured by fluorescence microscopy. The reconstruction of "natural" images will be considered as well. In coding theory, we will look at the message-passing decoding performances for two distincts real noisy channel models. A first scheme where the signal to infer will be the noise itself will be presented. The second one, the sparse superposition codes for the additive white Gaussian noise channel is the first example of error correction scheme directly interpreted as a structured compressed sensing problem. Here we will apply all the tools developed in this thesis for finally obtaining a very promising decoder that allows to decode at very high transmission rates, very close of the fundamental channel limit
APA, Harvard, Vancouver, ISO, and other styles
7

Taftaf, Ala. "Développements du modèle adjoint de la différentiation algorithmique destinés aux applications intensives en calcul." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4001/document.

Full text
Abstract:
Le mode adjoint de la Différentiation Algorithmique (DA) est particulièrement intéressant pour le calcul des gradients. Cependant, ce mode utilise les valeurs intermédiaires de la simulation d'origine dans l'ordre inverse à un coût qui augmente avec la longueur de la simulation. La DA cherche des stratégies pour réduire ce coût, par exemple en profitant de la structure du programme donné. Dans ce travail, nous considérons d'une part le cas des boucles à point-fixe pour lesquels plusieurs auteurs ont proposé des stratégies adjointes adaptées. Parmi ces stratégies, nous choisissons celle de B. Christianson. Nous spécifions la méthode choisie et nous décrivons la manière dont nous l'avons implémentée dans l'outil de DA Tapenade. Les expériences sur une application de taille moyenne montrent une réduction importante de la consommation de mémoire. D'autre part, nous étudions le checkpointing dans le cas de programmes parallèles MPI avec des communications point-à-point. Nous proposons des techniques pour appliquer le checkpointing à ces programmes. Nous fournissons des éléments de preuve de correction de nos techniques et nous les expérimentons sur des codes représentatifs. Ce travail a été effectué dans le cadre du projet européen ``AboutFlow''
The adjoint mode of Algorithmic Differentiation (AD) is particularly attractive for computing gradients. However, this mode needs to use the intermediate values of the original simulation in reverse order at a cost that increases with the length of the simulation. AD research looks for strategies to reduce this cost, for instance by taking advantage of the structure of the given program. In this work, we consider on one hand the frequent case of Fixed-Point loops for which several authors have proposed adapted adjoint strategies. Among these strategies, we select the one introduced by B. Christianson. We specify further the selected method and we describe the way we implemented it inside the AD tool Tapenade. Experiments on a medium-size application shows a major reduction of the memory needed to store trajectories. On the other hand, we study checkpointing in the case of MPI parallel programs with point-to-point communications. We propose techniques to apply checkpointing to these programs. We provide proof of correctness of our techniques and we experiment them on representative CFD codes
APA, Harvard, Vancouver, ISO, and other styles
8

Diakhaté, François. "Contribution à l'élaboration de supports exécutifs exploitant la virtualisation pour le calcul hautes performances." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00798832.

Full text
Abstract:
Ces dernières années, la virtualisation a connu un important regain d'intérêt dans les centres de traitement de données. Elle séduit par la grande flexibilité qu'elle apporte, par ses propriétés d'isolation et de tolérance aux pannes ainsi que par sa capacité à tirer partie des processeurs multicoeurs. Toutes ces caractéristiques en font une solution intéressante pour répondre aux problèmes liés aux évolutions matérielles des grappes de calcul. Cependant, la virtualisation est encore peu mise en oeuvre dans ce cadre, notamment car son impact sur les performances des applications parallèles est considéré comme prohibitif. Pour pallier ce problème, nous avons conçu un périphérique virtuel de communication permettant l'exécution efficace d'applications parallèles dans une grappe de machines virtuelles. Nous proposons en outre un ensemble de techniques permettant de faciliter le déploiement d'applications virtualisées. Ces fonctionnalités ont été regroupées au sein d'un support exécutif permettant de bénéficier des avantages de la virtualisation de la manière la plus transparente possible pour l'utilisateur, et ce en minimisant l'impact sur les performances.
APA, Harvard, Vancouver, ISO, and other styles
9

Rocha, barbosa Cassandra. "Coordination et ordonnancement de tâches à grains fins entre environnements d'exécution HPC." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS016.

Full text
Abstract:
Les supercalculateurs deviennent de plus en plus complexes à utiliser. C’est pourquoi l’utilisation de modèle de programmation dit hybride, MPI + X, sont mis en place dans les applications. Ces nouveaux types de modèle permettent une utilisation plus efficace d’un supercalculateur, mais créent aussi de nouveaux problèmes lors de l’exécution des applications. Ces problèmes sont de différents types.Nous étudierons plus précisément trois problèmes liés aux programmations MPI + X. La progression des communications non bloquante de MPI au sein de l’environnement X. Puis deux types de déséquilibre possible dans les applications MPI+X. Le premier étant entre les processus MPI et le second au sein d’un processus MPI, c’est-à-dire le déséquilibre en sein de X.Une solution dans le cas d’un environnement X en tâches récursives sera tout d’abord présentée pour le problème de progression de communication MPI à l’aide d’insertion de tâche de progression dans l’environnement X. Lors du déséquilibre entre processus MPI, une solution de rééquilibrage de ressources au sein d’un nœud sera présentée. Enfin, pour le déséquilibre dans l’environnement X, une solution permettant d’utiliser le déséquilibre pour exécuter une seconde application sera également présentée
Supercomputers are becoming more and more complex to use. This is why the use of so-called hybrid programming models, MPI + X, are being implemented in applications. These new types of models allow a more efficient use of a supercomputer, but also create new problems during the execution of applications. These problems are of different types.More specifically, we will study three problems related to MPI + X programming. The progression of non-blocking MPI communications within the X environment. Then two types of possible imbalance in MPI+X applications. The first being between MPI processes and the second within an MPI process, i.e., imbalance within X.A solution in the case of an X environment in recursive tasks will first be presented for the MPI communication progress problem using progress task insertion in the X environment. For the imbalance between MPI processes, a solution for resource rebalancing within a node will be presented. Finally, for the imbalance in the X environment, a solution to use the imbalance to run a second application will also be presented
APA, Harvard, Vancouver, ISO, and other styles
10

De, Bacco Caterina. "Decentralized network control, optimization and random walks on networks." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112164/document.

Full text
Abstract:
Dans les dernières années, plusieurs problèmes ont été étudiés à l'interface entre la physique statistique et l'informatique. La raison étant que, souvent, ces problèmes peuvent être réinterprétés dans le langage de la physique des systèmes désordonnés, où un grand nombre de variables interagit à travers champs locales qui dépendent de l'état du quartier environnant. Parmi les nombreuses applications de l'optimisation combinatoire le routage optimal sur les réseaux de communication est l'objet de la première partie de la thèse. Nous allons exploiter la méthode de la cavité pour formuler des algorithmes efficaces de type ‘’message-passing’’ et donc résoudre plusieurs variantes du problème grâce à sa mise en œuvre numérique. Dans un deuxième temps, nous allons décrire un modèle pour approcher la version dynamique de la méthode de la cavité, ce qui permet de diminuer la complexité du problème de l'exponentielle de polynôme dans le temps. Ceci sera obtenu en utilisant le formalisme de ‘’Matrix Product State’’ de la mécanique quantique.Un autre sujet qui a suscité beaucoup d'intérêt en physique statistique de processus dynamiques est la marche aléatoire sur les réseaux. La théorie a été développée depuis de nombreuses années dans le cas que la topologie dessous est un réseau de dimension d. Au contraire le cas des réseaux aléatoires a été abordé que dans la dernière décennie, laissant de nombreuses questions encore ouvertes pour obtenir des réponses. Démêler plusieurs aspects de ce thème fera l'objet de la deuxième partie de la thèse. En particulier, nous allons étudier le nombre moyen de sites distincts visités au cours d'une marche aléatoire et caractériser son comportement en fonction de la topologie du graphe. Enfin, nous allons aborder les événements rares statistiques associées aux marches aléatoires sur les réseaux en utilisant le ‘’Large deviations formalism’’. Deux types de transitions de phase dynamiques vont se poser à partir de simulations numériques. Nous allons conclure décrivant les principaux résultats d'une œuvre indépendante développée dans le cadre de la physique hors de l'équilibre. Un système résoluble en deux particules browniens entouré par un bain thermique sera étudiée fournissant des détails sur une interaction à médiation par du bain résultant de la présence du bain
In the last years several problems been studied at the interface between statistical physics and computer science. The reason being that often these problems can be reinterpreted in the language of physics of disordered systems, where a big number of variables interacts through local fields dependent on the state of the surrounding neighborhood. Among the numerous applications of combinatorial optimisation the optimal routing on communication networks is the subject of the first part of the thesis. We will exploit the cavity method to formulate efficient algorithms of type message-passing and thus solve several variants of the problem through its numerical implementation. At a second stage, we will describe a model to approximate the dynamic version of the cavity method, which allows to decrease the complexity of the problem from exponential to polynomial in time. This will be obtained by using the Matrix Product State formalism of quantum mechanics. Another topic that has attracted much interest in statistical physics of dynamic processes is the random walk on networks. The theory has been developed since many years in the case the underneath topology is a d-dimensional lattice. On the contrary the case of random networks has been tackled only in the past decade, leaving many questions still open for answers. Unravelling several aspects of this topic will be the subject of the second part of the thesis. In particular we will study the average number of distinct sites visited during a random walk and characterize its behaviour as a function of the graph topology. Finally, we will address the rare events statistics associated to random walks on networks by using the large-deviations formalism. Two types of dynamic phase transitions will arise from numerical simulations, unveiling important aspects of these problems. We will conclude outlining the main results of an independent work developed in the context of out-of-equilibrium physics. A solvable system made of two Brownian particles surrounded by a thermal bath will be studied providing details about a bath-mediated interaction arising for the presence of the bath
APA, Harvard, Vancouver, ISO, and other styles
11

Benkahla-Aktouf, Oum-el-Kheir. "Diagnostic des architectures parallèles à passage de messages." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0063.

Full text
Abstract:
Ce memoire a pour objet le diagnostic, c'est-a-dire la detection et la localisation des elements defectueux, dans les architectures mimd a passage de messages. En raison du nombre important d'elements dans ces architectures, des methodes de test distribue sont appropriees. Une voie interessante consiste a exploiter la possibilite qu'ont les processeurs de se tester mutuellement. Tout d'abord, nous avons etudie les performances des strategies de tests interprocesseurs. Un outil et un modele pour l'evaluation des algorithmes de diagnostic ont ete proposes. Le comportement des algorithmes de diagnostic distribue a ainsi pu etre etudie. Par la suite, nous avons propose une strategie de diagnostic qui tienne compte des contraintes propres a une architecture parallele a passage de messages, en particulier l'acces limite aux noeuds. Cette strategie, appelee diagnostic par l'hote, assure la determination de l'etat de la machine par une entite externe, l'hote. Ceci permet d'envisager des operations de reparation ou de remplacement des elements defectueux. En, outre, une nouvelle mesure de diagnosabilite, appelee diagnosabilite par l'hote, a ete proposee. Par ailleurs, trois algorithmes fondes sur l'approche du diagnostic par l'hote, ont ete proposes. Ces algorithmes different par la strategie de test et de transmission des resultats de tests mise en oeuvre. Leurs performances ont ete evaluees a partir d'une modelisation a base de reseaux de files d'attente, puis comparees a celles d'un algorithme de diagnostic classique. L'extension du diagnostic par l'hote aux architectures paralleles ou la communication est assuree par des routeurs a egalement ete abordee. Il en a resulte un modele fonctionnel pour le diagnostic de ce type d'architectures, et un algorithme de diagnostic par l'hote fonde sur ce modele. Enfin, une approche de diagnostic hierarchique a ete proposee pour permettre le diagnostic par l'hote des systemes paralleles comportant un nombre eleve de processeurs.
APA, Harvard, Vancouver, ISO, and other styles
12

Damez, Lionel. "Approche multi-processeurs homogènes sur System-on-Chip pour le traitement d'image." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00724443.

Full text
Abstract:
La conception de prototypes de systèmes de vision en temps réel embarqué est sujet à de multiples contraintes sévères et fortement contradictoires. Dans le cas de capteurs dits "intelligents", il est nécessaire de fournir une puissance de traitement suffisante pour exécuter les algorithmes à la cadence des capteurs d'images avec un dispositif de taille minimale et consommant peu d'énergie. La conception d'un système monopuce (ou SoC) et l'implantation d'algorithmes de plus en plus complexes pose problème si on veut l'associer avec une approche de prototypage rapide d'applications scientifiques. Afin de réduire de manière significative le temps et les différents coûts de conception, le procédé de conception est fortement automatisé. La conception matérielle est basée sur la dérivation d'un modèle d'architecture multiprocesseur générique de manière à répondre aux besoins de capacité de traitement et de communication spécifiques à l'application visée. Les principales étapes manuelles se réduisent au choix et au paramétrage des différents composants matériels synthétisables disponibles. La conception logicielle consiste en la parallélisation des algorithmes, qui est facilitée par l'homogénéité et la régularité de l'architecture de traitement parallèle et la possibilité d'employer des outils d'aide à la parallélisation. Avec l'approche de conception sont présentés les premiers éléments constitutifs qui permettent de la mettre en oeuvre.Ceux ci portent essentiellement sur les aspects de conception matérielle. L'approche proposée est illustrée par l'implantation d'un traitement de stabilisation temps réel vidéo sur technologie SoPC
APA, Harvard, Vancouver, ISO, and other styles
13

Aktouf, Chouki, and Guy Mazaré. "Test fonctionnel et reconfiguration d'architectures massivement parallèles à passage de messages." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0001.

Full text
Abstract:
Cette thèse a pour object la validation des machines massivement parallèles à passage de messages. Une stratégie de validation hiérarchique est proposée, autour des trois étapes suivantes: un test de routage, un test de mémoire et un test distribué des processeurs. Cette stratégie de validation est complétée par une phase de reconfiguration statique de la machine qui permet son exploitation après validation. Cette stratégie a été appliquée à une machine massivement parallèle, appelée, «machine cellulaire». Le test de routage est basé sur la technique de «Scan périphérique» et la norme IEEE 1149. 1. Le test de mémoire a consisté à évaluer la possibilité d'appliquer les algorithmes classiques de test de mémoire aux mémoires distribuées noyées dans une architecture massivement parallèle. Le test des processeurs est basé sur une stratégie de diagnostic distribué à travers le réseau: cette stratégie est fondée sur un test mutuel des nœuds en se basant sur un algorithme dont l'évolution dépend de l'état du réseau. La génération du programme de test exécuté par chaque processeur a été étudiée en tenant compte des contraintes de la machine cellulaire. La phase de validation permettant de déterminer l'ensemble des liens et des nœuds défectueux, il s'agit alors de proposer une reconfiguration statique de la machine de telle sorte qu'elle puisse supporter des applications avec les seuls nœuds corrects. Des algorithmes de routage tolérants aux fautes ont été proposés et évalués.
APA, Harvard, Vancouver, ISO, and other styles
14

Boisvert, Sébastien. "Assemblage adaptatif de génomes et de méta-génomes par passage de messages." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30598/30598.pdf.

Full text
Abstract:
De manière générale, les procédés et processus produisent maintenant plus de données qu’un humain peut en assimiler. Les grosses données (Big Data), lorsque bien analysées, augmentent la compréhension des processus qui sont opérationnels à l’intérieur de systèmes et, en conséquence, encouragent leur amélioration. Analyser les séquences de l’acide désoxyribonucléique (ADN) permet de mieux comprendre les êtres vivants, en exploitant par exemple la biologie des systèmes. Les séquenceurs d’ADN à haut débit sont des instruments massivement parallèles et produisent beaucoup de données. Les infrastructures informatiques, comme les superordinateurs ou l’informatique infonuagique, sont aussi massivement parallèles de par leur nature distribuée. Par contre, les ordinateurs ne comprennent ni le français, ni l’anglais – il faut les programmer. Les systèmes logiciels pour analyser les données génomiques avec des superordinateurs doivent être aussi massivement parallèles. L’interface de passage de messages permet de créer de tels logiciels et une conception granulaire permet d’entrelacer la communication et le calcul à l’intérieur des processus d’un système de calcul. De tels systèmes produisent des résultats rapidement à partir de données. Ici, les logiciels RayPlatform, Ray (incluant les flux de travail appelé Ray Meta et Ray Communities) et Ray Cloud Browser sont présentés. L’application principale de cette famille de produits est l’assemblage et le profilage adaptatifs de génomes par passage de messages.
Generally speaking, current processes – industrial, for direct-to-consumers, or researchrelated – yield far more data than humans can manage. Big Data is a trend of its own and concerns itself with the betterment of humankind through better understanding of processes and systems. To achieve that end, the mean is to leverage massive amounts of big data in order to better comprehend what they contain, mean, and imply. DNA sequencing is such a process and contributes to the discovery of knowledge in genetics and other fields. DNA sequencing instruments are parallel objects and output unprecedented volumes of data. Computer infrastructures, cloud and other means of computation open the door to the analysis of data stated above. However, they need to be programmed for they are not acquainted with natural languages. Massively parallel software must match the parallelism of supercomputers and other distributed computing systems before attempting to decipher big data. Message passing – and the message passing interface – allows one to create such tools, and a granular design of blueprints consolidate production of results. Herein, a line of products that includes RayPlatform, Ray (which includes workflows called Ray Meta and Ray Communities for metagenomics) and Ray Cloud Browser are presented. Its main application is scalable (adaptive) assembly and profiling of genomes using message passing.
APA, Harvard, Vancouver, ISO, and other styles
15

Aubin, Benjamin. "Mean-field methods and algorithmic perspectives for high-dimensional machine learning." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP083.

Full text
Abstract:
À une époque où l'utilisation des données a atteint un niveau sans précédent, l'apprentissage machine, et plus particulièrement l'apprentissage profond basé sur des réseaux de neurones artificiels, a été responsable de très importants progrès pratiques. Leur utilisation est désormais omniprésente dans de nombreux domaines d'application, de la classification d'images à la reconnaissance vocale en passant par la prédiction de séries temporelles et l'analyse de texte. Pourtant, la compréhension de nombreux algorithmes utilisés en pratique est principalement empirique et leur comportement reste difficile à analyser. Ces lacunes théoriques soulèvent de nombreuses questions sur leur efficacité et leurs potentiels risques. Établir des fondements théoriques sur lesquels asseoir les observations numériques est devenu l'un des défis majeurs de la communauté scientifique.La principale difficulté qui se pose lors de l’analyse de la plupart des algorithmes d'apprentissage automatique est de traiter analytiquement et numériquement un grand nombre de variables aléatoires en interaction. Dans ce manuscrit, nous revisitons une approche basée sur les outils de la physique statistique des systèmes désordonnés. Développés au long d’une riche littérature, ils ont été précisément conçus pour décrire le comportement macroscopique d'un grand nombre de particules, à partir de leurs interactions microscopiques. Au cœur de ce travail, nous mettons fortement à profit le lien profond entre la méthode des répliques et les algorithmes de passage de messages pour mettre en lumière les diagrammes de phase de divers modèles théoriques, en portant l’accent sur les potentiels écarts entre seuils statistiques et algorithmiques. Nous nous concentrons essentiellement sur des tâches et données synthétiques générées dans le paradigme enseignant-élève. En particulier, nous appliquons ces méthodes à champ moyen à l'analyse Bayes-optimale des machines à comité, à l'analyse des bornes de généralisation de Rademacher pour les perceptrons, et à la minimisation du risque empirique dans le contexte des modèles linéaires généralisés. Enfin, nous développons un cadre pour analyser des modèles d'estimation avec des informations à priori structurées, produites par exemple par des réseaux de neurones génératifs avec des poids aléatoires
At a time when the use of data has reached an unprecedented level, machine learning, and more specifically deep learning based on artificial neural networks, has been responsible for very important practical advances. Their use is now ubiquitous in many fields of application, from image classification, text mining to speech recognition, including time series prediction and text analysis. However, the understanding of many algorithms used in practice is mainly empirical and their behavior remains difficult to analyze. These theoretical gaps raise many questions about their effectiveness and potential risks. Establishing theoretical foundations on which to base numerical observations has become one of the fundamental challenges of the scientific community. The main difficulty that arises in the analysis of most machine learning algorithms is to handle, analytically and numerically, a large number of interacting random variables. In this manuscript, we revisit an approach based on the tools of statistical physics of disordered systems. Developed through a rich literature, they have been precisely designed to infer the macroscopic behavior of a large number of particles from their microscopic interactions. At the heart of this work, we strongly capitalize on the deep connection between the replica method and message passing algorithms in order to shed light on the phase diagrams of various theoretical models, with an emphasis on the potential differences between statistical and algorithmic thresholds. We essentially focus on synthetic tasks and data generated in the teacher-student paradigm. In particular, we apply these mean-field methods to the Bayes-optimal analysis of committee machines, to the worst-case analysis of Rademacher generalization bounds for perceptrons, and to empirical risk minimization in the context of generalized linear models. Finally, we develop a framework to analyze estimation models with structured prior informations, produced for instance by deep neural networks based generative models with random weights
APA, Harvard, Vancouver, ISO, and other styles
16

Bosilca, George. "Contribution à l'étude des environnements d'exécution parallèle fortement dynamiques à passage de messages." Paris 11, 2004. http://www.theses.fr/2004PA112316.

Full text
Abstract:
Le calcul haute performance sur des architectures parallèles utilise différentes approches en fonction du modèle de mémoire de l'architecture, du niveau d'abstraction du langage de programmation et de la nature de l'application. La première partie de cette thèse est consacrée à la présentation d'un modèle d'exécution original basé sur l'appel de procédure à distance ou RPC (Remote Procedure Call), appelé Out-of-order execution parallel Virtual Machine (OVM). Le substrat a été construit suivant trois directions : portabilité via un modèle unique de mémoire, équilibrage de charge en utilisant un support modulaire et haute performance grâce à plusieurs optimisations. Je présente ici l'architecture générale d'OVM et je démontre ses performances pour différents types d'applications parallèles-: régulières, nécessitant un équilibrage de charge et des contraintes temps-réel. Avec l'augmentation du nombre de processeurs, les déconnexions et les disparitions des nœuds deviennent des évènements courants. La seconde partie est dédiée à l'environnement MPICH-V. Cet environnement de tolérance automatique des fautes est basé sur un checkpoint non coordonnée et un logging de messages distribué. MPICH-V se base sur des mémoires de canal, des serveurs de checkpoint et sur de preuves théoriques de ses protocoles. Se concentrant sur les mémoires de canal, des résultats sont présentés et analysés, pour des applications parallèles non triviales. Les résultats expérimentaux démontrent la bonne scalabilité et un haut degré de tolérance aux fautes
Global Computing platforms, large scale clusters and future TeraGRID systems gather thousands of nodes for computing parallel scientific applications. These parallel architectures currently uses different approaches depending on the hardware memory model of the architecture, the abstraction level of the programming environment and the nature of the application. On the first part, I introduce an original client-server execution model based on RPCs called out-of-order parallel virtual machine (OVM). OVM aims to provide three main features: portability through a unique memory model, load-balancing using a plug-in support and high performance provided by several optimizations. The main optimizations are: non-blocking RPCs, data-flow management, persistent and non-persistent data, dynamic scheduling and asynchronous global operations. I present OVM general architecture and demonstrate high performance for several types of parallel applications: regular, with load balancing needs and with real-time constraints. At this scale, node failures or disconnections are frequent events. This Volatility reduces the MTBF of the whole system in the range of hour or minutes. On the second part, I present MPICH-V, an automatic fault tolerant MPI environment based on uncoordinated checkpoint/rollback and distributed message logging. MPICH-V architecture relies on Channel Memories, Checkpoint servers and theoretically proven protocols to execute SPMD and Master-Worker MPI applications on volatile nodes. Focusing on the channel memory, I present and analyse the performances for non-trivial parallel applications. Experimental results demonstrate good scalability and high tolerance to faults
APA, Harvard, Vancouver, ISO, and other styles
17

Gauchard, David. "Simulation hybride des réseaux IP-DiffServ-MPLS multi-services sur environnement d'exécution distribuée." Toulouse 3, 2003. http://www.theses.fr/2003TOU30192.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Dujardin, Éric. "Reseau d'interconnexion pour une machine a passage de messages specialisee dans le traitement d'images." Paris 6, 1994. http://www.theses.fr/1994PA066558.

Full text
Abstract:
Le sujet de cette these est l'etude d'un reseau d'interconnexion pour une machine a passage de messages. Le domaine d'application est le traitement d'image. Nous montrons que les algorithmes en image peuvent-etre implemente efficacement avec la methode diviser pour regner et que le traitement applique aux images genere en general une reduction d'information. Dans un premier temps, nous utilisons ces conclusions pour proposer une nouvelle topologie adaptee au traitement d'image: l'hyper-pyramide. C'est une pyramide tronquee de ces etages superieures. Dans chaque niveau sont definies des cellules, une cellule est un ensemble de processeurs, ou sont effectues les fusions des solutions intermediaires. Nous comparons cette nouvelle topologie avec d'autres topologies existantes en mesurant la complexite algorithmique et la complexite de realisation. Dans un deuxieme temps, nous developpons un simulateur de machines paralleles a passage de messages. Il accepte differents algorithmes de routage, differentes topologies et techniques de commutation. On peut aussi definir le traitement realise par les processeurs. On obtient, alors, un modele de communication de machines paralleles. Par ces simulations, nous comparons la topologie en hyper-pyramide, avec la maille, la pyramide et l'hypercube en utilisant differents algorithmes de routage et modeles de communication. Enfin, nous decrivons, une specification comportementale d'un circuit integre et nous le synthetisons avec des outils de synthese. Ce circuit est la realisation d'un processeur de communication avec une topologie en hyper-pyramide pour des processeurs de traitement comme le transputer
APA, Harvard, Vancouver, ISO, and other styles
19

Sahin, Serdar. "Advanced receivers for distributed cooperation in mobile ad hoc networks." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0089.

Full text
Abstract:
Les réseaux ad hoc mobiles (MANETs) sont des systèmes de communication sans fil rapidement déployables et qui fonctionnent avec une coordination minimale, ceci afin d'éviter les pertes d'efficacité spectrale induites par la signalisation. Les stratégies de transmissions coopératives présentent un intérêt pour les MANETs, mais la nature distribuée de tels protocoles peut augmenter le niveau d'interférence avec un impact autant plus sévère que l'on cherche à pousser les limites des efficacités énergétique et spectrale. L'impact de l'interférence doit alors être réduit par l'utilisation d'algorithmes de traitement du signal au niveau de la couche PHY, avec une complexité calculatoire raisonnable. Des avancées récentes sur les techniques de conception de récepteurs numériques itératifs proposent d'exploiter l'inférence bayésienne approximée et des techniques de passage de message associés afin d'améliorer le potentiel des turbo-détecteurs plus classiques. Entre autres, la propagation d'espérance (EP) est une technique flexible, qui offre des compromis attractifs de complexité et de performance dans des situations où la propagation de croyance conventionnel est limité par sa complexité calculatoire. Par ailleurs, grâce à des techniques émergentes de l'apprentissage profond, de telles structures itératives peuvent être projetés vers des réseaux de détection profonds, où l'apprentissage des hyper-paramètres algorithmiques améliore davantage les performances. Dans cette thèse nous proposons des égaliseurs à retour de décision à réponse impulsionnelle finie basée sur la propagation d'espérance (EP) qui apportent des améliorations significatives, en particulier pour des applications à haute efficacité spectrale vis à vis des turbo-détecteurs conventionnels, tout en ayant l'avantage d'être asymptotiquement prédictibles. Nous proposons un cadre générique pour la conception de récepteurs dans le domaine fréquentiel, afin d'obtenir des architectures de détection avec une faible complexité calculatoire. Cette approche est analysée théoriquement et numériquement, avec un accent mis sur l'égalisation des canaux sélectifs en fréquence, et avec des extensions pour de la détection dans des canaux qui varient dans le temps ou pour des systèmes multi-antennes. Nous explorons aussi la conception de détecteurs multi-utilisateurs, ainsi que l'impact de l'estimation du canal, afin de comprendre le potentiel et le limite de cette approche. Pour finir, nous proposons une méthode de prédiction performance à taille finie, afin de réaliser une abstraction de lien pour l'égaliseur domaine fréquentiel à base d'EP. L'impact d'un modélisation plus fine de la couche PHY est évalué dans le contexte de la diffusion coopérative pour des MANETs tactiques, grâce à un simulateur flexible de couche MAC
Mobile ad hoc networks (MANETs) are rapidly deployable wireless communications systems, operating with minimal coordination in order to avoid spectral efficiency losses caused by overhead. Cooperative transmission schemes are attractive for MANETs, but the distributed nature of such protocols comes with an increased level of interference, whose impact is further amplified by the need to push the limits of energy and spectral efficiency. Hence, the impact of interference has to be mitigated through with the use PHY layer signal processing algorithms with reasonable computational complexity. Recent advances in iterative digital receiver design techniques exploit approximate Bayesian inference and derivative message passing techniques to improve the capabilities of well-established turbo detectors. In particular, expectation propagation (EP) is a flexible technique which offers attractive complexity-performance trade-offs in situations where conventional belief propagation is limited by computational complexity. Moreover, thanks to emerging techniques in deep learning, such iterative structures are cast into deep detection networks, where learning the algorithmic hyper-parameters further improves receiver performance. In this thesis, EP-based finite-impulse response decision feedback equalizers are designed, and they achieve significant improvements, especially in high spectral efficiency applications, over more conventional turbo-equalization techniques, while having the advantage of being asymptotically predictable. A framework for designing frequency-domain EP-based receivers is proposed, in order to obtain detection architectures with low computational complexity. This framework is theoretically and numerically analysed with a focus on channel equalization, and then it is also extended to handle detection for time-varying channels and multiple-antenna systems. The design of multiple-user detectors and the impact of channel estimation are also explored to understand the capabilities and limits of this framework. Finally, a finite-length performance prediction method is presented for carrying out link abstraction for the EP-based frequency domain equalizer. The impact of accurate physical layer modelling is evaluated in the context of cooperative broadcasting in tactical MANETs, thanks to a flexible MAC-level simulator
APA, Harvard, Vancouver, ISO, and other styles
20

Khoumsi, Khalid. "Optimisation des performances dans les réseaux de communication des machines parallèles à passage de messages." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0202.

Full text
Abstract:
Les performances du reseau de communication representent la principale limitation des machines paralleles a memoire distribuee. Cette these traite de l'etude et la realisation de reseaux d'interconnexion permettant l'amelioration des performances des communications dans les machines paralleles mimd a passage de messages. Plusieurs architectures sont proposees dans deux cas tres differents. Tout d'abord dans le cas d'une machine cellulaire dont le but est d'offrir une tres grande puissance de calcul en interconnectant un grand nombre de processeurs tres simples. Une premiere solution permet de repousser la limitation technologique que represente le nombre de plots par chip. Deux autres solutions sont utilisees dans le but de reduire la latence des communications distantes par modification de la topologie du reseau. L'evaluation des solutions est faite apres implementation complete du reseau d'interconnexion. Ensuite dans le cas d'une machine parallele formee a partir de stations de travail interconnectees a travers un reseau local utilisant des liens hauts debits (par ex. Atm). Les solutions proposees traitent de l'adaptation de l'atm au calcul parallele. Les points abordes sont la taille des messages, le mode de communication sans connexion, et le controle a l'acces. Un simulateur de reseau a ete developpe pour l'evaluation des solutions proposees. Dans les deux cas, des modeles analytiques sont developpes pour predire la latence du reseau et mieux analyser les resultats experimentaux
APA, Harvard, Vancouver, ISO, and other styles
21

Lokhov, Andrey Y. "Dynamic cavity method and problems on graphs." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112331/document.

Full text
Abstract:
Un grand nombre des problèmes d'optimisation, ainsi que des problèmes inverses, combinatoires ou hors équilibre qui apparaissent en physique statistique des systèmes complexes, peuvent être représentés comme un ensemble des variables en interaction sur un certain réseau. Bien que la recette universelle pour traiter ces problèmes n'existe pas, la compréhension qualitative et quantitative des problèmes complexes sur des graphes a fait des grands progrès au cours de ces dernières années. Un rôle particulier a été joué par des concepts empruntés de la physique des verres de spin et la théorie des champs, qui ont eu beaucoup de succès en ce qui concerne la description des propriétés statistiques des systèmes complexes et le développement d'algorithmes efficaces pour des problèmes concrets.En première partie de cette thèse, nous étudions des problèmes de diffusion sur des réseaux, avec la dynamique hors équilibre. En utilisant la méthode de cavité sur des trajectoires dans le temps, nous montrons comment dériver des équations dynamiques dites "message-passing'' pour une large classe de modèles avec une dynamique unidirectionnelle -- la propriété clef qui permet de résoudre le problème. Ces équations sont asymptotiquement exactes pour des graphes localement en arbre et en général représentent une bonne approximation pour des réseaux réels. Nous illustrons cette approche avec une application des équations dynamiques pour résoudre le problème inverse d'inférence de la source d'épidémie dans le modèle "susceptible-infected-recovered''.Dans la seconde partie du manuscrit, nous considérons un problème d'optimisation d'appariement planaire optimal sur une ligne. En exploitant des techniques de la théorie de champs et des arguments combinatoires, nous caractérisons une transition de phase topologique qui se produit dans un modèle désordonné simple, le modèle de Bernoulli. Visant une application à la physique des structures secondaires de l'ARN, nous discutons la relation entre la transition d'appariement parfait-imparfait et la transition de basse température connue entre les états fondu et vitreux de biopolymère; nous proposons également des modèles généralisés qui suggèrent une correspondance exacte entre la matrice des contacts et la séquence des nucléotides, permettant ainsi de donner un sens à la notion des alphabets effectifs non-entiers
A large number of optimization, inverse, combinatorial and out-of-equilibrium problems, arising in the statistical physics of complex systems, allow for a convenient representation in terms of disordered interacting variables defined on a certain network. Although a universal recipe for dealing with these problems does not exist, the recent years have seen a serious progress in understanding and quantifying an important number of hard problems on graphs. A particular role has been played by the concepts borrowed from the physics of spin glasses and field theory, that appeared to be extremely successful in the description of the statistical properties of complex systems and in the development of efficient algorithms for concrete problems.In the first part of the thesis, we study the out-of-equilibrium spreading problems on networks. Using dynamic cavity method on time trajectories, we show how to derive dynamic message-passing equations for a large class of models with unidirectional dynamics -- the key property that makes the problem solvable. These equations are asymptotically exact for locally tree-like graphs and generally provide a good approximation for real-world networks. We illustrate the approach by applying the dynamic message-passing equations for susceptible-infected-recovered model to the inverse problem of inference of epidemic origin. In the second part of the manuscript, we address the optimization problem of finding optimal planar matching configurations on a line. Making use of field-theory techniques and combinatorial arguments, we characterize a topological phase transition that occurs in the simple Bernoulli model of disordered matching. As an application to the physics of the RNA secondary structures, we discuss the relation of the perfect-imperfect matching transition to the known molten-glass transition at low temperatures, and suggest generalized models that incorporate a one-to-one correspondence between the contact matrix and the nucleotide sequence, thus giving sense to the notion of effective non-integer alphabets
APA, Harvard, Vancouver, ISO, and other styles
22

Smith, Ronda. "The influence of nonsmokers' argumentativeness and verbal aggressiveness on compliance-gaining message selection in a smoking situation." Virtual Press, 1992. http://liblink.bsu.edu/uhtbin/catkey/834139.

Full text
Abstract:
The purpose of this study was twofold. First, the study investigated the influence of nonsmokers' argumentativeness and verbal aggressiveness levels on their compliance-gaining message selection. Second, the study examined compliance-gaining usage on the basis of two additional independent variables -- agent and target gender. One hundred fifty-four participants completed instrumentation consisting of seven pages. The instrumentation included the Modified Argumentativeness Scale, the Verbal Aggressiveness Scale, the Nonsmoking Compliance-Gaining Scale, demographic and smoking questions.A median split was used to dichotomize both argumentativeness and verbal aggressiveness into the two categories of high and low. A two-way analysis of variance (ANOVA) was used to test the first three hypotheses which made predictions about compliance-gaining strategy use on the basis of the agent's argumentativeness and verbal aggressiveness levels. None of the ANOVAs produced significance between high and low argumentativeness. However, there was significance between high and low verbal aggressives. Specifically, high verbal aggressives reported greater use of a variety of compliance-gaining strategies than did low verbal aggressives.The second set of hypotheses made predictions about compliance-gaining strategy use on the basis of the agent's and target's gender. A repeated measures multivariate analysis of variance (MANOVA) and univariate analyses were used to test these hypotheses. Males reported greater use of the explanation, direct request, and threat strategies when the target was of the same sex than did females. When the target was of the opposite sex, males reported more use of the threat strategy than did females. An interaction was found with threat. Both men and women reported using the threat strategy more when the target was male.Some of these findings were contradictory to previous research. Sprowl (1984) did not find a distinction between compliance-gaining strategies on the basis of target gender. Further research should examine the effects of agent and target gender on compliance-gaining usage. Additionally, high verbal aggressives reported using positive strategies. Infante and Rancer (1982) described verbal aggressiveness as a negative phenomena. Hence, future research needs to explore the potential positive traits of verbally aggressive individuals.
Department of Speech Communication
APA, Harvard, Vancouver, ISO, and other styles
23

Moukrim, Aziz. "Génération automatique de codes parallèles et nouvelles heuristiques d'ordonnancement pour les machines à passage de messages." Clermont-Ferrand 2, 1995. http://www.theses.fr/1995CLF21755.

Full text
Abstract:
L'objet de cette these est la generation automatique de codes paralleles pour machines a passage de messages, et l'elaboration de nouvelles heuristiques d'ordonnancement avec delais de communication. Dans la premiere partie nous proposons un systeme de generation automatique de codes paralleles pour machines a passage de messages, descartes//, decompose en trois sous-systemes: sum//, ergo//et cogito//selon un niveau d'abstraction croissant. Nous avons procede a la realisation de sum//dont le langage d'entree permet deja a l'utilisateur de ne plus se soucier ni de la declaration ni de la gestion des canaux de communication dans les machines a passage de messages grace a la notion de classe de taches et tache copiee. Ensuite, nous avons propose un processus de traduction du sous-syteme ergo//en trois phases: partitionnement de l'algorithme d'entree et generation de scenarios, placement des taches et routage des donnees developpes en deuxieme partie de la these, et reconstitution des processus et gestion de leur traces sur les differents processuers sollicites. Dans la deuxieme partie, nous avons elabore de nouvelles heuristiques de placement des taches prenant en compte l'architecture reelle de la machine et considerant en meme temps le probleme de routage des donnees. Le gain moyen, obtenu par comparaison avec l'heuristique mcp utilisee dans le systeme hypertool et suivie d'une procedure de routage, est tres significatif. Enfin, nous avons etudie le probleme de l'encadrement du nombre optimal de processeurs necessaires pour l'obtention d'un ordonnancement optimal. Nous avons calcule une borne superieure dans le cas des arborescences et propose une heuristique pour l'evaluer dans le cas general. Une etude specifique a ete egalement menee pour les graphes de precedence sct
APA, Harvard, Vancouver, ISO, and other styles
24

Bouteiller, Aurélien. "Tolérance automatique aux défaillances par points de reprise et retour en arrière dans les systèmes hautes performances à passage de messages." Paris 11, 2006. http://www.theses.fr/2006PA112219.

Full text
Abstract:
L'augmentation du nombre de composants des architectures hautes performances fait surgir des problèmes de fiabilité : le temps moyen entre deux fautes est désormais de moins de 10 heures. Une solution pour assurer la progression d'un calcul numérique distribué en présence de fautes est d'enregistrer périodiquement des points de reprise. Cependant, l'état de chaque processus subit le non déterminisme des évènements réseau. Aussi, un protocole de tolérance aux fautes doit assurer la possibilité de restaurer un état global légitime depuis un ensemble de points de reprise. Notre travail a pour objectif l'étude des mécanismes automatiques de tolérance aux défaillances par points de reprise pour les applications à passage de messages utilisant le standard MPI. Nous présentons un environnement logiciel permettant l'expression d'algorithmes de tolérance aux défaillances et leur comparaison équitable dans un environnement uniforme. Nous exprimons plusieurs protocoles de tolérance aux défaillances (dont deux originaux) : un utilisant des points de reprise coordonnés, deux par enregistrement de messages pessimiste et trois par enregistrement de message causal. Nous les comparons expérimentalement, identifiant ainsi une fréquence de faute au delà de laquelle les protocoles par enregistrement de messages se comportent mieux que les protocoles coordonnés. Nous décrivons enfin un modélisation du protocole pessimiste adaptée aux réseaux à très haut débit. La performance de ces réseaux implique que l'utilisation de copies mémoires intermédiaires est très pénalisante. Nous présentons les performances d'une implémentation de ce protocole
Increasing the number of components of high performance architectures arises reliability issues: mean time between failures is now less than 10 hours. A solution to ensure progression of a numerical application hit by failures is to periodically save checkpoints. However, the state of each process depends on network's non deterministic events. Thus, a fault tolerance protocol has to ensure the ability to recover to a correct global state from a set of ckeckpoints. Our work aims to study checkpoint based automatic fault tolerance for message passing applications using the MPI standard. First we present a software environnement designed to express various families of fault tolerance algorithms and compare them in an fair and uniform testbed. We implement many fault tolerant protocols in this environment (including two originals) : one using coordinated checkpoints, two pessimistic message logging and three causal message logging. We shows through experimental comparison between all those protocol a fault frequency afterward message logging protocols are performing better than coordinated ones. Last we describe a novel modeling of pessimistic message logging focusing on very high performance networks. In those networks, using intermediate memory buffers and copies leads to high overhead. We present performances of an implementation of this protocol
APA, Harvard, Vancouver, ISO, and other styles
25

Saade, Alaa. "Spectral inference methods on sparse graphs : theory and applications." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE024/document.

Full text
Abstract:
Face au déluge actuel de données principalement non structurées, les graphes ont démontré, dans une variété de domaines scientifiques, leur importance croissante comme language abstrait pour décrire des interactions complexes entre des objets complexes. L’un des principaux défis posés par l’étude de ces réseaux est l’inférence de propriétés macroscopiques à grande échelle, affectant un grand nombre d’objets ou d’agents, sur la seule base des interactions microscopiquesqu’entretiennent leurs constituants élémentaires. La physique statistique, créée précisément dans le but d’obtenir les lois macroscopiques de la thermodynamique à partir d’un modèle idéal de particules en interaction, fournit une intuition décisive dans l’étude des réseaux complexes.Dans cette thèse, nous utilisons des méthodes issues de la physique statistique des systèmes désordonnés pour mettre au point et analyser de nouveaux algorithmes d’inférence sur les graphes. Nous nous concentrons sur les méthodes spectrales, utilisant certains vecteurs propres de matrices bien choisies, et sur les graphes parcimonieux, qui contiennent une faible quantité d’information. Nous développons une théorie originale de l’inférence spectrale, fondée sur une relaxation de l’optimisation de certaines énergies libres en champ moyen. Notre approche est donc entièrement probabiliste, et diffère considérablement des motivations plus classiques fondées sur l’optimisation d’une fonction de coût. Nous illustrons l’efficacité de notre approchesur différents problèmes, dont la détection de communautés, la classification non supervisée à partir de similarités mesurées aléatoirement, et la complétion de matrices
In an era of unprecedented deluge of (mostly unstructured) data, graphs are proving more and more useful, across the sciences, as a flexible abstraction to capture complex relationships between complex objects. One of the main challenges arising in the study of such networks is the inference of macroscopic, large-scale properties affecting a large number of objects, based solely on he microscopic interactions between their elementary constituents. Statistical physics, precisely created to recover the macroscopic laws of thermodynamics from an idealized model of interacting particles, provides significant insight to tackle such complex networks.In this dissertation, we use methods derived from the statistical physics of disordered systems to design and study new algorithms for inference on graphs. Our focus is on spectral methods, based on certain eigenvectors of carefully chosen matrices, and sparse graphs, containing only a small amount of information. We develop an original theory of spectral inference based on a relaxation of various meanfield free energy optimizations. Our approach is therefore fully probabilistic, and contrasts with more traditional motivations based on the optimization of a cost function. We illustrate the efficiency of our approach on various problems, including community detection, randomized similarity-based clustering, and matrix completion
APA, Harvard, Vancouver, ISO, and other styles
26

Krawezik, Géraud. "Contribution à l'étude de la programmation des machines parallèles complexes." Paris 11, 2004. http://www.theses.fr/2004PA112160.

Full text
Abstract:
Cette thèse a pour but l'étude de la programmation des machines parallèles complexes destinées aux grands problèmes numériques. Elle s'intéresse principalement à trois points qui sont tout d'abord l'étude des langages standards de programmation parallèle et leur efficacité respective. Ensuite nous étudions une bibliothèque de programmation parallèle tolérante aux fautes et son environnement d'exécution. Enfin nous abordons le problème des langages prospectifs, avec tout d'abord la présentation de différents langages déjà existants et leurs caractéristiques respectives qui nous permettent d'arriver à la définition d'un nouveau langage. Dans la première partie, nous montrons que le modèle de programmation OpenMP dans le cadre des machines à mémoire partagée peut surpasser en terme de performances le langage MPI qui est actuellement le langage de référence en matière de parallélisme. Mais cela se fait au détriment de la facilité de programmation qui se veut le principal attrait d'OpenMP. Dans la partie suivante, nous présentons MPICH-V, une implémentation de MPI automatiquement tolérante aux pannes, et notamment son environnement d'exécution en en examinant trois aspects primordiaux qui sont le lancement distribué, les connexions entres les nœuds de calcul, et enfin la détection des fautes. Nous discutons différents choix techniques dans chacun des cas avant d'étendre ces propositions au cadre plus large des grilles de calcul. Dans la dernière partie enfin, nous abordons les langages parallèles prospectifs et leurs détails ainsi que des exemples de programmation, avant de proposer un nouveau langage, basé sur un mécanisme de mémoire partagée et des communications programmées
The goal of this thesis?is to study the programming of complex parallel machines, which are used to solve large scale numerical problems. It mainly concentrates in three points which are first the study of standard parallel languages and their respective efficiency. Then we will study a fault tolerant parallel programming labrary and its runtime. At last we will consider the future languages, with the presentation of already existing ones and their common caracteristics before presenting the definition of a new language. In the first part, we will show that the OpenMP tool in the case of shared memory machines enables the user to get more performance than with MPI which is now the standard of parallel programming. But this is done with a high programming effort which goes against the easyness intended in OpenMP. In the next part, we will present MPICH-V, an automatic fault-tolerant implementation, and especially its runtime, by presenting three caracteristics that are important for this part, which are the remote launching, the connection between nodes and the handling of fault detection. In each case we will discuss the possible technical choices before extending them to a grid environment. At last, we will present upcoming parallel languages with different examples of their usage, before presenting our own, based on a shared memory mechanism and programmed communications
APA, Harvard, Vancouver, ISO, and other styles
27

Coti, Camille. "Environnements d'exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calcul." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00676937.

Full text
Abstract:
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances.
APA, Harvard, Vancouver, ISO, and other styles
28

Coti, Camille. "Environnements d’exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calcul." Paris 11, 2009. http://www.theses.fr/2009PA112233.

Full text
Abstract:
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances
The run-time environment is a key component of a parallel programming and execution environment. It features some services to the processes of parallel applications. The most fundamental of these services is to allow processes to communicate with one another and forwarding IOs and signals. In this thesis, I present results concerning run-time environments for large-scale systems and the services provided to large-scale applications. The first part studies the run-time environment's performance for large-scale systems and proposes an approach centered on topologies to support applications efficiently. The second part studies an additional feature provided by the run-time environment on systems made of a large number of components: fault tolerance. The third and the fourth part concern a specific kind of large-scale systems: computational grids. These systems present particularities that are specific to the usage of remote, heterogeneous resources. Problematic related to connectivity throughout computational grids are presented in the third part of this thesis, as well as an extension of the run-time environment designed to face them. The fourth part presents a method to design and program applications for computational grids and examples of typical applications that achieve a good performance
APA, Harvard, Vancouver, ISO, and other styles
29

Corrêa, Abel. "Alocação de tarefas de desastre na plataforma RMASBench : uma abordagem baseada em passagem de mensagens e formação de grupos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2015. http://hdl.handle.net/10183/130528.

Full text
Abstract:
Em ambientes de desastre urbano, grupos de agentes de resgate devem resolver tarefas de modo a minimizar os danos que podem ocorrer na cidade. Tais ambientes são dinâmicos e parcialmente observáveis, com características que dizem respeito à distância espacial, quantidade de recursos, à dificuldade da tarefa de desastre e à capacidade do agente de atendê-la. A comunicação entre os agentes pode ser ruidosa ou inexistente. Os sistemas multiagente são desenvolvidos para resolver problemas complexos e abrangentes, que estão além da capacidade de um único agente. Nesse contexto, os agentes são elementos computacionais autônomos que são responsáveis por uma parte da solução do problema. Os agentes são situados em um ambiente e podem ter habilidade social, interagindo com outros agentes para resolver as tarefas. Comumente, o domínio de desastre urbano é formalizado como um problema de alocação de tarefas e modelado como um problema de otimização de restrições distribuídas entre agentes heterogêneos, onde eles têm que escolher as tarefas que maximizam suas utilidades individuais ou minimizem seus custos individuais. Essa dissertação de mestrado propõe um modelo para formação de grupos de agentes baseado na minimização de uma métrica de distância. O modelo é formalizado como um problema de otimização de restrições distribuídas, usando algoritmos para troca de mensagens entre os agentes. O modelo chamado Formação de Grupos pela Minimização da Distância (FGMD) tem agentes autônomos que tem a capacidade de se auto-organizar sem a necessidade de um controle centralizado. Aplicamos o FGMD na plataforma RMASBench, que é um simulador para situações de desastre urbano. Comparou-se o FGMD com os algoritmos mais recentes de passagem de mensagens, tendo sido verificado que o FGMD use menos computação não-paralela. Com respeito a minimização dos danos na cidade, mostrou-se que é possível obter resultados melhores que as abordagens do estado-da-arte com leve aumento no esforço computacional.
In urban disaster environments, groups of rescue agents must solve tasks in order to minimize the damage that can occur in a city. Such environments are dynamic and partially observable, with features that correspond to spatial distance, amount of resources, difficulty of the disaster task, and the capability of the agent to handle it. The communication between the agents can be noisy or non-existent. Multiagent systems are developed to solve complex and comprehensive problems, that are beyond the capability of one single agent. In this context, the agents are autonomous computational elements that are responsible for a piece of the solution of the problem. The agents are situated in an environment, and may have social ability, interacting with other agents to solve the tasks. Commonly, the urban disaster domain is formalized as a task allocation problem, and modelled as a constraint optimization problem distributed among heterogeneous agents, where they have to choose the tasks that maximize their individual utilities or minimize their individual costs. This master thesis proposes a model for formation of groups of agents based in the minimization of a distance. The model is formalized as a distributed constraint optimization problem, using algorithms to exchange messages between agents. The model called Formation of Groups by Minimization of Distance (FGMD) has self-organizing autonomous agents without a centralized control. We applied the FGMD in the RMASBench platform, that is a simulator for urban disaster situations. We compare the FGMD with the most recent message passing algorithms, verifying that FGMD uses less non-parallel computation. With respect to the minimization of the damage in the city, we show that it is possible to obtain better results than the state-of-art approaches, with slightly increase of computational effort.
APA, Harvard, Vancouver, ISO, and other styles
30

Nguyen, Ly Thien Truong. "Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0904/document.

Full text
Abstract:
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées
The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance
APA, Harvard, Vancouver, ISO, and other styles
31

Barbolosi, Laurence. "De la nécessité du messager à celle du confident : pour une approche dramaturgique de l'espace tragique." Rennes 2, 2004. http://www.theses.fr/2004REN20035.

Full text
Abstract:
Que ce soit dans les tragédies grecques ou dans les tragédies classiques françaises, la production de l'effet tragique repose sur un mode d'articulation déterminant du visible et de l'invisible. Ce dernier instaure un espace tragique qui coi͏̈ncide avec l'imaginaire du spectateur et lui réfléchit " le signe d'une transcendance ". Ainsi le spectateur peut dépasser son émotion pathétique première pour accéder à la conscience tragique. Cet espace nécessite, pour être configuré, le truchement d'un dispositif dramaturgique : le " médiateur poétique ". L'examen des tragédies grecques et des tragédies classiques françaises montrent que cette fonction médiatrice peut être prise en charge par des personnages profondément dissemblables, le messager d'une part, le confident d'autre part, mais révélant la présence d'une structure invariante, en dépit des contextes socio-politiques éloignés
In Greek tragedies or French classical tragedies, the aesthetic production of the meaning of the tragic effect is based on a method of connection : the determine role of the visible space and the invisible space. The latter creates a tragical space that coincides with the imaginary of the spectator and throws " the sign of transcendency " back to him. Thus, the spectator can go beyond his pathetic first emotion to reach the tragical conscience. This space needs to be configured, the interpreter of a dramaturgic system : " the poetical mediator ". The examination of Greek tragedies and French classical tragedies shows that this mediatory role can be taken charge by deeply unlike characters, on the one hand , the messenger , on the other hand , the confident, no without revealing the presence of a constant structure in spite of the distant sociohistorical backgrounds
APA, Harvard, Vancouver, ISO, and other styles
32

Zdeborová, Lenka. "Statistical physics of hard optimization problems." Paris 11, 2008. http://www.theses.fr/2008PA112080.

Full text
Abstract:
L'optimisation est un concept fondamental dans beaucoup de domaines scientifiques comme l'informatique, la théorie de l'information, les sciences de l'ingénieur et la physique statistique, ainsi que pour la biologie et les sciences sociales. Un problème d'optimisation met typiquement en jeu un nombre important de variables et une fonction de coût qui dépend de ces variables. La classe des problèmes NP-complets est particulièrement difficile, et il est communément admis que, dans le pire des cas, un nombre d'opérations exponentiel dans la taille du problème est nécessaire pour minimiser la fonction de coût. Cependant, même ces problèmes peuveut être faciles à résoudre en pratique. La question principale considérée dans cette thèse est comment reconnaître si un problème de satisfaction de contraintes NP-complet est "typiquement" difficile et quelles sont les raisons pour cela ? Nous suivons une approche inspirée par la physique statistique des systèmes désordonnés, en particulier la méthode de la cavité développée originalement pour les systèmes vitreux. Nous décrivons les propriétés de l'espace des solutions dans deux des problèmes de satisfaction les plus étudiés : la satisfiabilité et le coloriage aléatoire. Nous suggérons une relation entre l'existence de variables dites "gelées" et la difficulté algorithmique d'un problème donné. Nous introduisons aussi une nouvelle classe de problèmes, que nous appelons "problèmes verrouillés", qui présentent l'avantage d'être à la fois facilement résoluble analytiquement, du point de vue du comportement moyen, mais également extrêmement difficiles du point de vue de la recherche de solutions dans un cas donné
Optimization is fundamental in many areas of science, from computer science and information theory to engineering and statistical physics, as well as to biology or social sciences. It typically involves a large number of variables and a cost function depending on these variables. Optimization problems in the NP-complete class are particularly difficult, it is believed that the number of operations required to minimize the cost function is in the most difficult cases exponential in the system size. However, even in an NP-complete problem the practically arising instances might, in fact, be easy to solve. The principal question we address in this thesis is: How to recognize if an NP-complete constraint satisfaction problem is typically hard and what are the main reasons for this? We adopt approaches from the statistical physics of disordered systems, in particular the cavity method developed originally to describe glassy systems. We describe new properties of the space of solutions in two of the most studied constraint satisfaction problems - random satisfiability and random graph coloring. We suggest a relation between the existence of the so-called frozen variables and the algorithmic hardness of a problem. Based on these insights, we introduce a new class of problems which we named "locked" constraint satisfaction, where the statistical description is easily solvable, but from the algorithmic point of view they are even more challenging than the canonical satisfiability
APA, Harvard, Vancouver, ISO, and other styles
33

Sonoda, Eloiza Helena. "Paralelização de um programa para cálculo de propriedades físicas de impurezas magnéticas em metais." Universidade de São Paulo, 2001. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-19102001-135247/.

Full text
Abstract:
Este trabalho se dedica à paralelização de um programa para cálculos de propriedades físicas de ligas magnéticas diluídas. O método do grupo de renormalização aplicado ao modelo de Anderson de duas impurezas se mostrou particularmente adequado ao processamento paralelo visto que grande parte dos cálculos pode ser executada simultaneamente, assim como variações nos conjuntos de dados requeridas pelo método. Para tal reescrevemos o programa seqüencial usado anteriormente pelo Grupo de Física Teórica do IFSC e implementamos três versões paralelas. Essas versões diferem entre si em relação à abordagem dada à paralelização. O uso de clusters de computadores se revelou uma opção conveniente pois verificamos que o limitante no desempenho é o tempo tomado pelos cálculos e não pela comunicação. Os resultados mostram uma grande redução no tempo total de execução, porém deficiências no speedup e escalabilidade devido a problemas de balanceamento de carga. Analisamos esses problemas e sugerimos alternativas para solucioná-los.
This dissertation discuss the parallelization of a program that calculates physical properties of dilute magnetic alloys. The renormalization group method applied to Anderson's two impurities model showed to be specially suitable to parallel processing because a large amount of calculations as well as variations of data entries required by the method can be performed simultaneously. To achieve this we rewrote the sequential program previously used by the Theoretical Physics Group of the IFSC and wrote three parallel versions. These versions differ from each other by the parallelization approach. The use of computer clusters revealed to be an appropriate option because the calculation time is the limiting factor on performance instead of communication time. The results show a good reduction of execution time, but speedup and scalability lack due to load balancing problems. We analyze these problems and suggest possible solutions.
APA, Harvard, Vancouver, ISO, and other styles
34

Walters, Mark M. "Elevating the hope of members of First Baptist Church, Nicoma Park through expository messages from selected passages on the New Testament doctrine of hope." Theological Research Exchange Network (TREN), 2002. http://www.tren.com.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Germain, Cécile. "Étude des mécanismes de communication pour une machine massivement parallèle : mega." Paris 11, 1989. http://www.theses.fr/1989PA112385.

Full text
Abstract:
Le projet de Machine pour l'Expérimentation des Grandes Architectures (MEGA) de l'équipe Architecture et conception des Circuits Intégrés du LRI comporte à la fois l'étude d'un modèle de représentation des connaissances, les Réseaux de Processus Dynamiques, et d'une architecture matérielle support, la machine MEGA. MEGA est une machine MIMD à passage de messages, destinée à supporter un modèle de communication de type Ether. Son objectif est d'offrir un parallélisme matériel extrêmement massif, qui pourrait aller jusqu'à 1 Million de Processeurs Elémentaires, chacun de ces PE intégrant dans un seul composant VLSI une unité centrale, une mémoire locale et un circuit de gestion des communications. Les mécanismes de communication représentent un des points les plus sensibles d'une telle architecture : ils supportent une très forte contrainte technologique du point de vue de la faisabilité ; mais leurs performances déterminent très largement celles du système tout entier, puisque le parallélisme matériel ne peut être exploité pleinement que si le rapport communication/calcul reste équilibré. L'étude de ces mécanismes de communication comprend trois aspects : le modèle de messagerie en tant qu'interface processeur/réseau, la topologie du réseau d’interconnexion et la stratégie de routage. Dans les trois cas, l'objectif du parallélisme extrêmement massif nous a conduits à proposer des solutions originales vis-à-vis de celles utilisées dans les machines à passage de messages de grain moyen comme les hyper cubes commerciaux. Le modèle de messagerie proposé offre une relation directe entre processus lorsqu'elle est possible, tout supportant la dynamicité des applications. La comparaison de topologies à densité d'interconnexion constante montre que les grilles de petites dimensions offrent de meilleures performances que les hypercubes ; la grille 3D réalise alors un bon compromis performances/faisabilité. Nous avons développé une nouvelle stratégie de routage, le Routage Forcé, qui permet une utilisation efficace des liens du réseau en limitant la contention par dispersion aléatoire des messages sans mobiliser de ressources de surface pour le tamponnement. Nous avons spécifié le circuit de routage et d'interface processeur/réseau. Il gère complètement le transit des messages dans le réseau sans intervention du processeur de calcul et implante le Routage Forcé
The Machine to Explore Giant Architectures (MEGA) project of the "Architecture et Conception des Circuits Intégrés" team of the LRI includes both the study of a logical model, the Dynamic Processes Networks, and of a hardware architecture, the MEGA machine. MEGA is a MIMD message-passing machine, intended to support an Ether communication model. Its target is very massive parallelism, up to 1 Million Elementary Processors. Each of these processors integrates in a single VLSI chip a processing unit, a local memory and a communication management unit. The communication design is one of the key features of such an architecture. It bears a very high technological constraint from a feasibility point of view, but it's performances determines the whole system ones. Therefore hardware parallelism may be actually useful only if the communication to computation ratio may be balanced. The communication design study includes three points of view : the communication model as an interface between software and hardware communication tools, the network topology and the routing strategy. In the three cases, the extreme parallelism target induced us to propose solutions which are original beside these in use in medium-grain multicomputers such as the commercial hypercubes. The communication model offers a direct interprocess relation when possible and allows however the processes graph dynamicity. The constant wiring density comparison for topologies shows that low dimensional meshes have better performances than hypercubes; the 3D mesh is then a good compromise between performances and feasibility constraints. We developed also a new routing strategy which we called Forced Routing. This strategy provides an efficient channels use. It limits contention by a randomized dispersion of messages and only needs very little buffering area. We achieved a logical specification for a routing and network/processor interface circuit. This circuit manages the messages without interfering with the processing unit activity and implements Forced Routing
APA, Harvard, Vancouver, ISO, and other styles
36

Wahle, Stephan. "Gottes-Gedenken Untersuchungen zum anamnetischen Gehalt christlicher und jüdischer Liturgie." Innsbruck Wien Tyrolia-Verl, 2005. http://deposit.ddb.de/cgi-bin/dokserv?id=2715732&prov=M&dok_var=1&dok_ext=htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Zdeborova, Lenka. "Physique statistique des problèmes d'optimisation." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00294232.

Full text
Abstract:
L'optimisation est un concept fondamental dans beaucoup de domaines scientifiques comme l'informatique, la théorie de l'information, les sciences de l'ingénieur et la physique statistique, ainsi que pour la biologie et les sciences sociales. Un problème d'optimisation met typiquement en jeu un nombre important de variables et une fonction de coût qui dépend de ces variables. La classe des problèmes NP-complets est particulièrement difficile, et il est communément admis que, dans le pire des cas, un nombre d'opérations exponentiel dans la taille du problème est nécessaire pour minimiser la fonction de coût. Cependant, même ces problèmes peuveut être faciles à résoudre en pratique. La question principale considérée dans cette thèse est comment reconnaître si un problème de satisfaction de contraintes NP-complet est "typiquement" difficile et quelles sont les raisons pour cela ? Nous suivons une approche inspirée par la physique statistique des systèmes désordonnés, en particulier la méthode de la cavité développée originalement pour les systèmes vitreux. Nous décrivons les propriétés de l'espace des solutions dans deux des problèmes de satisfaction les plus étudiés : la satisfiabilité et le coloriage aléatoire. Nous suggérons une relation entre l'existence de variables dites "gelées" et la difficulté algorithmique d'un problème donné. Nous introduisons aussi une nouvelle classe de problèmes, que nous appelons "problèmes verrouillés", qui présentent l'avantage d'être à la fois facilement résoluble analytiquement, du point de vue du comportement moyen, mais également extrêmement difficiles du point de vue de la recherche de solutions dans un cas donné.
APA, Harvard, Vancouver, ISO, and other styles
38

GAUCHARD, David. "Simulation hybride des réseaux IP-DiffServ-MPLS multi-services sur environnement d'exécution distribuée." Phd thesis, Université Paul Sabatier - Toulouse III, 2003. http://tel.archives-ouvertes.fr/tel-00011034.

Full text
Abstract:
La technologique utilisée dans les réseaux de télécommunication à commutation de paquets est en développement permanent. La tendance actuelle est orientée vers la mutualisation des services voix et données, de leurs infrastructures et des techniques associées (réseaux IP/MPLS, QoS dans Internet). Les méthodes classiques utilisées pour l'évaluation de performances des ces réseaux sont la modélisation analytique et la simulation événementielle. La simulation événementielle requiert des temps de calcul prohibitifs, tandis que les modèles issus des méthodes analytiques manquent parfois de précision. Le travail présenté dans cette thèse définit un cadre de modélisation appelé Simulation Hybride Distribuée qui combine de manière rigoureuse la théorie différentielle du trafic et la simulation événementielle. Dans une première technique, les ressources du réseau sont partitionnées en domaines dont certains sont simulés par événements, et les autres sont modélisés par des équations intégrées numériquement. La seconde technique proposée permet la circulation de trafics simulés par événements sur les ressources du réseau modélisées par des équations. La simulation hybride permet ainsi de prolonger la modélisation analytique au-delà de ses limites théoriques. Elle permet également de concevoir des modèles d'évaluation de performances très généraux et de développer des logiciels plus performants en temps de calculs. Un prototype de simulateur hybride a été conçu. Il permet de modéliser précisément des routeurs Internet Diffserv et MPLS, le protocole TCP ainsi que diverses sources de trafic multimédia (Audio, Vidéo). Pour réduire les temps de calcul, le simulateur peut être parallélisé. En ce sens, un nouveau noyau de communication de l'environnement de parallélisme LANDA a été conçu. Il offre une bibliothèque à la norme MPI et permet d'utiliser simultanément et efficacement (latence, bande passante) plusieurs media de communication haut-débit ainsi que la mémoire commune S MP.
APA, Harvard, Vancouver, ISO, and other styles
39

Sabah, Quentin. "SIAAM: Isolation dynamique pour une machine abstraite à base d'acteurs." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00933072.

Full text
Abstract:
Dans cette thèse nous étudions l'isolation mémoire et les mesures de communications efficaces par passage de message dans le contexte des environnements à mémoire partagée et la programmation orientée-objets. L'état de l'art en la matière se base presque exclusivement sur deux techniques complémentaires dites de propriété des objets (ownership) et d'unicité de références (reference uniqueness) afin d'adresser les problèmes de sécurité dans les programmes concurrents. Il est frappant de constater que la grande majorité des travaux existants emploient des méthodes de vérification statique des programmes, qui requirent soit un effort d'annotations soit l'introduction de fortes contraintes sur la forme et les références vers messages échangés. Notre contribution avec SIAAM est la démonstration d'une solution d'isolation réalisée uniquement à l'exécution et basée sur le modèle de programmation par acteurs. Cette solution purement dynamique ne nécessite ni annotations ni vérification statique des programmes. SIAAM permet la communication sans copie de messages de forme arbitraire. Nous présentons la sémantique formelle de SIAAM ainsi qu'une preuve d'isolation vérifiée avec l'assistant COQ. L'implantation du modèle de programmation pour le langage Java est réalisé dans la machine virtuelle JikesRVM. Enfin nous décrivons un ensemble d'analyses statiques qui réduit automatiquement le cout à l'exécution de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
40

Lasalle-Ratelle, Jérémie. "Implantation des futures sur un système distribué par passage de messages." Thèse, 2010. http://hdl.handle.net/1866/4900.

Full text
Abstract:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
This master’s thesis presents an implementation of lazy task creation for distributed memory multiprocessors. It offers a subset of Message-Passing Interface’s functionality and allows parallelization of some problems that are hard to statically partition thanks to its dynamic partitionning and load balancing system. It is based on Multilisp, a Scheme dialect for parallel computing, and implements an MPI like interface on top of it. It offers a richer and more expressive language than C and simplify the work needed to developp programs similar to those in MPI. Finally, dynamic partitioning allows some programs that would be very hard to develop in MPI. Tests were made on a 16 cpus computer and on a 16 cpus cluster. The system gets good accelerations when compared to equivalent sequential programs and acceptable performances when compared to MPI. It shows that it is possible to use futures as a dynamic partitioning method on distributed memory multiprocessors.
APA, Harvard, Vancouver, ISO, and other styles
41

Diallo, Alpha Boubacar. "Développement et parallélisation d'algorithmes bioinformatiques pour la reconstruction d'arbres phylogénétiques et de réseaux réticulés." Mémoire, 2007. http://www.archipel.uqam.ca/4752/1/M10004.pdf.

Full text
Abstract:
Dans ce mémoire nous abordons de prime abord la reconstruction d'arbres et de réseaux phylogénétiques, à travers deux méthodes d'inférence. Les arbres et les réseaux sont deux supports pour la représentation de l'évolution d'un groupe d'espèces étudiées. Les modèles d'évolution d'espèces qui seront traités sont les suivants : 1) Le modèle arborescent classique qui a longtemps été le seul support formel pour la représentation des relations génétiques entre les espèces. 2) Le modèle en réseau qui permet de représenter des mécanismes phylogénétiques importants pouvant jouer un rôle clé dans l'évolution et pouvant s'expliquer par le phénomène de l'évolution réticulée. Nous nous sommes particulièrement intéressés aux algorithmes d'inférence de réseaux de transferts horizontaux de gènes. Un transfert horizontal de gènes permet à deux espèces de s'échanger, partiellement ou totalement, différents gènes au cours de l'évolution. Le travail effectué sur la reconstruction d'arbres et de réseaux phylogénétiques a mené à la publication de trois articles. Ensuite, nous abordons le problème de réduction du temps d'exécution de différents programmes bioinformatiques. Ce problème a pris de l'ampleur à cause de la croissance du volume de données biologiques et du blocage de la puissance des ordinateurs autour de 3,4GHZ depuis environ deux ans. Nous décrivons un procédé d'accélération des calculs effectués par différents algorithmes d'inférence et de représentation de l'évolution des espèces, en utilisant le parallélisme. Le parallélisme mis en place a été réalisé à travers une librairie standard de passage de messages (Message Passing Interface). Nous montrons les différentes formes de parallélisme, les architectures de systèmes parallèles, quelques environnements qui permettent de supporter l'exécution des applications de façon à exprimer le parallélisme, ainsi que les approches utilisées pour paralléliser différents modèles d'évolution. Les versions parallèles des algorithmes d'évolution ont été développées et installées sur une « grappe » (i.e. cluster) Linux ayant 16 lames possédant chacune deux processeurs et sa propre mémoire. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : algorithmes d'évolution, arbre phylogénétique, réseau phylogénétique, transferts horizontaux de gènes, programmation parallèle, Message Passing Interface (MPI).
APA, Harvard, Vancouver, ISO, and other styles
42

Chao, Chen-ni, and 趙真妮. "The positive and passive messages construction between health and eco-protection influence vegetarianism and environmental consensus – taking junior high students as examples." Thesis, 2016. http://ndltd.ncl.edu.tw/handle/3z3ft2.

Full text
Abstract:
碩士
健行科技大學
企業管理系碩士班
104
This study takes the method of two times two - the experiment between testers. Edit four films about environmental education, focusing on the vegetarian education to deal with the information construction and informational variables, to discuss that in the environmental education, the positive and passive messages construction and health, eco-protection and the sexual elements influence the dutiful senses toward environment. This study takes the 9th grade students of junior high in Taoyuan City as examples. There are 260 valid questionnaires. The conclusion is as following:First, basing on the message construction, the testers who watch the film of positive message have higher sense on environmental duty than those who watch the negative ones. Next, those who watch the film about health and eco-protection messages have more on vegetarian tendency; however, there are no obvious difference on the sense of environmental duty. Finally, the female testers have higher vegetarian tendency and the sense of environmental duty between than male ones.
APA, Harvard, Vancouver, ISO, and other styles
43

Mácha, Slavomír. "Role médií při utváření veřejného mínění a politického myšlení v České republice." Master's thesis, 2012. http://www.nusl.cz/ntk/nusl-313791.

Full text
Abstract:
Author's name: Bc. Mácha Slavomír School: Social Science & Philosophy Dept. Faculty of Education Charles University, Prague Graduate Program (Single Major): Master Degree (Mgr.) in Teaching Social Sciences, Philosophy, and Ethics in High Schools and Higher Professional Schools Title: The Role of the Media in Shaping Public perceptions and Political thinking in the Czech Republic Consultant: PhDr. Josef Stracený, CSc Number of pages: 97 + 1 attachments Number of attachments: 1 Number of marks: 202412 Number of literature: 56 Number of web pages: 33 Year: 2012 Key words: role of the media, political marketing, political thinking, public opinion, media manipulation, media function, advertising in politics, message effects, active and passive audience, voter, citizen, social networks, This thesis aims to prove the role of media in shaping the public perception and political thinking in the Czech republic. Thesis was worked up by analysing specialised literature concerning the above topics. The role of the media in shaping the public opinion and the views of major political and social problems are being investigated in the long-term surveys. It is legitimate (nebo generally accepted) that all we know, believe or think about what happens in the outside world is sometimes shaped into a form that reflects...
APA, Harvard, Vancouver, ISO, and other styles
44

GORLA, Sandra. "Metamorfosi e magia nel Roman de Renart. Traduzione e commento delle branches XXII e XXIII." Doctoral thesis, 2018. http://hdl.handle.net/11393/251268.

Full text
Abstract:
Il presente lavoro è incentrato su due branches del Roman de Renart, delle quali propone la prima traduzione completa del testo in italiano e un’analisi al contempo interpretativa, letteraria e filologico-testuale. Il lavoro risulta diviso in due grandi nuclei contraddistinti. La prima parte, comprensiva di due capitoli, affronta l'analisi della tradizione manoscritta e la traduzione del testo delle due branches in italiano (considerando anche le interpolazioni del ms. M). La seconda parte, nuovamente suddivisa in due capitoli, costituisce il necessario accompagnamento critico-letterario al lavoro di traduzione. Tradizione e traduzione. Prima ancora di affrontare la traduzione del testo e la sua interpretazione, è stato necessario porsi il problema di quale testo tradurre. Il primo capitolo, pertanto, affronta la tradizione – e dunque l’edizione – del Roman de Renart, tenendo in considerazione che per quest’opera medievale è praticamente impossibile stabilire uno stemma codicum che sia utile ad una ricostruzione del testo in senso lachmanniano, e dunque scegliere tra una delle edizioni disponibili significa nei fatti scegliere uno dei codici relatori. Viene altresì discussa la questione riguardante l'ordine in cui restituire le due branches. E' risultato impossibile stabilire quale fosse l’ordine migliore e più fedele alla tradizione. Per questo ci si è arresi all’evidenza che anche la disposizione stessa del testo non possa essere assolutamente neutrale, ma includa elementi interpretativi. Il lavoro di traduzione – che occupa il secondo capitolo – costituisce una parte fondamentale della tesi, sia per la voluminosità del testo originale sia per i numerosi problemi 'tecnici' che necessariamente si susseguono sul cammino di chi affronti l'opera di traduzione-interpretazione di un testo medievale. La traduzione è accompagnata da un apparato di note che rendono conto delle scelte operate nei passaggi più complessi e che forniscono indicazioni utili alla comprensione del testo, soprattutto nel caso di riferimenti sottesi a un’enciclopedia presumibilmente condivisa dall’autore e il suo pubblico ma difficilmente discernibili dal lettore moderno. Il terzo capitolo è interamente dedicato alla branche XXII nella versione ‘indipendente’ (BCL); vengono messe in luce le peculiarità e le caratteristiche che la avvicinano al genere dei fabliaux e vengono avanzate delle ipotesi interpretative che evidenziano quelli che si ritengono essere aspetti unici e significativi dell’episodio all’interno dell'intero ciclo. Viene messo in rilievo come il ricorso a temi relativi alla sfera sessuale e corporea e l’uso di un lessico esplicito e a tratti osceno, sebbene ovviamente non esclusivi di questa branche del Roman de Renart, venga qui presentato in un contesto narrativo unico. L'ultimo capitolo della tesi si concentra invece sui testi tramandati da M delle branches XXII e XXIII. Si è cercato innanzitutto di ricostruire i numerosi legami intertestuali che la branche XXIII intesse innanzitutto con le altre branches del RdR (in particolare I, Va, VI, X) e di analizzare le specifiche tecniche narrative dialogiche e polifoniche impiegate all'interno del testo. Per la prima parte del commento, che riguarda poco più di metà della branche ed è dedicata alla lunga narrazione di uno dei processi giudiziari di cui è protagonista Renart, si è scelto di seguire l’ordine diegetico dell’episodio; la complessità dell'ambiente legale impone infatti di seguire con la massima attenzione il serrato alternarsi di accuse, contro-accuse e testimonianze. Data la concentrazione di diversi nuclei narrativi che caratterizza questa seconda parte, l'analisi del testo si discosta a questo punto dall'impostazione cronologica e procede invece per tematiche. Vengono dunque analizzati la figura e l'inedito ruolo di consigliera di Hermeline. Il commento procede poi con un'analisi delle ulteriori peculiarità presenti nella branche XXIII, nel momento in cui il protaginista si reca a Toledo per apprendere le arti magiche: questo viaggio è l’unico vero viaggio che la volpe compie al di fuori del regno nell’intero Roman. Spiccano, qui, la dimensione quasi epica, arturiana, del viaggio, che si traduce in un percorso di formazione per il personaggio; le nuove qualità acquisite da Renart magicien – un intermediario fra due mondi – e l’importanza delle parole nel veicolare il potere dell’art d’enchantement. L'originalità della branche XXIII ha così una vera e propria evoluzione di Renart, che si presenta come un Renart demiurgo. Il commento prosegue a questo punto tornando nuovamente alla branche XXII, questa volta nella versione del ms. M. Benché il testo di M riporti un’importante lacuna (per la caduta del bifolio centrale di un fascicolo) che impedisce di valutare complessivamente l’operazione di riscrittura, sono state esaminate, per quanto possibile, le modalità con cui il testo è stato interpolato dal codice e avanzato delle ipotesi su come e perché possa essere stata compiuta questa operazione, tenendo presente anche i rapporti che intercorrono tra M e il ms. C della sua stessa famiglia, che operano entrambi importanti scelte di riorganizzazione della materia narrativa e dell’ordine di disposizione delle branches rispetto agli altri codici relatori del Roman de Renart.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography