To see the other types of publications on this topic, follow the link: Complexité communication.

Dissertations / Theses on the topic 'Complexité communication'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Complexité communication.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tapp, Alain. "Informatique quantique, algorithmes et complexité de la communication." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0018/NQ51978.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kaplan, Marc. "Méthodes Combinatoires et Algébriques en Complexité de la Communication." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00439929.

Full text
Abstract:
La complexité de la communication a été introduite en 1979 par Andrew Chi-Chi Yao. Elle est depuis devenue l'un des modèles de calcul les plus étudiés. L'objectif de celle-ci est d'étudier des problèmes dont les entrées sont distribuées entre plusieurs joueurs, en quantifiant la communication que ceux-ci doivent échanger. Nous utilisons d'abord la complexité de Kolmogorov, une caractérisation algorithmique de l'aléatoire, pour prouver des bornes inférieures sur la complexité de la communication. Notre méthode constitue une généralisation de la méthode d'incompressibilité. L'avantage de cette approche est de mettre en valeur la nature combinatoire des preuves. Nous étudions ensuite la simulation des distributions de probabilité causales avec de la communication. Ce modèle généralise la complexité de la communication traditionnelle et comprend en particulier les distributions quantiques. Nous montrons pour ce problème des bornes inférieures et supérieures. Dans le cas des fonctions booléennes, la borne inférieure que nous proposons est équivalente aux normes de factorisation, une puissante méthode introduite par Linial et Shraibman en 2006. Enfin, nous étudions la complexité en boîte non-locale. Cette ressource a été introduite par Popescu et Rohrlich pour étudier la non-localité. Le problème est de quantifier le nombre de boîtes nécessaire et suffisant pour calculer une fonction ou simuler une distributions. Nous donnons encore des bornes inférieures et supérieures pour ces problèmes, ainsi que des applications à l'évaluation sécurisée, un problème cryptographique très important.
APA, Harvard, Vancouver, ISO, and other styles
3

Goujon, Philippe. "Les voies de l'information : de la communication à la complexité." Dijon, 1993. http://www.theses.fr/1993DIJOL008.

Full text
Abstract:
L'information sous ses diverses formes, la communication et les notions qui leur sont associées, sont devenues les concepts clefs de notre représentation du monde et de nous-mêmes. Mais plus qu'un simple concept scientifique, notion moderne née au sein de ce que l'on appelait la cybernétique, la communication s'est instaurée progressivement comme valeur s'identifiant à la modernité et s'associant à un projet de société ou la transparence, la rationalité, la libre circulation de l'information sont essentielles. Le propos de cette recherche est d'analyser en quelle manière l'information et la communication ont pu devenir les pivots d'une nouvelle représentation du monde et les valeurs d'une société en crise. Nous abordons les conséquences et les limites de cette mutation scientifique, anthropologique et sociale, dont la lame de fond, venue du milieu de ce siècle. Commence à faire sentir ses effets. Dans sa conclusion, cette thèse cherche, à travers le problème de la complexité, les voies d'un possible franchissement des limites de la grille d'interprétation communicationnelle et informationnelle, et souligne le nécessaire dépassement de l'homme technicise que l'indispensable retour du sujet
Information under its various shapes, communication, and their related notions, have now become the key-concepts of our representation of the world and of ourselves. However, more than a mere scientific concept, the notion of communication, born in the bosom of what was called cybernetics, has gradually been instituted a value identified to modernity and the free movement of scheme which highlights transparency, rationality and the free movement of information. The purpose of this research is to make an analysis of the ways in which information and communication have now become the keystones of a new representation of the world, and the values of a society in a state of crisis. It is to deal with the consequences and limits of this scientific, anthropological and social shift, begin to be detected nowadays. In its conclusion, this middle of this century, begin to be detected nowadays. In its conclusion, this research tries to find, through the problem of complexity, how the limits of the communicational and informational frame of interpretation could be overstepped, and emphasizes the necessity of going beyond technicised man, and the vital renewal of the subject
APA, Harvard, Vancouver, ISO, and other styles
4

Gavoille, Cyril. "Complexité mémoire du routage dans les réseaux distribués." Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0015.

Full text
Abstract:
Au plus bas niveau des communications, le routage consiste a decider localement de la route des messages transitant par les nuds intermediaires d'un reseau distribue de processeurs dans un ordinateur parallele, ou, plus generalement, dans un reseau distribue d'ordinateurs. Nous etudions les caracteristiques locales du routeur (coprocesseur effectuant le routage) par rapport a la globalite du reseau communiquant. Precisemment, nous mesurons la quantite minimale d'information necessaire par chacun des routeurs pour assurer des communications rapides sur n'importe quel type de reseau
APA, Harvard, Vancouver, ISO, and other styles
5

Darties, Benoît. "Problèmes algorithmiques et de complexité dans les réseaux sans fil." Montpellier 2, 2007. http://www.theses.fr/2007MON20204.

Full text
Abstract:
Ces dernières années ont connu l'avènement des réseaux sans fil, dopés par leur facilité de déploiement et par leur usage dans de multiples domaines : réseaux domestiques Wi-Fi, téléphonie mobile, réseaux ad-hoc, réseaux de capteurs,. . . L'objet de cette thèse porte sur l'étude de problèmes algorithmiques directement inspirés des contraintes de fonctionnement rencontrées dans de tels réseaux, et se découpe en trois parties. La première partie de nos travaux s'intéresse à l'étude du problème de la diffusion d'un message émis depuis un noeud source unique vers l'ensemble des noeuds participant au réseau. Ce problème est abordé dans plusieurs modèles de communication, qui supposent tous des émissions omnidirectionnelles à portée fixée et l'existence de phénomènes d'interférences. Il en résulte l'incapacité pour un noeud donné de garantir la réception correcte de deux transmissions voisines simultanées. Nous étudions la complexité de ce problème et proposons des stratégies de résolution exactes ou avec garantie de performance. Dans une seconde partie, l'un des modèles de communication précédemment introduits sert de support à l'étude d'un autre problème algorithmique, dont l'objet est la satisfaction de requêtes de communications. Les travaux menés sur ce problème visent à établir sa complexité ainsi que les facteurs dont elle dépend. La dernière partie nous amène au problème de conception de réseaux sans fil. L'objectif est d'assurer une distribution de flux depuis des noeuds sources vers des noeuds clients, en minimisant le coût de l'infrastructure déployée. Les communications établies ici à l'aide d'antennes directionnelles ne sont pas sujettes aux phénomènes d'interférences. La difficulté du problème réside dans la satisfaction de contraintes de déploiement (nombre d'antennes limitées par noeud, résistance aux pannes,. . . ). Nous étudions la complexité de ce problème, et proposons plusieurs méthodes de résolution exactes et approchées pour des instances de taille raisonnable
The last couple of years have seen the advent of wireless networks, doped by their ease of deployment and their use in multiple fields: personal WiFi networks, mobile telephony, ad hoc networks, sensors networks,. . . The subject of this thesis relates to the study of algorithmic problems directly inspired by operating constraints which can be found in such networks. This manuscrit is divided into three parts. The first part of our work is devoted to the study of the problem of broadcasting a single source node message to all the other nodes of a network. This problem is tackled in various communication models. All the considered model suppose range-fixed omnidirectional transmissions subject to interference phenomena. It results from that, that any given node is unable to retrieve simultaneously two incoming transmissions. We study the complexity of this problem and propose some strategies in order to solve it. In a second part, We study another algorithmic problem in the same communication model, whose object is to satisfy a given set of communication requests. Our work consists in etablishing the complexity of this problem, and studying the impact of various factors on this complexity. The last part considers the problem of designing survivable radio networks. The objective is to ensure a distribution of bandwidth from source nodes to customers nodes, by minimizing the cost of the deployed infrastructure. Communications are made via directional antennas, and are not subjects to interferences. The difficulty of the problem lies in the satisfaction of deployment constraints (limited number of antennas per node, robustness against failures of nodes,. . . ). We study the complexity of this problem, and propose exact and approximated resolution methods to solve reasonable size instances
APA, Harvard, Vancouver, ISO, and other styles
6

Roume, Clément. "La complexité du mouvement humain : aspects théoriques et pratiques de l’évaluation et de l’interaction des complexités au service de la réhabilitation." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONT4003.

Full text
Abstract:
Il suffit d’observer nos athlètes de plus haut niveau, leur capacité à s’adapter dans des temps records lors de changements soudains dans les phases tactiques, ou encore la coordination quasi parfaite des nageuses synchronisées de niveau olympique, pour comprendre que le mouvement humain ne peut se réduire à quelconque modèle d’une simplicité excessive. Nous proposons ici une mise en application des sciences de la complexité, et plus particulièrement des méthodes d’analyse fractale ayant pour but de donner une image globale de la complexité du mouvement humain. Dans un premier temps, en partant des aspects théoriques, jusqu’à leur mise en application pratique, nous montrons que l’évaluation la plus fine des exposants fractals nécessite l’utilisation combinée d’une analyse fractale et d’une tâche physiologique bien spécifique. Puis, dans un deuxième temps, nous nous intéressons à la coordination de deux systèmes complexes. En partant de plusieurs cadres théoriques existant dans le champ des sciences du mouvement humain, nous proposons de nouvelles méthodes pour analyser cette synchronisation. Enfin, l’ensemble des travaux que nous présentons sont attachés à des buts de réhabilitation et nous montrons que malgré une altération typique de la complexité avec l’âge il existe des moyens simple et efficaces de rétablir cette complexité
Just look at our top athletes, their ability to adapt in record-breaking times during sudden changes in tactical phases, or the near-perfect coordination of Olympic-level synchronized swimmers to understand that human movement cannot be reduced to any model of excessive simplicity. Here we propose an application of the complexity sciences, and more particularly of fractal analysis methods aimed at giving a global picture of the complexity of human movement. In a first step, from the theoretical aspects, until their practical application, we show that the finest evaluation of the fractal exponents requires the combined use of a very specific fractal analysis and physiological task. Then, in a second step, we are interested in the coordination of two complex systems. Starting from several theoretical frameworks existing in the field of human movement sciences, we propose new methods to analyze this synchronization. Finally, all the works that we present are attached to rehabilitation goals and we show that despite a typical alteration of complexity with aging there are simple and effective ways to restore this complexity
APA, Harvard, Vancouver, ISO, and other styles
7

Gallot, Sidonie. "L'effet établissement : une émergence complexe des systèmes de communication : une approche communicationnelle des phénomènes humains de communication pour les établissements publics locaux d'enseignement." Thesis, Montpellier 3, 2011. http://www.theses.fr/2011MON30060.

Full text
Abstract:
En France, depuis les lois de décentralisation (1983) et d’orientation (1989), les établissements scolaires du secondaire se définissent comme des entités organisationnelles quasi autonomes et développent localement des comportements spécifiques. Le constat selon lequel les établissements ne se valent pas n’est plus à faire et les différences attestées ne cessent d’interroger la recherche. Malgré le foisonnement des études pour comprendre les établissements et leurs « productions », la dimension humaine et communicationnelle apparaît négligée alors que, de notre point de vue, dans cette organisation sociale qui n’est autre qu’un construit « humain pour l’humain », elle nous semble essentielle. Cette thèse de doctorat s’intéresse à la communication inter-humaine en terrain scolaire. Elle propose de se plonger au cœur des établissements pour comprendre, en situation, les phénomènes complexes de communication à travers les interactions de ses acteurs sociaux et la construction communicationnelle de ces organisations. Nous proposons d’étudier ces phénomènes à travers la présentation et l’étude de cinq collèges et lycées – aux caractéristiques et aux résultats variés – dans une approche constructiviste, complexe et systémique. Il s’agit de comprendre comment ce « pan » relationnel et humain influence ce que sont, ce que font et ce que « génèrent » ces organisations. Notre étude nous amène à montrer que les systèmes communicationnels présentent des ressemblances importantes, constat qui nous conduit à proposer un modèle des systèmes de communication et à comprendre ces systèmes et leurs effets selon leurs compositions et leurs comportements. Ce modèle théorique nous permet d’envisager des perspectives pragmatiques d’intervention pour tenter d’améliorer les systèmes de communication en établissement et ainsi leurs effets
In France, since the decentralization and orientation acts of 1983 and 1989, secondary schools are defined as almost autonomous organizational entities and they develop specific behaviours on local scales. The fact that schools are not of equal merit is acknowledged and the obvious differences between them keep on making researchers wonder about them. In spite of the abundance of studies led to understand schools and their « productions », the communicational and human dimension seems to be neglected whereas, in our opinion, in this social organization that is nothing but a « human structure for human beings », it looks essential. This doctoral thesis is about inter-human communication on the school ground. It puts forward to delve into the core of schools to understand the complicated phenomena of communication in real-life situations through the interactions of its organized forces and the communicational construction of these organizations. We will examine these phenomena through the presentation and the study of five secondary and high schools with various idiosyncrasies and results in a constructivist, complex and systemic approach. It is about understanding how this human and relational side can influence what these organizations are, do and generate. Our study will lead us to show that all the communicational systems look alike in many ways, and that assessment will make us propose a pattern of the systems of communication and understand those systems and their effects according to what they consist of and how they perform. This theoretical model will allow us to contemplate some pragmatic angles of intervention to try to improve the systems of communication in schools as well as their effects
APA, Harvard, Vancouver, ISO, and other styles
8

Rousset-Belin, Olivia. "Intelligence collective et complexité : L’appropriation d’une technologie d’intelligence collective : Approches systémiques et affordancielles." Montpellier 3, 2006. http://www.theses.fr/2006MON30023.

Full text
Abstract:
Comment comprendre, dans une approche communicationnelle, l’appropriation d’outils d’intelligence collective ? En matière d’intranet, on considère aisément que les outils de partage des connaissances ou de communication seront adoptés rapidement par des utilisateurs empressés et soucieux de bien faire. L’appropriation collective de tels outils semble aller de soi pour bien des commanditaires comme pour bien des développeurs techniques. On est pourtant surpris par les fortes résistances qu’opposent parfois les utilisateurs finaux. Ils ont le sentiment d’être pris dans des jeux qui les désavantagent, ou bien que l’on a peu considéré leurs véritables enjeux, leurs pratiques, leurs logiques ou en d’autres termes, leur situation et la façon dont ils la définissent. Ils ne réussissent pas à développer les usages à partir des outils qu’on leur propose. Dans ce travail de recherche, mené en compréhension, nous analyserons un processus d’appropriation collective au travers de trois approches communicationnelles : une approche systémique sociotechnique par la modélisation des relations, une approche affordancielle par la modélisation de la situation d’un acteur, une approche affordancielle par la modélisation d’une situation de consultation. Nous mobilisons pour cela le cas d’une communauté de chercheurs en toxicologie nucléaire : Clairatome. Chacune de ces analyses nous permet d’appréhender le sens du site en situation, l’affordance globale du site pour un acteur, et les usages possibles du site pour un acteur désigné. L’appropriation collective est un questionnement s’apparentant à la redéfinition de la situation par les acteurs et menant à des conduites intégrées d’usages. Comment favoriser l’engagement de chacun des acteurs dans une telle redéfinition ?
How may we understand the appropriation of the collective intelligence technologies ? We easily believe, about intranets, that sharing and communicating will be quickly adopted and shared practises of enthusiastic users. For who places the orders and who develops these technologies, the collective appropriation poses initially no question. Nevertheless, strong resistances are noticed among the addressees… They give as a pretext they are disfavoured. They argue their practises, their aims and goals, their strategies are not considered. In a word, their situation and how they define it are a far cry from what planned. Uses don’t rise. In our comprehensive research, we will analyse the process of a collective appropriation thanks to three qualitative approaches. One is a systemic approach by modelling the relationship between the actors. The second is an affordancial approach by modelling the actors’ situation. The third is an affordancial approach by modelling the actors website’s consultation. Our research will be enhanced by a case : a community of researchers in nuclear toxicology, Clairatome. Our analyses are aimed to understand the global sense of the website in the situation, its meaning for the researchers of the community, and the adequate uses for part of the actors. The collective appropriation is a long process of redefining the situation that leads to integrated and shared uses. How then can we coach the involvement of each actors ?
APA, Harvard, Vancouver, ISO, and other styles
9

Kibangou, Alain Y. "Modèles de volterra à complexité réduite : estimation paramétrique et application à l'égalisation des canaux de communication." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00190985.

Full text
Abstract:
Une large classe de systèmes physiques peut être représentée à l'aide du modèle de Volterra. Il a notamment été montré que tout système non-linéaire, invariant dans le temps et à mémoire évanouissante peut être représenté par un modèle de Volterra de mémoire et d¤ordre finis. Ce modèle est donc particulièrement attrayant pour les besoins de modélisation et d'identification de systèmes non-linéaires. Un des atouts majeurs du modèle de Volterra est la linéarité par rapport à ses paramètres, c¤est à dire les coefficients de ses noyaux. Cette caractéristique permet d'étendre à ce modèle certains résultats établis pour l'identification des modèles linéaires. Il est à noter que le modèle de Volterra peut, par ailleurs, être vu comme une extension naturelle de la notion de réponse impulsionnelle des systèmes linéaires aux systèmes non-linéaires. Toutefois, certaines limitations sont à circonvenir: un nombre de paramètres qui peut être très élevé et un mauvais conditionnement de la matrice des moments de l'entrée intervenant dans l¤estimation du modèle au sens de l¤erreur quadratique moyenne minimale (EQMM). Il est à noter que ce mauvais conditionnement est aussi à l¤origine de la lenteur de convergence des algorithmes adaptatifs de type LMS (Least Mean Squares). Cette thèse traite principalement de ces deux questions. Les solutions apportées sont essentiellement basées sur la notion d'orthogonalité. D'une part, l'orthogonalité est envisagée vis à vis de la structure du modèle en développant les noyaux de Volterra sur une base orthogonale de fonctions rationnelles. Ce développement est d'autant plus parcimonieux que la base est bien choisie. Pour ce faire, nous avons développé de nouveaux outils d'optimisation des bases de Laguerre et BFOR (Base de Fonctions Orthonormales Rationnelles) pour la représentation des noyaux de Volterra. D'autre part, l'orthogonalité est envisagée en rapport avec les signaux d'entrée. En exploitant les propriétés statistiques de l¤entrée, des bases de polynômes orthogonaux multivariables ont été construites. Les paramètres du modèle de Volterra développé sur de telles bases sont alors estimés sans aucune inversion matricielle, ce qui simplifie significativement l¤estimation paramétrique au sens EQMM. L¤orthogonalisation des signaux d¤entrée a aussi été envisagée via une procédure de Gram-Schmidt. Dans un contexte adaptatif, il en résulte une accélération de la convergence des algorithmes de type LMS sans un surcoût de calcul excessif. Certains systèmes physiques peuvent être représentés à l¤aide d¤un modèle de Volterra simplifié, à faible complexité paramétrique, tel que le modèle de Hammerstein et celui de Wiener. C¤est le cas d¤un canal de communication représentant l'accès à un réseau sans fil via une fibre optique. Nous montrons notamment que les liaisons montante et descendante de ce canal peuvent respectivement être représentées par un modèle de Wiener et par un modèle de Hammerstein. Dans le cas mono-capteur, en utilisant un précodage de la séquence d'entrée, nous développons une solution permettant de réaliser l'estimation conjointe du canal de transmission et des symboles transmis de manière semiaveugle. Il est à noter que, dans le cas de la liaison montante, une configuration multi-capteurs peut aussi être envisagée. Pour une telle configuration, grâce à un précodage spécifique de la séquence d¤entrée, nous exploitons la diversité spatiale introduite par les capteurs et la diversité temporelle de sorte à obtenir une représentation tensorielle du signal reçu. En appliquant la technique de décomposition tensorielle dite PARAFAC, nous réalisons l'estimation conjointe du canal et des symboles émis de manière aveugle. Mots clés: Modélisation, Identification, Bases orthogonales, Base de Laguerre, Base de fonctions orthonormales rationnelles, Polynômes orthogonaux, Optimisation de pôles, Réduction de complexité, Egalisation, Modèle de Volterra, Modèle de Wiener, Modèle de Hammerstein, Décomposition PARAFAC.
APA, Harvard, Vancouver, ISO, and other styles
10

Debray, Eva. "L’ordre social spontané : étude des phénomènes d’auto-organisation dans le champ social." Thesis, Paris 10, 2016. http://www.theses.fr/2016PA100019/document.

Full text
Abstract:
Cette recherche en théorie sociale trouve sa source dans un problème classique livré notamment par la pensée de Hobbes, celui de la possibilité de l’ordre social – l’ordre social étant ici conçu comme une situation sociale où les membres d’un groupe parviennent à vivre ensemble de manière relativement pacifique. Elle se penche, plus précisément, sur des théories qui, bien qu’issues de traditions de pensée très différentes, proposent une même formulation critique et restrictive de ce problème : ces théories infirment l’idée que cet ordre (ou du moins toute situation d’ordre social) pourrait être produit de manière intentionnelle et invitent ainsi à envisager des mécanismes de production non intentionnelle de ce dernier. Cette enquête ne prétend nullement réaliser un panorama exhaustif des différentes pensées ou théories qui ont pu défendre cette hypothèse de l’ordre spontané. Elle s’attache avant tout, en s’appuyant sur les théories de B. Spinoza, B. Pascal, A. Smith, É. Durkheim, F. A. von Hayek et N. Luhmann, à établir les termes d’un débat au sein de cette perspective. Elle dégage pour ce faire les prémisses théoriques qui, chez ces auteurs, conditionnent des types spécifiques d’analyse des mécanismes d’auto-organisation. Ce travail dégage notamment deux courants adverses au sein de ces théories. Le premier, dans lequel on inclut les projets d’Hayek et de Luhmann, défend, en se fondant sur le constat d’une spécificité des sociétés modernes, l’hypothèse que leur ordre ne peut pas reposer, ou du moins pas essentiellement, sur un contrôle social exercé sur l’individu. Le second, dans lequel s’inscrivent les pensées de Durkheim, Smith, Pascal et Spinoza, met en exergue ce que nous nommons le « problème des passions », et soutient au contraire l’idée que ce contrôle constitue une condition essentielle de cet ordre. Tandis que le premier courant insiste sur la nature cognitive des mécanismes de production non intentionnelle d’ordre, le second souligne leur dimension affective
The starting point of this investigation in social theory is the observation of strong affinities that very different and somehow rival theories have with each other. These theories investigate the problem of social order, namely « how is it possible for human beings to live with each other in a relative peaceful situation? ». Furthermore, they all maintain that this order cannot emerge but unintentionally. The present research aims at setting the terms of a debate among these approaches and focuses in this respect on the theories of Baruch Spinoza, Blaise Pascal, Adam Smith, Émile Durkheim, Friedrich August von Hayek and Niklas Luhmann. Their respective approaches to self-organizing mechanisms rest on correspondingly various theoretical assumptions. Our purpose is to point out these assumptions. For instance, Hayek and Luhmann’s theories on the one hand and those of Spinoza, Pascal, Smith and Durkheim on the other strongly differ regarding their conception of the conditions of social order: while the former, on account of the specificities of modern societies, assume that their social order cannot essentially rest on a social control, the latter argue that passions, by misleading human beings, make this social control an essential condition of peaceful living together
APA, Harvard, Vancouver, ISO, and other styles
11

Nicolas, Aurélie. "Enjeux de l'édition scientifique en province : complexité du système toulousain." Toulouse 3, 2012. http://www.theses.fr/2012TOU30354.

Full text
Abstract:
Cette recherche interroge les enjeux de l'édition scientifique sur le terrain d'une ville universitaire : Toulouse, de 1839 à nos jours. Dans une approche plurisystémique, privilégiant une entrée par la médiation scientifique, l'édition est appréhendée comme un objet complexe. Un corpus documentaire est construit à partir des archives de la maison d'édition Privat, et de résultats de recherches d'historiens et de sociologues. La place de l'éditeur vis-à-vis des réseaux scientifiques en construction au XIXe siècle et son influence sur la production des connaissances sont interrogées. Les évolutions de chaque partie du système (institution scientifique, communication scientifique, fabrication des ouvrages et édition scientifique) sont ensuite observées. Enfin, les catalogues de dix-neuf maisons d'éditions toulousaines sont explorés. Notre recherche vise à comprendre l'avènement de l'édition scientifique, sa consolidation et son évolution, sous l'influence des opportunités et des contraintes d'un contexte particulier. Si un jeu de consolidation des positionnements des structures de recherche et de l'éditeur, semble s'être établi réciproquement à la fin du XIXe siècle, un écart se fait jour aujourd'hui, entre les exigences de la recherche scientifique (ses modes d'évaluation, l'internationalisation des échanges) et le mode de production des éditeurs toulousains (auto-édition, inversion des relations de superposition entre le système scientifique et le système éditorial, mode de valorisation des collections qui ne correspond plus aux besoins de mise en visibilité de la production de connaissances régionales dans un contexte internationalisé). La fonction centrale de médiation du savoir semble alors pouvoir être réinterrogée
This research questions the issues of scientific publishing in the field of a university town: Toulouse, from 1839 to today. In a multisystemic approach, favoring entry through scientific mediation, publishing is seen as a complex object. A documentary corpus is built from the archives of the publishing house Privat, and research findings of historians and sociologists. The position of the publisher relative to scientific networks under construction in the nineteenth century and its influence on the production of knowledge are surveyed. Developments in each part of the system (scientific institution, scientific communication, making books and scientific publishing) are then observed. Finally, the catalogs of nineteen toulousans publishers are explored. Our research aims to understand the advent of scientific publishing, its consolidation and its evolution under the influence of the opportunities and constraints of a particular context. If an acting of positioning consolidation between research facilities and the publisher seems to have drawn each other in the late nineteenth century, a gap is emerging today, between the demands of scientific research (its modes of evaluation, the internationalization of trade) and the mode of production of the toulousans publishers (self-publishing, inversion of the relations of overlap between the science system and the editorial system, the method for valuing collections that no longer meets the requirements set of visibility of regional knowledge production in a internationalized context). The central function of mediation of knowledge seems then to be re-examined
APA, Harvard, Vancouver, ISO, and other styles
12

Konrad, Christian. "Computations on Massive Data Sets : Streaming Algorithms and Two-party Communication." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00859643.

Full text
Abstract:
In this PhD thesis, we consider two computational models that address problems that arise when processing massive data sets. The first model is the Data Streaming Model. When processing massive data sets, random access to the input data is very costly. Therefore, streaming algorithms only have restricted access to the input data: They sequentially scan the input data once or only a few times. In addition, streaming algorithms use a random access memory of sublinear size in the length of the input. Sequential input access and sublinear memory are drastic limitations when designing algorithms. The major goal of this PhD thesis is to explore the limitations and the strengths of the streaming model. The second model is the Communication Model. When data is processed by multiple computational units at different locations, then the message exchange of the participating parties for synchronizing their calculations is often a bottleneck. The amount of communication should hence be as little as possible. A particular setting is the one-way two-party communication setting. Here, two parties collectively compute a function of the input data that is split among the two parties, and the whole message exchange reduces to a single message from one party to the other one. We study the following four problems in the context of streaming algorithms and one-way two-party communication: (1) Matchings in the Streaming Model. We are given a stream of edges of a graph G=(V,E) with n=|V|, and the goal is to design a streaming algorithm that computes a matching using a random access memory of size O(n polylog n). The Greedy matching algorithm fits into this setting and computes a matching of size at least 1/2 times the size of a maximum matching. A long standing open question is whether the Greedy algorithm is optimal if no assumption about the order of the input stream is made. We show that it is possible to improve on the Greedy algorithm if the input stream is in uniform random order. Furthermore, we show that with two passes an approximation ratio strictly larger than 1/2 can be obtained if no assumption on the order of the input stream is made. (2) Semi-matchings in Streaming and in Two-party Communication. A semi-matching in a bipartite graph G=(A,B,E) is a subset of edges that matches all A vertices exactly once to B vertices, not necessarily in an injective way. The goal is to minimize the maximal number of A vertices that are matched to the same B vertex. We show that for any 0<=ε<=1, there is a one-pass streaming algorithm that computes an O(n^((1-ε)/2))-approximation using Ô(n^(1+ε)) space. Furthermore, we provide upper and lower bounds on the two-party communication complexity of this problem, as well as new results on the structure of semi-matchings. (3) Validity of XML Documents in the Streaming Model. An XML document of length n is a sequence of opening and closing tags. A DTD is a set of local validity constraints of an XML document. We study streaming algorithms for checking whether an XML document fulfills the validity constraints of a given DTD. Our main result is an O(log n)-pass streaming algorithm with 3 auxiliary streams and O(log^2 n) space for this problem. Furthermore, we present one-pass and two-pass sublinear space streaming algorithms for checking validity of XML documents that encode binary trees. (4) Budget-Error-Correcting under Earth-Mover-Distance. We study the following one-way two-party communication problem. Alice and Bob have sets of n points on a d-dimensional grid [Δ]^d for an integer Δ. Alice sends a small sketch of her points to Bob and Bob adjusts his point set towards Alice's point set so that the Earth-Mover-Distance of Bob's points and Alice's points decreases. For any k>0, we show that there is an almost tight randomized protocol with communication cost Ô(kd) such that Bob's adjustments lead to an O(d)-approximation compared to the k best possible adjustments that Bob could make.
APA, Harvard, Vancouver, ISO, and other styles
13

Salah, Abdellatif. "Schémas de décodage MIMO à Complexité Réduite." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00682392.

Full text
Abstract:
L'utilisation des antennes MIMO est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. De nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les systèmes MIMO avec les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation réelle. Cette thèse présente une étude très détaillée de la complexité, la performance et les aspects les plus intéressants du comportement des algorithmes de la réception pour le décodage MIMO, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance et la complexité de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaissance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées.
APA, Harvard, Vancouver, ISO, and other styles
14

Salah, Abdellatif. "Schémas de décodage MIMO à complexité réduite." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00682392.

Full text
Abstract:
L'utilisation des antennes MIMO est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. De nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les systèmes MIMO avec les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation réelle. Cette thèse présente une étude très détaillée de la complexité, la performance et les aspects les plus intéressants du comportement des algorithmes de la réception pour le décodage MIMO, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance et la complexité de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaissance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées
The use of MIMO antennas is a technique that allows to exploit in a very effective way the spatial and temporal diversity in certain systems of communication, of which the wireless communication systems. The main advantage of this technique is a good spectral efficiency. Nowadays, the mobile radio channel is increasingly used to transmit all type of information and methods allowing a more effective use of the spectrum have a fundamental importance. Today, the well-known reception algorithms are very complex, even as regards the MIMO systems with the simplest space-time codes. This complexity remains one of the main obstacles in the real exploitation of this technique. This thesis presents a detailed study of the complexity, the performance and the most interesting aspects of the behavior of the reception algorithms for MIMO decoding. This study presents a quick mean for a possible architectural conception adapted to this problem. Among the subjects presented in this thesis, an in-depth study of the performance and the complexity of these algorithms was realized, having for objective to acquire enough knowledge to be able to choose, among the large number of known algorithms, the best adapted to every particular system. Improvements in the known algorithms were also proposed and analyzed
APA, Harvard, Vancouver, ISO, and other styles
15

Darties, Benoit. "Problèmes algorithmiques et de complexité dans les réseaux sans fil." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00270118.

Full text
Abstract:
Ces dernières années ont connu l'avènement des réseaux sans fil, dopés par leur facilité de déploiement et par leur usage dans de multiples domaines : réseaux domestiques Wi-Fi, téléphonie mobile, réseaux ad-hoc, réseaux de capteurs, ... L'objet de cette thèse porte sur l'étude de problèmes algorithmiques directement inspirés des contraintes de fonctionnement rencontrées dans de tels réseaux, et se découpe en trois parties.
La première partie de nos travaux s'intéresse à l'étude du problème de la diffusion d'un message émis depuis un noeud source unique vers l'ensemble des noeuds participant au réseau. Ce problème est abordé dans plusieurs modèles de communication, qui supposent tous des émissions omnidirectionnelles à portée fixée et l'existence de phénomènes d'interférences. Il en résulte l'incapacité pour un noeud donné de garantir la réception correcte de deux transmissions voisines simultanées. Nous étudions la complexité de ce problème et proposons des stratégies de résolution exactes ou avec garantie de performance.
Dans une seconde partie, l'un des modèles de communication précédemment introduits sert de support à l'étude d'un autre problème algorithmique, dont l'objet est la satisfaction de requêtes de communications. Les travaux menés sur ce problème visent à établir sa complexité ainsi que les facteurs dont elle dépend.
La dernière partie nous amène au problème de conception de réseaux sans fil. L'objectif est d'assurer une distribution de flux depuis des noeuds sources vers des noeuds clients, en minimisant le coût de l'infrastructure déployée. Les communications établies ici à l'aide d'antennes directionnelles ne sont pas sujettes aux phénomènes d'interférences. La difficulté du problème réside dans la satisfaction de contraintes de déploiement (nombre d'antennes limitées par noeud, résistance aux pannes, ...). Nous étudions la complexité de ce problème, et proposons plusieurs méthodes de résolution exactes et approchées pour des instances de taille raisonnable.
APA, Harvard, Vancouver, ISO, and other styles
16

Singh, Arun Kumar. "Le compromis Débit-Fiabilité-Complexité dans les systèmes MMO multi-utilisateurs et coopératifs avec décodeurs ML et Lattice." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0005/document.

Full text
Abstract:
Dans les télécommunications, le débit-fiabilité et la complexité de l’encodage et du décodage (opération à virgule flottante-flops) sont largement reconnus comme représentant des facteurs limitant interdépendants. Pour cette raison, tout tentative de réduire la complexité peut venir au prix d’une dégradation substantielle du taux d’erreurs. Cette thèse traite de l’établissement d’un compromis limite fondamental entre la fiabilité et la complexité dans des systèmes de communications « outage »-limités à entrées et sorties multiples (MIMO), et ses scénarios point-à-point, utilisateurs multiple, bidirectionnels, et aidés de feedback. Nous explorons un large sous-ensemble de la famille des méthodes d’encodage linéaire Lattice, et nous considérons deux familles principales de décodeurs : les décodeurs à maximum de vraisemblance (ML) et les décodeurs Lattice. L‘analyse algorithmique est concentrée sur l’implémentation de ces décodeurs ayant comme limitation une recherche bornée, ce qui inclue une large famille de sphère-décodeurs. En particulier, le travail présenté fournit une analyse à haut rapport Signal-à-Bruit (SNR) de la complexité minimum (flops ou taille de puce électronique) qui permet d’atteindre a) une certaine performance vis-à-vis du compromis diversité-gain de multiplexage et b) une différence tendant vers zéro avec le non-interrompu (optimale) ML décodeur, ou une différence tendant vers zéro comparé à l’implémentation exacte du décodeur (régularisé) Lattice. L’exposant de complexité obtenu décrit la vitesse asymptotique d’accroissement de la complexité, qui est exponentielle en terme du nombre de bits encodés
In telecommunications, rate-reliability and encoding-decoding computational complexity (floating point operations - flops), are widely considered to be limiting and interrelated bottlenecks. For this reason, any attempt to significantly reduce complexity may be at the expense of a substantial degradation in error-performance. Establishing this intertwined relationship constitutes an important research topic of substantial practical interest. This dissertation deals with the question of establishing fundamental rate, reliability and complexity limits in general outage-limited multiple-input multiple-output (MIMO) communications, and its related point-to-point, multiuser, cooperative, two-directional, and feedback-aided scenarios. We explore a large subset of the family of linear lattice encoding methods, and we consider the two main families of decoders; maximum likelihood (ML) based and lattice-based decoding. Algorithmic analysis focuses on the efficient bounded-search implementations of these decoders, including a large family of sphere decoders. Specifically, the presented work provides high signal-to-noise (SNR) analysis of the minimum computational reserves (flops or chip size) that allow for a) a certain performance with respect to the diversity-multiplexing gain tradeoff (DMT) and for b) a vanishing gap to the uninterrupted (optimal) ML decoder or a vanishing gap to the exact implementation of (regularized) lattice decoding. The derived complexity exponent describes the asymptotic rate of exponential increase of complexity, exponential in the number of codeword bits
APA, Harvard, Vancouver, ISO, and other styles
17

Scherb, André. "La fable et le protocole : une dialectique fondatrice de processus de création dans la peinture contemporaine." Paris 8, 2009. http://octaviana.fr/document/152359737#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Notre étude des processus de création à l'œuvre dans un certain nombre de peintures contemporaines a permis de repérer deux formes de pensée, une fable et un protocole, qui correspondent, l'une à l'émergence du sens et l'autre à l'instauration de l'œuvre. Nous avons cherché à mettre en évidence leur présence lors de l'invention d'une peinture, découvrant progressivement qu'elles puisent à une source non-verbale. La recherche s'appuie sur une pratique picturale personnelle, sur l'étude de l'œuvre d'artistes et d'écrits théoriques et sur des entretiens réalisés avec six artistes contemporains : Jean-François Maurige, Shirley Jaffe, Dominique Gauthier, Christian Bonnefoi, Béatrice Bescond et Janladrou. Partant du constat qu'il existe un écart entre ce que nous faisons et ce que nous pensons faire, nous avons pu identifier une pensée profonde, pré-réfléchie, qui existe avant toute mise en mots. Avec l'éclairage des neurosciences, des théories de la pensée complexe (Edgar Morin, Miguel Benasayag), et de certaines recherches en sciences cognitives (Francisco Varela, Claire Petitmengin, Pierre Vermersch), nous avons supposé que l'impossibilité d'accéder à la totalité de notre activité cognitive nous incite à produire une fable, formulée ensuite verbalement ou plastiquement, tentative toujours renouvelée d'approcher l'indicible. L'étude montre l'importance d'une pensée en acte qui suppose, pendant la fabrique d'une peinture, une multitude de micro-décisions immédiates, en l'absence d'un débat intérieur, même si cette forme spécifique de pensée semble exclue de certaines pratiques artistiques contemporaines, en raison de leur rejet de la subjectivité et d'une mise entre parenthèse du corps. L'œuvre achevée révèle une fable et un protocole formés, c'est-à-dire formulé plastiquement. Elle donne à voir et à ressentir le processus de formulation de l'artiste. Nous postulons que c'est ce processus qui est saisi par le regardeur et qui engendre chez lui une reformulation créatrice. La peinture serait ainsi à considérer – au-delà de la pensée intentionnelle et conceptuelle, au-delà de l'objet dans sa stricte matérialité – comme un processus de pensée en transformation, qui propose une saisie provisoire de l'impensable
Our study of the creation process in a selection of contemporary paintings has enabled us to distinguish two forms of thought: a fable and a protocol, where a fable is the emergence of the sense and a protocol, the creation of the work. We tried to highlight their presence during the invention of a painting, and gradually discovered that they spring from a non-verbal source. Our research leans on a personal pictorial practice, on the study of the work of artists, on theoretical papers and on interviews with six contemporary artists: Jean-François Maurige, Shirley Jaffe, Dominique Gauthier, Christian Bonnefoi, Béatrice Bescond and Janladrou. Given that there is a difference between what we make and what we think of making, we have been able to identify the presence of a deep pre-reflective thought ahead of any verbal expression. Thanks to neurosciences, to the complex thought theories (Edgar Morin, Miguel Benasayag), and to cognitive sciences research (Francisco Varela, Claire Petitmengin, Pierre Vermersch), we supposed that the impossibility to reach the totality of our cognitive activity incites us to constantly try to approach the inexpressible by producing a fable, which is then formulated verbally or plastically. The study shows the importance of a thought in action which presents a multitude of immediate micro-decisions during the making of a painting in the absence of internal debate, even if this specific shape of thought seems to be excluded from certain contemporary artistic practices because of a discharge of subjectivity and the exclusion of the body. The finished work reveals a concretized fable and protocol which are plastically expressed and allow the formulation process of the artist to be seen and felt. We assumed that it is this particular process which is captured by the observer and enables his own creative reformulation. The painting should therefore be considered – beyond the deliberate and abstract thought and beyond the object in its strict materiality – as a transformation process of the thought, which offers a temporary capture of the unthinkable
APA, Harvard, Vancouver, ISO, and other styles
18

Kzaz, Larbi. "Étude et définition de topologies nouvelles de communication à hautes performances dans un système multiprocesseur." Lille 1, 1985. http://www.theses.fr/1985LIL10132.

Full text
Abstract:
Deux classes d'outils de communication ont été développées pour les systèmes fortement couplés : les multiple-bus et les multi-étages. Chacune de ces deux classes opte pour l'une des deux solutions extrêmes, bus ou cross-bar, et tente d'en réduire les inconvénients. Notre alternative opte pour la commutation de ligne bidirectionnelle et simultanée, et s'appuie sur une configuration en anneau de commutateurs 2x2 unidirectionnels. Cette configuration nous servira de modèle de base ; une mise en oeuvre assynchrone et répartie de son protocole d'interconnexion est proposée. Nous poursuivons par l'étude des possibilités d'extension qu'offre le modèle de base. L'objectif étant de concevoir des outils capables de prendre en charge des communications simultanées. Deux outils, le "réseau arbre", et le "multi-anneau", sont alors proposés et leurs protocoles d'interconnexion entièrement définis. Une troisième extension : le "réseau cellulaire" montre les limites de notre modèle de base. Enfin, l'évaluation de ces outils a permis la mise en évidence de leurs avantages par rapport à des outils existants. Ces avantages portent aussi bien sur leur fonctionnalité que sur leur complexité.
APA, Harvard, Vancouver, ISO, and other styles
19

Ismail, Amr. "Low Complexity Space-Time coding for MIMO systems." Phd thesis, Supélec, 2011. http://tel.archives-ouvertes.fr/tel-00771982.

Full text
Abstract:
The last few years witnessed a dramatic increase in the demand on high-rate reliable wireless communications. In order to meet these new requirements, resorting to Multiple-Input Multiple-Output (MIMO) techniques was inevitable as they may offer high-rate reliable wireless communications without any additional bandwidth. In the case where the transmitter does not have any prior knowledge about the channel state information, space-time coding techniques have proved to efficiently exploit the MIMO channel degrees of freedom while taking advantage of the maximum diversity gain. On the other hand, the ML decoding complexity of Space-Time Codes (STCs) generally increases exponentially with the rate which imposes an important challenge to their incorporation in recent communications standards. Recognizing the importance of the low-complexity criterion in the STC design for practical considerations, this thesis focuses on the design of new low-complexity Space-Time Block Codes (STBCs) where the transmitted code matrix can be expressed as a weighted linear combination of information symbols and we propose new codes that are decoded with a lower complexity than that of their rivals in the literature while providing better or slightly lower performance.
APA, Harvard, Vancouver, ISO, and other styles
20

Simonin, Gilles. "Impact de la contrainte d'incompatibilité sur la complexité et l'approximation des problèmes d'ordonnancement en présence de tâches-couplées." Montpellier 2, 2009. http://www.theses.fr/2009MON20198.

Full text
Abstract:
Depuis quelques années les véhicules sous-marins autonomes sont en plein essor, les torpilles sous-marines d'exploration en sont le parfait exemple. Cette torpille a pour objectif d'exécuter deux types de tâches : celles d'acquisition et celles de traitement. Les tâches d'acquisition sont semblables à des tâches-couplées, et les tâches de traitement sont des tâches classiques. La torpille utilise différents capteurs pour réaliser les acquisitions, certains capteurs ne peuvent pas être utilisés en même temps pour cause d'interférences. Nous introduisons donc un graphe de compatibilité permettant de représenter les tâches d'acquisition pouvant avoir leurs exécutions qui se chevauchent. La torpille possède un monoprocesseur embarqué permettant d'exécuter toutes la tâches. La première partie de nos travaux s'intéresse à la modélisation du problème, de la définition des différentes tâches utilisées et les contraintes qui leur sont appliquées. Nous mettons en avant la contrainte de compatibilité qui nous contraint à utiliser la théorie des graphes pour analyser nos problèmes. Enfin, nous finissons cette partie avec un état de l'art sur les différents résultats portant sur l'ordonnancement de tâches-couplées sur mono-processeur, et sur des problèmes de recouvrement de sommets dans des graphes. Dans une seconde partie, nous donnons la classification des problèmes possibles en faisant varier les paramètres des tâches-couplées. Nous donnons des preuves de complexité pour certains problèmes se trouvant à la limite entre la polynomialité et la NP-complétude selon les contraintes sur les paramètres. Pour chacun de ces problèmes, qui sont NP-complets, nous proposons des algorithmes d'approximation en temps polynomial et analysons les bornes obtenues selon les paramètres ou les topologies du graphe de compatibilité. L'ensemble des résultats est décomposé en trois chapitres prenant chacun en compte l'introduction d'une contrainte (d'incompatibilité et/ou de précédence). Tout au long de cette partie nous cherchons à montrer l'impact de l'introduction de la contrainte d'incompatibilité sur la complexité des problèmes d'ordonnancement avec tâches-couplées, à travers les preuves de NP-complétude et les techniques employées pour résoudre ou approximer un problème
The last couple of years have seen the advent of sub-marine machines like the sub-marine torpedo. This torpedo must execute two kind of tasks : acquisition tasks and treatment tasks. The acquisition tasks are equivalent to coupled-tasks, and treatment tasks are equivalent to classical tasks with preemption constraints. The torpedo possess different captors in order to realize the acquisitions, few captors cannot be use in same time because of the interferences. In this way, we introduce a compatibility graph in order to represent the acquisition tasks which can be executed in the same time. The torpedo possess a mono-processor used to execute the different tasks. In the first part, we introduce the model of the problem, and define the different tasks and their constraints. We discuss on the impact of the compatibility constraint on the general problem. Finally, we finish this part with a related works on general scheduling theory, on coupled-tasks, and on the different cover problems in the graph theory. In a second part, we give the classification of the different problems according to the parameters of the coupled-tasks. We give several proves of complexity for specific problem which are at the limit between polynomiality and completeness. For each studied problem, we propose either a optimal solution with an algorithm in polynomial time, or an approximation algorithm with guarantee of performance. For few problems, we study the complexity in details according to specific parameters or different topologies for the compatibility graph. All the long of this part, we try to show the impact of the introduction of the compatibility constraint on the scheduling problem with coupled-tasks
APA, Harvard, Vancouver, ISO, and other styles
21

Kellenberger-Davidian, Maya. "La quotidienneté suisse contemporaine dans sa complexité : hypostase littéraire de l'oeuvre de Peter Bichsel : thèse." Nice, 2002. http://www.theses.fr/2002NICE2013.

Full text
Abstract:
La thèse traite des propriétés spécifiques du style et de la langue de l'écrivain suisse-alémanique Peter Bischsel ; elle fait également apparaître les idées personnelles de l'auteur sur la littérature ainsi que les thèmes, les idées et le influences qui déterminent son oeuvre. Au travers des extraits de textes choisis, l'accent est mis sur l'analyse des interactions entre la société suisse et ses traducteurs littéraires, les écrivains. Il s'ensuit une approche de la problématique qui se pose en travaillant sur un écrivain suisse alémanique par rapport aux auteurs de langue allemande en général.
APA, Harvard, Vancouver, ISO, and other styles
22

Michel, Julienne. "Etude de la complexité des services de télécommunications convergents et recommandations pour la conception de ces services." Paris 8, 2013. http://www.theses.fr/2013PA083538.

Full text
Abstract:
Les services de télécommunications convergents connaissent un essor important depuis le début des années 2000 auprès du grand public. L’utilisateur est confronté à de nouveaux services de plus en plus complexes. Dans cette étude, nous soutenons l’hypothèse qu’il est possible d’avoir un service de télécommunications convergent complexe et malgré tout d’une utilisabilité simple. C’est ce que nous appelons la simplexité. La première partie est consacrée à l’étude théorique des services de télécommunications convergents et à leur complexité. Nous avons établi deux principales caractéristiques de ces services : ils se développent sur plusieurs types de terminaux (Ordinateur, Téléphone mobile, Télévision, etc. ) et regroupent de plus en plus de services autrefois distincts (Courriel, SMS, Appel téléphonique, Partage de documents, etc. ). Nous avons étudié l’impact de leur complexité sur la difficulté et la complication de leur utilisation. De la littérature, nous avons extrait des sources potentielles de cette complexité. Notamment, deux caractéristiques ont été retenues pour étudier la simplexité de ces services : les modèles mentaux et l’homogénéité. La deuxième partie de cette thèse présente les trois expériences que nous avons mis en place dans le but de tester la validité de notre hypothèse. La première expérience vise à étudier les modèles mentaux des utilisateurs afin de déterminer lesquels sont les plus adaptés pour conserver une complexité ainsi qu’une utilisation simple. La deuxième expérience cherche à déterminer le degré d’homogénéité à garder pour obtenir un service complexe et simple d’utilisation. La dernière expérience cherche à obtenir des données exploratoires dans le domaine
The convergent telecommunication services are expanding significantly since the 2000’s on the mass market. The user is confronted with new, increasingly sophisticated, services. In this study, we defend the hypothesis that it is possible to have a complex convergent telecommunication service with a simple usability. That is what we call the simplexity. The first part is dedicated to the theoretical study of the convergent telecommunication services and their complexity. We have established two main characteristics of these services: they are developed on several types of devices (Computers, Mobilephones, Televisions, etc. ) and they merged more and more features previously separated (Email, SMS, Phone call, File sharing, etc. ). We studied the impact of their complexity on the difficulty and the complication of their usage. We have extracted from literature the potential sources of this complexity. In particular, two characteristics have been kept to study the simplexity of these services: mental models and homogeneity. The second part of this thesis presents three experiments that we created in order to test the validity of our hypothesis. The first experiment studies the user’s mental models. We want to determine which of them would be the most suitable to maintain complexity and a simple usage. The goal of the second experiment is to determine the degree of homogeneity needed to obtain a complex service with a simple usage. The last is an exploratory experiment in this field
APA, Harvard, Vancouver, ISO, and other styles
23

Khainnar, Smail. "La place de la communication dans les démarches de projet urbain : logiques d'acteurs et complexité urbaine : le cas du Projet Urbain du Quartier de l'Amphithéâtre à Metz PQAM." Valenciennes, 2007. https://ged.uphf.fr/nuxeo/site/esupversions/66652777-21a6-41a6-b8d0-473f44ded32c.

Full text
Abstract:
Le projet urbain en tant qu’outil opérationnel sert à donner un ancrage territorial aux ambitions stratégiques dictées par le projet de la ville. Cependant, il se caractérise par une indétermination concernant son déroulement et son issue. Cette imprévisibilité qui est due à une multitude de facteurs (une pluralité d’acteurs porteurs de représentations et d’enjeux divers, une imbrication des échelles de décisions, un entrecroisement entre enjeux locaux de la démarche et ceux territoriaux, une sophistication technologique difficile à maîtriser, une sédimentation réglementaire : SRU, Voynet, …), interdit toute tentative de modélisation normative du processus de projet urbain, et confère à la communication une fonction capitale pour dépasser les contraintes liées à la singularité de ces démarches. Le présent travail de recherche se focalise sur le rôle de la communication entre les acteurs urbains dans les démarches projectuelles urbaines. En effet, suite à l’impossibilité de modéliser normativement le processus du projet urbain, nous avons établi des jalons d’ancrage (points récurrents) communs à toutes les démarches du projet urbain : Imaginer, Concevoir + Aménager et Habiter + Gérer. À ces trois points récurrents, nous avons fait correspondre respectivement trois logiques d’acteurs : une logique représentationnelle, une logique informationnelle et une logique d’accompagnement communicationnel. À travers cette mise en correspondance, nous avons proposé un ensemble d’outils (Registres) prenant en compte une multitude de dimensions liées au temps, au contexte, à la continuité organisationnelle, …. , et servant à améliorer la qualité lors de diverses interventions urbaines. Les propos de ces Registres ont été transposés à un fait urbain réel : le Projet du Quartier de l’Amphithéâtre à Metz PQAM. Les résultats de cette démarche ont montré que les acteurs du projet messin ont pris en compte une part de nos Registres, et que d’autres sont complètement introuvables
This research focuses on the role of communication between urban project actors. In fact, due to the impossibility of having a normative model for the project urban process, we have set up recurring items common to all urban projects: Imagine, Design + Adjust and Living + Manage. Three actor’s logics are matched respectively with these three-recurring items: a representational logic, an informational logic and an accompanying communicational logic. Through this mapping, we have proposed a set of tools (Registers), which take into account a multiple dimensions, related to the time, context, organizational continuity. . . , and serve to improve urban quality in various interventions on the city. The contents of these Registers were transposed to a real urban fact: the Quartier de l’Amphithéâtre Project in Metz. The results of this implementation have shown that project’s actors in Metz have taken into account a portion of our Registers, while others are completely untraceable
APA, Harvard, Vancouver, ISO, and other styles
24

Karoui, Anis. "E-Learning : étudier le rôle du système de communication pour comprendre les dispositifs d'enseignement à distance." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM5900/document.

Full text
Abstract:
Le e-learning, et plus particulièrement l’enseignement à distance, est ici appréhendé comme terrain d’étude pour le chercheur en sciences de l’information et de la communication (SIC). La problématique adopte une démarche pluridisciplinaire; ancrée sur les Sciences de l’Information et de la Communication, elle intègre, sous une forme systémique, des apports heuristiques des sciences de l'éducation, de l’épistémologie, des sciences cognitives et des sciences humaines. Elle questionne la pertinence du système de communication au sein des dispositifs d’enseignement et de formation à distance.Les technologies numériques de l’information et de la communication (TNIC) intégrées dans des environnements d’apprentissage ouvrent de nouveaux horizons pour l’éducation à travers le développement de l'enseignement à distance (EAD) permettant de dépasser les contraintes d’espace et de temps souvent imposées par le système éducatif traditionnel. Nous proposons d'étudier ces dispositifs en insistant sur la pertinence et l'importance de la communication dans leur performance et réussite car nous constatons, à travers une étude empirique menée sur un centre de télé-enseignement en sciences, qu’il ne suffit pas d’inscrire les apprenants sur une plateforme dédiée à l’enseignement et à la transmission de savoirs pour que ces derniers s’accrochent à leur formation, atteignent leurs objectifs et acquièrent des compétences
Elearning has been chosen as a field study on Information and Communication Sciences (ICS). The problem takes a multidisciplinary approach: anchored on Information and Communication Sciences, it integrates, in a systemic form, heuristic contributions of educational sciences, epistemology, cognitive sciences and humanities. It questions the relevance of the communication system within distance systems of education and training.Integrating numerical technologies of information and communication in learning environments open up new horizons for education by developing distance education to overcome space and time constraints often imposed by the traditional education system. We propose to study these devices with an emphasis on the relevance and the importance of communication on their performance and success. As we see, through an empirical study on a distance education center, that it is not enough to register learners on a platform dedicated to teaching and transmitting knowledges to make them cling to their training, achieve their goals and get skills
APA, Harvard, Vancouver, ISO, and other styles
25

Klaimi, Rami. "Etude de turbocodes non binaires pour les futurs systèmes de communication et de diffusion." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0141.

Full text
Abstract:
Les systèmes de téléphonie mobile de 4ème et 5ème générations ont adopté comme techniques de codage de canal les turbocodes, les codes LDPC et les codes polaires binaires. Cependant, ces codes ne permettent pas de répondre aux exigences, en termes d’efficacité spectrale et de fiabilité, pour les réseaux de communications futurs (2030 et au-delà), qui devront supporter de nouvelles applications telles que les communications holographiques, les véhicules autonomes, l’internet tactile … Un premier pas a été fait il y a quelques années vers la définition de codes correcteurs d’erreurs plus puissants avec l’étude de codes LDPC non binaires, qui ont montré une meilleure performance que leurs équivalents binaires pour de petites tailles de code et/ou lorsqu'ils sont utilisés sur des canaux non binaires. En contrepartie, les codes LDPC non binaires présentent une complexité de décodage plus importante que leur équivalent binaire. Des études similaires ont commencé à émerger du côté des turbocodes. Tout comme pour leurs homologues LDPC, les turbocodes non binaires présentent d’excellentes performances pour de petites tailles de blocs. Du point de vue du décodage, les turbocodes non binaires sont confrontés au même problème d’augmentation de la complexité de traitement que les codes LDPC non binaire. Dans cette thèse nous avons proposé une nouvelle structure de turbocodes non binaires en optimisant les différents blocs qui la constituent. Nous avons réduit la complexité de ces codes grâce à la définition d’un algorithme de décodage simplifié. Les codes obtenus ont montré des performances intéressantes en comparaison avec les codes correcteur d’erreur de la littérature
Nowadays communication standards have adopted different binary forward error correction codes. Turbo codes were adopted for the long term evolution standard, while binary LDPC codes were standardized for the fifth generation of mobile communication (5G) along side with the polar codes. Meanwhile, the focus of the communication community is shifted towards the requirement of beyond 5G standards. Networks for the year 2030 and beyond are expected to support novel forward-looking scenarios, such as holographic communications, autonomous vehicles, massive machine-type communications, tactile Internet… To respond to the expected requirements of new communication systems, non-binary LDPC codes were defined, and they are shown to achieve better error correcting performance than the binary LDPC codes. This performance gain was followed by a high decoding complexity, depending on the field order.Similar studies emerged in the context of turbo codes, where the non-binary turbo codes were defined, and have shown promising error correcting performance, while imposing high complexity. The aim of this thesis is to propose a new low-complex structure of non-binary turbocodes. The constituent blocks of this structure were optimized in this work, and a new low complexity decoding algorithm was proposed targeting a future hardware implementation. The obtained results are promising, where the proposed codes are shown to outperform existing binary and non-binary codes from the literature
APA, Harvard, Vancouver, ISO, and other styles
26

Meunier, Pierre-etienne. "Les automates cellulaires en tant que modèle de complexités parallèles." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00770175.

Full text
Abstract:
The intended goal of this manuscript is to build bridges between two definitions of complexity. One of them, called the algorithmic complexity is well-known to any computer scientist as the difficulty of performing some task such as sorting or optimizing the outcome of some system. The other one, etymologically closer from the word "complexity" is about what happens when many parts of a system are interacting together. Just as cells in a living body, producers and consumers in some non-planned economies or mathematicians exchanging ideas to prove theorems. On the algorithmic side, the main objects that we are going to use are two models of computations, one called communication protocols, and the other one circuits. Communication protocols are found everywhere in our world, they are the basic stone of almost any human collaboration and achievement. The definition we are going to use of communication reflects exactly this idea of collaboration. Our other model, circuits, are basically combinations of logical gates put together with electrical wires carrying binary values, They are ubiquitous in our everyday life, they are how computers compute, how cell phones make calls, yet the most basic questions about them remain widely open, how to build the most efficient circuits computing a given function, How to prove that some function does not have a circuit of a given size, For all but the most basic computations, the question of whether they can be computed by a very small circuit is still open. On the other hand, our main object of study, cellular automata, is a prototype of our second definition of complexity. What "does" a cellular automaton is exactly this definition, making simple agents evolve with interaction with a small neighborhood. The theory of cellular automata is related to other fields of mathematics, such as dynamical systems, symbolic dynamics, and topology. Several uses of cellular automata have been suggested, ranging from the simple application of them as a model of other biological or physical phenomena, to the more general study in the theory of computation.
APA, Harvard, Vancouver, ISO, and other styles
27

Sunny, Anupa. "Complexity measures through the lens of two-player games and signatures of the hypercube." Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7070.

Full text
Abstract:
Les mesures de complexité des fonctions booléennes capturent divers aspects de la difficulté du calcul d'une fonction et leur étude consiste à trouver des connexions entre différentes mesures de complexité. Dans la première partie de cette thèse, nous introduisons et étudions la complexité de jeux de certificats, une mesure de complexité basée sur la probabilité de gagner un jeu dans lequel deux joueurs reçoivent des entrées avec des valeurs de fonctions différentes et doivent produire un indice i pour lequel leurs entrées diffèrent, sans communiquer. Nous donnons des bornes supérieures et inférieures pour les stratégies à base de pièces privées, de pièces publiques, d'intrication partagée et de non-signalisation, et nous prouvons quelques résultats de séparations. D'une part, nous montrons que la complexité dans le cas des pièces publiques est majorée par les complexités de requête aléatoire et de certificat. D'autre part, nous montrons qu'elle est minorée par la complexité fractionnelle de certificat, ce qui en fait un bon candidat pour trouver des bornes inférieures fortes sur la complexité de requête aléatoire. La complexité dans le cas des pièces privées est minorée par la complexité de requête aléatoire à erreur nulle. Nous utilisons la non-signalisation, une notion d'information quantique, pour minorer par n la complexité de jeux de certificats quantiques de la fonction OR, dont la complexité de requête quantique est de Θ(√n), puis nous montrons que ce "goulot d'étranglement de non-signalisation" s'applique à toutes les fonctions à sensibilité, à sensibilité de bloc ou à sensibilité de bloc fractionnaire élevée. Nous considérons également la version mono-bit des jeux de certificats, où les entrées des deux joueurs sont restreints à une distance de Hamming de 1. Nous prouvons que la version mono-bit de la complexité de jeux de certificats avec aléa partagé est égale à la sensibilité à un facteur constant près, ce qui donne une nouvelle caractérisation de la sensibilité. D'autre part, la version mono-bit de la complexité de jeux de certificats avec aléa privé est égale à λ2, où λ est la sensibilité spectrale. Dans la deuxième partie de cette thèse, nous revisitons la célèbre preuve de la conjecture de la sensibilité par Hao Huang. En utilisant des techniques spectrales, Huang a prouvé que tout sous-graphe de l'hypercube Hn de dimension n induit sur plus de la moitié des sommets a un degré maximal d'au moins √n. Combiné avec des travaux antérieurs, ce résultat a complété une preuve de la conjecture de la sensibilité. Nous en donnons une preuve alternative en utilisant seulement la dépendance linéaire des vecteurs associés aux sommets de l'hypercube. Notre approche permet de mieux comprendre les propriétés structurelles du sous-graphe induit, en plus du plus grand degré. En particulier, nous prouvons que dans tout sous-graphe induit de Hn avec plus de la moitié du nombre de sommets, il existe deux sommets, l'un de parité impaire et l'autre de parité paire, chacun ayant au moins n sommets à une distance au plus égale à 2. Comme application, nous montrons que pour toute fonction booléenne f, le degré polynomial est majoré par le produit de la sensibilité 0 et de la sensibilité 1, s0(f)s1(f), une affirmation strictement plus forte qui implique le théorème de Huang. Nous obtenons également des relations structurelles pour les sous-graphes induits à distance 3. Un ingrédient clé de la preuve de Huang était des hypercubes signés avec la propriété que chaque cycle de longueur 4 est affecté d'un signe négatif. Nous examinons en détail cette signature et donnons une signature quasi-optimale qui utilise le nombre minimum de bords négatifs tout en garantissant que chaque cycle de longueur 4 est négatif. Ce problème s'avère être lié à l'un des problèmes d'Erdös sur le plus grand sous-graphe de l'hypercube exempt de 4-cycles
Complexity measures of Boolean functions capture various aspects of the hardness of computing a function and their study is about finding connections between different complexity measures. In the first part of this thesis, we introduce and study Certificate Game complexity, a measure of complexity based on the probability of winning a game in which two players are given inputs with different function values and are asked to output some index i where their inputs differ, in a zero-communication setting. We give upper and lower bounds for private coin, public coin, shared entanglement and non-signaling strategies, and give some separations. We show that complexity in the public coin model is bounded above by Randomised query and Certificate complexities. On the other hand, it is bounded below by fractional certificate complexity, making it a good candidate to prove strong lower bounds on randomised query complexity. Complexity in the private coin model is bounded below by zero-error randomised query complexity. The quantum measure highlights an interesting and surprising difference between classical and quantum query models. While public coin certificate game complexity is bounded above by randomised query complexity, quantum certificate game complexity can be quadratically larger than quantum query complexity. We use non-signaling, a notion from quantum information, to give a lower bound of n on the quantum certificate game complexity of the OR function, whose quantum query complexity is Θ(√n) and then go on to show that this "non-signaling bottleneck" applies to all functions with high sensitivity, block sensitivity or fractional block sensitivity. We also consider the single-bit version of certificate games, where the inputs of the two players are restricted to having Hamming distance 1. We prove that the single-bit version of certificate game complexity with shared randomness is equal to sensitivity up to constant factors, thus giving a new characterization of sensitivity. On the other hand, the single-bit version of certificate game complexity with private randomness is equal to λ2, where λ is the spectral sensitivity. In the second part of this thesis, we revisit the celebrated proof of the sensitivity conjecture by Hao Huang. Using spectral techniques, Huang proved that every subgraph of the hypercube Hn of dimension n induced on more than half the vertices has maximum degree at least √n. Combined with earlier work, this completed a proof of the sensitivity conjecture. We show an alternate proof of Huang's result using only linear dependency of vectors associated with the vertices of the hypercube. Our approach helps gain insight on more structural properties of the induced subgraph in addition to the largest degree. In particular, we prove that in any induced subgraph of Hn with more than half the number of vertices, there are two vertices, one of odd parity and the other of even parity, each with at least n vertices at distance at most 2. As an application, we show that for any Boolean function f, the polynomial degree is bounded above by the product of 0-sensitivity and 1-sensitivity, s0(f)s1(f), a strictly stronger statement which implies Huang's theorem. We also obtain structural relations for induced subgraphs at distance 3. A key implement in Huang's proof was signed hypercubes with the property that every cycle of length 4 is assigned a negative sign. We take a detailed look at this signature and give a nearly optimal signature that uses the minimum number of negative edges while ensuring that every 4-cycle is negative. This problem turns out to be related to one of Erdös' problems on the largest 4-cycle free subgraph of the hypercube
APA, Harvard, Vancouver, ISO, and other styles
28

Ouertani, Rym. "Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite." Phd thesis, Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00718214.

Full text
Abstract:
Les systèmes à antennes multiples permettent d’accroitre significativement la capacité. Toutefois, le décodage de tels systèmes présente une grande complexité qui croit en fonction du nombre d'antennes et de la taille de la constellation. Nous proposons un décodeur, appelé SB-Stack basé sur la stratégie de recherche du décodeur séquentiel Stack et la région de recherche du décodeur par sphères. Ce décodeur a une complexité moindre par rapport aux décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant des performances sous-optimales avec des complexités décroissantes. L’utilisation de codes correcteurs d'erreurs nécessite des sorties souples fournies par le décodeur espace-temps, qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques. En pratique, il est important d'avoir une complexité faible mais également constante dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner le décodeur le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment
MIMO systems offer large capacity. Several decoders of such systems exist in the literature. Unfortunately, their complexity increases drastically with the lattice dimension and the constellation size. Then, we propose a sequential algorithm (SB-Stack) based on the stack decoder search strategy and the sphere decoder search region. The proposed decoder outperforms the existing ones in term of complexity while achieving ML performance. Furthermore, introducing a bias parameter, the SB-Stack gives a range of performances from ML to ZF-DFE with proportional complexities. So, different performance/complexity trade-offs could be obtained. When channel coding is used, soft decoding becomes necessary. The SB-Stack is then extended to support soft-output detection. A straightforward idea was to exploit the nodes stored in the stack at the end of hard decoding process to calculate LLR. The gain of such method is rather large then classical soft decoders. The big variation of the complexity between low and high SNR is an additional problem because of the variable decoding time. We propose an adaptive decoder based on the SB-Stack that switches between several decoders according to the channel realization and the system specifications. This decoder has an almost constant complexity while keeping good performance. Lattice reduction is used to accelerate the decoding of infinite lattice. Using the MMSE-GDFE, it becomes possible to apply lattice reduction when finite constellations are considered. Therefore, interesting results are obtained when considering MIMO schemes combining the lattice reduction, the MMSE-GDFE process and the sequential decoders given previously
APA, Harvard, Vancouver, ISO, and other styles
29

Ouertani, Rym. "Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00718214.

Full text
Abstract:
Durant ces dernières années, un grand intérêt a été accordé aux systèmes de communication sans fil ayant plusieurs antennes en émission et en réception. Les codes espace-temps permettent d'exploiter tous les degrés de liberté de tels systèmes. Toutefois, le décodage de ces codes présente une grande complexité qui croit en fonction du nombre d'antennes déployées et de la taille de la constellation utilisée. Nous proposons un nouveau décodeur, appelé SB-Stack (Spherical Bound-Stack decoder) basé sur un algorithme de recherche dans l'arbre. Ce décodeur combine la stratégie de recherche du décodeur séquentiel Stack (dit également décodeur à pile) et la région de recherche du décodeur par sphères. Nous montrons que ce décodeur présente une complexité moindre par rapport à tous les décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant une multitude de performances allant du ZF-DFE au ML avec des complexités croissantes, ainsi plusieurs compromis performances-complexités sont obtenus. Comme pour tous les systèmes de communication, les codes espace-temps pour les systèmes à antennes multiples peuvent être concaténés avec des codes correcteurs d'erreurs. Généralement, ces derniers sont décodés par des décodeurs à entrées et sorties souples. Ainsi, nous avons besoin de sorties souples fournies par le décodeur espace-temps qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques (Log-Likelihood Ratio - LLR). Pour la mise en oeuvre pratique des décodeurs, il est important d'avoir une complexité faible mais avoir également une complexité constante est indispensable dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner, parmi plusieurs algorithmes de décodage, celui qui est le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. En sortie de cette phase, la matrice du canal équivalente est mieux conditionnée ce qui permet de réduire la complexité d'un décodeur optimal et d'améliorer les performances d'un décodeur sous-optimal. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment.
APA, Harvard, Vancouver, ISO, and other styles
30

Lacayo, Virginia. "Communicating Complexity: A Complexity Science Approach to Communication for Social Change." Ohio University / OhioLINK, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1367522049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Mermet, Eric. "Aide à l'exploration des propriétés structurelles d'un réseau de transport : conception d'un modèle pour l'analyse, la visualisation et l'exploration d'un réseau de transport." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1037.

Full text
Abstract:
Un réseau de transport est un objet géographique complexe possédant plusieurs dimensions : géométrique, topologique, métrique et relationnelle. À partir de ces dimensions, il est possible d'effectuer une analyse se situant entre l'analyse descriptive des composantes issues des bases de données et l'analyse fonctionnelle reposant sur des paramètres anthropiques. Cette analyse dite structurelle permet de mettre en évidence certaines propriétés du réseau sans contexte d'usage. Elle est basée sur la construction et l'analyse d'indicateurs basés sur les relations proposées par le réseau : les indicateurs relationnels. Ils mettent en évidence ses potentialités relationnelles ; c'est à dire en quoi celui-ci par sa structure etl'organisation spatiale et topologique de ses composantes prédispose à la mise en relation plus ou moins aisée de lieux de l'espace. Notre travail consiste en la conception d'un modèle pour l'analyse et l'exploration des propriétés structurelles d'un réseau de transport. Ce type d'analyse engendre une complexité combinatoire liée au nombre de relations sur le réseau, une complexité algorithmique liée aux calculs des indicateurs et une complexité visuelle liée à la difficulté de mettre en valeur des informations. Le modèle proposé vise à faciliter à l'utilisateur l'analyse exploratoire des propriétés structurelles du réseau par la création de cartes exploratoires. Notre modèle comprend deux parties. La première permet de réaliser des cartes statiques d'exploration. La seconde permet la combinaison visuelle de cartes en s'appuyant sur un langage graphique. Les deux aspects du modèle ont été développés dans un prototype logiciel baptisé GeoGraphLab
A transportation network is a complex spatial system characterized by four dimension types : geometric, topological, metric and relational. Thanks to these dimensions, it is possible to perform analysis situated in between the descriptive analysis of components from databases and functional analysis based on anthropogenic parameters. This analysis called structural helps to emphasize some properties of the network without usage context. It is established on the construction and analysis of indicators based on the relationship generated by the network: the relational indicators. They highlight their relational possibilities ; ie how their structure and spatial organization and topology of their components predispose to connect places in space in more or less easy way. Our work consists of designing a model for analysis and exploration of the structural properties of a transportation network. This type of analysis leads to a combinatorial complexity related to the number of relationships within the network, algorithmic complexity related to the calculation of indicators and visual complexity related to the difficulty to emphasize information. The proposed model aims to supply the user with the exploratory analysis of structural properties of the network by creating exploratory maps. Our model is composed of two parts. The first one allows to prepare static maps of exploration. The second one enables the visual combination of maps based on a graphic language. Both aspects of the model were developed in a prototype software called GeoGraphLab
APA, Harvard, Vancouver, ISO, and other styles
32

Piccardo, Enrica. "Créativité et technologies de l'information et de la communication dans l'enseignement/apprentissage des langues étrangères." Compiègne, 2003. http://www.theses.fr/2003COMP1446.

Full text
Abstract:
Cette étude concerne la relation entre écriture et TIC dans le cas d'un travail collaboratifvisant à la création de produits multimédias à partir de logiciels grand public. La recherche, stimulée par l'observation sur le terrain de certains problèmes non résolus par l'approche communicative dominante, s'est faite sur le modèle de la recherche-action. Elle aborde la question de l'intégration des TIC en classe de langue avec pour objectif de favoriser une production écrite créative et ce que celle-ci peut entraîner en termes de motivation, d'implication personnelle et d'autonomisation de l'apprenant. La compréhension des facteurs qui ont émergé au cours de la recherche - la fonction poétique imaginative de la langue, la complexité des mécanismes d'acquisition d'une langue étrangère, la nécessité d'une implication personnelle du sujet apprenant, l'écriture comme lieu favorisant la créativité et l'émergence du sujet - a permis d'analyser les spécificités des TIC dans l'enseignement/apprentissage des langues étrangères et de reconsidérer les liens entre TIC, écriture et créativité. L'étude a fait émerger des concepts clé tels que : la relation étroite entre écriture et ordinateur, qui favorise l'attitude active envers l'écriture de la part de l'apprenant ; la relation inverse entre la structuration figée du logiciel et l'intervention créative de l'apprenant ; la synergie possible entre l'utilisation créative des TIC et la pédagogie de projet. L'intégration des TIC dans un parcours didactique axé sur la créativité semble favoriser très fortement la motivation de l'apprenant, laquelle à son tour peut impulser un processus efficace d'acquisition de compétences linguistiques. Dans la perspective qui se dégage à la fin de cette étude, l'enseignant propose les TIC en tant que matériel non structuré sur lequel va pouvoir se réaliser le potentiel créatif de l'apprenant, le travail collaboratif s'effectuant dans un cadre de "basse technologie" et de "haute créativité".
APA, Harvard, Vancouver, ISO, and other styles
33

Moataz, Fatima Zahra. "Vers des réseaux optiques efficaces et tolérants aux pannes : complexité et algorithmes." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4077/document.

Full text
Abstract:
Nous étudions dans cette thèse des problèmes d’optimisation avec applications dans les réseaux optiques. Les problèmes étudiés sont liés à la tolérance aux pannes et à l’utilisation efficace des ressources. Les résultats obtenus portent principalement sur la complexité de calcul de ces problèmes. La première partie de cette thèse est consacrée aux problèmes de trouver des chemins et des chemins disjoints. La recherche d’un chemin est essentielle dans tout type de réseaux afin d’y établir des connexions et la recherche de chemins disjoints est souvent utilisée pour garantir un certain niveau de protection contre les pannes dans les réseaux. Nous étudions ces problèmes dans des contextes différents. Nous traitons d’abord les problèmes de trouver un chemin et des chemins lien ou nœud- disjoints dans des réseaux avec nœuds asymétriques, c’est-à-dire des nœuds avec restrictions sur leur connectivité interne. Ensuite, nous considérons les réseaux avec des groupes de liens partageant un risque (SRLG) en étoile : ensembles de liens qui peuvent tomber en panne en même temps suite à un événement local. Dans ce type de réseaux, nous examinons le problème de recherche des chemins SRLG-disjoints. La deuxième partie de cette thèse est consacrée au problème de routage et d’allocation de spectre (RSA) dans les réseaux optiques élastiques (EONs). Les EONs sont proposés comme la nouvelle génération des réseaux optiques et ils visent une utilisation plus efficace et flexible des ressources optiques. Le problème RSA est central dans les EONs. Il concerne l’allocation de ressources aux requêtes sous plusieurs contraintes
We study in this thesis optimization problems with application in optical networks. The problems we consider are related to fault-tolerance and efficient resource allocation and the results we obtain are mainly related to the computational complexity of these problems. The first part of this thesis is devoted to finding paths and disjoint paths. Finding a path is crucial in all types of networks in order to set up connections and finding disjoint paths is a common approach used to provide some degree of protection against failures in networks. We study these problems under different settings. We first focus on finding paths and node or link-disjoint paths in networks with asymmetric nodes, which are nodes with restrictions on their internal connectivity. Afterwards, we consider networks with star Shared Risk Link Groups (SRLGs) which are groups of links that might fail simultaneously due to a localized event. In these networks, we investigate the problem of finding SRLG-disjoint paths. The second part of this thesis focuses on the problem of Routing and Spectrum Assignment (RSA) in Elastic Optical Networks (EONs). EONs are proposed as the new generation of optical networks and they aim at an efficient and flexible use of the optical resources. RSA is the key problem in EONs and it deals with allocating resources to requests under multiple constraints. We first study the static version of RSA in tree networks. Afterwards, we examine a dynamic version of RSA in which a non-disruptive spectrum defragmentation technique is used. Finally, we present in the appendix another problem that has been studied during this thesis
APA, Harvard, Vancouver, ISO, and other styles
34

Trompette, Justine. "Complexité des interventions en santé publique et en promotion de la santé : exploration de son appréhension par les chercheurs et par les acteurs de terrain." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0335/document.

Full text
Abstract:
Contexte – Les interventions de santé publique et plus particulièrement les interventions de promotion de la santé sont considérées comme « complexes ». Leur évaluation représente un défi tant pour les chercheurs – lorsqu’il s’agit de caractériser ce qui produit des effets – que pour les acteurs – lorsqu’il s’agit de transférer une intervention d’efficacité prouvée –, notamment en raison de la forte influence du contexte sur l’efficacité de ces interventions. Cette problématique de la complexité soulève plusieurs questions aussi bien conceptuelles qu’opérationnelles : comment les chercheurs et acteurs appréhendent-ils ces notions en vue de développer, d’implanter, de « routiniser », ou de transférer une intervention ? Quels sont alors les méthodes et les outils évaluatifs qui permettraient de mieux appréhender la complexité de ces interventions ? Objectifs – L’objectif général de cette recherche doctorale est d’explorer l’appréhension et l’utilisation de la complexité par les chercheurs et les acteurs de terrain en santé publique et plus particulièrement en promotion de la santé. Plus spécifiquement, il avait pour objectifs de : décrire et analyser les dimensions de la complexité identifiées par les chercheurs et par les acteurs de terrain, en particulier les éléments constitutifs des interventions et de leurs contextes d’implantation ; décrire et analyser comment les chercheurs et acteurs s’appropriation les concepts de la complexité et prennent en compte la complexité des interventions dans le développement, la mise en œuvre, l’évaluation et le transfert des interventions. Méthodes – Pour répondre à ces objectifs, nous avons procédé en deux étapes. La première consistait en une revue mixte de la littérature et visait notamment à identifier l’appréhension de la complexité faite par les chercheurs l’influence de celle-ci sur leurs choix méthodologiques. La seconde a été réalisée à partir d’une étude de cas afin : de proposer une description fine de la complexité du terrain à la fois par les acteurs et avec notre regard de chercheur forméà la complexité ; d’identifier la manière dont les acteurs prenaient en compte la complexité dans leurs pratiques. Résultats – Les résultats croisés de la revue de la littérature et de l’étude de cas identifient deux dimensions majeures de complexité : les caractéristiques des parties prenantes et le contexte. Si la notion de complexité est d’actualité en recherche, nos travaux montrent qu’elle reste difficile à justifier et à décrire. La complexité, fortement reconnue par les chercheurs, avait influencé la réalisation d’adaptations méthodologiques lors de l’élaboration et/ou de l’évaluation de leurs interventions notamment par l’application des recommandations du Medical Research Council. La prise en compte de la complexité par les acteurs se rencontre quant à elle essentiellement dans les adaptations qu’ils réalisent au quotidien. Discussion – Cette recherche doctorale soulève trois points de discussion et de perspectives : la définition de la complexité et ses évolutions attendues au regard de la mise en évidence de l’importance du dynamisme des interventions ; le reporting des interventions comme levier d’amélioration de développement et d’évaluation des interventions ; la plus-value des espaces partagés acteurs-chercheurs dans la production de données probantes
Context – Public health interventions and especially health promotion interventions are considered « complex ». Their evaluation represents a challenge for researchers, which aims to communicate a proven effectiveness intervention with strong contextual influence on the effectiveness of these interventions.This issue of complexity raises several conceptual as well as operational questions: how do researchers and actors understand these notions in order to develop, implement, « routine », or transfer an intervention? What are the evaluation methods and tools that would make it possible to better understand the complexity of these interventions? Objectives – The general objective of this doctoral research is to explore the apprehension and use of complexity by researchers and stakeholders in public health and more particularly in health promotion. More commonly, it aimed to: describe and analyze the dimensions of the complexity identified by researchers and stakeholders, particularly the components of interventions and their contexts; describe and analyze how researchers and stakeholders appropriate the concepts of complexity and take into account the complexity of interventions in the development, implementation, evaluation and transfer of interventions. Methods – To meet these objectives we proceeded in two stages. The first stage consisted of a mixed review of the literature and aimed particularly at identifying the apprehension of the complexity made by the researchers of the influence of thisone on their methodological choices. The second stage was realised from a case study: to propose a fine description of the complexity of the field both by the actors and the researcher trained to the complexity; to identify the way in which the actors took into account the complexity in their practice. Results – The crossed results of the review of the literature and the study of two major dimensions: the characteristics of the stakeholders and the context. If the notion of complexity is relevant in research, our work highlight that it’s still hard to justify and describe. Researcher responsiveness has been influenced by methodological adaptations in the development and / or evaluation of their interventions, including the implementation of the recommendations of the Medical Research Council. Consideration of the complexity by the actors meets in the adaptations which are imposed on a daily basis. Discussion – This doctoral study raises three points of discussion and perspectives: the definition of the complexity and its evolutions which intervene with regard to highlighting the importance of dynamic interventions; the reporting of interventions as a lever for improving the development and evaluation of interventions; the added value of shared spaces between actors and researchers in the production of evidence
APA, Harvard, Vancouver, ISO, and other styles
35

Ada, Anil. "Communication complexity." Thesis, McGill University, 2014. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=121119.

Full text
Abstract:
Communication complexity studies how many bits a certain number of parties need to communicate with each other in order to compute a function whose input is distributed among those parties. Although it is a natural area of investigation based on practical considerations, the main motivation comes from the myriad of applications in theoretical computer science.This thesis has three main parts, studying three different aspects of communication complexity.1. The first part is concerned with the k-party communication complexity of functions F:({0,1}^n)^k -> {0,1} in the 'number on the forehead' (NOF) model. This is a fundamental model with many applications. In this model we study composed functions f of g. These functions include most of the well-known and studied functions in communication complexity literature. A major goal is to understand which combinations of f and g lead to hard communication functions. In particular, due to important circuit applications, it is of great interest to understand how powerful the NOF model becomes when k is log n or more. Motivated by these goals, we show that there is an efficient O(log^3 n) cost simultaneous protocol for sym of g when k > 1+log n, sym is any symmetric function and g is any function. This class of functions includes some functions that were previously conjectured to be hard and our result rules this class out for possible very important circuit complexity applications. We also give Ramsey theoretic applications of our efficient protocol. In the setting of k < log n, we study more closely functions of the form majority of g, mod_m of g, and nor of g, where the latter two are generalizations of the well-known functions Inner Product and Disjointness respectively. We characterize the communication complexity of these functions with respect to the choice of g. As the main application, we answer a question posed by Babai et al. (SIAM Journal on Computing, 33:137--166, 2004) and determine the communication complexity of majority of qcsb, where qcsb is the "quadratic character of the sum of the bits" function. 2. The second part is about Fourier analysis of symmetric boolean functions and its applications in communication complexity and other areas. The spectral norm of a boolean function f:{0,1}^n -> {0,1} is the sum of the absolute values of its Fourier coefficients. This quantity provides useful upper and lower bounds on the complexity of a function in areas such as communication complexity, learning theory and circuit complexity. We give a combinatorial characterization for the spectral norm of symmetric functions. We show that the logarithm of the spectral norm is of the same order of magnitude as r(f)log(n/r(f)) where r(f) = max(r_0,r_1), and r_0 and r_1 are the smallest integers less than n/2 such that f(x) or f(x)parity(x) is constant for all x with x_1 + ... + x_n in [r_0, n-r_1]. We present some applications to the decision tree and communication complexity of symmetric functions. 3. The third part studies privacy in the context of communication complexity: how much information do the players reveal about their input when following a communication protocol? The unattainability of perfect privacy for many functions motivates the study of approximate privacy. Feigenbaum et al. (Proceedings of the 11th Conference on Electronic Commerce, 167--178, 2010) defined notions of worst-case as well as average-case approximate privacy, and presented several interesting upper bounds, and some open problems for further study. In this thesis, we obtain asymptotically tight bounds on the trade-offs between both the worst-case and average-case approximate privacy of protocols and their communication cost for Vickrey Auction, which is the canonical example of a truthful auction. We also prove exponential lower bounds on the approximate privacy of protocols computing the Intersection function, independent of its communication cost. This proves a conjecture of Feigenbaum et al.
La complexité de communication étudie combien de bits un groupe de joueurs donné doivent échanger entre eux pour calculer une function dont l'input est distribué parmi les joueurs. Bien que ce soit un domaine de recherche naturel basé sur des considérations pratiques, la motivation principale vient des nombreuses applications théoriques.Cette thèse comporte trois parties principales, étudiant trois aspects de la complexité de communication.1. La première partie discute le modèle 'number on the forehead' (NOF) dans la complexité de communication à plusieurs joueurs. Il s'agit d'un modèle fondamental en complexité de communication, avec des applications à la complexité des circuits, la complexité des preuves, les programmes de branchement et la théorie de Ramsey. Dans ce modèle, nous étudions les fonctions composeés f de g. Ces fonctions comprennent la plupart des fonctions bien connues qui sont étudiées dans la littérature de la complexité de communication. Un objectif majeur est de comprendre quelles combinaisons de f et g produisent des compositions qui sont difficiles du point de vue de la communication. En particulier, à cause de l'importance des applications aux circuits, il est intéressant de comprendre la puissance du modèle NOF quand le nombre de joueurs atteint ou dépasse log n. Motivé par ces objectifs nous montrons l'existence d'un protocole simultané efficace à k joueurs de coût O(log^3 n) pour sym de g lorsque k > 1 + log n, sym est une function symmétrique quelconque et g est une fonction arbitraire. Nous donnons aussi des applications de notre protocole efficace à la théorie de Ramsey.Dans le contexte où k < log n, nous étudions de plus près des fonctions de la forme majority de g, mod_m de g et nor de g, où les deux derniers cas sont des généralisations des fonctions bien connues et très étudiées Inner Product et Disjointness respectivement. Nous caractérisons la complexité de communication de ces fonctions par rapport au choix de g.2. La deuxième partie considère les applications de l'analyse de Fourier des fonctions symmétriques à la complexité de communication et autres domaines. La norme spectrale d'une function booléenne f:{0,1}^n -> {0,1} est la somme des valeurs absolues de ses coefficients de Fourier. Nous donnons une caractérisation combinatoire pour la norme spectrale des fonctions symmétriques. Nous montrons que le logarithme de la norme spectrale est du même ordre de grandeur que r(f)log(n/r(f)), avec r(f) = max(r_0,r_1) où r_0 et r_1 sont les entiers minimaux plus petits que n/2 pour lesquels f(x) ou f(x)parity(x) est constant pour tout x tel que x_1 + ... + x_n à [r_0,n-r_1]. Nous présentons quelques applications aux arbres de décision et à la complexité de communication des fonctions symmétriques.3. La troisième partie étudie la confidentialité dans le contexte de la complexité de communication: quelle quantité d'information est-ce que les joueurs révèlent sur leur input en suivant un protocole donné? L'inatteignabilité de la confidentialité parfaite pour plusieurs fonctions motivent l'étude de la confidentialité approximative. Feigenbaum et al. (Proceedings of the 11th Conference on Electronic Commerce, 167--178, 2010) ont défini des notions de confidentialité approximative dans le pire cas et dans le cas moyen, et ont présenté plusieurs bornes supérieures intéressantes ainsi que quelques questions ouvertes. Dans cette thèse, nous obtenons des bornes asymptotiques précises, pour le pire cas aussi bien que pour le cas moyen, sur l'échange entre la confidentialité approximative de protocoles et le coût de communication pour les enchères Vickrey Auction, qui constituent l'exemple canonique d'une enchère honnête. Nous démontrons aussi des bornes inférieures exponentielles sur la confidentialité approximative de protocoles calculant la function Intersection, indépendamment du coût de communication. Ceci résout une conjecture de Feigenbaum et al.
APA, Harvard, Vancouver, ISO, and other styles
36

Chafik, Ayoub. "Mutations de l'information politique télévisuelle en Égypte : vers une éthique communicationnelle de la complexité locale, régionale et cosmopolite." Electronic Thesis or Diss., Montpellier 3, 2016. http://www.theses.fr/2016MON30056.

Full text
Abstract:
Ce travail de recherche se propose de revenir sur l'histoire médiatico-politique de l'Égypte comme élément central de l'espace public arabe, dans un cadre régional prenant en compte d’autres pays périphériques tels que le Qatar, le Koweït ou l'axe Saoudo-Émirati.Il invite en particulier à une réflexion sur la(-les) politique(-s) communicationnelle(-s) à l’œuvre sous les différents gouvernements de ce que l’on peut appeler la « République des officiers », expression reprise à Yazid Sayegh pour désigner les prises de pouvoir successives de l’Égypte contemporaine par des militaires de profession, à savoir Nasser, Sadate, Moubarak et enfin Sissi.Du journalisme arabiste de résistance offensive à partir des années cinquante jusqu’au développement commercial des médias dans les années quatre-vingt, il sera question d’un examen approfondi de la démarche informationnelle et journalistique des régimes en place, en lien avec les diverses sphères de l’espace public, c’est-à-dire les intellectuels, religieux, ou encore activistes de tous ordres issus de la société civile. Le rôle du régime cosmopolitique fera l’objet d’une analyse également, non pas tant comme phénomène transnational de pacification mondiale au sens d’Ulrich Beck, mais tel que cette instance informelle est exploitée et dévoyée par l’administration américaine et la haute représentation européenne à des fins moins altruistes.Avec la création d’Aljazeera en 1996, signant l’avènement d’un néo-panarabisme communicationnel promu cette fois par un micro-État rentier des pays du Golfe, le Qatar, c’est un vent nouveau qui va souffler sur le traitement télévisuel des questions politiques dans le monde arabe, faisant réagir les autres pays de la péninsule et entraînant la naissance d’une pléthore de chaînes arabes, commerciales pour la plupart. Le développement des réseaux sociaux et des nouvelles technologies de l’information en général ne sont pas oubliés, amenant à interroger les mutations de ce système médiatique qui se complexifie. Entre le schéma de co-isolation dans lequel s’inscrit l’évolution de la chaîne qatarie et le projet contre-révolutionnaire auquel participe financièrement l'axe Saoudo-Emirati suite à l’élection de Morsi, inaugurant dès lors une période de l'absurde politique se généralisant à l'ensemble des interstices de l'espace public régional, il s’agira de décrypter tout particulièrement les paradoxes du système, en articulation avec la notion d’éthique et le concept de reconnaissance
This research purports to retrace the media and political history of Egypt, as a central element of Arab public space, within a wider regional framework constituted of peripheral countries such as Qatar, Kuwait or the Saudi-Emirati axis.It invites more particularly to a reflection upon the communicational politics at work under the respective governments of what can be called the “Republic of officers”, a phrase borrowed from Yazid Sayegh to designate the successive takeovers of contemporary Egypt by military men, namely Nasser, Sadat, Mubarak, and finally Sisi.From the Arabist journalism of offensive resistance from the fifties’ on, to the commercial development of media in the late eighties’, a thorough examination of the informational and journalistic approach of the regimes in power will be undertaken. This will be linked with the diverse spheres of the public space, i.e. the intellectuals, religious, and all kinds of activists from the civil society. The role played by the cosmopolitical regime will be asked too, not as much as the transnational phenomenon of global pacification in Ulrich Beck’s sense, but rather as this informal body is exploited and corrupted by the American administration and high European representation for not so altruistic aims.When Aljazeera channel was created in 1996, paving the way to a communicational neo-panarabism now promoted by a rentier micro-State of the Gulf region, namely Qatar, a new wind started to blow on the television treatment of political issues in the Arab world. The other countries of the peninsula soon responded, allowing the birth of an abundance of channels, most of which were commercial. The development of social networks and the new information technologies in general are not forgotten leading us to interrogate the mutations of this system which is getting more and more complex. In-between the scheme of co-isolation within which the evolution of the Qatari channel is inscribed and the counter-revolutionary project financially supported by the Saudi-Emirati axis after Morsi’s election, then inaugurating an era of political absurdity permeating all and every interstice of the regional public space, our point will be to decipher more particularly the paradoxes of the system, in articulation with the notion of ethics and the concept of recognition
APA, Harvard, Vancouver, ISO, and other styles
37

Pankratov, Denis. "Communication complexity and information complexity." Thesis, The University of Chicago, 2015. http://pqdtopen.proquest.com/#viewpdf?dispub=3711791.

Full text
Abstract:

Information complexity enables the use of information-theoretic tools in communication complexity theory. Prior to the results presented in this thesis, information complexity was mainly used for proving lower bounds and direct-sum theorems in the setting of communication complexity. We present three results that demonstrate new connections between information complexity and communication complexity.

In the first contribution we thoroughly study the information complexity of the smallest nontrivial two-party function: the AND function. While computing the communication complexity of AND is trivial, computing its exact information complexity presents a major technical challenge. In overcoming this challenge, we reveal that information complexity gives rise to rich geometrical structures. Our analysis of information complexity relies on new analytic techniques and new characterizations of communication protocols. We also uncover a connection of information complexity to the theory of elliptic partial differential equations. Once we compute the exact information complexity of AND, we can compute exact communication complexity of several related functions on n-bit inputs with some additional technical work. Previous combinatorial and algebraic techniques could only prove bounds of the form Θ( n). Interestingly, this level of precision is typical in the area of information theory, so our result demonstrates that this meta-property of precise bounds carries over to information complexity and in certain cases even to communication complexity. Our result does not only strengthen the lower bound on communication complexity of disjointness by making it more exact, but it also shows that information complexity provides the exact upper bound on communication complexity. In fact, this result is more general and applies to a whole class of communication problems.

In the second contribution, we use self-reduction methods to prove strong lower bounds on the information complexity of two of the most studied functions in the communication complexity literature: Gap Hamming Distance (GHD) and Inner Product mod 2 (IP). In our first result we affirm the conjecture that the information complexity of GHD is linear even under the uniform distribution. This strengthens the Ω(n) bound shown by Kerenidis et al. (2012) and answers an open problem by Chakrabarti et al. (2012). We also prove that the information complexity of IP is arbitrarily close to the trivial upper bound n as the permitted error tends to zero, again strengthening the Ω(n) lower bound proved by Braverman and Weinstein (2011). More importantly, our proofs demonstrate that self-reducibility makes the connection between information complexity and communication complexity lower bounds a two-way connection. Whereas numerous results in the past used information complexity techniques to derive new communication complexity lower bounds, we explore a generic way, in which communication complexity lower bounds imply information complexity lower bounds in a black-box manner.

In the third contribution we consider the roles that private and public randomness play in the definition of information complexity. In communication complexity, private randomness can be trivially simulated by public randomness. Moreover, the communication cost of simulating public randomness with private randomness is well understood due to Newman's theorem (1991). In information complexity, the roles of public and private randomness are reversed: public randomness can be trivially simulated by private randomness. However, the information cost of simulating private randomness with public randomness is not understood. We show that protocols that use only public randomness admit a rather strong compression. In particular, efficient simulation of private randomness by public randomness would imply a version of a direct sum theorem in the setting of communication complexity. This establishes a yet another connection between the two areas. (Abstract shortened by UMI.)

APA, Harvard, Vancouver, ISO, and other styles
38

Rigby, Julie. "Principes et processus à l'oeuvre dans un projet d'amélioration de conditions de vie dans les territoires contaminés par la catastrophe de Tchernobyl-ETHOS I (1996-1998)." Compiègne, 2003. http://www.theses.fr/2003COMP1455.

Full text
Abstract:
Cette recherche vise à identifier les principes de conduite et les processus de communication interpersonnelle à l'œuvre dans un projet d'amélioration des conditions de vie, dans un territoire contaminé suite à l'accident de Tchernobyl en avril 1986. Le projet 'ETHOS l' (1996-1998) a consisté à accompagner un village, en territoire faiblement contaminé par la radioactivité, devant faire face au quotidien à de multiples contraintes économiques, agricoles, scientifiques, sanitaires et relationnelles. Ce projet a conduit au développement d'une nouvelle culture de protection radiologique pratique. Notre recherche a été menée à travers la participation au projet pendant une période continue de 18 mois. Les aspects suivants ont été étudiés: les enjeux relationnels entre l'équipe ETHOS et les acteurs locaux du projet; les façons dont les obstacles à la coopération ont été gérés; les différents rôles que l'équipe a adoptés au fil du projet. La première partie de la thèse expose le contexte post-accidentel de Tchernobyl dans ses dimensions nationale, régionale et locale ainsi que les programmes qui ont précédé le lancement du projet. La deuxième partie présente les concepts articulés provenant de la communication interpersonnelle. Les principes au cœur de deux types de pratiques systémiques pertinentes à notre recherche sont explorés: la thérapie familiale et les approches de projet de développement. La troisième partie présente la méthodologie de la thèse dans ses dimensions: épistémologique, théorique, empirique et pratique. La quatrième partie expose les résultats de cette recherche sur les principes et les processus de conduite du projet ETHOS L La thèse se conclut par une réflexion sur les identités multiples de l'équipe d'intervention.
APA, Harvard, Vancouver, ISO, and other styles
39

Jaegler, Arnaud. "Segmentation d'image échographique par minimisation de la complexité stochastique en vue du diagnostic sénologique." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30002.

Full text
Abstract:
L'objectif de cette thèse est de proposer et d'étudier une méthode de segmentation qui soit adaptée à l'imagerie échographique ultrasonore (US) et qui tienne compte de certaines contraintes rencontrées en milieu clinique. De ce fait, cette méthode se doit d'être robuste au bruit de speckle et à l'atténuation des ondes US dans le milieu, mais aussi rapide et ne nécessiter que peu, voire aucun paramètre à régler par l'opérateur. Dans ce cadre, les solutions fondées sur des contours actifs fondés sur la Minimisation de la Complexité Stochastique ont été étudiées. L'impact de différentes modélisations du speckle sur les résultats de ces techniques de segmentation a été caractérisé. Il a été montré qu'il est important de prendre en compte les variations de l'intensité moyenne du speckle induites par l'atténuation dans chaque région de l'image, à la fois pour la segmentation et pour l'analyse des propriétés du speckle. De plus, une stratégie hiérarchique de segmentation a été développée. Celle-ci permet notamment d'accroître la qualité des segmentations et de diminuer les temps de calcul.Les algorithmes de segmentation considérés étaient initialement conçus pour des formes polygonales peu adaptées à celles rencontrées dans le cadre d'applications médicales. Nous avons donc développé un nouveau modèle de contour fondé sur la théorie de l'information qui permet toujours une mise en oeuvre rapide des algorithmes et ne dépend d'aucun paramètre à régler par l'utilisateur. Testé sur des images synthétiques et réelles de fantômes échographiques, ce nouveau modèle permet de mieux décrire les formes régulières et arrondies des objets rencontrés en imagerie échographique
The purpose of this PhD thesis is to propose and study a segmentation method adapted to echographic ultrasound imaging that could be clinically operational (i.e. fast and parameter-free) and robust to both the speckle noise and the attenuation of the ultrasonic signal in the medium. The solutions we studied rely on statistical active contour methods that are based on the Minimization of the Stochastic Complexity (MSC). The impact on the segmentation results of several speckle noise models that still lead to fast segmentation algorithms has been characterized. A key feature of these models, that appears to be crucial for both the segmentation and the speckle characterization, is the ability to take into account the spatial variation of the average intensity induced by the attenuation of the signal in the medium. In addition, we proposed a hierarchical optimization strategy that improves segmentation results and decreases the computation time.Finally, a novel contour model that is adapted to smooth boundaries that are met in medical imaging is also proposed for the considered MSC segmentation algorithms. The construction of this contour model relies on Information Theory concepts. It still allows one to get low computation times and does not contain any tuning parameter. Evaluations performed on synthetic images and real echographic phantom images indicate that this contour model provides better segmentation results for smooth inclusions that usually compose the echographic images
APA, Harvard, Vancouver, ISO, and other styles
40

Chen, Lijie S. M. Massachusetts Institute of Technology. "Fine-grained complexity meets communication complexity." Thesis, Massachusetts Institute of Technology, 2019. https://hdl.handle.net/1721.1/122754.

Full text
Abstract:
Thesis: S.M., Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, 2019
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 215-229).
Fine-grained complexity aims to understand the exact exponent of the running time of fundamental problems in P. Basing on several important conjectures such as Strong Exponential Time Hypothesis (SETH), All-Pair Shortest Path Conjecture, and the 3-Sum Conjecture, tight conditional lower bounds are proved for numerous exact problems from all fields of computer science, showing that many text-book algorithms are in fact optimal. For many natural problems, a fast approximation algorithm would be as important as fast exact algorithms. So it would be interesting to show hardness for approximation algorithms as well. But we had few techniques to prove tight hardness for approximation problems in P--In particular, the celebrated PCP Theorem, which proves similar approximation hardness in the world of NP-completeness, is not fine-grained enough to yield interesting conditional lower bounds for approximation problems in P.
In 2017, a breakthrough work of Abboud, Rubinstein and Williams [12] established a framework called "Distributed PCP", and applied that to show conditional hardness (under SETH) for several fundamental approximation problems in P. The most interesting aspect of their work is a connection between fine-grained complexity and communication complexity, which shows Merlin-Arther communication protocols can be utilized to give fine-grained reductions between exact and approximation problems. In this thesis, we further explore the connection between fine-grained complexity and communication complexity. More specifically, we have two sets of results. In the first set of results, we consider communication protocols other than Merlin-Arther protocols in [12] and show that they can be used to construct other fine-grained reductions between problems. [sigma]₂ Protocols and An Equivalence Class for Orthogonal Vectors (OV).
First, we observe that efficient [sigma]₂[superscripts cc] protocols for a function imply fine-grained reductions from a certain related problem to OV. Together with other techniques including locality-sensitive hashing, we establish an equivalence class for OV with O(log n) dimensions, including Max-IP/Min-IP, approximate Max-IP/Min-IP, and approximate bichromatic closest/further pair. · NP · UPP Protocols and Hardness for Computational Geometry Problems in 2⁰([superscript log*n]) Dimensions. Second, we consider NP · UPP protocols which are the relaxation of Merlin-Arther protocols such that Alice and Bob only need to be convinced with probability > 1/2 instead of > 2/3.
We observe that NP · UPP protocols are closely connected to Z-Max-IP problem in very small dimensions, and show that Z-Max-IP, l₂₋-Furthest Pair and Bichromatic l₂-Closest Pair in 2⁰[superscript (log* n)] dimensions requires n²⁻⁰[superscript (1)] time under SETH, by constructing an efficient NP - UPP protocol for the Set-Disjointness problem. This improves on the previous hardness result for these problems in w(log² log n) dimensions by Williams [172]. · IP Protocols and Hardness for Approximation Problems Under Stronger Conjectures. Third, building on the connection between IP[superscript cc] protocols and a certain alternating product problem observed by Abboud and Rubinstein [11] and the classical IP = PSPACE theorem [123, 155]. We show that several finegrained problems are hard under conjectures much stronger than SETH (e.g., the satisfiability of n⁰[superscript (1)]-depth circuits requires 2(¹⁻⁰[superscript (1)n] time).
In the second set of results, we utilize communication protocols to construct new algorithms. · BQP[superscript cc] Protocols and Approximate Counting Algorithms. Our first connection is that a fast BQP[superscript cc] protocol for a function f implies a fast deterministic additive approximate counting algorithm for a related pair counting problem. Applying known BQP[superscript cc] protocols, we get fast deterministic additive approximate counting algorithms for Count-OV (#OV), Sparse Count-OV and Formula of SYM circuits. · AM[superscript cc]/PH[superscript cc] Protocols and Efficient SAT Algorithms. Our second connection is that a fast AM[superscript cc] (or PH[superscript cc]) protocol for a function f implies a faster-than-bruteforce algorithm for a related problem.
In particular, we show that if the Longest Common Subsequence (LCS) problem admits a fast (computationally efficient) PH[superscript cc] protocol (polylog(n) complexity), then polynomial-size Formula-SAT admits a 2[superscript n-n][superscript 1-[delta]] time algorithm for any constant [delta] > 0, which is conjectured to be unlikely by a recent work of Abboud and Bringmann [6].
by Lijie Chen.
S.M.
S.M. Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science
APA, Harvard, Vancouver, ISO, and other styles
41

Boczkowski, Lucas. "Search and broadcast in stochastic environments, a biological perspective." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC044.

Full text
Abstract:
Cette thèse s’articule autour de deux séries de travaux motivés par des expériences sur des fourmis. Bien qu’inspirés par labiologie, les modèles que nous développons utilisent une terminologie et une approche typique de l’informatique théorique.Le premier modèle s’inspire du transport collaboratif de nourriture au sein de l’espèce P. Longicornis. Certains aspectsfondamentaux du processus peuvent être décrits par un problème de recherche sur un graphe en présence d’un certain typed’indications bruitées à chaque noeud. Ces indications représentent de courtes traces de phéromones déposées devant l’objettransporté afin de faciliter la navigation. Dans cette thèse, nous donnons une analyse complète du problème lorsque le graphesous-jacent est un arbre, une hypothèse pertinente dans un cadre informatique. En particulier, notre modèle peut être vucomme une généralisation de la recherche binaire aux arbres, en présence de bruit. De manière surprenante, lescomportements des algorithmes optimaux dans ce cadre diffèrent suivant le type de garantie que l’on étudie : convergence enmoyenne ou avec grande probabilité.Le deuxième modèle présenté dans cette thèse a été conçu pour décrire la dissémination d’informations au sein de fourmis dudésert. Dans notre modèle, les échanges ont lieu uniformément au hasard, et sont sujets à du bruit. Nous prouvons une borneinférieure sur le nombre d’interactions requis en fonction de la taille du groupe. La borne, de même que les hypothèses dumodèle, semblent compatible avec les données expérimentales.Une conséquence théorique de ce résultat est une séparation dans ce cadre des variantes PUSH et PULL pour le problème du broadcast avec bruit. Nous étudions aussi une version du problème avec des garanties de convergence plus fortes. Dans cecas, le problème peut-être résolu efficacement, même si les échanges d’information au cours de chaque interaction sont très limités
This thesis is built around two series of works, each motivated by experiments on ants. We derive and analyse new models,that use computer science concepts and methodology, despite their biological roots and motivation.The first model studied in this thesis takes its inspiration in collaborative transport of food in the P. Longicornis species. Wefind that some key aspects of the process are well described by a graph search problem with noisy advice. The advicecorresponds to characteristic short scent marks laid in front of the load in order to facilitate its navigation. In this thesis, weprovide detailed analysis of the model on trees, which are relevant graph structures from a computer science standpoint. Inparticular our model may be viewed as a noisy extension of binary search to trees. Tight results in expectation and highprobability are derived with matching upper and lower bounds. Interestingly, there is a sharp phase transition phenomenon forthe expected runtime, but not when the algorithms are only required to succeed with high probability.The second model we work with was initially designed to capture information broadcast amongst desert ants. The model usesa stochastic meeting pattern and noise in the interactions, in a way that matches experimental data. Within this theoreticalmodel, we present in this document a strong lower bound on the number of interactions required before information can bespread reliably. Experimentally, we see that the time required for the recruitment process of even few ants increases sharplywith the group size, in accordance with our result. A theoretical consequence of the lower bound is a separation between theuniform noisy PUSH and PULL models of interaction. We also study a close variant of broadcast, without noise this time butunder more strict convergence requirements and show that in this case, the problem can be solved efficiently, even with verylimited exchange of information on each interaction
APA, Harvard, Vancouver, ISO, and other styles
42

Chafik, Ayoub. "Mutations de l'information politique télévisuelle en Égypte : vers une éthique communicationnelle de la complexité locale, régionale et cosmopolite." Thesis, Montpellier 3, 2016. http://www.theses.fr/2016MON30056.

Full text
Abstract:
Ce travail de recherche se propose de revenir sur l'histoire médiatico-politique de l'Égypte comme élément central de l'espace public arabe, dans un cadre régional prenant en compte d’autres pays périphériques tels que le Qatar, le Koweït ou l'axe Saoudo-Émirati.Il invite en particulier à une réflexion sur la(-les) politique(-s) communicationnelle(-s) à l’œuvre sous les différents gouvernements de ce que l’on peut appeler la « République des officiers », expression reprise à Yazid Sayegh pour désigner les prises de pouvoir successives de l’Égypte contemporaine par des militaires de profession, à savoir Nasser, Sadate, Moubarak et enfin Sissi.Du journalisme arabiste de résistance offensive à partir des années cinquante jusqu’au développement commercial des médias dans les années quatre-vingt, il sera question d’un examen approfondi de la démarche informationnelle et journalistique des régimes en place, en lien avec les diverses sphères de l’espace public, c’est-à-dire les intellectuels, religieux, ou encore activistes de tous ordres issus de la société civile. Le rôle du régime cosmopolitique fera l’objet d’une analyse également, non pas tant comme phénomène transnational de pacification mondiale au sens d’Ulrich Beck, mais tel que cette instance informelle est exploitée et dévoyée par l’administration américaine et la haute représentation européenne à des fins moins altruistes.Avec la création d’Aljazeera en 1996, signant l’avènement d’un néo-panarabisme communicationnel promu cette fois par un micro-État rentier des pays du Golfe, le Qatar, c’est un vent nouveau qui va souffler sur le traitement télévisuel des questions politiques dans le monde arabe, faisant réagir les autres pays de la péninsule et entraînant la naissance d’une pléthore de chaînes arabes, commerciales pour la plupart. Le développement des réseaux sociaux et des nouvelles technologies de l’information en général ne sont pas oubliés, amenant à interroger les mutations de ce système médiatique qui se complexifie. Entre le schéma de co-isolation dans lequel s’inscrit l’évolution de la chaîne qatarie et le projet contre-révolutionnaire auquel participe financièrement l'axe Saoudo-Emirati suite à l’élection de Morsi, inaugurant dès lors une période de l'absurde politique se généralisant à l'ensemble des interstices de l'espace public régional, il s’agira de décrypter tout particulièrement les paradoxes du système, en articulation avec la notion d’éthique et le concept de reconnaissance
This research purports to retrace the media and political history of Egypt, as a central element of Arab public space, within a wider regional framework constituted of peripheral countries such as Qatar, Kuwait or the Saudi-Emirati axis.It invites more particularly to a reflection upon the communicational politics at work under the respective governments of what can be called the “Republic of officers”, a phrase borrowed from Yazid Sayegh to designate the successive takeovers of contemporary Egypt by military men, namely Nasser, Sadat, Mubarak, and finally Sisi.From the Arabist journalism of offensive resistance from the fifties’ on, to the commercial development of media in the late eighties’, a thorough examination of the informational and journalistic approach of the regimes in power will be undertaken. This will be linked with the diverse spheres of the public space, i.e. the intellectuals, religious, and all kinds of activists from the civil society. The role played by the cosmopolitical regime will be asked too, not as much as the transnational phenomenon of global pacification in Ulrich Beck’s sense, but rather as this informal body is exploited and corrupted by the American administration and high European representation for not so altruistic aims.When Aljazeera channel was created in 1996, paving the way to a communicational neo-panarabism now promoted by a rentier micro-State of the Gulf region, namely Qatar, a new wind started to blow on the television treatment of political issues in the Arab world. The other countries of the peninsula soon responded, allowing the birth of an abundance of channels, most of which were commercial. The development of social networks and the new information technologies in general are not forgotten leading us to interrogate the mutations of this system which is getting more and more complex. In-between the scheme of co-isolation within which the evolution of the Qatari channel is inscribed and the counter-revolutionary project financially supported by the Saudi-Emirati axis after Morsi’s election, then inaugurating an era of political absurdity permeating all and every interstice of the regional public space, our point will be to decipher more particularly the paradoxes of the system, in articulation with the notion of ethics and the concept of recognition
APA, Harvard, Vancouver, ISO, and other styles
43

Dam, Wim van. "Nonlocality and communication complexity." Thesis, University of Oxford, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.325982.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

El, chall Rida. "Récepteur itératif pour les systèmes MIMO-OFDM basé sur le décodage sphérique : convergence, performance et complexité." Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0019/document.

Full text
Abstract:
Pour permettre l’accroissement de débit et de robustesse dans les futurs systèmes de communication sans fil, les processus itératifs sont de plus considérés dans les récepteurs. Cependant, l’adoption d’un traitement itératif pose des défis importants dans la conception du récepteur. Dans cette thèse, un récepteur itératif combinant les techniques de détection multi-antennes avec le décodage de canal est étudié. Trois aspects sont considérés dans un contexte MIMOOFDM: la convergence, la performance et la complexité du récepteur. Dans un premier temps, nous étudions les différents algorithmes de détection MIMO à décision dure et souple basés sur l’égalisation, le décodage sphérique, le décodage K-Best et l’annulation d’interférence. Un décodeur K-best de faible complexité (LC-K-Best) est proposé pour réduire la complexité sans dégradation significative des performances. Nous analysons ensuite la convergence de la combinaison de ces algorithmes de détection avec différentes techniques de codage de canal, notamment le décodeur turbo et le décodeur LDPC en utilisant le diagramme EXIT. En se basant sur cette analyse, un nouvel ordonnancement des itérations internes et externes nécessaires est proposé. Les performances du récepteur ainsi proposé sont évaluées dans différents modèles de canal LTE, et comparées avec différentes techniques de détection MIMO. Ensuite, la complexité des récepteurs itératifs avec différentes techniques de codage de canal est étudiée et comparée pour différents modulations et rendement de code. Les résultats de simulation montrent que les approches proposées offrent un bon compromis entre performance et complexité. D’un point de vue implémentation, la représentation en virgule fixe est généralement utilisée afin de réduire les coûts en termes de surface, de consommation d’énergie et de temps d’exécution. Nous présentons ainsi une représentation en virgule fixe du récepteur itératif proposé basé sur le décodeur LC K-Best. En outre, nous étudions l’impact de l’estimation de canal sur la performance du système. Finalement, le récepteur MIMOOFDM itératif est testé sur la plateforme matérielle WARP, validant le schéma proposé
Recently, iterative processing has been widely considered to achieve near-capacity performance and reliable high data rate transmission, for future wireless communication systems. However, such an iterative processing poses significant challenges for efficient receiver design. In this thesis, iterative receiver combining multiple-input multiple-output (MIMO) detection with channel decoding is investigated for high data rate transmission. The convergence, the performance and the computational complexity of the iterative receiver for MIMO-OFDM system are considered. First, we review the most relevant hard-output and soft-output MIMO detection algorithms based on sphere decoding, K-Best decoding, and interference cancellation. Consequently, a low-complexity K-best (LCK- Best) based decoder is proposed in order to substantially reduce the computational complexity without significant performance degradation. We then analyze the convergence behaviors of combining these detection algorithms with various forward error correction codes, namely LTE turbo decoder and LDPC decoder with the help of Extrinsic Information Transfer (EXIT) charts. Based on this analysis, a new scheduling order of the required inner and outer iterations is suggested. The performance of the proposed receiver is evaluated in various LTE channel environments, and compared with other MIMO detection schemes. Secondly, the computational complexity of the iterative receiver with different channel coding techniques is evaluated and compared for different modulation orders and coding rates. Simulation results show that our proposed approaches achieve near optimal performance but more importantly it can substantially reduce the computational complexity of the system. From a practical point of view, fixed-point representation is usually used in order to reduce the hardware costs in terms of area, power consumption and execution time. Therefore, we present efficient fixed point arithmetic of the proposed iterative receiver based on LC-KBest decoder. Additionally, the impact of the channel estimation on the system performance is studied. The proposed iterative receiver is tested in a real-time environment using the MIMO WARP platform
APA, Harvard, Vancouver, ISO, and other styles
45

Ndayiziga, Honoré. "Territoires et mobilité durable : complexité, acteurs-réseaux et hybridation des pratiques au croisement de l'intelligence territoriale et du développement durable." Thesis, Toulon, 2019. http://www.theses.fr/2019TOUL0002.

Full text
Abstract:
La mobilité, en particulier la mobilité urbaine est aujourd’hui un thème d’une grande actualité politique et scientifique, qui soulève des questions et engage des démarches qui vont bien au-delà des problématiques habituelles des transports (Bonnet, Desjeux, 2000, p.201). Au centre de la vie quotidienne, économique et/ou sociale des acteurs locaux, la mobilité est un problème aux multiples enjeux : impact sur le réchauffement climatique, droit à la mobilité, économie, urbanisme et cadre de vie, équilibre entre ville et campagne, sécurité routière et santé publique. Le besoin de mobilité peut être traité, voire satisfait, de plusieurs façons, soit en apportant une réponse au besoin de déplacement soit en apportant une réponse au mode de mobilité. La question de la mobilité est un des enjeux majeurs pour l'accès aux emplois comme aux services dans les territoires et lorsque celle-ci se heurte au manque de transports collectifs, publics et privés, ce manque entraîne l'isolement voire l’exclusion, surtout pour les populations les plus fragiles avec pour corollaire la saturation des infrastructures routières par le recours à l’utilisation intensive des véhicules individuels dans les zones péri-urbaines. Ainsi, le secteur des transports a besoin d’utiliser les technologies de l’information. Ces technologies de l’information (TI) sont au centre de nombreuses réflexions sur la mobilité et la non mobilité, en particulier dans le cadre de la réduction des déplacements physiques rendus nécessaire par la maitrise des émissions de gaz à effet de serre. Les technologies de l’information en hybridant les territoires, peuvent être des outils d’une gestion globale et durable des déplacements territoriaux. Dans cette recherche, nous avons mis l’accent sur le croisement de l’« Intelligence Territoriale et mobilité durable » avec une orientation sur le déplacement partagé, biens et personnes, facteur de communication sociale, et de développement d’équilibre territorial en menant en parallèle une double étude entre l’Afrique de l’Est (la CAE) et l’Euro Méditerranée (PACA et Corse), pour en tirer des enseignements. Bertacchini, Girardot, et Grammacia (2006), présentent l’intelligence territoriale (IT) comme étant une théorie, posture, et démarche ascendante d’intelligence collective fondée sur une approche citoyenne de la valorisation territoriale. Nous avons insisté sur la nécessité de fonder l'action sur une analyse fine des besoins des habitants en matière de déplacement et comment inventer de nouvelles modalités d'organisation des services par le développement des stratégies de communications qui s’inspirent de l’intelligence territoriale (IT), la cohésion sociale, la convivialité, l’équité, les hypothèses de l’IT et la capacité de la communication à promouvoir la médiation territoriale
We actually do make, in our PhD research work, a tough choice on studying mobility at the crossroads of Territorial Intelligence Process and Sustainable Mobility through Communication Science sensitive approach with the help of IT (Information Technologies). Because mobility, or absence of, can lead to isolation (may be seclusion) or even exclusion, especially for the most vulnerable people, is a subject of high political and scientific relevance, raising questions and involving processes far beyond the usual and specific questions of transportation (Bonnet, Desjeux, 2000, p. 201). We stress the point about the link between « Territorial Intelligence and Sustainable Mobility » with a focus on shared displacement, goods and people, which means, and can be seen as, a social communication factor and development of territorial equilibrium; We conducted a simultaneous study both in East Africa and Euro Mediterranean space (PACA and Corsica), to recap learned lessons. Bertacchini, Girardot, and Grammacia (2006), shown Territorial Intelligence (IT) as a theory, posture, and bottom-up approach of collective intelligence based on citizen's approach of territorial development. And for that purpose, we underlined the need of action based on analysis of travel needs of residents and how to create new ways of structuring mobility offer through the development of communications suggested by Territorial Intelligence (IT), social cohesion, conviviality, equity, assumptions of IT and with the ability of communication to promote territorial mediation. For local stakeholders mobility is a matter of life and at the crossroads of their daily economic and social life, mobility is an issue with multiple challenges: impact on global warming, rights to mobility, economy development, jobs accessibility, town planning and environment, road safety and public health. The need for mobility can be addressed or even satisfied by several ways, either by responding to the need for mobility, or by providing a response to the mode of mobility. Thus, the transportation sector needs using information technology. These information technologies are studied through numerous ways on mobility and non-mobility, particularly focusing on how reducing physical displacements made necessary and call for the control of greenhouse gas emissions. Information technologies by hybridizing territories, as described within Territorial Intelligence assumptions, can be tools for a comprehensive and sustainable management of territorial displacements
APA, Harvard, Vancouver, ISO, and other styles
46

Zamoum, Selma. "Random access techniques for satellite communications." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0116.

Full text
Abstract:
Les nombreux avantages introduits par l’utilisation des satellites tels que la couverture à grande échelle, notamment dans les zones difficilement accessibles ou pauvres en infrastructure terrestres, a incité différentes communautés à développer des communications efficaces pour l’accès à Internet, la télévision et la téléphonie. Pendant longtemps, les techniques d’accès multiple basées sur la réservation de ressources (DAMA) ont largement été déployées sur la liaison retour, occupant ainsi une grande partie de la bande passante. Cependant, outre le temps aller-retour (RTT) additionnel dû à la demande d’allocation, qui est à la base important lors d’une communications par satellite, les ressources peuvent être sous-exploitées ou insuffisantes face à des applications entraînant un grand nombre d’utilisateurs telles que l’Internet des objets et les communications de machine à machine. Par conséquent, les techniques d’accès basées sur le protocole ALOHA ont largement pris place dans les études de recherche sur l’accès aléatoire (RA), et ont considérablement évolué ces derniers temps. La méthode CRDSA a particulièrement marqué ce domaine; elle a inspiré de nombreuses techniques d’accès aléatoire. Dans ce contexte, une méthode complémentaire, appelée MARSALA, permet de débloquer CRDSA lorsque celle-ci n’est plus en mesure de décoder de nouveaux paquets. Par contre, cela entraîne une complexité de corrélation liée à la localisation des paquets, qui est nécessaire pour combiner des répliques afin d’avoir une puissance de signal potentiellement plus élevée. C’est pourquoi, l’objectif principal de cette thèse est de proposer des alternatives efficientes et moins complexes. Nous nous intéressons plus précisément à la manière de gérer les transmissions multi-utilisateurs et de résoudre les interférences à la réception, avec la plus petite complexité. De plus, le phénomène de boucle qui se produit lorsque plusieurs utilisateurs transmettent leurs paquets dans les mêmes positions est traité, sachant qu’un plancher d’erreur au niveau des performances en taux de perte de paquets est par conséquent créé. Nous proposons donc des solutions synchrones et asynchrones, principalement basées sur un partage de données, au préalable, entre l’émetteur et le récepteur, dans le but de réduire la complexité de localisation, atténuer le phénomène de boucle et améliorer les performances du système. Ces techniques sont décrites et analysées en détails au cours de ce manuscrit
The effective coverage of satellites and the technology behind have motivated many actors to develop efficient communications for Internet access, television and telephony. For a long time, reservation resources of Demand Assignment Multiple Access (DAMA) techniques have been largely deployed in the return link of satellite communications, occupying most of the frequency bandwidth. However, these resources cannot follow the technological growth with big users communities in applications like the Internet of Things and Machine to Machine communications. Especially because the Round Trip Time is significant in addition to a potential underuse of the resources. Thus, access protocols based on ALOHA took over a big part of the Random Access (RA) research area and have considerably evolved lately. CRDSA have particularly put its fingerprint in this domain, which inspired many different techniques. In this context, a complementary method, called MARSALA comes to unlock CRDSA when packets can no longer be retrieved. This actually involves a correlation complexity related to packet localization which is necessary for replicas combinations that results in a potentially higher signal power. Accordingly, the main goal of this PhD research is to seek for effective and less complex alternatives. More precisely, the core challenge focuses on the way to manage multi-user transmissions and solve interference at reception, with the smallest complexity. In addition, the loop phenomenon which occur when multiple users transmit their packets at the same positions is tackled as it creates an error floor at the packet loss ratio performance. Synchronous and asynchronous solutions are proposed in this thesis, mainly based on providing the transmitter and the receiver with a shared prior information that could help reduce the complexity, mitigate the loop phenomenon and enhance the system performance. An in-depth description and analysis of the proposed techniques are presented in this dissertation
APA, Harvard, Vancouver, ISO, and other styles
47

Lerays, Virginie. "Quantum nonlocality and communication complexity." Paris 7, 2014. http://www.theses.fr/2014PA077151.

Full text
Abstract:
Les fondements de l'informatique ont subi un bouleversement face à l'émergence du calcul quantique comme nouveau modèle de calcul. Nous nous intéresserons dans cette thèse à la complexité de la communication, vue sous l'angle de la théorie de l'information quantique. En complexité de la communication, on cherche à savoir combien de communication il faut pour résoudre des problèmes où les entrées sont réparties entre les entités de calcul. Cette thèse présente un moyen d'obtenir des bornes inférieures en complexité de la communication en exploitant des idées liées à l'étude de phénomènes quantiques tels que la nonlocalité. Ces méthodes sont alors comparées aux méthodes déjà connues dans la littérature et permettent d'obtenir une nouvelle famille d'inégalités de Bell. Nous montrons aussi dans cette thèse, en utilisant les connections entre complexité de la communication et nonlocalité quantique, que toutes les bornes inférieures connues utilisées en complexité de la communication sont des bornes inférieures pour la complexité de l'information. Ceci renforce l'idée que ces deux quantités sont équivalentes et permet d'obtenir plusieurs résultats de sommes directes en complexité de la communication pour des fonctions souvent étudiées
Quantum computing raises a lot of questions related to the foundations of computing. We study, in this thesis, a complexity model called communication complexity, where we study the amount of communication required to solve a distributed task. We study this model from the perspective of quantum information theory. This thesis introduces a new way of obtaining lower bounds on communication complexity, using ideas developed in the study of quantum nonlocality. These methods are compared to previously known lower-bound methods and allow us to define a new family of Bell inequalities. We also prove in this thesis that ail previously known lower bounds for communication complexity are also lower bounds on information complexity. This witnesses the potential equivalence between these two measures of complexity and allows us to obtain direct sum results on the communication complexity of very-well studied functions
APA, Harvard, Vancouver, ISO, and other styles
48

Hijjawi, Tharwat. "Les technologies de l’information et de la communication (TIC) dans l’enseignement supérieur des langues étrangères en Palestine… Oui, mais comment ? Une évaluation des politiques d’intégration et d’innovation pédagogique dans le système éducatif palestinien." Thesis, Lille 3, 2013. http://www.theses.fr/2013LIL30055.

Full text
Abstract:
L’objectif de cette recherche est d’évaluer l’intégration universitaire des TIC dans l’enseignement des langues étrangères en Palestine : le cas des projets RUFO et QIF. En adoptant un cadre théorique constructiviste, cette étude est effectuée sur trois plans : micro (enseignants et apprenants), méso (dispositifs en ligne) et macro (décideurs de l’université et du Ministère de l’Education). Se basant sur une méthodologie qualitative et compréhensive de recherche, une démarche d’analyse de contenu du triple corpus de données (entretiens, extraits de cours, communication officielle des institutions) a été appliquée. Les résultats illustrent que les pratiques enseignantes actuelles n’ont pas connu d’évolution par suite de l’intégration des TIC ; l’usage de cette nouvelle modalité a amplifié les pratiques directives et traditionnelles existantes et a parfois entrainé une régression par rapport au mode de présentiel. La conclusion principale est qu’il n’est pas possible d’innover sans changer le paradigme éducatif et passer de celui de l'enseignement à celui de l'apprentissage. Le développement de la pédagogie universitaire nécessite la mise en ouvre d’une ingénierie éducative complexe et participative accompagnée par un pilotage bidirectionnel et transversal de l’innovation et une formation-accompagnement des acteurs à tous les niveaux
The objective of this research is to evaluate the integration of ICT in Palestinian universities for foreign language teaching: the case of RUFO and QIF projects. By adopting a constructivist theoretical approach, this study is conducted on three levels: micro (teachers and students), meso (on line courses) and macro (policy of the university and the Ministry of Education).The research is based on a qualitative and comprehensive methodology. A content analysis was applied to the triple collected data (interviews, excerpts from on line courses, official excerpts) The findings show that current teaching practices have not evolved as a result of the integration of ICT; the use of this new modality has amplified the existing traditional and directive practices; sometimes it has moved them backward. The main conclusion is that it is not possible to innovate without changing the educational paradigm and shifting from a teaching-centered model to a learning- centered one. Development of higher education requires the implementation of: a complex and cooperative educative engineering, a bidirectional and transversal management process of the innovation, and a training-coaching at all levels
APA, Harvard, Vancouver, ISO, and other styles
49

Urgelli, Benoit. "Les logiques d'engagement d'enseignants face à une question socioscientifique médiatisée : le cas du réchauffement climatique." Phd thesis, Ecole normale supérieure Lettres et Sciences Humaines - ENS-LSH Lyon, 2009. http://tel.archives-ouvertes.fr/tel-00555072.

Full text
Abstract:
Depuis le Sommet de Johannesburg (2002), la France s'est engagée dans la Stratégie nationale du développement durable. Les orientations de ce programme politique se fondent sur les résultats de l'expertise intergouvernementale sur l'évolution des climats. Il s'agit de solliciter la mobilisation, notamment des sciences, des médias et de l'école autour d'un compromis social d'apparence consensuelle dont est discutée ici la construction. Dans ce contexte, la recherche porte sur les logiques d'engagement d'enseignants face à la question complexe, expertisée et médiatisée de l'évolution climatique. Durant l'année scolaire 2006-2007, une expérimentation a été élaborée avec huit enseignants de lycée, de différentes disciplines scolaires. Ils ont été invités à faire des propositions pour un enseignement de l'évolution climatique dans le cadre du programme de généralisation de l'éducation au développement durable. Deux approches théoriques (communicationnelle et didactique) ont été mobilisées pour étudier leurs représentations sociales de la question climatique et de la fonction éducative. L'expérimentation révèle que les perceptions des risques climatiques et des effets de la communication didactique conduisent les enseignants à adopter diverses postures, entre enseignement de choix et éducation aux choix. Dans le cadre de l'éducation scientifique citoyenne et de l'éducation au développement durable, cette étude milite pour une éthique de la communication didactique associée à une représentation des sciences socialisées.
APA, Harvard, Vancouver, ISO, and other styles
50

Lecoeuvre, Laurence. "Le marketing de projet en situation Business to Business : Etudes de cas et proposition d'un modèle dynamique d'évaluation et de suivi." Phd thesis, Ecole Centrale Paris, 2005. http://tel.archives-ouvertes.fr/tel-00270114.

Full text
Abstract:
Cette recherche a pour objet d'expliciter le marketing de projet dans ses environnements et sa complexité, de mieux comprendre les phénomènes liés à cette activité et, en particulier, les actions propices au processus de marketing de projet, et à son développement au sein du secteur de Business to Business.
Six variables - actions déterminantes dans l'avancée du processus de marketing de projet sont mises en avant, ainsi que les ressources internes et externes à mobiliser en fonction des quatre phases de marketing de projet : le marketing hors projet, le marketing en amont du projet, le marketing dans le projet et le marketing hors projet du prochain projet.
Une modélisation du processus de marketing de projet est proposée, qui non seulement permet d'en circonscrire la signification et la valeur, mais aussi en suscite l'opérationnalité.
Le travail mené ici est de type exploratoire. Il est en particulier basé sur l'analyse de trois cas d'entreprises, et est caractérisé par une construction progressive et itérative, avec de constants allers et retours entre l'empirique et le théorique.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography