Dissertations / Theses on the topic 'Converse de la théorie de l'information'

To see the other types of publications on this topic, follow the link: Converse de la théorie de l'information.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Converse de la théorie de l'information.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Marsiglietti, Arnaud. "Géométrie des mesures convexes et liens avec la théorie de l’information." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1032/document.

Full text
Abstract:
Cette thèse est consacrée à l'étude des mesures convexes ainsi qu'aux analogies entre la théorie de Brunn-Minkowski et la théorie de l'information. Je poursuis les travaux de Costa et Cover qui ont mis en lumière des similitudes entre deux grandes théories mathématiques, la théorie de Brunn-Minkowski d'une part et la théorie de l'information d'autre part. Partant de ces similitudes, ils ont conjecturé, comme analogue de la concavité de l'entropie exponentielle, que la racine n-ième du volume parallèle de tout ensemble compact de $R^n$ est une fonction concave, et je résous cette conjecture de manière détaillée. Par ailleurs, j'étudie les mesures convexes définies par Borell et je démontre pour ces mesures une inégalité renforcée de type Brunn-Minkowski pour les ensembles convexes symétriques. Cette thèse se décompose en quatre parties. Tout d'abord, je rappelle un certain nombre de notions de base. Dans une seconde partie, j'établis la validité de la conjecture de Costa-Cover sous certaines conditions et je démontre qu'en toute généralité, cette conjecture est fausse en exhibant des contre-exemples explicites. Dans une troisième partie, j'étends les résultats positifs de cette conjecture de deux manières, d'une part en généralisant la notion de volume et d'autre part en établissant des versions fonctionnelles. Enfin, je prolonge des travaux récents de Gardner et Zvavitch en améliorant la concavité des mesures convexes sous certaines hypothèses telles que la symétrie
This thesis is devoted to the study of convex measures as well as the relationships between the Brunn-Minkowski theory and the Information theory. I pursue the works by Costa and Cover who highlighted similarities between two fundamentals inequalities in the Brunn-Minkowski theory and in the Information theory. Starting with these similarities, they conjectured, as an analogue of the concavity of entropy power, that the n-th root of the parallel volume of every compact subset of $R^n$ is concave, and I give a complete answer to this conjecture. On the other hand, I study the convex measures defined by Borell and I established for these measures a refined inequality of the Brunn-Minkowski type if restricted to convex symmetric sets. This thesis is split in four parts. First, I recall some basic facts. In a second part, I prove the validity of the conjecture of Costa-Cover under special conditions and I show that the conjecture is false in such a generality by giving explicit counterexamples. In a third part, I extend the positive results of this conjecture by extending the notion of the classical volume and by establishing functional versions. Finally, I generalize recent works of Gardner and Zvavitch by improving the concavity of convex measures under different kind of hypothesis such as symmetries
APA, Harvard, Vancouver, ISO, and other styles
2

Brunero, Federico. "Unearthing the Impact of Structure in Data and in Topology for Caching and Computing Networks." Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS368.pdf.

Full text
Abstract:
La mise en cache s'est avérée être un excellent moyen de réduire la charge de trafic dans les réseaux de données. Une étude de la mise en cache en théorie de l'information, connue sous le nom de mise en cache codée, a représenté une percée clé dans la compréhension de la façon dont la mémoire peut être efficacement transformée en débit de données. La mise en cache codée a également révélé le lien profond entre la mise en cache et les réseaux informatiques, qui présentent le même besoin de solutions algorithmiques novatrices pour réduire la charge de trafic. Malgré la vaste littérature, il reste quelques limitations fondamentales, dont la résolution est critique. Par exemple, il est bien connu que le gain de codage assuré par la mise en cache codée n'est pas seulement linéaire dans les ressources globales de mise en cache, mais s'avère également être le talon d'Achille de la technique dans la plupart des paramètres pratiques. Cette thèse a pour but d'améliorer et d'approfondir la compréhension du rôle clé que joue la structure, que ce soit dans les données ou dans la topologie, pour le cache et les réseaux informatiques. Premièrement, nous explorons les limites fondamentales de la mise en cache sous certains modèles de la théorie de l'information qui imposent une structure dans les données, ce qui signifie que nous supposons savoir à l'avance quelles données sont intéressantes pour qui. Deuxièmement, nous étudions les ramifications impressionnantes de la structure de la topologie des réseaux. Tout au long du manuscrit, nous montrons également comment les résultats de la mise en cache peuvent être utilisés dans le contexte de l'informatique distribuée
Caching has shown to be an excellent expedient for the purposes of reducing the traffic load in data networks. An information-theoretic study of caching, known as coded caching, represented a key breakthrough in understanding how memory can be effectively transformed into data rates. Coded caching also revealed the deep connection between caching and computing networks, which similarly show the same need for novel algorithmic solutions to reduce the traffic load. Despite the vast literature, there remain some fundamental limitations, whose resolution is critical. For instance, it is well-known that the coding gain ensured by coded caching not only is merely linear in the overall caching resources, but also turns out to be the Achilles heel of the technique in most practical settings. This thesis aims at improving and deepening the understanding of the key role that structure plays either in data or in topology for caching and computing networks. First, we explore the fundamental limits of caching under some information-theoretic models that impose structure in data, where by this we mean that we assume to know in advance what data are of interest to whom. Secondly, we investigate the impressive ramifications of having structure in network topology. Throughout the manuscript, we also show how the results in caching can be employed in the context of distributed computing
APA, Harvard, Vancouver, ISO, and other styles
3

Hu, Xu. "Towards efficient learning of graphical models and neural networks with variational techniques." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1037.

Full text
Abstract:
Dans cette thèse, je me concentrerai principalement sur l’inférence variationnelle et les modèles probabilistes. En particulier, je couvrirai plusieurs projets sur lesquels j'ai travaillé pendant ma thèse sur l'amélioration de l'efficacité des systèmes AI / ML avec des techniques variationnelles. La thèse comprend deux parties. Dans la première partie, l’efficacité des modèles probabilistes graphiques est étudiée. Dans la deuxième partie, plusieurs problèmes d’apprentissage des réseaux de neurones profonds sont examinés, qui sont liés à l’efficacité énergétique ou à l’efficacité des échantillons
In this thesis, I will mainly focus on variational inference and probabilistic models. In particular, I will cover several projects I have been working on during my PhD about improving the efficiency of AI/ML systems with variational techniques. The thesis consists of two parts. In the first part, the computational efficiency of probabilistic graphical models is studied. In the second part, several problems of learning deep neural networks are investigated, which are related to either energy efficiency or sample efficiency
APA, Harvard, Vancouver, ISO, and other styles
4

Calzolari, Giacomo. "Essais en théorie de l'information." Toulouse 1, 2000. http://www.theses.fr/2000TOU10070.

Full text
Abstract:
Les économies évoluent continuellement. De nouvelles problématiques, sujets de recherche potentiels dans le domaine de l'économie de l'information, surgissent donc sans cesse. Dans cette thèse certains de ces nouveaux sujets sont traités, en utilisant les outils de la théorie de l'information. Après un chapitre d'introduction, le deuxième et le troisième chapitres traitent de la régulation des entreprises multinationales. De nombreuses firmes ont la capacité d'agir sur différents marchés à la fois et cela modifie de façon substantielle la tache du régulateur. Les nouvelles problématiques posées sont analysées d'un point de vue positif mais aussi normatif. Le quatrième chapitre analyse le commerce international des biens innovatifs qui sont caractérisés par une incertitude scientifique ou par l'absence d'information concernant leurs effets sur la santé des consommateurs. Nous montrons qu'un nouveau type de protectionnisme commercial peut apparaître à cause de l'incertitude scientifique. Nous étudions le rôle joué par les groupes de pression des producteurs dans la révélation d'informations sur les effets de la consommation de ces biens. Certaines pratiques régulatoires largement diffusées comme l'étiquetage des produits et la responsabilité des firmes sont analysées. Le dernier chapitre examine une situation contractuelle où deux principaux interagissent d'une façon séquentielle avec le même agent qui possède une information cachée. Le flux d'information entre les deux relations contractuelles est endogène au modèle. Nous montrons que le premier principal a intérêt à offrir un contrat qui permet un passage d'information au deuxième principal. Nous montrons aussi que la transmission d'information, même si elle s'effectue pour des raisons stratégiques, peut conduire à une augmentation du bien-être pour tous les joueurs car elle réduit les distorsions dues à l'asymétrie d'information. Nous appliquons nos résultats à l'économie du commerce électronique.
APA, Harvard, Vancouver, ISO, and other styles
5

Grinbaum, Alexei. "Le rôle de l'information dans la théorie quantique." Phd thesis, Ecole Polytechnique X, 2004. http://tel.archives-ouvertes.fr/tel-00007634.

Full text
Abstract:
Nous proposons une dérivation théorético-informationnelle de la théorie quantique via une axiomatique informationnelle. La 1ère partie de la thèse est consacrée aux fondements philosophiques de cette approche. Elle est présentée dans un cadre épistémologique sous la forme d'une boucle entre descriptions théoriques. La 2ème partie est consacrée à la dérivation du formalisme de la théorie quantique. Nous posons un système d'axiomes et nous analysons le double rôle de l'observateur. A l'aide des techniques de la logique quantique, nous établissons les théorèmes montrant les étapes de la reconstruction du formalisme de la théorie quantique. Dans la 3ème partie, nous introduisons la théorie des C*-algèbres et nous proposons de cette dernière une interprétation théorético-informationnelle. Nous concluons par une liste de problèmes ouverts dans l'approche informationnelle, y compris ceux relevant des sciences cognitives, de la théorie de la décision et des technologies de l'information.
APA, Harvard, Vancouver, ISO, and other styles
6

Kaced, Tarik. "Partage de secret et théorie algorithmique de l'information." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20170/document.

Full text
Abstract:
Notre travail sur le partage de secret se base sur les points de vue théoriques de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets intimement liés.Les inégalité d'information jouent un rôle centrale dans ce manuscrit. Ce sont les inégalités pour l'entropie de Shannon, mais correspondent aussi aux inégalités pour la complexité de Kolmogorov.La complexité de Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractère. Ce sont là deux raisons qui justifient à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret).Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par sa formulation par les quantités définies dans la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information et s'est révélée très importante dans la caractérisation desschémas de partage de secret efficaces.L'étude des inégalités d'information n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelles, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises
Our work deals with secret sharing in the theoretical point of views of Shannon's Information Theory and Kolmogorov's Algorithmic Information Theory. We are going to explain how these three subjects are naturally deeply intertwined.Information inequalities play a central role in this text. They are the inequalities for Shannon entropy, but also they are in exact correspondence with the inequalities for Kolmogorov complexity. Kolmogorov complexity formalizes the idea of randomness for strings.These two reasons alone justify to consider the notion of secret sharing in the Algorithmic framework (if one can share a random secret one can share anything).Originally, secret sharing was first studied under the combinatorial lens, only later was it more generally formalized using information-theoretic measures. This step allowed the use of information inequalities which revealed to bevery important to understand the existence of secret-sharing schemes with respect to efficiency.The investigation of information inequalities is at its debut. We contribute to the subject by introducing the notion of essentially conditional inequalities, which shows once again that information inequalities are yet not fully understood
APA, Harvard, Vancouver, ISO, and other styles
7

Nechita, Ion. "États aléatoires, théorie quantique de l'information et probabilités libres." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00371592.

Full text
Abstract:
Cette thèse se trouve à l'intersection de la théorie des matrices aléatoires, des probabilités libres et de la théorie de l'information quantique. La plus grande partie des travaux présentés se concentrent sur les aspects probabilistes de l'information quantique et, en particulier, sur l'usage des matrices aléatoires dans différents modèles en théorie quantique. Une autre partie de cette thèse est dédiée à la théorie des probabilités libres et à ses liens avec les matrices aléatoires et l'information quantique. En théorie quantique de l'information, il existe différents modèles de matrices densités aléatoires. On s'intéresse, dans l'esprit de la théorie des matrices aléatoires, au comportement asymptotique des matrices densités, dans la limite où la taille du système converge vers l'infini. Le point de vue pris dans cette thèse est celui des systèmes quantiques ouverts, où l'espace qui nous intéresse est couplé avec l'environnement et le système composé se trouve dans un état pur uniforme. En prenant la trace partielle sur l'environnement, on obtient des matrices densités aléatoires que l'on étudie dans deux régimes asymptotiques. En exploitant des liens avec l'ensemble des matrices aléatoires dites de Wishart, on obtient les densités spectrales limites et les fluctuations des valeurs propres extrémales. En collaboration avec Clément Pellegrini, on étudie des interactions répétées entre un système quantique et une chaîne de systèmes auxiliaires. Nous avons introduit des éléments aléatoires dans ce modèle, soit en considérant que les états de la chaîne sont des variables indépendantes et identiquement distribuées, soit en choisissant, à chaque interaction, une matrice unitaire d'interaction aléatoire uniforme. On s'intéresse aux propriétés asymptotiques des matrices, après un grand nombre d'interactions. Au passage, on introduit un nouveau modèle de matrices densités aléatoires que l'on compare avec les modèles existants dans la littérature. Un problème qui occupe une place centrale dans cette thèse est la conjecture de Nielsen sur la catalyse en théorie quantique de l'information. En collaboration avec Guillaume Aubrun, nous avons progressé vers la preuve de cette conjecture et nous l'avons par la suite généralisée dans différentes directions. L'outil principal utilisé dans ces travaux nous vient de la théorie des probabilités : la théorie des grandes déviations nous permet de comparer stochastiquement des puissances de convolution des mesures de probabilités. Les techniques introduites et le lien avec la théorie des grandes déviations nous ont permis de voir ce problème sous un autre angle et de donner aux théoriciens de l'information quantique un outil de travail puissant. Enfin, toujours en lien avec les matrices aléatoires, cette thèse a donné lieu à deux travaux en probabilités libres. Les ensembles de matrices aléatoires sont des exemples importants et simples où l'on peut observer l'indépendance libre; il est donc naturel de se demander s'il est possible d'obtenir la notion de liberté avec des matrices déterministes. Une telle construction a été proposée par Philippe Biane, en utilisant des sommes de transpositions dans l'algèbre du groupe symétrique. Avec Florent Benaych-Georges, on a pu généraliser les résultats de P. Biane à des cycles quelconques. Notre approche est combinatoire ce qui nous a permis d'aboutir à des formules explicites pour les moments et les cumulants libres des variables à la limite. Grâce à cette même approche nous avons élaboré un modèle analogue en probabilités classiques en remplaçant le groupe symétrique par le groupe abélien des parties d'un ensemble fini, muni de l'opération de différence symétrique. En collaboration avec Stéphane Attal, nous avons construit une approximation de l'espace de Fock libre (qui joue un rôle central en théorie des probabilités non-commutatives) par un produit libre dénombrable d'espaces discrets. Cette idée généralise au cas libre une construction similaire pour l'espace de Fock symétrique, introduite et étudié par S. Attal. En même temps nous avons obtenu une approximation des opérateurs fondamentaux de création, d'annihilation et de jauge par des opérateurs construits à partir des matrices de taille 2. En utilisant ces constructions sont ensuite utilisées pour retrouver quelques approximations connues du mouvement brownien libre et du processus de Poisson libre. Tous ces résultats se généralisent au cas des espaces de Fock de multiplicité supérieure, qui permettent d'approcher des processus multidimensionnels. En conclusion, l'ensemble des travaux scientifiques présentés dans cette thèse se situe à l'intersection de trois grandes directions: les matrices aléatoires, les probabilités libres et la théorie quantique de l'information, l'accent étant mis sur les interactions et sur les liens entre ces domaines.
APA, Harvard, Vancouver, ISO, and other styles
8

Garivier, Aurélien. "Modèles contextuels et alphabets infinis en théorie de l'information." Paris 11, 2006. http://www.theses.fr/2006PA112192.

Full text
Abstract:
Ce travail de thèse explore quelques aspects contemporains de la théorie de l'information allant de la théorie du codage à certains problèmes de choix de modèles. Nous y considérons d'abord le problème du codage de sources sans mémoire émettant dans un alphabet infini dénombrable. Comme il est impossible d' y apporter une solution générale, deux approches sont utilisées : nous établissons d'abord des conditions sous lesquelles le taux entropique peut être approché, et proposons alors un algorihme. Dans un second temps, il n'est posé aucune restriction sur la source, il est possible de fournir une solution partielle en codant seulement une partie de l'information (le motif) qui capture les répétitions contenues dans le message. Pour arriver à l'étude de processus plus complexes, nous revenons sur le cas de sources à mémoire finie sur un alphabet fini, qui a donné lieu a beaucoup de travaux, ainsi qu'à des algorithmes efficaces comme la Context Tree Weighting (CTW) Method. Nous prouvons ici que cet algorithme est également efficace sur une classe non paramétrique de sources à mémoire infinie : les sources de renouvellement. Nous montrons ensuite que les idées sous-jacentes à la méthode CTW permettent de construire un estimateur consistant de la structure de mémoire d'un processus quand celle-ci est finie : nous complètons l'étude de l'estimateur BIC pour les chaînes de Markov à longueur variable. Dans une dernière partie, il est montré qu'une telle approche est généralisable dans un cadre plus large de sources émettant dans un alphabet infini. On obtient ainsi des estimateurs consitants de l'ordre de chaînes de Markov cachées à émission poissonienne et gaussienne
This thesis explores some contemporary aspects of information theory, from source coding to issues of model selection. We first consider the problem of coding memoryless sources on a countable, infinite alphabet. As it is impossible to provide a solution which is both efficient and general, two approaches are considered: we first establish conditions under which the entropic rate can be reached, and we consider restricted classes for which tail probabilities are controlled. The second approach does not set any condition on the sources but provides a partial solution by coding only a part of the information - the pattern - which captures the repetitions in the message. In order to study more complex processes, we come back to the case of finite memory sources on a finite alphabet : it has given rise to many works and efficient algorithms like the Context Tree Weighting (CTW) Method. We show here that this method is also efficient on anon-parametric class of infinite memory sources: the renewal processes. We show then that the ideas on which CTW is based lead to a consistent estimator of the memory structure of a process, when this structure is finite. In fact, we complete the study of the BIC context tree estimator for Variable Length Markov Chains. In the last part, it is shown how similar ideas can be generalized for more complex sources on a (countable or not) infinite alphabet. We obtain consistent estimators for the order of hidden Markov models with Poisson and Gaussian emission
APA, Harvard, Vancouver, ISO, and other styles
9

Dion, Emmanuel. "La théorie de l'information appliquée à l'enquête par questionnaire." Clermont-Ferrand 1, 1995. http://www.theses.fr/1995CLF10157.

Full text
Abstract:
Les mesures définies par la théorie de l’information (et, en particulier l’entropie, l’équivoque, l’ambiguïté, la capacité, la redondance et la transinformation) permettent de proposer une nouvelle grille de lecture critique des questionnaires d’enquête. Ces mesures permettent en particulier de s’intéresser au problème de la quantité d’information qu’il est possible de recueillir auprès de chaque personne sondée et de proposer des règles générales de construction du questionnaire qui conduisent à l’optimisation de cette quantité d’information
Informations measurement as defined by information theory (particularly entropy, equivocation, ambiguity, capacity, redundancy and transmitted information) proposes a new series of tools for the evaluation of survey questionnaires. These tools make it possible to measure the amount of information one can get from each surveyed person, and established general questionnaire design rules that lead to the optimization of this amount of information
APA, Harvard, Vancouver, ISO, and other styles
10

Bensadon, Jérémy. "Applications de la théorie de l'information à l'apprentissage statistique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS025/document.

Full text
Abstract:
On considère ici deux sujets différents, en utilisant des idées issues de la théorie de l'information : 1) Context Tree Weighting est un algorithme de compression de texte qui calcule exactement une prédiction Bayésienne qui considère tous les modèles markoviens visibles : on construit un "arbre de contextes", dont les nœuds profonds correspondent aux modèles complexes, et la prédiction est calculée récursivement à partir des feuilles. On étend cette idée à un contexte plus général qui comprend également l'estimation de densité et la régression, puis on montre qu'il est intéressant de remplacer les mixtures Bayésiennes par du "switch", ce qui revient à considérer a priori des suites de modèles plutôt que de simples modèles. 2) Information Geometric Optimization (IGO) est un cadre général permettant de décrire plusieurs algorithmes d'optimisation boîte noire, par exemple CMA-ES et xNES. On transforme le problème initial en un problème d'optimisation d'une fonction lisse sur une variété Riemannienne, ce qui permet d'obtenir une équation différentielle du premier ordre invariante par reparamétrage. En pratique, il faut discrétiser cette équation, et l'invariance n'est plus valable qu'au premier ordre. On définit l'algorithme IGO géodésique (GIGO), qui utilise la structure de variété Riemannienne mentionnée ci-dessus pour obtenir un algorithme totalement invariant par reparamétrage. Grâce au théorème de Noether, on obtient facilement une équation différentielle du premier ordre satisfaite par les géodésiques de la variété statistique des gaussiennes, ce qui permet d'implémenter GIGO. On montre enfin que xNES et GIGO sont différents dans le cas général, mais qu'il est possible de définir un nouvel algorithme presque invariant par reparamétrage, GIGO par blocs, qui correspond exactement à xNES dans le cas Gaussien
We study two different topics, using insight from information theory in both cases: 1) Context Tree Weighting is a text compression algorithm that efficiently computes the Bayesian combination of all visible Markov models: we build a "context tree", with deeper nodes corresponding to more complex models, and the mixture is computed recursively, starting with the leaves. We extend this idea to a more general context, also encompassing density estimation and regression; and we investigate the benefits of replacing regular Bayesian inference with switch distributions, which put a prior on sequences of models instead of models. 2) Information Geometric Optimization (IGO) is a general framework for black box optimization that recovers several state of the art algorithms, such as CMA-ES and xNES. The initial problem is transferred to a Riemannian manifold, yielding parametrization-invariant first order differential equation. However, since in practice, time is discretized, this invariance only holds up to first order. We introduce the Geodesic IGO (GIGO) update, which uses this Riemannian manifold structure to define a fully parametrization invariant algorithm. Thanks to Noether's theorem, we obtain a first order differential equation satisfied by the geodesics of the statistical manifold of Gaussians, thus allowing to compute the corresponding GIGO update. Finally, we show that while GIGO and xNES are different in general, it is possible to define a new "almost parametrization-invariant" algorithm, Blockwise GIGO, that recovers xNES from abstract principles
APA, Harvard, Vancouver, ISO, and other styles
11

Martimort, David. "Multiprincipaux en économie de l'information." Toulouse 1, 1992. http://www.theses.fr/1992TOU10011.

Full text
Abstract:
L'objet de cette thèse est de développer un ensemble de travaux théoriques rompant avec le paradigme du "contrat unique" de la théorie des incitations. Nous présentons donc un cadre conceptuel plus riche susceptible de s'appliquer à des structures organisationnelles complexes : firmes, constitutions, marchés. Nous développons tout d'abord une analyse théorique des structures notant alors les limites du principe de révélation dans ce contexte. Nous analysons ensuite les situations de concurrence entre hiérarchies. Nous exploitons alors ces résultats dans des applications à l'économie industrielle : choix des structures de marchés (agent exclusif ou commun)
This thesis developps a set of theoretical contributions which abandonns unicity of contract of the usual incentive theory. We offer a conceptual framework rich enough to be applied to complex organizations. We develop a theoretical analysis of common agency structure, the limit of the revelation principle in this content. We analyse competing hierarchies with exclusive agents. We end up using these results in applications in industrial organization : choice of market structures (exclusive agencies or common agency) policyrket structures
APA, Harvard, Vancouver, ISO, and other styles
12

Mora, T. "Géométrie et inférence dans l'optimisation et en théorie de l'information." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00175221.

Full text
Abstract:
Les problèmes d'optimisation et de satisfaction de contraintes sur des ensembles de variables discrètes sont l'objet principal de la complexité algorithmique. Ces problèmes ont récemment bénéficié des outils et des concepts de la physique des systèmes désordonnés, à la fois théoriquement et algorithmiquement. En particulier, il a été suggéré que les difficultés pratiques soulevées par certaines instances dures de problèmes d'optimisation sont liées à la structure fragmentée de leur espace de solutions, qui rappelle une phase vitreuse. Parallèlement, les codes de correction d'erreur de pointe, qui peuvent être ramenés à des problèmes d'optimisation, reposent sur la séparabilité de leurs messages afin d'assurer une communication fiable. L'objet de cette thèse est d'explorer, dans un cadre commun, cette relation entre les propriétés d'inférence et l'organisation géométrique, dans les problèmes issus de la complexité algorithmique et de la théorie de l'information.

Après une introduction physique des problèmes et des concepts liés aux domaines sus-évoqués, les méthodes de passage de messages, basées sur l'approximation de Bethe, sont introduites. Ces méthodes sont utiles d'un point de vue physique, car elle permettent d'étudier les propriétés thermodynamiques d'ensemble d'instances aléatoires. Elles sont également utiles pour l'inférence. L'analyse de spectres de distances est ensuite effectuée à l'aide de méthodes combinatoires et de passage de messages, et mises à profit afin de prouver et l'existence de la fragmentation dans les problèmes de satisfaction de contraintes, et d'en étudier les aspects importants.
APA, Harvard, Vancouver, ISO, and other styles
13

Mora, Thierry. "Géométrie et inférence dans l'optimisation et en théorie de l'information." Paris 11, 2007. http://www.theses.fr/2007PA112162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Beauchêne, Daniel. "L'information industrielle : définition et spécification." Chambéry, 1993. http://www.theses.fr/1993CHAMS013.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la définition et la spécification de l'information que nous qualifions industrielle. Nous présentons d'abord diverses visions de l'entreprise et quelques modèles issus de ces vues. Le modèle OLYMPIOS permet, quant à lui, de prendre en compte une vue fonctionnelle et structurelle, une vue managériale et une vue comportementale de l'entreprise. Nous donnons ensuite notre définition de l'information industrielle en distinguant quatre facettes de cette information: 1) une facette informatique regroupe la donnée (nom, domaine de valeurs, formats de représentation) et la signification fonctionnelle; 2) une facette organisationnelle décrit l'information dans son contexte. Nous distinguons l'organisation fonctionnelle qui se traduit par la notion de domaine de visibilité d'un exploitant et une organisation par les relations fournisseur-utilisateur en vue de satisfaire un objectif; 3) une facette temporelle situe l'information dans les divers horizons temporels de l'entreprise; 4) une facette économique n'est pas développée dans ces travaux. Nous présentons alors la place de la spécification, étape fondamentale du cycle de vie du système d'information et décrivons quelques méthodes de spécification pour justifier l'utilisation des spécifications algébriques de types abstraits de donnée pour spécifier l'information industrielle. Nous spécifions ensuite la facette informatique à l'aide de spécifications algébriques de types abstraits de données. Pour ce faire, nous construisons d'abord un automate d'états finis représentant l'information et nous donnons une méthode permettant de passer de celui-ci à une spécification algébrique en garantissant les propriétés de suffisante complétude et de consistance de la spécification. Dans le chapitre suivant, nous spécifions l'organisation telle qu'elle peut être représentée par le modèle OLYMPIOS en construisant la spécification algébrique d'un système d'information fournisseur-utilisateur, atome d'organisation de ce modèle. Enfin, nous présentons un exemple de spécification des informations industrielles pour le responsable de l'administration des ventes d'un équipementier de l'industrie automobile.
APA, Harvard, Vancouver, ISO, and other styles
15

Bohnet-Waldraff, Fabian. "Entanglement and Quantumness - New numerical approaches -." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS318/document.

Full text
Abstract:
Le thème central de cette thèse cumulative est l’étude de l’intrication multi-partite quantique pour des systèmes de dimension finie. Nous avons developpé un algorithme numérique basé sur un problème d’optimisation semi-définie, qui permet de décider si un état est intriqué ou pas en un nombre fini d’itérations. Cet algorithme est une extension d’algorithmes déjà connus qui ne permettent pas de conclure lorsque l’état en question est séparable. Dans notre cas, si l’état est séparable, l’algorithme permet d’obtenir une décomposition de l’état en une mixture d’états séparables. Ces résultats ont été obtenus en exploitant la correspondance entre le problème de l’intrication et le problème des moments tronqués (truncated moment problem). Nous avons aussi développé une nouvelle manière d’exprimer l’état partiellement transposé d’un état symétrique de plusieurs qubits, simplifiant par la-même nombre de résultats bien connus en théorie de l’intrication.Cette nouvelle manière d’écrire le critère de transposée partielle unifie différentes interprétations et formulations alternatives dudit critère, et fait partie intégrante de notre algorithme d’optimisation semi-définie.Nous avons aussi étudié en détails les propriétés géométriques des états intriqués de deux qubits : nous avons pu répondre à la question de savoir à quelle distance un état pur est de l’enveloppe convexe des états symétriques et séparables, en donnant une formule explicite de l’état symétrique et séparable le plus proche — la distance étant celle de Hilbert-Schmidt. Pour les états mixtes nous avons pu obtenir et une borne supérieure numérique et une borne inférieure analytique pour cette distance. Pour un plus grand6nombre de qubits, nous nous sommes intéressés à la boule des états absolument classique,c’est à dire des états symétriques de plusieurs qubits qui restent séparables sous n’importe quelle transformation unitaire. Nous avons trouvé une borne inférieure analytique pour le rayon de cette boule autour de l’état maximallement mixte ainsi qu’une borne supérieure numérique, cette dernière ayant été obtenue en cherchant un état intriqué aussi proche que possible de l’état maximallement mixte.La représentation tensorielle d’un état symétrique de plusieurs qubits, autrement dit de l’état d’un spin j, nous a permis d’étudier des propriétés de l’intrication en nous basant sur le spectre du tenseur (valeurs propres du tenseur). Le caractère défini du tenseur est relié à l’intrication de l’état qu’il représente, donnant la possibilité de détecter la présence d’intrication à l’aide de la valeur propre minimale du tenseur. Toutefois, les valeurs propres du tenseur sont autrement plus compliquée à calculer que les valeurs propres matricielle, rendant l’analyse numérique plus délicate. La relation entre la valeur propre minimale du tenseur et la quantité d’intrication présente dans l’état a aussi été étudiée.Il en ressort que les deux quantités sont étroitement corrélées pour des systèmes de petite taille, c’est à dire jusqu’à six qubits. L’étude de ces corrélations a nécessité une méthode indépendante pour jauger de la quantité d’intrication présente dans un état. Pour cela nous avons amélioré des méthodes numériques pour déterminer la distance entre un état et l’ensemble composé des états symétriques et séparables, en utilisant une combinaison d’algorithmes d’optimisation quadratique et d’optimisation linéaire. La représentation tensorielle des états symétriques de plusieurs qubits a aussi été utilisée pour définir formellement une nouvelle classe de tenseurs, appellés "regularly decomposable tensors",qui correspond à l’ensemble des états symétriques et séparables de plusieurs qubits
The main topic of this compilation thesis is the investigation of multipartite entanglement of finite dimensional systems. We developed a numerical algorithm that detects if a multipartite state is entangled or separable in a finite number of steps of a semi-definite optimization task. This method is an extension of previously known semi-definite methods, which are inconclusive when the state is separable. In our case, if the state is separable, an explicit decomposition into a mixture of separable states can be extracted. This was achieved by mapping the entanglement problem onto the mathematically well studied truncated moment problem.Additionally, a new way of writing the partially transposed state for symmetric multi-qubit states was developed which simplifies many results previously known in entanglement theory. This new way of writing the partial transpose criterion unifies different interpretations and alternative formulations of the partial transpose criterion and it is also a part in the aforementioned semi-definite algorithm.The geometric properties of entangled symmetric states of two qubits were studied in detail: We could answer the question of how far a given pure state is from the convex hull of symmetric separable states, as measured by the Hilbert-Schmidt distance, by giving an explicit formula for the closest separable symmetric state. For mixed states we could provide a numerical upper and analytical lower bound for this distance.For a larger number of qubits we investigated the ball of absolutely classical states, i.e.~symmetric multi-qubit states that stay separable under any unitary transformation. We found an analytical lower bound for the radius of this ball around the maximally mixed symmetric state and gave a numerical upper bound on this radius, by searching for an entangled state as close as possible to the maximally mixed symmetric state.The tensor representation of a symmetric multi-qubit state, or spin-$j$ state, allowed us to study entanglement properties based on the spectrum of the tensor via tensor eigenvalues. The definiteness of this tensor relates to the entanglement of the state it represents and, hence, the smallest tensor eigenvalue can be used to detect entanglement. However, the tensor eigenvalues are more difficult to determine than the familiar matrix eigenvalues which made the investigation computationally more challenging.The relationship between the value of the smallest tensor eigenvalue and the amount of entanglement in the state was also investigated. It turned out that they are strongly correlated for small system sizes, i.e.~for up to six qubits. However, to investigate this correlation we needed an independent way to gauge the amount of entanglement of a state and in order to do so we improved existing numerical methods to determine the distance of a state to the set of separable symmetric states, using a combination of linear and quadratic programming.The tensor representation of symmetric multi-qubit states was also used to formally define a new tensor class of regularly decomposable tensors that corresponds to the set of separable symmetric multi-qubit states
APA, Harvard, Vancouver, ISO, and other styles
16

Faÿ, Armelle. "Sur la propagation de l'information dans les réseaux probabilistes." Paris 6, 1997. http://www.theses.fr/1997PA066770.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ollivier, Harold. "Eléments de théorie de l'information quantique, décohérence et codes correcteurs quantiques." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00001131.

Full text
Abstract:
Depuis 20 ans, l'information quantique a profondément changé notre façon d'appréhender la physique atomique, ainsi que la nature des ressources utiles au calcul. Cette thèse aborde trois aspects relatifs à l'information quantique: - Le phénomène de décohérence -- responsable de la transition quantique-classique -- est décrit quantitativement grâce à l'analyse de l'information mutuelle entre deux systèmes quantiques ; - Une nouvelle classe de codes correcteurs d'erreurs quantiques -- les codes convolutifs -- est introduite en detail et il est montré qu'elle partage les propriétés des codes convolutifs classiques (codage et décodage en ligne, algorithme efficace d'estimation d'erreurs au maximum de vraisemblance, existence de condition nécessaire et suffisante pour l'absence d'erreur catastrophique, etc.) ; - Quelques propositions expérimentales de manipulation d'information quantique sont décrites (porte de Toffoli et clonage universel pour l'électrodynamique quantique en cavité).
APA, Harvard, Vancouver, ISO, and other styles
18

Ollivier, Harold. "Eléments de théorie de l'information quantique, décohérence et codes correcteurs d'erreurs." Palaiseau, Ecole polytechnique, 2004. http://www.theses.fr/2004EPXX0027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Bourdon, Jérémie. "Analyse dynamique d'algorithmes : exemples en arithmétique et en théorie de l'information." Caen, 2002. http://www.theses.fr/2002CAEN2062.

Full text
Abstract:
Dans cette thèse, nous faisons l'analyse en moyenne de trois types de problèmes de l'arithmétique et de la théorie de l'information pour lesquels le mot est l'objet central. Tous ces problèmes se distinguent les uns des autres par la manière dont le mot est considéré. Le mot est étudié en tant que tel dans le premier problème où l'on étudie le nombre moyen d'occurrences d'un motif fixé dans un texte. La seconde étude concerne des structures arborescentes, les tries et les PATRICIA tries, qui sont parfaitement adaptées pour la manipulation de dictionnaires de mots. Dans la troisième catégorie de problèmes, le mot apparaît comme la trace de l'exécution d'un algorithme arithmétique du type algorithme euclidien. Le modèle probabiliste de création des mots est celui des s̀̀ources dynamiques''. C'est un cadre suffisamment général pour englober toutes les sources de mots classiques --même les sources dont les symboles sont très corrélés--, mais qui permet tout de même d'avoir une bonne expressivité des constantes qui apparaissent lors de l'étude. Les expressions obtenues font apparaître des objets caractéristiques de la source comme l'entropie ou la probabilité de coi͏̈ncidence. Tous les résultats sont dérivés des propriétés spectrales d'opérateurs de transfert du type opérateurs de Ruelle qui sont liés à la source.
APA, Harvard, Vancouver, ISO, and other styles
20

Saulnier, Boris. "Aspects multi-échelles de l'information en biologie : de la physique à la biologie." Paris 7, 2006. http://www.theses.fr/2006PA077225.

Full text
Abstract:
Un enjeu de la bioinformatique est de reconstruire les états et la dynamique d'un système biologique à partir des données génétiques. Pour cela, on utilise dans la thèse différentes entropies, qui donnent une forme mathématique précise à la quantité d'information associé^ à un processus de mesure. On montre, dans le cadre de la dynamique symbolique, que les différentes quantités d'information associables à une source de données sont équivalentes, mais que leur calcul effectif nécessiterait des suites infinies de données. La reconstruction d'une dynamique nécessite donc une caractérisation théorique a priori, souvent absente en biologie. On met en évidence que la représentation probabiliste, qui permet le calcul de l'information, est tributaire d'une théorie et de ses symétries. L'analyse de cette question nous conduit à souligner qu'une fréquence mesurée dans une population n'a pas. . . Nécessairement de signification pour un organisme donné de cette population. Puis, sur la base de la thermodynamique linéaire des processus irréversibles, on développe un résultat original, remarquablement confirmé numériquement, lié aux relations d'échelles qui gouvernent la thermodynamique biologique. Cette approche s'appuie sur la décomposition de l'entropie thermodynamique en deux composantes, liées respectivement aux processus d'organisation et de désorganisation. Enfin, on utilise l'approche hyperbolique des systèmes hors équilibre, et la notion d'information pertinente en physique statistique quantique, pour montrer la nécessité de considérer en biologie des hiérarchies d'entropie. Ce fait pointe la nécessité d'une information intrinsèquement relative d'échelle, qui reste à définir
One goal of biocomputing is to rebuild the states and dynamic of a biological System from genetic data. For that, we use in this thesis different entropies, which give a precise mathematical form to the information quantity associated to a measurement process. We show, within the symbolic dynamic framework, the equivalence of different information quantities associated to a data source. But thé effective calculation requires infinite data sequences. Therefore, the reconstruction of a dynamic requires an a priori theoretical characterization, which often lacks in biology. We show that probabilistic representation, which underlies information computation, depends on a theory and its symetries. As a consequence, we show that a frequency measured in a population is not necessarily meaningfull for a given organism. Then we use linear thermodynamics of irrerversible processes to develop an innovative result, numerically confirmed, linked to scaling laws of biology thermodynamics. For that, we decompose the thermodynamical entropy in two parts, associated respectively to organization and disorganization processes. Last, we use the hyperbolic approach, and the notion of relevant information in statistical quantum physics, to show the necessity to deal with hierarchies of entropy in biology. This opens the way to the definition of an intrisically scale relative information
APA, Harvard, Vancouver, ISO, and other styles
21

Oury, Marion. "Essais sur l'information presque complète en théorie des jeux et en économie." Jouy-en Josas, HEC, 2008. http://www.theses.fr/2008EHEC0011.

Full text
Abstract:
Pour construire un modèle économique, il est nécessaire de spécifier la structure d’information dans laquelle évoluent les agents, c’est-à-dire de spécifier quelle connaissance chacun a mais également ce que chacun sait sur ce que les autres savent, etc. . . D´ecrire avec exactitude cette dimension informationnelle supposerait de connaître parfaitement la représentation mentale que les agents ont de leur environnement et est donc quasiment impossible. Le modélisateur doit par conséquent recourir à des hypothèses simplificatrices. Celle d’information complète, c’est-à-dire de connaissance commune par les agents des paiements du jeu, figure parmi les plus souvent utilisées. L’objectif de cette thèse est d’examiner les implications stratégiques de cette hypothèse en la relâchant légèrement et en s’intéressant à des modèles où l’information est presque complète. Ce travail montre que ces implications sont importantes et que le modélisateur doit donc être précautionneux dans l’interprétation de ses résultats quand il utilise ce cadre idéalisé. Je m’intéresse également à des applications économiques en théorie des mécanismes et dans des problèmes de transmission d’information
Economic models always contain a description of the informational environnement, i. E. , an answer to the following questions: What is the knowledge of each agent about her final payments? What is her knowledge about the knowledge of the other agents? and so on. . . Of course, the modeler does not know exactly the mental representation each agent has regarding her environment. Therefore, to derive economic results, she has to abstract away from details and make strong simplifying assumptions that are meant to be satisfied only approximately in the actual situation. One of the most commonly used idealizations is that of complete information. In complete information settings, the final payments are common knowledge among the agents. The aim of this Ph D thesis is to clarify the strategic implications of this assumption by relaxing it slightly and studying models where information is nearly complete. It is shown that these implications are important. I also give some economic applications of these results in mechanism design and problems of information transmission
APA, Harvard, Vancouver, ISO, and other styles
22

Haddouz, Riad. "Etude d'algorithmes de résolution du problème de satisfaisabilité et d'une classe de données pour les comparer." Aix-Marseille 2, 1991. http://www.theses.fr/1991AIX22024.

Full text
Abstract:
Ce travail presente d'abord les differents algorithmes de resolution du probleme de satisfaisabilite. Les recents travaux et analyses theoriques connus sont egalement examines. Ensuite, est etudiee une classe de donnees dites d'entropie maximale: celles qui ont une chance sur deux d'etre satisfaisables. Cette classe va intervenir dans l'un des criteres de comparaison de certains algorithmes de resolution. Sous une certaine hypothese, on demontre l'identite entre cette classe et une autre classe de donnees; ce qui represente une nouvelle methode de determination des donnees d'entropie maximale. Ce travail contient ensuite les resultats d'experimentations sur l'apport, de differentes heuristiques ou strategies, a la procedure de davis-putnam qui n'utilise que le backtrack (dp) ainsi qu'a l'algorithme de sl-resolution. On procede egalement a la comparaison des performances des meilleures variantes de chacun des deux algorithmes. Afin d'accelerer l'algorithme de sl-resolution avec remontee d'impasses (slri), des heuristiques correspondant a celles connues pour dp y sont introduites. Dans le cas de donnees d'entropie maximale, l'acceleration de slri par la regle de la clause mono-litterale va s'averer comparable a celle de dp par la meme regle. On experimente, enfin, des methodes de determination des theoremes atomiques (clauses produites mono-litterales) pour une certaine donnee. On presente egalement une methode probabiliste dont le degre de confiance est estime
APA, Harvard, Vancouver, ISO, and other styles
23

Bomble, Laëtitia. "Contrôle de la dynamique de systèmes complexes : Application à l'information quantique et classique." Paris 11, 2010. http://www.theses.fr/2010PA112087.

Full text
Abstract:
Cette thèse porte sur la recherche et l’étude de nouveaux moyens de coder et manipuler de l’information sur des systèmes quantiques. On peut, sur ceux-ci, continuer d’utiliser la logique usuelle (classique) afin de gagner en taille et en rapidité, ou développer une nouvelle logique (quantique) utilisant les propriétés quantiques de ces systèmes afin de faire des opérations irréalisables en logique classique. Les supports de l’information retenus ici sont des états propres de molécules. Pour pouvoir y manipuler l’information, il faut en contrôler la dynamique, ici par l’emploi d’un champ laser mis en forme pour faire sur la molécule une transformation précise (impulsions TT ou STIRAP optimisées par algorithmes génétiques, ou calculées par contrôle optimal). L’objectif de ce travail était de rechercher des systèmes quantiques candidats parmi les molécules pour le calcul classique et quantique, et d’y simuler des portes logiques, avec des encodages de l’information et des méthodes de contrôle variées. Pour le calcul classique, l’implémentation d’un additionneur au moyen de processus STIRAP sur le dioxyde de soufre a été simulée, proposant ainsi une mise en œuvre pour l’implémentation d’une porte classique sur un système moléculaire quantique. Pour le calcul quantique, des circuits ont été implémentés par computation vibrationnelle sur le chlorure de bromoacétyl nitreux, l’acide nitreux et le thiosphogène contrôlés par contrôle optimal, confirmant le potentiel présenté par les molécules polyatomiques pour le calcul quantique. L’utilisation d’un réseau de molécules diatomiques ultra-froides piégées couplée par interaction dipolaire, comme support logique a également été étudiée
This thesis is dedicated to the study and research of new ways of implementing and manipulating information on quantum systems. On such systems, the usual (classical) logic can be used, improving size and duration, or a new logic (quantum) using quantum properties of this systems can be developed allowing new logic operations. The systems used are here eigen states of molecules. In the order of mapped information in such systems, we need to be able to manipulate their dynamics, here we use a laser field designed to make a determined transformation on the molecule (pi-pulse or STIRAP pulses designed by genetic algorithms or pulses generated by optimal control). The goal of this thesis was to search quantum systems among the molecules to be used as candidates for classical and quantum computation and to modelize on them logic gates with various implementations and ways of control. On the classical computation aspect, a simulation of a full adder by a STIRAP process on sulfur dioxide has been made and so a realization of a classical gate on a quantum system has been proposed. On the quantum computation aspect, some circuits has been implemented by vibrational computing on bromoacetyl chloride on nitrous acid and on thiophosgene controlled by optimal control. The utilization on a network of ultra-cold trapped diatomic molecules coupled by dipolar interaction has also been studied
APA, Harvard, Vancouver, ISO, and other styles
24

Piantanida, Pablo. "THÉORIE DE L'INFORMATION MULTI-UTILISATEUR : INFORMATION ADJACENTE ET CONNAISSANCE IMPARFAITE DU CANAL." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00168330.

Full text
Abstract:
La capacité de canaux mono et multi-utilisateur dépendant d'états avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux désadaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque, en supposant des canaux discrets sans mémoire. Ces resultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage.

Dans cette thèse, nous introduisons d'abord la notion de "estimation-induced outage capacity" pour des canaux mono-utilisateur, où lémetteur et le récepteur \oe uvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service (QoS), quel que soit le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Dans notre cas, la contrainte sur la qualité de service permet d'atteindre les taux souhaités avec une probabilité d'erreur faible (le service de communication visé), même dans le cas où les estimations du canal sont mauvaises. Nos résultats fournissent une notion intuitive de l'impact des estimations et des caractéristiques du canal (e.g. SNR, taille des séquences d'apprentissage, voies de retour) sur le taux de coupure.

Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous nous focalisons sur les familles de décodeurs qui peuvent être implémentées sur la plupart des systèmes pratiques de modulation codée. Nous nous basons sur le décodeur théorique qui atteint la capacité, pour obtenir une métrique practique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Cette métrique est ensuite appliquée au cas des canaux MIMO à évanouissements. D'après notre notion du taux de coupure, nous déterminons le taux maximal d'information atteignable associé au décodeur proposé. Les résultats numériques montrent que, sans introduire de complexité additionnelle dans le décodage, la métrique proposée fournit des gains significatifs, en termes de taux d'information atteignables et de taux d'erreur binaire (BER), dans le cas de modulation codée à bits entrelacés (BICM).

Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à lémetteur sur la capacité de canaux dépendant d'états avec information adjacente non-causale à lémetteur. Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Cette notion nous permet de considérer la capacité d'un canal composé (plus bruité) de type Gelfand et Pinsker. Nous obtenons le schéma de codage optimal de type "Dirty-paper coding (DPC)" qui atteint la capacité (sous l'hypothèse d'entrées Gaussiennes) du canal à évanouissements de type Costa. Les résultats illustrent le compromis pratique entre la quantité d'apprentissage du canal et son impact sur les performances de l'annulation d'interférences du schéma DPC. Cette approche nous permet d'étudier la région de capacité de canaux MIMO multi-utilisateur de diffusion à évanouissements (MIMO-BC), où les mobiles (les récepteurs) disposent uniquement d'une estimation bruitée des paramètres du canal, et ces estimations sont (ou non) disponibles à la station de base (l'émetteur). Nous observons en particulier, le résultat surprenant que pour ce canal de diffusion avec une antenne unique à l'émetteur et aux récepteurs et des estimées imparfaites du canal connues aux récepteurs, une connaissance de ses estimées à l'émetteur n'est pas nécessaire pour atteindre des taux élevés.

Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur. Nous montrons d'abord qu'en fonction de l'application visée et des conditions requises sur les différents messages en termes de robustesse et de transparence, il y a un parallèle entre l'insertion de l'information multi-utilisateur et les canaux multi-utilisateur avec information adjacente à l'émetteur. Nous nous focalisons sur les canaux de diffusion Gaussiens (GBC) et sur les canaux Gaussiens à accès multiples (MAC). Ceci consiste en une conception commune de schémas de codage pratiques de type DPC basés sur les solutions théoriques correspondant à ces canaux. Ces résultats étendent les implémentations pratiques de type QIM, DC-QIM et SCS initialement conçues pour un utilisateur au cas de plusieurs utilisateurs. Nous montrons que l'écart avec les performances optimales (les régions de capacités) peut être minimisé en utilisant des mots de code basés sur un réseau maillé de dimension finie.
APA, Harvard, Vancouver, ISO, and other styles
25

Piantanida, Juan Pablo. "Théorie de l'information multi-utilisateur : information adjacente et connaissance imparfaite du canal." Paris 11, 2007. http://www.theses.fr/2007PA112053.

Full text
Abstract:
La capacité des canaux mono et multi-utilisateur avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux des adaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque. Ces résultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage. Nous introduisons d'abord la notion de "estimation-induced outage capacity", où l'émetteur et le récepteur oeuvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service, quel que soir le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous obtenons une métrique pratique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à l'émetteur sur la capacité des canaux dépendant d'états avec information adjacente non-causale à l'émetteur (canaux MIMO multi-utilisateur). Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur
The capacity of single and multi-user channels under imperfect channel knowledge are investigated. We address these channel mismatch scenarios by introducing two novel notions of reliable communication under channel estimation errors, for which we provide an associated coding theorem and its corresponding converse. Basically, we exploit for our purpose an interesting feature of channel estimation through use of pilot symbols. This feature is the availability of the statistic characterizing the quality of channel estimates. We first introduce the notion of estimation-induced outage capacity, where the transmitter and the receiver strive to construct codes for ensuring reliable communication with a quality-of-service, no matter which degree of accuracy estimation arises during a transmission. Then the optimal decoder achieving this capacity is investigated. We derive a practical decoding metric and its achievable rates, for arbitrary memoryless channels that minimizes the average of the transmission error probability over all channel estimation errors. We next consider the effects of imperfect channel estimation at the receivers with imperfect (or without) channel knowledge at the transmitter on the capacity of state-dependent channels withe non-causal CSI at the transmitter (e. G. The multi-user Fading MIMO Broadcast Channel). We address this through the notion of reliable communication based on the average of the transmission error probability over all channel estimation erros. Finally, we consider several implementable DPC schemes for multi-user information embedding, through emphasizing their tight relationship with conventional multi-user information theory
APA, Harvard, Vancouver, ISO, and other styles
26

Ferenczi, Sébastien. "Systèmes de rang fini." Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX22016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Roubert, Benoît. "Approche semi-classique de l'information quantique." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1123/.

Full text
Abstract:
Aujourd'hui, une large communauté de scientifiques travaille en vue de la réalisation d'un ordinateur quantique, une machine dont il est montré qu'elle peut offrir, au moins en théorie, et en particulier pour les problèmes dont la complexité croît exponentiellement avec la taille du système, des performances inaccessibles à ses homologues classiques. Cette thèse s'intéresse à la possibilité de réaliser une approche semi-classique de l'information quantique dans deux domaines d'intérêt : celui du clonage approché d'un qubit, et celui de l'amplification de spins dans des chaînes de spins. Dans la première partie de cette thèse est étudié le rôle de l'interférence dans les cloneurs quantiques. Nous étudions en particulier le cas de cloneurs sans interférence (au sens définit dans la thèse) qui se révèle être un cas intermédiaire (que l'on peut qualifier de semi-classique) entre les cloneurs purement quantiques (qui propagent cohérences et probabilités des matrices densités) et les cloneurs classiques (qui ne propagent que les probabilités). Dans la seconde partie, on s'intéresse au phénomène d'amplification de spin qui permet d'amplifier l'état d'un spin unique comme état de polarisation de la chaîne toute entière, problème pour lequel l'approche semi-classique (valable en raison du grand nombre de spins) est utilisée pour montrer l'importance inattendue jouée par les effets de bords dans de tels systèmes
Today, a large community of scientists is working to make possible the achievement of a quantum computer, a machine that can offer at least in theory (and especially for problems whose complexity grows exponentially with the size of the system) a degree of performance inaccessible to its classical counterpart. This thesis is looking at the possibility of producing a semi-classical approach of quantum information in two areas of interest: the cloning of a qubit, and the amplification of spin in spin chains. In the first part of this thesis is studied the role of interference in quantum cloners. We study in particular the case of cloners without interference (as defined, in the thesis) that turned out to be an intermediary case (that can be qualified of semi-classical) between purely quantum cloners (which propagate coherences and probabilities of density matrices) and classical cloners (which carry only the probabilities). In the second part, the phenomenon of amplification is studied in spin chains, which allows to amplify the state of a unique spin in a state of polarization of the entire chain, problem for which the semi-classical approach (valid because of the large number of spins) is used to show the unexpectedly important role played by the edge effects in these kind of systems
APA, Harvard, Vancouver, ISO, and other styles
28

La, Fortelle Arnaud de. "Contribution à la théorie des grandes déviations et applications." Marne-la-Vallée, ENPC, 2000. http://www.theses.fr/2000ENPC0018.

Full text
Abstract:
La théorie des grandes déviations a pour objet l'étude asymptotique d'événements rares. Cette thèse développe la technique dite de changement de mesure et ses relations avec l'entropie. Après une présentation des techniques de base, on expose différents aspects du changement de mesure, quelques propriétés de l'entropie et les résultats attenants (PGD faibles. . . ) pour les variables i. I. D. Et les chaînes de Markov (en temps discret ou continu). On montre comment certains objets ou concepts naturels apparaissent - générateurs empiriques, fonctions de Ruelle-Lanford, etc. On s'aperçoit alors que l'analyse peut être poussée dans plusieurs directions : théorie du PGD faible, frontière de Martin (étude de comportements non-stationnaires), calcul de fonctions « quasi-harmoniques » dans certains réseaux (en vue d'estimer les queues de la distribution stationnaire), développement asymptotique d'ordre plus élevé (et calcul de variance). Ces techniques sont généralisables aux processus semi-markoviens. L'entropie est un dénominateur commun à tous ces problèmes. La seconde partie de ce document présente les résultats achevés et en cours de publication : PGD pour les chaînes de Markov et pour une classe de réseaux à polling
This thesis focuses on the change of measure and its links with the entropy in the context of large deviations. We first present basic large deviations techniques settling the framework; the change of measure is set out together with properties of the entropy and related results (weak LDP. . . ) for i. I. D. Variables and Markov processes. Then some notions somehow naturally appear: Ruelle-Lanford fonctions, empirical generators, etc. The analysis can be pursued forther into several directions: weak LDP theory, Martin boundary, calculus of "quasi-harmonie" fonctions in networks (related to the tails of stationary distributions), asymptotic calculations and extension of these techniques to semi-Markov processes. A unity of structure in these problems is exhibited by means of the entropy fonction. The second part of the thesis contains articles to appear: LDP for Markov chains in discrete and continuous time; LDP for some, polling networks
APA, Harvard, Vancouver, ISO, and other styles
29

Blanc, Jean-luc. "Transmission de l'information et complexité des activités de populations neuronales." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4720/document.

Full text
Abstract:
Dans cette thèse, nous abordons les problèmes de la transmission et du traitement de l'information par les assemblées de neurones, du point de vue de l'approche inter-disciplinaire des systèmes complexes en nous référant principalement aux formalismes de la théorie de l'information et de la théorie des systèmes dynamiques. Dans ce contexte, nous nous focalisons sur les mécanismes de représentation de l'information sensorielle par les activités neuronales à travers le codage neuronal. Nous explorons la structure de ce code, à plusieurs échelles grâce à l'étude de différents signaux électrophysiologiques issus de populations de neurones (signaux unitaires, LFP et EEG). Sur le plan méthodologique, nous avons implémenté différents indices permettant d'extraire objectivement l'information des activités neuronales, mais également d'en caractériser la dynamique sous-jacente à partir de séries temporelles de taille finie (le taux d'entropie). Nous avons également étudié un indicateur peu utilisé (le taux d'information mutuelle), qui permet de quantifier l'auto-organisation et les relations de couplage entre deux systèmes. Grâce à des approches théoriques et numériques, nous analysons les propriétés caractéristiques de ces indices et proposons leur utilisation dans le cadre de l'étude des systèmes neuronaux. Ce travail permet de caractériser la complexité de différentes activités neuronales associées aux dynamiques de transmission de l'information
In this thesis, we address the problem of transmission and information processing by neuronal assemblies, in terms of the interdisciplinary approach of complex systems by referring mainly to the formalisms of information theory and dynamical systems. In this context, we focus on the mechanisms underlying sensory information representation by neuronal activity through neural coding. We explore the structure of this code under several scales through the study of different neuronal population electrophysiological signals (singel unit, LFP and EEG). We have implemented various indices in order to extract objectively information from neural activity, but also to characterize the underlying dynamics from finite size time series (the entropy rate). We also defined a new indicator (the mutual information rate), which quantifies self-organization and relations of coupling between two systems. Using theoretical and numerical approaches, we analyze some characteristic properties of these indices and propose their use in the context of the study of neural systems. This work allows us to characterize the complexity of different neuronal activity associated to information transmission dynamics
APA, Harvard, Vancouver, ISO, and other styles
30

Chachoua, Mohamed. "Une théorie symbolique de l'entropie pour le traitement des informations incertaines." Angers, 1998. http://www.theses.fr/1998ANGE0026.

Full text
Abstract:
Le traitement de la connaissance incertaine occupe une place centrale dans les recherches actuelles en intelligence artificielle. Parmi les approches proposées, on peut faire ressortir deux grandes catégories : (1) les approches numériques utilisées dans le cas où l'incertitude est de nature quantitative et (2) les approches qualitatives dédiées pour le traitement de l'incertitude de nature qualitative, telle notamment que celle que l'on rencontre dans le raisonnement humain. Par ailleurs, l'incertitude peut être exprimée généralement sous deux principales formes, à savoir, sous forme de croyance ou sous forme d'ignorance, selon qu'on se réfère respectivement à l'information acquise ou à la déficience informationnelle. Toutefois, certaines situations d'incertitude ne peuvent pas être exprimée sous forme de croyance. Il s'en suit que, dans les systèmes à base de connaissances, il est préférable de traiter l'incertitude sous forme d'ignorance plutôt que sous forme de croyance. Ainsi, dans cette thèse nous présentons une nouvelle théorie symbolique d'entropie qui a pour objet le traitement qualitatif de l'incertitude sous forme d'ignorance. Cette théorie est inspirée de la théorie d'entropie de Shannon et construite sur le substrat de la logique de prédicats multivalents proposée par Pacholczyk. En ce sens, notre travail se situe au confluent de la théorie d'information et de la logique mathématique. Ce mémoire est composé de quatre principaux chapitres. Dans le premier, nous étudions les notions de connaissance et d'information. Dans le second nous explorons les principales imperfections de la connaissance, à savoir l'incertitude et l'imprécision. Au troisième chapitre nous présentons les principales approches préconisées pour le traitement des connaissances incertaines. Enfin, au quatrième chapitre nous présentons la théorie symbolique de l'entropie que nous proposons. Dans cette approche, la représentation de l'incertitude se fait explicitement en utilisant des expressions linguistiques telles que "totalement incertain", "très incertain",. . . L'exploitation symbolique des informations incertaines se fait grâce à de nouvelles généralisations des règles classiques d'inférence.
APA, Harvard, Vancouver, ISO, and other styles
31

Robin, Stéphane. "Le monopole bilatéral : une approche expérimentale de l'attention à l'autre et de l'information incomplète." Grenoble 2, 1997. http://www.theses.fr/1997GRE21048.

Full text
Abstract:
Pour la théorie économique, l'issue d'une négociation sur un monopole bilatéral est indéterminé́e ; il n'existe pas de solution unique et universelle à cette situation d'échange. En nous appuyant sur un ensemble de résultats expérimentaux, nous proposons une lecture nouvelle de ce problème d'indétermination. Nous montrons que l'indétermination résulte du manque d'information sur les motivations des negiociateurs et sur les règles de décision qu'ils appliquent en situation de négociations bilatérales. Sur la base de résultats expérimentaux obtenus pour le jeu de l'investissement -situation de négociation séquentielle non répétée avec information complète sur les gains des négociateurs- nous établissons que la modélisation des négociations bilatérales doit intégrer les motivations sociales des négociateurs pour expliquer les comportements observés. Nous proposons alors une modélisation en terme d'équilibre de bienveillance réciproque. Cette modélisation nous permet de montrer qu'en situation de négociation bilatérale, l'indicvidu fait face à un problème de coordination résultant de sa méconnaissance de l'importance et de la nature de motivations sociales qui animent l'autre négociateur. Nous montrons que ce problème ne peut être résolu par une communication de pré-jeu, résultat que nous expliquons dans le cadre de la théorie des messages cheap talk. A l'aide d'une procédure de marché de double enchère continue, nous étudions des négociations répétées en situation d'information incomplète. Les résultats expérimentaux obtenus montrent que les échanges peuvent demeurer durablement inefficaces sur un monopole bilatéral. Après répétition de négociations, les termes de l'échange se stabilisent à des niveaux qui sont propres à chacun des couples de négociateurs. Les contrats observés après répétition sont déterminés par le résultat des premières négociations.
APA, Harvard, Vancouver, ISO, and other styles
32

Gennero, Marie-Claude. "Contribution à l'étude théorique et appliquée des codes correcteurs d'erreurs." Toulouse 3, 1990. http://www.theses.fr/1990TOU30243.

Full text
Abstract:
Dans une première partie, nous donnons une synthèse des principaux résultats de la théorie de l'information ainsi que des méthodes de compression. Nous unifions également dans une méthode algébrique la description des codes classiques, la factorisation de polynômes ainsi que la transformée de Fourier. En seconde partie, nous présentons une chaine de logiciels que nous avons mis au point, pour être intégrée dans un système expert. Nous avons validé cette chaine sur des données comprimées (images, parole). Nous avons mis en évidence les résultats obtenus, en faisant varier les différents paramètres. Dans le dernier chapitre nous donnons des tables et des courbes utiles pour des calculs dans des corps finis
APA, Harvard, Vancouver, ISO, and other styles
33

Le, Treust Maël. "Théorie de l'information, jeux répétés avec observation imparfaite et réseaux de communication décentralisés." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00656783.

Full text
Abstract:
Cette thèse est consacrée à l'étude des interactions entre la théorie des jeux et la théorie de l'information, ainsi qu'à leurs applications aux réseaux de communication décentralisés. D'une part, la théorie des jeux apporte des réponses aux problèmes d'optimisation dans lesquels des agents interagissent. Dans un jeu, les joueurs choisissent des actions et obtiennent des gains appelés utilités. Les hypothèses sur l'information que possèdent les joueurs avant de jouer sont fondamentales pour déterminer l'issue d'un jeu, aussi appelée équilibre. Lorsque le même jeu est répété d'étape en étape et que les joueurs n'observent pas les actions passées parfaitement,alors les utilités d'équilibre ne sont pas connues. D'autre part, la théorie de l'information étudie les performances d'un système communicant. De nos jours, les réseaux de communication sont tellement denses qu'ils ne peuvent plus s'organiser autour d'un unique opérateur central. La théorie des jeux est appropriée pour étudier de nouvelles organisations du traitement de l'information dans lesquelles les décisions sont prises localement. Dans un premier temps, au chapitre3, nous étudions le jeu du contrôle de puissance efficace du point de vue énergétique, grâce aux résultats existants pour les jeux répétés. Les émetteurs sont considérés comme des joueurs et choisissent la puissance d'émission du signal, considérée comme leur action. L'objectif d'un joueur est de choisir une puissance optimale pour la qualité de sa propre communication. Même si les joueurs n'observent pas les actions passées de manière parfaite, nous montrons que l'observation du "ratio signal sur interférence plus bruit" est suffisante pour garantir des résultats d'équilibre optimaux pour le réseau de communication. Dans un second temps, nous utilisons les outils de la théorie de l'information pour approfondir l'étude de la circulation de l'information parmi les joueurs. Dans le chapitre 4, un encodeur envoie un signal supplémentaire aux joueurs afin qu'ils observent parfaitement les actions jouées à l'étape précédente. L'observation des joueurs devient suffisamment précise pour nous permettre de retrouver l'ensemble des utilités d'équilibre du jeu répété. Ces résultats sont à leur tour exploités afin de modéliser des réseaux de communication plus réalistes et d'y apporter des solutions nouvelles. Dans le chapitre5, nous approfondissons l'étude des utilités d'équilibre lorsque les joueurs observent les actions passées à travers un canal d'observation arbitraire. Nous démontrons un résultat d'atteignabilité pour un canal multi-utilisateurs avec états qui comporte un encodeur, deux récepteurs légitimes et un espion. Ce résultat nous permet d'étudier les corrélations entre les suites d'actions qu'un groupe de joueurs peut mettre en oeuvre à l'insu d'un joueur opposant. L'étude des canaux multiutilisateurs est un pas en avant vers la caractérisation des utilités d'équilibre dans un jeu répété avec observation imparfaite.
APA, Harvard, Vancouver, ISO, and other styles
34

Zitouni, Djamel. "De la modelisation au traitement de l'information médicale." Antilles-Guyane, 2009. http://www.theses.fr/2010AGUY0382.

Full text
Abstract:
L'unité de soins intensifs est un environnement complexe, l'exercice de la médecine y est spécifique. La prise en charge d'un patient pendant son séjour doit être suivie par des personnels de soins nombreux ayant une connaissance spécifique du domaine. Pour les aider, une pléthore d’appareillages leur est dédiée. Ceux-ci sont en perpétuelle évolution. Dans la recherche d’améliorations continues, la gestion automatisée de la pratique médicale se présente de plus en plus comme une évidence majeure et un enjeu d’avenir. Au cours des trente dernière années, plusieurs tentatives de mise au point de suivis automatisés de protocoles ont été proposées. Cependant, la plupart de ces outils contiennent de nombreux problèmes non résolus, tant dans la traduction des protocoles textuels en forme formelle que dans le traitement des informations provenant des moniteurs biomédicaux. Pour palier aux biais des systèmes d’aide au diagnostic, nous avons fait le choix d’une approche différente. Nous avons défini un formalisme qui permet au personnel soignant de formaliser des connaissances aussi complexes et sensibles que les protocoles de soins. Nous avons travaillé pendant les trois dernières années avec le service d’urgence des traumatisés crâniens du CHU de Fort-de-France afin d’élaborer une chaîne complète de traitement en vue de l’automatisation des guidelines en chambre, au chevet du patient. Nous proposons un ensemble de méthodes et d’outils afin d’établir la chaîne complète de traitement de suivi d’un patient de son admission à sa sortie. Cette méthodologie est basée sur une station de chevet expérimentale (Aiddiag : AIDe aux DIAGnostic) centrée sur la patient et la pratique médicale
The intensive care unit is a complex environment ; the practice of medicine is specific. The handling of a patient during his/her stay should be done by care staffs with specific knowledge. To help care staffs in their tasks, a plethora of equipment is dedicated to them. These equipments evolve constantly. In the search of a continuous improvement in this activity, the use of automated increasingly appears as a major support and a future challenge for medical practices. Over the last thirty years, several attempts have been made to develop automated guidelines. However, most of these tools are prone to numerous unsolved issues, both in the translation of textual protocols to formal forms and in the treatment of information coming from biomedical monitors. To overcome biases of diagnosis support systems, we chose a different approach. We have defined a formalism that allows caregivers formalizing medical knowledge. We spent the last three years in the intensive care unit of the university hospital of Fort de France with the aim to develop a complete chain of data processing. The final goal was the automation of guidelines in the room, at the patient’s bedside. We propose a set of methods and tools to establish the complete chain of treatment follow-up for a patient, from admission to discharge. This methodology is based on a bedside experimental station: Aidiag (AIDe aux DIAGnostic). This station is a patient-centered tool that also adequately fits to medical routines. A genuine methodology for analyzing biomedical signals allows a first signal processing prior to their physiological interpretation. An artificial intelligence engine (Think!) and a new formalism (Oneah)
APA, Harvard, Vancouver, ISO, and other styles
35

Lequesne, Justine. "Tests statistiques basés sur la théorie de l'information, applications en biologie et en démographie." Caen, 2015. http://www.theses.fr/2015CAEN2007.

Full text
Abstract:
L'entropie et la divergence, concepts fondamentaux de la théorie de l'information, sont utilisées pour construire des tests statistiques dans deux contextes différents, ce qui partage ce mémoire en deux parties. La première partie porte sur des tests d'adéquation à des lois à densité basés sur le principe du maximum d'entropie sous des contraintes de moments généralisés pour l'entropie de Shannon, puis pour des entropies généralisées. Ces tests d'adéquation sont ensuite appliqués en biologie pour une étude portant sur la réplication de l'ADN. La seconde partie porte sur une analyse comparative de tables de contingence par des tests basés sur la divergence de Kullback-Leibler entre la distribution de l'un, aux marges fixées, et celle de l'autre, qui tient lieu de mesure de référence. Une application de cette nouvelle méthode d'analyse à des jeux de données réelles, et surtout aux résultats des enquêtes PISA en démographie montre ses avantages par rapport aux méthodes classiques
Entropy and divergence, basic concepts of information theory, are used to construct statistical tests in two different contexts, which divides this thesis in two parts. The first part deals with goodness-of-fit tests for distributions with densities based on the maximum entropy principle under generalized moment constraints for Shannon entropy, and also for generalized entropies. These tests are then applied in biology for a study of DNA replication. The second part deals with a comparative analysis of contingency tables through tests based on the Kullback-Leibler divergence between a distribution with fixed marginals, and another acting as a reference. Application of this new method to real data sets, and especially to results of PISA surveys in demography, show its advantages as compared to classical methods
APA, Harvard, Vancouver, ISO, and other styles
36

Kaced, Tarik. "Partage de secret et théorie algorithmique de l'information." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00763117.

Full text
Abstract:
Notre travail sur le partage de secret se base sur les points de vue de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets sont intimement liés. Les inégalités d'information jouent un rôle central dans cette thèse: ce sont les inégalités pour l'entropie de Shannon, qui correspondent également aux inégalités valides pour la complexité de Kolmogorov. La Théorie Algorithmique de l'Information introduite par Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractères. Ce sont là deux raisons justifiant à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret). Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par une formulation dans le langage de la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information, et s'est révélée très importante dans la caractérisation de l'efficacité des schémas de partage de secret. L'étude de ces inégalités n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelle, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises.
APA, Harvard, Vancouver, ISO, and other styles
37

Thitimajshima, Punya. "Les codes convolutifs récursifs systématiques et leurs applications à la concatenation parallèle." Brest, 1993. http://www.theses.fr/1993BRES2025.

Full text
Abstract:
L'objectif de cette these est l'etude des codes convolutifs recursifs poinconnes systematiques (crps) en vue de realiser des codes concatenes. Les codes crps presentent plusieurs avantages: ils sont systematiques, possedent la meme distance libre que les codes convolutifs poinconnes non systematiques (cnps), ayant les memes parametres (rendement, longueur de contrainte) et conduisent a des probabilites d'erreur inferieures a faible rapport signal a bruit, lorsque le rendement du code est eleve. Apres une etude detaillee des proprietes de distance des codes crps et de leurs performances en terme de probabilite d'erreur, nous avons montre que ces codes peuvent etre concatenes, en serie ou en parallele pour realiser des codes a haut niveau de performance. Dans la seconde partie de la these, nous avons aborde le decodage des codes concatenes en parallele et avons montre que ce decodage peut etre ameliore en introduisant un processus iteratif. Cette nouvelle forme de concatenation associee a un decodage iteratif a donne lieu a une nouvelle classe de codes correcteurs d'erreurs: les turbocodes
APA, Harvard, Vancouver, ISO, and other styles
38

Lagorce, Nicolas. "Une approche convolutive des codes p-adiques." Limoges, 2000. http://www.theses.fr/2000LIMO0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Cusset, François. "L' invention de la théorie française : le cas de sémiotexte et le transfert culturel transatlantique." Paris 10, 2000. http://www.theses.fr/2000PA100135.

Full text
Abstract:
Au sein du système universitaire américain, en particulier de son champ littéraire, mais aussi sur un mode plus diffus parmi les artistes et les internautes, le succès en traduction d'un certain nombre de philosophes français présentés comme "post-structuralistes" ou "déconstructionnistes" (de Derrida à Foucault, Deleuze, Lyotard et Baudrillard) a donné lieu à l'invention et aux usages d'une catégorie et d'un corpus de théorie française (French theory). Pour analyser ce transfert culturel transaltlantique comme procès de communication, le cas présenté est celui de la revue et de la maison d'édition Sémiotext(e), fondée à New-York par Sylvère Lotringer en 1973. Quatre approches complémentaires permettent de cerner le processus de transfert : les modes de construction de l'objet, de la dynamique des supports aux tactiques du discours, ses lecteurs plurielles par un ensemble d'usagers, des critiques littéraires aux praticiens de la musique mixée, les rapports entre texte et monde vécu comme contitutifs du travail de médiation, et l'analyse systématique du maintien de l'entité de théorie française au sein de l'espace intellectuel. Des presses universitaires aux galéristes new-yorkais, le rôle de chaque type de médiateur est présenté en contrepoint du cas de Sémiotext(e). Au plan épistémologique, la démarche suivie alterne pragmatique et herméneutique de la communication, complétée par les éclairages de la médiologie, de l'écologie cognitive et de la translinguistique
As a strictly american category, french theory was made into a specific (and groundbreaking) pratical and cognitive object within the academia - primorily in the field of literary studies - and secondarily by certain groups of users, from the art world to some internet communities. It revolves around a canon of translated works from so-called 'post-structuralist' french authors (from Foucault to Derrida, Lyotard, Deleuze and Baudrillard). Focusing on the case-study of New-York-based semiotext(e) ( a pioneering journal and publishing house founded by Sylvère Lotringer), four successive steps are followed to unveil the features of french theory as a communicational process and cultural transfer : a look at how it was constructed as a set of discourses and media contents, an analysis of its various readings and interpretations, an attempt at relating its actual mediations to the concept of 'lifeworlds', and a final grasp of its systemic function within america's intellectual attention space. The role of additional mediators, from university presses to art galleries, is confronted to Semiotext(e)'s. The overall approach is the pragmatics and hermeneutics of communication, while 'cognitive ecology', media analysis and 'translinguistics' shed some additional light on the process of how and why french theory was invented in the US
APA, Harvard, Vancouver, ISO, and other styles
40

Robinet, Vivien. "Modélisation cognitive computationnelle de l'apprentissage inductif de chunks basée sur la théorie algorithmique de l'information." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0108.

Full text
Abstract:
Cette thèse présente un modèle cognitif computationnel de l’apprentissage inductif qui se base d’une part sur le MDL et d’autre part sur le mécanisme de chunking qui est à la base de nombreux modèles cognitifs. Le MDL est quant à lui utilisé comme formalisation du principe de simplicité. Il permet d’implémenter la notion de simplicité grâce au concept clairement défini de taille de codage. Les résultats théoriques correspondants peuvent être établis grâce à la complexité de Kolmogorov dont le MDL fournit une approximation calculable. Utilisant ces deux mécanismes, le modèle proposé est capable de générer automatiquement la représentation la plus courte d’un ensemble de stimuli discrets. Les représentations ainsi produites sont comparées à celles créées par des participants humains confrontés aux mêmes stimuli. Le but de cette thèse est d’évaluer à la fois les fondements théoriques et l’efficacité pratique du principe de simplicité dans le cadre de la modélisation cognitive
This thesis presents a computational cognitive model of inductive learning based both on the MDL and on the chunking mechanism. The chunking process is used as a basis for many computational cognitive models. The MDL principle is a formalisation of the simplicity principle. It implements the notion of simplicity through the well-defined concept of codelength. The theoretical results justifying the simplicity principle are established through the algorithmic information theory. The MDL principle could be considered as a computable approximation of measures defined in this theory. Using these two mechanisms the model automatically generates the shortest representation of discrete stimuli. Such a representation could be compared to those produced by human participants facing the same set of stimuli. Through the proposed model and experiments, the purpose of this thesis is to assess both the theoretical and the practical effectiveness of the simplicity principle for cognitive modeling
APA, Harvard, Vancouver, ISO, and other styles
41

Pins, Delphine. "La loi de Piéron : un outil méthodologique pour l'étude du traitement de l'information sensorielle." Paris 5, 1996. http://www.theses.fr/1996PA05H015.

Full text
Abstract:
Une approche de la psychologie de la perception en termes de traitement de l'information amène à considérer les temps de réaction (tr) comme une manifestation objective du temps de traitement de l'information. Les tr sont alors indispensables pour inférer la nature et la complexité des niveaux de traitement en jeu dans des taches perceptives. L'objectif de cette thèse était d'utiliser une loi psychophysique -la loi de Piéron-, comme un outil permettant l'étude des traitements sensoriels. C'est à travers les variations de ses paramètres que l'on va chercher à inférer la nature et la complexité des processus psychophysiologiques en jeu. Il s'agit alors d'établir quels sont les facteurs qui déterminent la valeur des paramètres de cette loi, afin d'en comprendre la signification. Les expériences présentées dans cette thèse visaient à répondre à deux questions : 1) comment se combine le traitement de la luminance avec l'effet d'autres facteurs expérimentaux tels que la complexité de la tache psychophysique, le mode de présentation des stimuli et le niveau d'entrainement des sujets? 2) quels sont les facteurs responsables de la diminution des tr avec l'augmentation de la luminance? A travers l'analyse des tr, nous avons mis en évidence une indépendance entre le traitement de la luminance et le traitement d'autres dimensions spécifiques à la tâche. L'effet de l'intensité est le même quelle que soit la tâche à réaliser. Nous avons, d'autre part, tente de déterminer la nature des informations sensorielles responsables de la diminution des tr avec l'augmentation de la luminance. Il semble que plusieurs dimensions du stimulus (luminance absolue, contraste, niveau d'adaptation et énergie) interagissent dans la détermination des tr
Approaching the psychology of perception in terms of information processing leads to consider reaction time (rt) as an objective correlate of information processing time. Rt, in fact, provides an irreplacable indicator of the complexity of the levels of information processing that are involved in perceptual tasks. The thesis defended here is that a psychophysical law (pieron's law) provides an optimal tool for the study of variations in sensory information processing. It is shown that the nature and the complexity of the underlying psychophysiological processes can be inferred from variations of the parameters of pieron's law. This work sheds light on the factors which determine these parameters and thus reveals the ultimate significance of this psychophysical law. We wanted to provide an answer to two questions in particular : 1) how does luminance processing combine with factors such as the general complexity of the psychophysical task, conditions of stimulus presentation, and level of training? 2) how can we explain the systematic decrease of rt with increasing stimulus luminance? The rt studies discussed in this thesis clearly show that luminance and other taskspecific dimensions are processed independently. The effect of luminance intensity is found to be the same, regardless of the type of psychophysical task. We furthermore demonstrate the extent to which some dimensions that are closely related to the main factor, which is absolute luminance, contribute to explain why rt decreases with stimulus intensity
APA, Harvard, Vancouver, ISO, and other styles
42

Sandri, Sandra. "La combinaison de l'information incertaine et ses aspects algorithmiques." Toulouse 3, 1991. http://www.theses.fr/1991TOU30199.

Full text
Abstract:
Cette these est le resultat d'une etude de plusieurs aspects lies directement ou indirectement a la fusion de l'information imparfaite. Cette etude a comporte une evaluation critique, -d'un point de vue theorique, aussi bien que d'un point de vue pratique-, des principaux modeles utilises dans le cadre de la manipulation de l'information imparfaite. Dans la premiere partie de cette these nous etudions des aspects theoriques liees a la manipulation de l'information imparfaite selon trois axes: i) l'acquisition de l'information et sa transformation dans un modele formel; ii) l'evaluation de l'information imparfaite fournie par une source et l'evaluation de la source elle-meme; iii) la combinaison de l'information. Cette etude se porte sur les trois modeles d'incertitude les plus connus dans la litterature: la theorie des probabilites, la theorie des possibilites et la theorie des croyances. Dans une deuxieme partie nous presentons deux applications reelles derivees de cette etude. La premiere application se porte sur la conception d'une interface intelligente pour la fusion d'informations provenant des sources heterogenes. Elle se base sur une strategie de combinaisons qui offre a un analyste une methode adequate de combinaison selon se connaissance de la fiabilite (imparfaite) des sources. La deuxieme application concerne un systeme d'evaluation et de combinaison des opinions d'experts dans le cadre de la theorie des possibilites. Avec cette application nous montrons que le modele possibiliste presente les avantages par rapport au modele probabiliste habituellement utilise pour ce type de probleme. Dans la troisieme partie nous etudions le probleme de la propagation de l'information imparfaite dans un graphe des dependances, pour diminuer le cout algorithmique de ce processus, tout en garantissant la coherence des resultats. Nous proposons une strategie d'elagage du graphe qui peut etre utilisee par une grande classe des modeles d'incertitude, et en particulier pour les trois modeles cites ci-dessus. Finalement, encore dans la troisieme partie, nous abordons le probleme de la representation informatique de l'information imparfaite, en vue d'implantations efficaces des idees developpes ici. Dans cette partie nous introduisons une structure d'arbre qui diminue le cout algorithmique de la combinaison de l'information modelisee par la theorie des croyances dans certains cas specifiques
APA, Harvard, Vancouver, ISO, and other styles
43

Raineau, Laurence. "L'information en économie centralement planifiée : enjeu de la transition vers l'économie de marché." Paris 1, 1994. http://www.theses.fr/1994PA010018.

Full text
Abstract:
Cette thèse développe simultanément une analyse théorique de l'information et une analyse des dysfonctionnements informationnels des économies centralement planifiées. Son but ultime est de comprendre l'enjeu du passage d'un système centralisé à un système décentralisé d'information. Une première partie présente la logique du système d'information et de communication des économies centralement planifiées, ainsi que les principales manifestations de son dysfonctionnement. Elle souligne également l'insuffisance des analyses en termes de biais (informationnels ou sémantiques) et de celles portant sur la qualité des messages échangés. La deuxième partie aborde les développements théoriques concernant l'information en économie centralement planifiée. À travers l'analyse des modèles de socialisme de marché sont discutées les hypothèses néoclassiques sur l'information, ainsi que la pertinence de l'approche théorique de l'information proposée par ce paradigme. À travers l'étude de la critique hayekienne du socialisme est analysée l'approche autrichienne de l'information. Dans la troisième partie est proposée une analyse plus personnelle de l'information et donc aussi de la logique et des dysfonctionnements des économies centralement planifiées. Opérant une rupture avec l'approche objectiviste de l'information, l'analyse distingue la donnée (ou l'indice) échange, le signal et l'information signifiante, pour se consacrer à cette dernière. La linguistique et la phénoménologie sont alors utilisées pour définir l'information et comprendre son origine dans un système. C'est dans ce prisme qu'est ensuite pose l'enjeu de la transition vers l'économie de marché
The thesis follows simultaneously two main analytical topics. Firstly, it develops a theoretical analysis of information and secondly it analyses the informational problem of centrally planned economies. The purchased aim is an insight into the challenge posed by the transition from a centralized to a decentralized system of information. The first part is a critical analysis of the informational and communicational systems of the centrally planned economies. It points out the deficiency of the existing analyses concerning biased information or quality of the exchanged messages. The second part focusses on the theoretical developments on information in centrally planned economy. The neoclassical hypotheses on information are discussed though the analysis of market socialism models. Through the study of hayekian critics of socialism, the austrain approach of the information is then discussed. In the third part the author proposes a more personal analysis of information and of the logics and deficiencies of the centrally planned economies. In disruption with the objectivist informational approach, the analysis differenciates the exchanged data (indices), the signal and the meaning information. Linguistics and phenomenology are then helpful to define information and to understand its origin in a system
APA, Harvard, Vancouver, ISO, and other styles
44

Walsh, Isabelle. "La théorie de la toupie : Une approche culturelle des usages des technologies de l’information." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090049.

Full text
Abstract:
Dans la présente thèse, nous proposons la Théorie de la Toupie qui, en s’appuyant sur une conceptualisation de la culture au niveau individuel, nous permet d’appréhender la dimension culturelle des usages des TI au niveau des groupes d’utilisateurs. Nous étudions les usages des TI au travers du concept de culture technologique. Nous définissons et étudions ce concept que nous proposons de mesurer et d’appliquer par le biais d’un construit que nous nommons acculturation technologique. Nous modélisons ce construit et en proposons une mesure. Ceci nous permet de proposer un nouveau modèle des usages des TI qui intègre leur dimension culturelle. Nous appréhendons les usages des TI comme un phénomène culturel, socialement construit à de multiples niveaux, et structuré au travers d’une acculturation progressive aux TI
In this dissertation, we propose the Spinning Top Theory which, through a conceptualization of culture at the individual level, allows us to capture the cultural dimension of IT-usage(s) studied through the lens of IT-culture at group level. We define and study the concept of IT-culture that we propose to apply and assess with the help of a construct we name IT-acculturation. We model this construct and propose a measure for it. This allows us to propose a new model of IT-usage(s) which integrates its(their) cultural dimension. We understand IT-usage(s) as a cultural phenomenon, socially constructed at multiple levels, and structured through a progressive IT-acculturation
APA, Harvard, Vancouver, ISO, and other styles
45

Immordino, Giovanni. "Rôle de l'incertitude scientifique dans la prise de décision." Toulouse 1, 1999. http://www.theses.fr/1999TOU10055.

Full text
Abstract:
Cette thèse vise à apporter une contribution à l'économie de l'information en clarifiant le rôle de l'incertitude scientifique sur la prise de décision. La thèse est formée de 6 chapitres. Le chapitre 1 c'est une introduction générale. Le chapitre 2 est une introduction ou structures d'informations et une collection de résultats techniques qui sont utilisés dans les chapitres suivants. Le chapitre 3 traite de l'effet d'une meilleure structure d'information sur le niveau optimal d'irréversibilité dans un modèle avec plusieurs technologies. Dans ce chapitre on explore la possibilité que le choix d'une technologie moins irréversible quand plus d'informations est attendu dans le futur peut ne pas être optimal en toutes circonstances. Le chapitre 4 étudie l'effet de l'information sur l'investissement en self-protection. On démontre que si on interprète le principe de précaution comme devant entraîner plus de self-protection aujourd'hui, il est difficile de l'accepter comme efficace. Dans le chapitre 5 on montre que des patients rationnels et bien informés vont réduire leurs activités de prévention quand ils attendent des améliorations dans la technologie diagnostique. Le chapitre 6 étudie le commerce international des biens sujets à incertitude scientifique sur les effets sur la santé des consommateurs. On montre qu’une nouvelle forme de protectionnisme peut surgir à cause de l'incertitude scientifique.
APA, Harvard, Vancouver, ISO, and other styles
46

Bougaret, Sophie. "Prise en compte de l'incertitude dans la valorisation des projets de recherche et développement : la valeur de l'information nouvelle." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT016G.

Full text
Abstract:
Le devoir de lisibilité vis à des investisseurs et la nécessité de donner une priorité pour opérer des choix dans un portefeuille de projets, ont rendu nécessaire l'optimisation des méthodes d'évaluation des projets. Les travaux présentés dans cette thèse se sont intéressés plus particulièrement aux méthodes de valorisation des projets innovants, dans la perspective de décider ou non d'investir. Les méthodes classiques ne prennent pas en compte la vision dynamique du projet et considèrent cette décision comme irréversible, pénalisant les projets qui se sont offerts, par le biais d'un plan de développement adéquat, la flexibilité de plusieurs scénarios. Une revue des méthodes plus récentes utilisées dans le management des risques spéculatifs (options réelles, valeurs nettes séquentielles) est réalisée. Un parallele est établi entre les spéculations boursières et les spéculations sur les résultats d'un projet de recherche et développement. A partir de la, nous proposons un processus de valorisation applicable aux projets de R&D, et un modèle dont l'objectif est d'attribuer une valeur au projet qui tienne compte des changements ultérieurs possibles et de la flexibilité du plan de développement qui accompagne le projet. L'application de ce modèle est faite sur un projet pharmaceutique, complétée par une analyse de sensibilité sur les données d'entrée du modèle.
APA, Harvard, Vancouver, ISO, and other styles
47

Beaudoux, Florian. "Synthèse cristalline et spectroscopie cohérente d’un tungstate de lanthane pour application aux mémoires quantiques." Paris 6, 2010. http://www.theses.fr/2010PA066608.

Full text
Abstract:
L’information quantique est un champ de recherche novateur dans lequel les propriétés des systèmes quantiques sont utilisées pour manipuler l’information de manière non classique. Les récents progrès laissent entrevoir des applications très prometteuses telles que les calculs quantiques ou encore la cryptographie quantique. Cette dernière, pour être réalisable sur de longues distances, nécessite l’utilisation de mémoires quantiques permettant de stocker et de restituer à la demande des photons pendant une durée, le temps de cohérence, longue. Les ions de terres rares insérés dans des matrices cristallines ont des propriétés très favorables pour de telles applications. Ce travail s'inscrit dans la recherche de nouveaux cristaux dopés par des ions de terres rares pour les mémoires quantiques qui nécessitent entre autres des matériaux fortement absorbants. Des monocristaux de La2(WO3)4 dopés dans un large éventail (de 0. 02 % à 3%) en praséodyme ont été synthétisés par la méthode de Czochralski. D'autre part, un montage de spectroscopie optique à haute résolution et à deux couleurs a été développé afin de caractériser ces cristaux par creusement de trou spectral, écho de photons et écho Raman. Les mesures ont révélé son fort potentiel pour le stockage quantique de l'information. En effet, à forte concentration, ce composé présente une largeur inhomogène réduite et des temps de cohérence optique ainsi qu'entre niveaux hyperfins longs. La matrice La2(WO3)4:Pr3+ permet ainsi d’obtenir une forte absorption tout en ayant un temps de stockage long.
APA, Harvard, Vancouver, ISO, and other styles
48

Belkasmi, Mostafa. "Contribution à l'étude des codes correcteurs multicirculants." Toulouse 3, 1992. http://www.theses.fr/1992TOU30120.

Full text
Abstract:
L'utilisation des codes correcteurs d'erreurs est un moyen efficace pour ameliorer la fiabilite des donnees transmises dans un canal bruite. Bien souvent ces codes peuvent etre consideres comme des objets particuliers d'algebres: sous-espaces vectoriels, ou ideaux d'algebres;. . . Certains bons codes (codes residus quadratiques,. . . ) admettent des matrices generatrices de forme remarquables (multicirculantes). Alors quelques chercheurs (g. F. M. Beenker, p. Rabizzoni, a. Poli. . . ) se sont penches sur l'etude des codes ideaux (codes de beenker generalises) qui par demultiplication avec 2 projections donnent naissance a des codes multicirculants. Dans cette these, nous avons etudie une nouvelle famille de codes de beenker generalises, qui par demultiplication avec m projections (m entier superieur ou egal a 2) donnent naissance a des codes multicirculants. Cette these est composee de quatre chapitres. Dans le premier chapitre nous donnons des generalites sur les codes lineaires puis nous developpons des outils polynomiaux dont on aura besoin pour la suite. Dans le second chapitre nous faisons une synthese de quelques constructions des codes multicirculants. Dans le troisieme, nous faisons une autre synthese de quelques methodes de codage et de decodage qui peuvent etre appliquees aux codes multicirculants. Dans le quatrieme chapitre nous developpons deux constructions algebriques des codes de beenker generalises qui par demultiplication avec m projections, donnent naissance a des codes multicirculants. Pour aboutir a ces deux constructions nous avons suivi deux approches differentes. L'une utilisant la decomposition d'algebres et l'autre utilisant la transformee de fourier. A partir de quelques codes construits nous avons deduit quatre codes binaires qui sont parmi les meilleurs codes connus actuellement. Ils ont les parametres suivants: (22,7,8) (40,13,12), (58,19,16) et (111,37,24). Nous presentons aussi une condition suffisante a l'existence de codes multicirculants autoduaux parmi la nouvelle famille de codes
APA, Harvard, Vancouver, ISO, and other styles
49

Zhou, Rong. "Etude des Turbo codes en blocs Reed-Solomon et leurs applications." Rennes 1, 2005. http://www.theses.fr/2005REN1S027.

Full text
Abstract:
Cette thèse porte sur l’étude des turbo codes en blocs (TCB) construits à partir de codes de Reed-Solomon (RS) et sur les applications potentielles de ce schéma de codage. Nous commençons par rechercher un algorithme de décodage à entrée souple applicable aux codes RS et offrant un compromis raisonnable entre performances et complexité. Nous montrons que l’algorithme Chase-II implémenté au niveau binaire répond bien à ces critères lorsque l’on se restreint à la classe des codes RS 1 ou 2-correcteurs. Nous examinons ensuite l’influence du choix des codes RS constituants sur les performances du TCB-RS en considérant une transmission MDP-4 sur canal BABG et en mesurant l’écart entre les résultats obtenus et la limite de Shannon corrigée pour les codes de longueur finie. Nous montrons ainsi que les codes produits résultant de la concaténation au niveau symbole de deux codes RS classiques de pouvoir de correction égal à 1 offrent le meilleur compromis performance/complexité. A rendement équivalent, les performances obtenues sont très proches de la limite de Shannon et sont comparables à celles des TCB construits à partir de codes BCH. En revanche, la taille du code est trois fois moindre dans le cas des TCB-RS, ce qui se traduit en retour par une réduction substantielle de la quantité mémoire nécessaire, de la complexité du décodage et du retard de restitution. Nous montrons également que les TCB-RS ainsi construits atteignent des performances proches de l’optimal à la fois sur le canal binaire symétrique et sur le canal à effacement, ce qui les rend particulièrement attractifs pour les systèmes de communication optiques à haut débit et les systèmes de stockages. Nous nous intéressons ensuite à l’association pragmatique des TCB-RS avec des modulations à grand nombre d’états de type MAQ-M sur canal BABG. Nous montrons que les performances obtenues se situent à moins de 1 dB de la capacité du canal, sous réserve que la condition Q >= M soit respectée (Q désignant ici l’ordre du corps de Galois utilisé). Ce résultat se situe à l’opposé de ce qui est habituellement observé avec des turbo codes binaires (l’écart par rapport à la capacité augmentant avec l’ordre de la modulation) et souligne ainsi l’intérêt des TCB-RS pour les applications à forte efficacité spectrale (DSL, TNT, réseaux d’accès radio). Des simulations similaires sont présentées à la fois sur le canal de Rayleigh et pour d’autres modulations (MDP-8 et MDP-16). Nous observons alors une dégradation des performances. Ce dernier point nécessite des travaux de recherche ultérieurs dans le but de définir des règles générales de construction de bons codes adaptés à l’environnement de transmission et capables d’opérer au plus proche de la capacité du canal
APA, Harvard, Vancouver, ISO, and other styles
50

Barbier, Morgan. "Décodage en liste et application à la sécurité de l'information." Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00677421.

Full text
Abstract:
Cette thèse porte sur l'étude de certains aspects des codes correcteurs d'erreurs et leurs applications à la sécurité de l'information. Plus spécifiquement, on s'est intéressé aux problèmes de décodage complet et de décodage en liste. Une nouvelle notion de codes a été introduite en liant une famille de codes et un algorithme de décodage, mettant ainsi en évidence les codes pour lesquels le décodage complet est réalisable en un temps polynomial. On présente ensuite une reformulation de l'algorithme de Koetter et Vardy pour le décodage en liste pour les codes alternant et analysons sa complexité. Cette méthode a permit de présenter une réduction de la taille de la clé du cryptosystème de McEliece, allant jusqu'à 21\% pour la variante dyadique. On s'est également intéressé à la stéganographie basée sur les codes. On propose différentes bornes caractérisant les stégosystèmes utilisant des codes linéaires, de façon à assurer la solvabilité du problème d'insertion avec des positions verrouillées. Une de ces bornes permet d'affirmer que plus le rang MDS du code utilisé est bas, plus ce code permettra de concevoir un stégosystème efficace. On montre également que les codes non-linéaires systématiques sont également de bons candidats. Enfin, on reformule le problème d'insertion bornée avec des positions verrouillées rendant ainsi l'insertion toujours possible, et on démontre que les codes de Hamming binaires permettent de satisfaire à toutes les contraintes exhibées.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography