To see the other types of publications on this topic, follow the link: Information coding mathematics.

Dissertations / Theses on the topic 'Information coding mathematics'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Information coding mathematics.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cohen, D. A. "A problem in algebraic coding theory." Thesis, University of Oxford, 1986. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.380002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Gutfraind, Alexander. "Error-Tolerant Coding and the Genetic Code." Thesis, University of Waterloo, 2006. http://hdl.handle.net/10012/2913.

Full text
Abstract:
The following thesis is a project in mathematical biology building upon the so-called "error minimization hypothesis" of the genetic code. After introducing the biological context of this hypothesis, I proceed to develop some relevant information-theoretic ideas, with the overall goal of studying the structure of the genetic code. I then apply the newfound understanding to an important question in the debate about the origin of life, namely, the question of the temperatures in which the genetic code, and life in general, underwent their early evolution.

The main advance in this thesis is a set of methods for calculating the primordial evolutionary pressures that shaped the genetic code. These pressures are due to genetic errors, and hence the statistical properties of the errors and of the genome are imprinted in the statistical properties of the code. Thus, by studying the code it is possible to reconstruct, to some extent, the primordial error rates and the composition of the primordial genome. In this way, I find evidence that the fixation of the genetic code occurred in organisms which were not thermophiles.
APA, Harvard, Vancouver, ISO, and other styles
3

Fekri, Faramarz. "Finite-field wavelet transforms and their application to error-control coding." Diss., Georgia Institute of Technology, 2000. http://hdl.handle.net/1853/15799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Al-Lawati, Haider. "Performance analysis of linear block codes over the queue-based channel." Thesis, Kingston, Ont. : [s.n.], 2007. http://hdl.handle.net/1974/652.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Masmoudi, Khaled. "Schémas de codage bio-inspirés." Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00850287.

Full text
Abstract:
Le but de mon travail de thèse est de concevoir de nouveaux codeurs d'images inspirées de la rétine. En effet, alors que la question du codage est importante pour l'économie d'énergie et de bande passante, nous sommes convaincus que peu est encore à gagner si aucun changement n'est fait dans la philosophie qui sous-tend la conception de la nouvelle image codeurs / décodeurs. Donc, mon travail vise à jeter les bases de la conception de l'image originale et les systèmes de compression vidéo qui sont basées sur des modèles de systèmes visuels biologiques. Ici, nous allons nous concentrer sur la rétine comme il est l'organe responsable de l'acquisition du stimulus visuel et le premier dispositif de codage dans le système visuel humain. Le sujet traité est très difficile et motivant pour deux raisons principales. La première est que les techniques de compression vidéo sont aujourd'hui indispensables pour la plupart des équipements standards tels que HDTV et DVD, et que le récent progrès technique nous permet d'imaginer des schémas de codage plus sophistiqués. Le second est que les récentes découvertes en neurosciences sur le système visuel humain pourrait être une source d'inspiration pour proposer de nouvelles idées, surtout si nous sommes en mesure de mieux comprendre le code neural de la rétine. Ainsi, nous nous attendons à une approche interdisciplinaire qui peut aider à atteindre nos objectifs. Cette approche permettrait de combiner les techniques de traitement du signal et les connaissances acquises par les neurophysiologistes. Nous espérons que ce travail va conduire à de nouveaux algorithmes de codage qui vont au-delà des normes.
APA, Harvard, Vancouver, ISO, and other styles
6

Venkiah, Auguste. "Analysis and Design of Raptor Codes for Multicast Wireless Channels." Phd thesis, Université de Cergy Pontoise, 2008. http://tel.archives-ouvertes.fr/tel-00764650.

Full text
Abstract:
In this thesis, we investigate the optimization of Raptor codes for various channels of interest in practical wireless systems. First, we present an analytical asymptotic analy- sis of jointly decoded Raptor codes over a BIAWGN channel. Based on the analysis, we derive an optimization method for the design of efficient output degree distributions. We show that even though Raptor codes are not universal on other channels than the BEC, Raptor code optimized for a given channel capacity also perform well on a wide range of channel capacities when joint decoding is considered. Then, we propose a rate splitting strategy that is efficient for the design of finite length Raptor codes. We next investigate the extension of the analysis to the uncorrelated Rayleigh-fading chan- nel with perfect channel state information (CSI) at the receiver, and optimize Raptor codes for quasi-static fading channels when CSI is available at the receiver but not at the transmitter. Finally, we show that in presence of imperfect CSI at the receiver, it is possible to improve the performance with no additional complexity, by using an appropriate metric for the computation of the LLR at the output of the channel. In the second part of this thesis, we investigate the construction of efficient finite length LDPC codes. In particular, we present some improvements for the Progressive Edge- Growth algorithm that allow to construct minimal graphs. The proposed algorithm is used to construct protographs with large girth that perform well under iterative decoding. Moreover, we propose an efficient structured search procedure for the design of quasi-cyclic LDPC codes.
APA, Harvard, Vancouver, ISO, and other styles
7

Gorgolione, Matteo. "Analyse et construction de codes LDPC non-binaires pour des canaux à évanouissement." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00819415.

Full text
Abstract:
Au cours des 15 dernières années, des progrès spectaculaires dans l'analyse et la conception des codes définis par des graphes bipartites et décodables par des algorithmes itératifs ont permis le développement de systèmes de correction d'erreurs, avec des performances de plus en plus proches la limite théorique de Shannon. Dans ce contexte, un rôle déterminant a été joué par la famille des codes à matrice de parité creuse, appelés codes LDPC (pour " Low-Density Parity-Check ", en anglais), introduit par Gallager au début des années 60 et décrits plus tard en termes de graphes bipartites. Négligés pendant de longues années, ces codes ont été redécouverts à la fin des années 90, après que la puissance du décodage itératif a été mise en évidence grâce à l'invention des Turbo-codes. Ce n'est qu'au début des années 2000 que les techniques nécessaires à l'analyse et l'optimisation des codes LDPC ont été développées, techniques qui ont permis ensuite la construction des codes avec des performances asymptotiques proches de la limite de Shannon. Cette remarquable avancée a motivé l'intérêt croissant de la communauté scientifique et soutenu le transfert rapide de cette technologie vers le secteur industriel. Plus récemment, un intérêt tout particulier a été porté aux codes LDPC définis sur des alphabets non-binaires, grâce notamment à leur meilleure capacité de correction en " longueur finie ". Bien que Gallager ait déjà proposé l'utilisation des alphabets non-binaires, en utilisant l'arithmétique modulaire, les codes LDPC non-binaires définis sur les corps finis n'ont étés étudiés qu'à partir de la fin des années 90. Il a été montré que ces codes offrent de meilleures performances que leurs équivalents binaires lorsque le bloc codé est de longueur faible à modérée, ou lorsque les symboles transmis sur le canal sont eux-mêmes des symboles non- binaires, comme par exemple dans le cas des modulations d'ordre supérieur ou des canaux à antennes multiples. Cependant, ce gain en performance implique un coût non négligeable en termes de complexité de décodage, qui peut entraver l'utilisation des codes LDPC non binaires dans des systèmes réels, surtout lorsque le prix à payer en complexité est plus important que le gain en performance. Cette thèse traite de l'analyse et de la conception des codes LDPC non binaires pour des canaux à évanouissements. L'objectif principal de la thèse est de démontrer que, outre le gain en performance en termes de capacité de correction, l'emploi des codes LDPC non binaires peut apporter des bénéfices supplémentaires, qui peuvent compenser l'augmentation de la complexité du décodeur. La " flexibilité " et la " diversité " représentent les deux bénéfices qui seront démontrées dans cette thèse. La " flexibilité " est la capacité d'un système de codage de pouvoir s'adapter à des débits (rendements) variables tout en utilisant le même encodeur et le même décodeur. La " diversité " se rapporte à sa capacité d'exploiter pleinement l'hétérogénéité du canal de communication. La première contribution de cette thèse consiste à développer une méthode d'approximation de l'évolution de densité des codes LDPC non-binaires, basée sur la simulation Monte-Carlo d'un code " infini ". Nous montrons que la méthode proposée fournit des estimations très fines des performances asymptotiques des codes LDPC non-binaires et rend possible l'optimisation de ces codes pour une large gamme d'applications et de modèles de canaux. La deuxième contribution de la thèse porte sur l'analyse et la conception de système de codage flexible, utilisant des techniques de poinçonnage. Nous montrons que les codes LDPC non binaires sont plus robustes au poinçonnage que les codes binaires, grâce au fait que les symboles non-binaires peuvent être partialement poinçonnés. Pour les codes réguliers, nous montrons que le poinçonnage des codes non-binaires obéit à des règles différentes, selon que l'on poinçonne des symboles de degré 2 ou des symboles de degré plus élevé. Pour les codes irréguliers, nous proposons une procédure d'optimisation de la " distribution de poinçonnage ", qui spécifie la fraction de bits poinçonnés par symbole non-binaire, en fonction du degré du symbole. Nous présentons ensuite des distributions de poinçonnage optimisées pour les codes LDPC non binaires, avec des performances à seulement 0,2 - 0,5 dB de la capacité, pour des rendements poinçonnés variant de 0,5 à 0,9. La troisième contribution de la thèse concerne les codes LDPC non binaires transmis sur un canal de Rayleigh à évanouissements rapides, pour lequel chaque symbole modulé est affecté par un coefficient d'évanouissement différent. Dans le cas d'une correspondance biunivoque entre les symboles codés et les symboles modulés (c.-à-d. lorsque le code est définit sur un corps fini de même cardinalité que la constellation utilisée), certains symboles codés peuvent être complètement noyés dans le bruit, dû aux évanouissements profonds du canal. Afin d'éviter ce phénomène, nous utilisons un module d'entrelacement au niveau bit, placé entre l'encodeur et le modulateur. Au récepteur, le module de désentrelacement apporte de la diversité binaire en entrée du décodeur, en atténuant les effets des différents coefficients de fading. Nous proposons un algorithme d'entrelacement optimisé, inspirée de l'algorithme " Progressive Edge-Growth " (PEG). Ainsi, le graphe bipartite du code est élargi par un nouvel ensemble de nœuds représentant les symboles modulés, et l'algorithme proposé établit des connections entre les nœuds représentant les symboles modulés et ceux représentant les symboles codés, de manière à obtenir un graphe élargi de maille maximale. Nous montrons que l'entrelaceur optimisé permet d'obtenir un gain de performance par rapport à un entrelaceur aléatoire, aussi bien en termes de capacité de correction que de détection d'erreurs. Enfin, la quatrième contribution de la thèse consiste en un schéma de codage flexible, permettant d'atteindre la diversité maximale d'un canal à évanouissements par blocs. La particularité de notre approche est d'utiliser des codes Root-LDPC non binaires couplés avec des codes multiplicatifs non binaires, de manière à ce que le rendement de codage puisse facilement s'adapter au nombre de blocs d'évanouissement. Au niveau du récepteur, une simple technique de combinaison de diversité est utilisée en entrée du décodeur. Comme conséquence, la complexité du décodage reste inchangée quel que soit le nombre de blocs d'évanouissement et le rendement du code utilisé, tandis que la technique proposée apporte un réel bénéfice en termes de capacité de correction.
APA, Harvard, Vancouver, ISO, and other styles
8

Ganji, Saichand. "Space-Time Block Coding to Achieve Spatial Diversity in a Multiple Input Multiple Output System." Ohio University / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1534432423784957.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Augot, Daniel. "Étude algèbrique des mots de poids minimum des codes cycliques, méthodes d'algèbre linéaire sur les corps finis." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1993. http://tel.archives-ouvertes.fr/tel-00723227.

Full text
Abstract:
Nous étudions les mots de poids minimal des codes correcteurs d'erreurs cycliques. Les fonctions symétriques élémentaires et les fonctions puissances des localisateurs de ces mots vérifient les identités de Newton. Dans le premier chapitre celles-ci sont étudiées comme un système d'équations algébriques, dont les solutions sont étudiées par transformation de Fourier. Dans le chapitre II, le lien est fait avec les codes correcteurs d'erreurs cycliques. Sur quelques exemples, il est montré comment étudier les mots de poids minimal sur la donnée d'une base standard de l'idéal engendré par les équations de Newton. Dans le chapitre III, les relations de Newton sont utilisées d'un point de vue théorique, et des résultats sur les mots de poids minimal de certains codes BCH sont obtenus. Ces calculs se placent dans le contexte de la théorie des corps finis. Dans le chapitre IV, un algorithme est développé pour calculer une base normale sur un corps fini. Un point de vue d'algèbre linéaire est choisi, et d'autres problèmes sont abordés (calcul du polynôme minimal, de la forme de Frobenius d'une matrice, lorsque la factorisation du polynôme caractéristique est connue).
APA, Harvard, Vancouver, ISO, and other styles
10

Planjery, Shiva. "Décodage itératif pour les codes LDPC au-delà de la propagation de croyances." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00819417.

Full text
Abstract:
Les codes Low-Density Parity-Check (LDPC) sont au coeur de la recherche des codes correcteurs d'erreurs en raison de leur excellente performance de décodage en utilisant un algorithme de décodage itératif de type propagation de croyances (Belief Propagation - BP). Cet algorithme utilise la représentation graphique d'un code, dit graphe de Tanner, et calcule les fonctions marginales sur le graphe. Même si l'inférence calculée n'est exacte que sur un graphe acyclique (arbre), l'algorithme BP estime de manière très proche les marginales sur les graphes cycliques, et les codes LDPC peuvent asymptotiquement approcher la capacité de Shannon avec cet algorithme. Cependant, sur des codes de longueurs finies dont la représentation graphique contient des cycles, l'algorithme BP est sous-optimal et donne lieu à l'apparition du phénomène dit de plancher d'erreur. Le plancher d'erreur se manifeste par la dégradation soudaine de la pente du taux d'erreur dans la zone de fort rapport signal à bruit où les structures néfastes au décodage sont connues en termes de Trapping Sets présents dans le graphe de Tanner du code, entraînant un échec du décodage. De plus, les effets de la quantification introduite par l'implémentation en hardware de l'algorithme BP peuvent amplifier ce problème de plancher d'erreur. Dans cette thèse nous introduisons un nouveau paradigme pour le décodage itératif à précision finie des codes LDPC sur le canal binaire symétrique. Ces nouveaux décodeurs, appelés décodeurs itératifs à alphabet fini (Finite Alphabet Iterative Decoders - FAID) pour préciser que les messages appartiennent à un alphabet fini, sont capables de surpasser l'algorithme BP dans la région du plancher d'erreur. Les messages échangés par les FAID ne sont pas des probabilités ou vraisemblances quantifiées, et les fonctions de mise à jour des noeuds de variable ne copient en rien le décodage par BP ce qui contraste avec les décodeurs BP quantifiés traditionnels. En effet, les fonctions de mise à jour sont de simples tables de vérité conçues pour assurer une plus grande capacité de correction d'erreur en utilisant la connaissance de topologies potentiellement néfastes au décodage présentes dans un code donné. Nous montrons que sur de multiples codes ayant un poids colonne de trois, il existe des FAID utilisant 3 bits de précision pouvant surpasser l'algorithme BP (implémenté en précision flottante) dans la zone de plancher d'erreur sans aucun compromis dans la latence de décodage. C'est pourquoi les FAID obtiennent des performances supérieures comparées au BP avec seulement une fraction de sa complexité. Par ailleurs, nous proposons dans cette thèse une décimation améliorée des FAID pour les codes LDPC dans le traitement de la mise à jour des noeuds de variable. La décimation implique de fixer certains bits du code à une valeur particulière pendant le décodage et peut réduire de manière significative le nombre d'itérations requises pour corriger un certain nombre d'erreurs fixé tout en maintenant de bonnes performances d'un FAID, le rendant plus à même d'être analysé. Nous illustrons cette technique pour des FAID utilisant 3 bits de précision codes de poids colonne trois. Nous montrons également comment cette décimation peut être utilisée de manière adaptative pour améliorer les capacités de correction d'erreur des FAID. Le nouveau modèle proposé de décimation adaptative a, certes, une complexité un peu plus élevée, mais améliore significativement la pente du plancher d'erreur pour un FAID donné. Sur certains codes à haut rendement, nous montrons que la décimation adaptative des FAID permet d'atteindre des capacités de correction d'erreur proches de la limite théorique du décodage au sens du maximum de vraisemblance.
APA, Harvard, Vancouver, ISO, and other styles
11

Zhao, Zhipeng. "Application des Codes Relais au Wi-Fi en vue de la Standardisation IEEE 802.11s." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00559723.

Full text
Abstract:
Ce mémoire de thèse porte sur la conception, la validation et l'application du codage canal en mode relais dans le cadre de système WiFi. A cette fin, le modèle de transmission coopératif est introduit dans le chapitre 1 et le chapitre 2 se consacre à l'étude du décodeur MIMO intégré dans le système coopératif. Le chapitre 3 se consacre à l'étude du protocole baptisé Relais-SISO et sa mise en œuvre dans le standard IEEE802.11a à 5 GHz. De nouvelles structures de trame sont proposées en ajoutant des préambules destinés à être exploités par le mode coopératif. Des résultats de simulation démontrent l'avantage de la technique coopérative. A notre connaissance, ces travaux sont les premiers à proposer une application du codage relais au WiFi. Le chapitre 4, une stratégie hybride basée sur la solution Relais-SISO est présentée car elle améliore les performances du système Relais-SISO. Le mode hybride proposé s'appuie sur l'évaluation de la qualité du lien coopératif pour activer ce mode. Dans le chapitre 5, l'optimisation du mode coopératif de la couche physique est réalisé en mettant en œuvre la chaîne de partitionnement du Golden Code. On met en évidence le fait qu'une simple combinaison de ce dernier et d'un code convolutif, fournit un gain de codage grâce au gain du déterminant du Golden code. Le travail serait incomplet sans tenir compte du nouveau standard WiFi IEEE802.11n ratifié en Octobre 2009. C'est l'objet du chapitre 6, qui propose un protocole coopératif, baptisé Relay-MIMO, qui exploite d'une manière conjointe la diversité MIMO et la diversité de coopération.
APA, Harvard, Vancouver, ISO, and other styles
12

Sassatelli, Lucile. "Codes LDPC multi-binaires hybrides et méthodes de décodage itératif." Phd thesis, Université de Cergy Pontoise, 2008. http://tel.archives-ouvertes.fr/tel-00819413.

Full text
Abstract:
Cette thèse porte sur l'analyse et le design de codes de canal définis par des graphes creux. Le but est de construire des codes ayant de très bonnes performances sur de larges plages de rapports signal à bruit lorsqu'ils sont décodés itérativement. Dans la première partie est introduite une nouvelle classe de codes LDPC, nommés code LDPC hybrides. L'analyse de cette classe pour des canaux symétriques sans mé- moire est réalisée, conduisant à l'optimisation des paramètres, pour le canal gaussien à entrée binaire. Les codes LDPC hybrides résultants ont non seulement de bonnes proprié- tés de convergence, mais également un plancher d'erreur très bas pour des longueurs de mot de code inférieures à trois mille bits, concurrençant ainsi les codes LDPC multi-edge. Les codes LDPC hybrides permettent donc de réaliser un compromis intéressant entre ré- gion de convergence et plancher d'erreur avec des techniques de codage non-binaires. La seconde partie de la thèse a été consacrée à étudier quel pourrait être l'apport de méthodes d'apprentissage artificiel pour le design de bons codes et de bons décodeurs itératifs, pour des petites tailles de mot de code. Nous avons d'abord cherché comment construire un code en enlevant des branches du graphe de Tanner d'un code mère, selon un algorithme d'apprentissage, dans le but d'optimiser la distance minimale. Nous nous sommes ensuite penchés sur le design d'un décodeur itératif par apprentissage artificiel, dans l'optique d'avoir de meilleurs résultats qu'avec le décodeur BP, qui devient sous- optimal dès qu'il y a des cycles dans le graphe du code. Dans la troisième partie de la thèse, nous nous sommes intéressés au décodage quan- tifié dans le même but que précédemment : trouver des règles de décodage capables de décoder des configurations d'erreur difficiles. Nous avons proposé une classe de déco- deurs utilisant deux bits de quantification pour les messages du décodeur. Nous avons prouvé des conditions suffisantes pour qu'un code LDPC, avec un poids de colonnes égal à quatre, et dont le plus petit cycle du graphe est de taille au moins six, corrige n'importe quel triplet d'erreurs. Ces conditions montrent que décoder avec cette règle à deux bits permet d'assurer une capacité de correction de trois erreurs pour des codes de rendements plus élevés qu'avec une règle de décodage à un bit.
APA, Harvard, Vancouver, ISO, and other styles
13

Cunche, Mathieu. "Codes AL-FEC hautes performances pour les canaux à effacements : variations autour des codes LDPC." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00451336.

Full text
Abstract:
Nous assistons au développement rapide des solutions de diffusion de contenus sur des systèmes, où en plus des traditionnelles corruptions de l'information dans les couches basses, se pose le problème des pertes de paquets d'informations. Le besoin de fiabiliser ces systèmes de transmission a conduit à l'émergence de codes correcteurs d'effacements, qui grâce à l'ajout d'informations redondantes, permettent de reconstruire l'information perdue. Dans cette thèse nous abordons le problème de la conception de codes à effacements ayant de bonnes capacités de correction et dont les algorithmes de décodage possèdent une complexité permettant d'atteindre des débits élevés. Pour cela, nous avons choisi de travailler conjointement sur les codes et sur leur implémentation au sein d'un codec logiciel, et plus particulièrement sur les algorithmes de décodage. La première partie de nos travaux montre que des solutions basées sur les codes “Low-Density Parity-Check” (LDPC) permettent d'obtenir d'excellents résultats. En particulier lorsque ces codes sont décodés avec un décodeur hybride IT/ML qui permet d'obtenir des capacités de corrections proches de l'optimal, tout en conservant une complexité acceptable. De plus, nous montrons que grâce à l'utilisation de codes LDPC structurés la complexité du décodage ML peut être largement réduite. Nous étudions ensuite le développement de systèmes combinant un code à effacements et des fonctionnalités cryptographiques. Les systèmes résultants permettent de réduire la complexité globale du système tout en garantissant un niveau de sécurité élevé. Finalement, nous présentons une technique de tolérance aux fautes basée sur des codes correcteurs pour des applications de multiplications matricielles. Cette technique nous permet de construire un système de calcul distribué sur plateforme P2P tolérant efficacement aussi bien les pannes franches que les erreurs malicieuses.
APA, Harvard, Vancouver, ISO, and other styles
14

Kakakhail, Shahkar. "Prédiction et estimation de très faibles taux d'erreur pour des chaînes de communication codées." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00819416.

Full text
Abstract:
Dans cette thèse, nous abordons le sujet d'optimisation des méthodes utlisées pour l'évaluation de performance des codes correcteurs d'erreurs. La durée d'une simula- tion Monte Carlo pour estimer le taux d'erreurs dans un système de communication augmente exponentiellement avec l'accroissement du Rapport Signal sur Bruit (RSB). Importance Sampling (IS) est une des techniques qui permettent à réduire le temps de ces simulations. Dans ce travail, on a étudié et mis en oeuvre une version avancée d'IS, appelé Adaptive Importance Sampling (AIS), pour l'évaluation efficace des codes cor- recteurs d'erreurs aux taux d'erreur très bas. D'abord, nous présentons les inspirations et motivations en analysant différentes approches actuellement mises en pratique. On s'intéresse plus particulièrement aux méthodes inspirées de la physique statistique. Ensuite, basé sur notre analyse qualita- tive, nous présentons une méthode optimisée, appelé la méthode de Fast Flat Histogram (FFH) qui est intrinsèquement très générique. La méthode emploie l'algorithme de Wang-Landau, l'algorithme de Metropolis-Hastings et les chaines de Markov. Elle fonctionne dans le cadre de l'AIS et nous donne un gain de simulation satisfaisant. Différents paramètres sont utilisés pour assurer une précision statistique suffisante. L'extension vers d'autres types de codes correcteurs d'erreurs est directe. Nous présentons les résultats pour les codes LDPC et turbocodes ayant dif- férentes tailles et différents rendements. Par conséquent, nous montrons que la méthode FFH est générique et valable pour une large gamme des rendements, tailles et structures. De plus, nous montrons que la méthode FFH est un outil puissant pour trouver des pseudocodewords dans la région de RSB élévé en appliquant l'algorithme de décodage Belief Propagation aux codes LDPC.
APA, Harvard, Vancouver, ISO, and other styles
15

Rawat, Sachin. "Implementation of a Forward Error Correction Technique using Convolutional Encoding with Viterbi Decoding." Ohio University / OhioLINK, 2004. http://www.ohiolink.edu/etd/view.cgi?ohiou1088439298.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Barbier, Morgan. "Décodage en liste et application à la sécurité de l'information." Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00677421.

Full text
Abstract:
Cette thèse porte sur l'étude de certains aspects des codes correcteurs d'erreurs et leurs applications à la sécurité de l'information. Plus spécifiquement, on s'est intéressé aux problèmes de décodage complet et de décodage en liste. Une nouvelle notion de codes a été introduite en liant une famille de codes et un algorithme de décodage, mettant ainsi en évidence les codes pour lesquels le décodage complet est réalisable en un temps polynomial. On présente ensuite une reformulation de l'algorithme de Koetter et Vardy pour le décodage en liste pour les codes alternant et analysons sa complexité. Cette méthode a permit de présenter une réduction de la taille de la clé du cryptosystème de McEliece, allant jusqu'à 21\% pour la variante dyadique. On s'est également intéressé à la stéganographie basée sur les codes. On propose différentes bornes caractérisant les stégosystèmes utilisant des codes linéaires, de façon à assurer la solvabilité du problème d'insertion avec des positions verrouillées. Une de ces bornes permet d'affirmer que plus le rang MDS du code utilisé est bas, plus ce code permettra de concevoir un stégosystème efficace. On montre également que les codes non-linéaires systématiques sont également de bons candidats. Enfin, on reformule le problème d'insertion bornée avec des positions verrouillées rendant ainsi l'insertion toujours possible, et on démontre que les codes de Hamming binaires permettent de satisfaire à toutes les contraintes exhibées.
APA, Harvard, Vancouver, ISO, and other styles
17

Su, Yong. "Mathematical modeling with applications in high-performance coding." Connect to resource, 2005. http://rave.ohiolink.edu/etdc/view?acc%5Fnum=osu1127139848.

Full text
Abstract:
Thesis (Ph. D.)--Ohio State University, 2005.
Title from first page of PDF file. Document formatted into pages; contains xiv, 130 p.; also includes graphics (some col.). Includes bibliographical references (p. 125-130). Available online via OhioLINK's ETD Center
APA, Harvard, Vancouver, ISO, and other styles
18

Li, Danhui. "The application of mathematical taxonomy to automatic speech recognition." Thesis, University of Huddersfield, 1993. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.334681.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Ryabko, Daniil. "APPRENABILITÉ DANS LES PROBLÈMES DE L'INFÉRENCE SÉQUENTIELLE." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00675680.

Full text
Abstract:
Les travaux présentés sont dédiés à la possibilité de faire de l'inférence statistique à partir de données séquentielles. Le problème est le suivant. Étant donnée une suite d'observations x_1,...,x_n,..., on cherche à faire de l'inférence sur le processus aléatoire ayant produit la suite. Plusieurs problèmes, qui d'ailleurs ont des applications multiples dans différents domaines des mathématiques et de l'informatique, peuvent être formulés ainsi. Par exemple, on peut vouloir prédire la probabilité d'apparition de l'observation suivante, x_{n+1} (le problème de prédiction séquentielle); ou répondre à la question de savoir si le processus aléatoire qui produit la suite appartient à un certain ensemble H_0 versus appartient à un ensemble différent H_1 (test d'hypothèse) ; ou encore, effectuer une action avec le but de maximiser une certain fonction d'utilité. Dans chacun de ces problèmes, pour rendre l'inférence possible il faut d'abord faire certaines hypothèses sur le processus aléatoire qui produit les données. La question centrale adressée dans les travaux présentés est la suivante : sous quelles hypothèses l'inférence est-elle possible ? Cette question est posée et analysée pour des problèmes d'inférence différents, parmi lesquels se trouvent la prédiction séquentielle, les tests d'hypothèse, la classification et l'apprentissage par renforcement.
APA, Harvard, Vancouver, ISO, and other styles
20

Shams, Bilal. "Codes LDPC non-binaire de nouvelle generation." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00766409.

Full text
Abstract:
Dans cette thèse, nous présentons nos travaux dans le domaine des algorithmes de décodage des codes LDPC non-binaires généralisés. Les codes LDPC binaires ont été initialement proposés par Gallager en 1963, et après quelques avancées théoriques fondamentales, ils ont été proposés dans des standards tels que DVB-S2, WI-MAX, DSL, W-LAN etc. Plus tard, les codes LDPC non-binaires (NB-LDPC) ont été pro- posés dans la littérature, et ont montré une meilleure performance pour de petites tailles de code ou lorsqu'ils sont utilisés sur des canaux non-binaires. Cependant, les avan- tages de l'utilisation de codes NB-LDPC impliquent une augmentation importante de la complexité de décodage. Pour un code défini dans un corps de Galois GF (q), la complexité est d'ordre O (q2). De même, la mémoire requise pour le stockage des messages est d'ordre O (q). Ainsi, l'implémentation d'un décodeur LDPC défini sur un corps de Galois pour q > 64 devient impossible dans la pratique. L'objectif prin- cipal de cette thèse est de développer des algorithmes avec une bonne performance et complexité réduite de sorte qu'ils deviennent implémentables. Pour une performance de décodage optimisée, non seulement l'algorithme est important, mais également la structure du code joue un rôle clé. Avec cet objectif à l'esprit, une nouvelle famille de codes appelés " cluster-NB-LDPC codes " a été élaborée ainsi que des améliorations spécifiques du décodeur non-binaire pour ces codes. Le résultat principal est que nous avons pu proposer des décodeurs pour les codes cluster-NB-LDPC avec une complex- ité réduite par rapport aux décodeurs classiques pour les codes NB-LDPC définis sur les corps de Galois, sans aucune perte de performance dans la capacité de correction vi Résumé d'erreur. Dans la première partie de la thèse, nous avons modifié l'algorithme EMS pour les cluster-codes. La généralisation directe de l'algorithme EMS aux codes cluster-NB- LDPC n'est pas réaliste . Il y a une perte de performance et une augmentation de la complexité. Par conséquent, nous proposons quelques modifications dans la procé- dure, qui non seulement améliore considérablement les performances de décodage, mais diminue également la complexité. Au niveau des noeuds de parité, cet algo- rithme conserve les mêmes limites sur le nombre d'opérations que l'algorithme EMS pour GF (q)-codes, O (nmlognm) avec nm << q. Nous proposons ensuite une autre méthode, basée sur la diversité des codes cluster, afin d'améliorer les performances de l'algorithme EMS pour les codes cluster-LDPC. Il contribue également à réduire la complexité globale du décodeur. Finalement, nous comparons les performances de décodage en utilisant cette méthode et analysons l'effet sur la complexité de décodage. Dans la dernière partie du chapitre, nous proposons une nouvelle direction pour le décodage des codes LDPC. Elle est basée sur la création des listes des mots de code qui correspondent à des noeuds de parité. Les listes sont construite de manière récur- sive dans une structure en arbre, ce qui en fait un bon candidat pour l'implémentation matérielle. Il s'agit d'une méthode nouvelle et doit encore être améliorée mais à pre- miére vue nous avons obtenu de bons résultats avec un nombre réduit d'operations.
APA, Harvard, Vancouver, ISO, and other styles
21

Malrait, François. "Problèmes d'identification et d'observabilité du moteur à induction pour la variation de vitesse industrielle "sans capteur"." Phd thesis, École Nationale Supérieure des Mines de Paris, 2001. http://pastel.archives-ouvertes.fr/pastel-00001711.

Full text
Abstract:
Pour améliorer les performances d'un variateur de vitesse ou pour rendre autonome le contrôle des moteurs à induction sans capteur mécanique, il faut que le variateur de vitesse connaisse de manière précise les paramètres des moteurs qui lui sont accouplés. Nous proposons une phase d'identication à l'arrêt. Celle-ci soulève la problématique de la modélisation du moteur à induction et de l'étage de puissance (modèle de saturation, chutes de tension dans les composants de l'étage de puissance, ...) dans une zone de fonctionnement inhabituelle pour un variateur de vitesse. La connaissance des paramètres électriques hors ligne n'est pourtant pas susante. Lors du fonctionnement normal, la dérive thermique des résistances introduit une erreur paramétrique qui peut créer des problèmes de blocage dans le domaine de la basse vitesse ou au moins baisser notablement les performances. Nous avons analysé la zone de fonctionnement basse vitesse. Cette zone de fonctionnement contient des propriétés intrinsèques au moteur à induction : instabilité, inobservabilité (au premier ordre). Nous proposons la synthèse d'un observateur du moteur à induction fondée sur la linéarisation du système autour d'une trajectoire. Pour ce faire, nous avons développer une méthode de construction pour générer un observateur non singulier pour un système variant dans le temps possédant des singularités d'observabilité. Ce résultat provient de notre étude sur les systèmes possédant des singularités de commandabilité pour les systèmes linéaires à coecients variant dans le temps. Nous proposons explicitement un bouclage exogène permettant de transformer le système d'origine en des chaînes d'intégrateurs sans singularités.
APA, Harvard, Vancouver, ISO, and other styles
22

Paula, Ana Rachel Brito de 1990. "Polinômios de permutação e palavras balanceadas." [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/307070.

Full text
Abstract:
Orientador: Fernando Eduardo Torres Orihuela
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica
Made available in DSpace on 2018-08-27T14:35:36Z (GMT). No. of bitstreams: 1 Paula_AnaRachelBritode_M.pdf: 1519694 bytes, checksum: 61b845f0f57e58e56f6a1f759fc9a382 (MD5) Previous issue date: 2015
Resumo: A dissertação "Polinômios de Permutação e Palavras Balanceadas" tem como principal objetivo estudar a influência dos polinômios de permutação na teoria de códigos mediante o conceito de palavra balanceada. A base do trabalho é o artigo "Permutacion polynomials and aplications to coding theory" de Yann Laigke-Chapuy. Expomos os conceitos básicos de polinômios de permutação como algumas de suas características, exemplos e métodos para identificação dos mesmos. Em seguida trataremos dos códigos lineares com ênfase nos binários explorando particularmente a conjectura de Helleseth
Abstract: The main goal in writing this dissertation is the study of the influence of the Theory of Permutation Polynomials in the context of Coding Theory via the concept of balanced word. Our basic reference is the paper "Permutation polynomials and applications to coding theory" by Y. Laigke- Chapury. Our plan is to introduce the basic concepts in Coding Theory, Permutation Polynomials; then we mainly consider the long-standing open Helleseth¿s conjecture
Mestrado
Matematica Aplicada
Mestra em Matemática Aplicada
APA, Harvard, Vancouver, ISO, and other styles
23

Mathieu, Sassolas. "Méthodes qualitatives et quantitatives pour la détection d'information cachée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00683086.

Full text
Abstract:
Les systèmes informatiques sont devenus omniprésents et sont utilisés au quotidien pour gérer toujours plus d'information. Ces informations sont de plus en plus souvent confidentielles: informations stratégiques militaires ou financières, données personnelles. La fuite de ces informations peut ainsi avoir des conséquences graves telles que des pertes humaines, financières, des violations de la vie privée ou de l'usurpation d'identité. Les contributions de cette thèse se découpent en trois parties. Tout d'abord, nous étudions le problème de synthèse d'un canal de communication dans un système décrit par un transducteur. Malgré les limites imposées par ce modèle, nous montrons que le problème de synthèse est indécidable en général. Cependant, lorsque le système est fonctionnel, c'est-à-dire que son fonctionnement externe est toujours le même, le problème devient décidable. Nous généralisons ensuite le concept d'opacité aux systèmes probabilistes, en donnant des mesures groupées en deux familles. Lorsque le système est opaque, nous évaluons la robustesse de cette opacité vis-à-vis des informations données par les lois de probabilités du système. Lorsque le système n'est pas opaque, nous évaluons la taille de la faille de sécurité induite par cette non opacité. Enfin, nous étudions le modèle des automates temporisés à interruptions (ITA) où les informations sur l'écoulement du temps sont organisées en niveaux comparables à des niveaux d'accréditation. Nous étudions les propriétés de régularité et de clôture des langages temporisés générés par ces automates et proposons des algorithmes de model-checking pour des fragments de logiques temporelles temporisées.
APA, Harvard, Vancouver, ISO, and other styles
24

Ponchet, Andre da Fontoura 1975. "Codificação distribuida de video digital utilizando codigos turbo e Waveletes de segunda geração." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260066.

Full text
Abstract:
Orientador: Yuzo Iano
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e Computação
Made available in DSpace on 2018-08-06T03:07:07Z (GMT). No. of bitstreams: 1 Ponchet_AndredaFontoura_M.pdf: 26328595 bytes, checksum: c9274a3ea90909625472bd920293d379 (MD5) Previous issue date: 2006
Resumo: A codificação distribuída de vídeo constitui um novo paradigma em compressão de vídeo frente aos codificadores híbridos da família MPEG-x e H.26x. Nesses codificadores, a estimação de movimento é a principal etapa do processo de compressão do sinal de vídeo. Desta forma, a codificação demanda um alto custo computacional exigindo desempenho do codificador. Neste trabalho é apresentado um codec de vídeo baseado na teoria da codificação distribuída com perdas. O compressor apresentado codifica os quadros ímpares e os quadros pares separadamente utilizando códigos turbo e a transformada wavelet. O processo de decodificação é feito de forma iterativa e explora a dependência estatística entre os quadros da seqüência de vídeo original. Esta abordagem permite uma redução bastante significativa no tempo de processamento envolvido na compressão do sinal de vídeo, tornando viável a implementação deste tipo de codificador em dispositivos com recursos escassos de processamento e memória. Os resultados obtidos em simulações comprovam o bom desempenho do codec proposto em relação ao padrão estado da arte em compressão de vídeo, o H.264/AVC
Abstract: Distributed video coding is a new paradigm for video compression in opposition over the existing video coding standards like MPEG-x and H.26x families. These codecs make use of motion estimation algorithms, the main part of the compression process of the video signal. Hence, the compression process demands a high computational cost and high performance of the encoder. The present work proposes a video compression scheme based on the lossy distributed source coding theory. The proposed compressor encodes the odd frames and the even frames separately using turbo codes and the discrete wavelet transform. The decoding process is performed in an iterative manner and explores the statistical dependency of the video frames of the original sequence. This approach gives a great encoding runtime reduction and allows the implementation at devices with limited computation power and memory. Simulation results show the good performance of the proposed codec in comparison with the state of the art video compression standard H.264/AVC
Mestrado
Telecomunicações e Telemática
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
25

Shaheem, Asri. "Iterative detection for wireless communications." University of Western Australia. School of Electrical, Electronic and Computer Engineering, 2008. http://theses.library.uwa.edu.au/adt-WU2008.0223.

Full text
Abstract:
[Truncated abstract] The transmission of digital information over a wireless communication channel gives rise to a number of issues which can detract from the system performance. Propagation effects such as multipath fading and intersymbol interference (ISI) can result in significant performance degradation. Recent developments in the field of iterative detection have led to a number of powerful strategies that can be effective in mitigating the detrimental effects of wireless channels. In this thesis, iterative detection is considered for use in two distinct areas of wireless communications. The first considers the iterative decoding of concatenated block codes over slow flat fading wireless channels, while the second considers the problem of detection for a coded communications system transmitting over highly-dispersive frequency-selective wireless channels. The iterative decoding of concatenated codes over slow flat fading channels with coherent signalling requires knowledge of the fading amplitudes, known as the channel state information (CSI). The CSI is combined with statistical knowledge of the channel to form channel reliability metrics for use in the iterative decoding algorithm. When the CSI is unknown to the receiver, the existing literature suggests the use of simple approximations to the channel reliability metric. However, these works generally consider low rate concatenated codes with strong error correcting capabilities. In some situations, the error correcting capability of the channel code must be traded for other requirements, such as higher spectral efficiency, lower end-to-end latency and lower hardware cost. ... In particular, when the error correcting capabilities of the concatenated code is weak, the conventional metrics are observed to fail, whereas the proposed metrics are shown to perform well regardless of the error correcting capabilities of the code. The effects of ISI caused by a frequency-selective wireless channel environment can also be mitigated using iterative detection. When the channel can be viewed as a finite impulse response (FIR) filter, the state-of-the-art iterative receiver is the maximum a posteriori probability (MAP) based turbo equaliser. However, the complexity of this receiver's MAP equaliser increases exponentially with the length of the FIR channel. Consequently, this scheme is restricted for use in systems where the channel length is relatively short. In this thesis, the use of a channel shortening prefilter in conjunction with the MAP-based turbo equaliser is considered in order to allow its use with arbitrarily long channels. The prefilter shortens the effective channel, thereby reducing the number of equaliser states. A consequence of channel shortening is that residual ISI appears at the input to the turbo equaliser and the noise becomes coloured. In order to account for the ensuing performance loss, two simple enhancements to the scheme are proposed. The first is a feedback path which is used to cancel residual ISI, based on decisions from past iterations. The second is the use of a carefully selected value for the variance of the noise assumed by the MAP-based turbo equaliser. Simulations are performed over a number of highly dispersive channels and it is shown that the proposed enhancements result in considerable performance improvements. Moreover, these performance benefits are achieved with very little additional complexity with respect to the unmodified channel shortened turbo equaliser.
APA, Harvard, Vancouver, ISO, and other styles
26

Moritz, Guilherme Luiz. "Análise de complexidade de códigos turbo utilizando as treliças mínima e seccionada." Universidade Tecnológica Federal do Paraná, 2012. http://repositorio.utfpr.edu.br/jspui/handle/1/323.

Full text
Abstract:
A dissertação apresentada utiliza a representação de treliça mínima e seccionada para a decodificação de códigos turbo, analisando os impactos da aplicação desta técnica no desempenho (taxa de erro em função da relação sinal ruído) em um canal AWGN e avaliando a redução de complexidade de processamento. O processo de decodificação proposto utilizará a teoria de minimização de treliça proposta em (MCELIECE, 1996) e a teoria de seccionamento de treliça proposto em (VARDY, 1998). Decodifica-se utilizando o algoritmo max-log-MAP (VUCETIC; YUAN, 2000). Desenvolve-se uma métrica de complexidade baseada no número de operações e mostra-se técnicas para escolher-se seccionamentos que são simples e apresentam pouca ou nenhuma perda de desempenho em função da decodificação convencional.
We present a technique for reducing the turbo decoding complexity based on minimal and sectionalized trellises. A novel complexity metric is proposed and the complexity of all possible sectionalizations for some selected codes is evaluated. We use the minimal trellis representation proposed in (MCELIECE, 1996) for BCJR decoding and conclude that one can find less complex sectionalizations (when compared to the conventional trellis) which show small or none performance degradation.
APA, Harvard, Vancouver, ISO, and other styles
27

Ngo, Quoc-Tuong. "Généralisation des précodeurs MIMO basés sur la distance euclidienne minimale." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00839594.

Full text
Abstract:
Dans cette thèse, nous avons utilisé la théorie des matrices et les propriétés d'algèbre linéaire pour concevoir de nouveaux précodeurs MIMO basés sur la distance euclidienne minimale (max-dmin) entre les points des constellations reçues. A cause de la grande complexité de résolution engendrée par le nombre d'antennes et le nombre de symboles dans la constellation utilisée, ce type de précodeur n'existait auparavant que pour 2 voies d'émission et des modulations simples. Nous l'avons dans un premier temps étendu à la modulation MAQ-16, avant de généraliser le concept pour toute modulation MAQ. L'utilisation des fonctions trigonométriques a ensuite permis une nouvelle représentation du canal à l'aide de deux angles, ouvrant la voie à un précodeur dmin pour trois voies de données. Grâce à ce schéma, une extension non-optimale du précodeur max-dmin pour un nombre impair de flux de symboles utilisant des modulations MAQ est obtenue. Lorsqu'une détection par maximum de vraisemblance est utilisée, le nombre de voisins fournissant la distance minimale est également très important pour le calcul du TEB. Pour prendre en compte ce paramètre, un nouveau précodeur, sans rotation possible, est considéré, menant à une expression moins complexe et un espace de solutions restreint. Enfin, une approximation de la distance minimale a été dérivée en maximisant la valeur minimale des éléments diagonaux de la matrice maximisant le RSB. L'avantage majeur de cette conception est que la solution est disponible pour toute modulation MAQ rectangulaire et pour tout nombre de flux de symboles.
APA, Harvard, Vancouver, ISO, and other styles
28

Marjane, Abdelaziz. "Conception Vectorielle de Registre à rétroaction avec retenue sur les corps finis." Phd thesis, Université Paris-Nord - Paris XIII, 2011. http://tel.archives-ouvertes.fr/tel-00680021.

Full text
Abstract:
Dans ce mémoire, on introduit une conception vectorielle des registres à rétroaction lin éaire avec retenue introduits par Goresky et Klapper que l'on dénomme VFCSR. Via l'anneau des vecteurs de Witt, on développe une analyse de ces registres qui établit les propriétés essentielles des séquences de sortie comme l'existence de séquences de période maximale, la qualité de pseudo-al éa du point de vue de la corr élation arithm étique et statistique, le comportement de la m émoire, etc. On étudie différents modes de conception de ces registres (modes Fibonacci, Galois et Ring). Comme application, on propose un g én érateur d'al éa cryptographique en mode "stream cipher" bas e sur un registre VFCSR quadratique.
APA, Harvard, Vancouver, ISO, and other styles
29

Winter, Andreas. "Coding theorems of quantum information theory : Dissertation zur Erlangung des Doktorgrades, vorgelegt der Fakultät für Mathematik, Universität Bielefeld /." Bielefeld [Germany] : The University, 1999. http://archiv.ub.uni-bielefeld.de/disshabi/1999/0008.ps.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Socheleau, François-Xavier. "Communications acoustiques sous-marines sur canal fortement dispersif en temps et en fréquence : point de vue de la théorie de l'information." Phd thesis, Université de Bretagne occidentale - Brest, 2011. http://tel.archives-ouvertes.fr/tel-00638836.

Full text
Abstract:
Le canal acoustique sous-marin (ASM) est réputé comme difficile. Il présente à la fois des effets de réflexion/réfraction générant de la dispersion temporelle importante, une atténuation fortement croissante avec la fréquence qui restreint la bande-passante disponible, ainsi qu'une forte variabilité du milieu, qui, combinée avec une faible célérité des ondes acoustiques, induit une dispersion fréquentielle conséquente. Contrairement à la recherche dans le domaine des radio-communications qui repose principalement sur des modèles de propagations bien établis, la recherche en communication ASM ne dispose pas de tels modèles et s'appuie majoritairement sur des expérimentations en mer. L'objectif principal de ce travail de thèse est de montrer que malgré notre connaissance limitée sur la réalité physique du canal, il est possible, en utilisant des outils théoriques adaptés, de déterminer en laboratoire des directives pertinentes aussi bien pour la sélection des modulations et la validation des modems correspondants que pour les prédictions de débit. Dans ce contexte, la théorie de l'information s'avère être un outil très précieux pour inférer un maximum de conclusions sur le canal et induire des directives pratiques sur les formats de modulation. Nous développons dans un premier temps un point de vue de théorie de l'information sur la modélisation de canaux acoustiques sous-marins doublement dispersifs en s'appuyant sur le principe d'entropie maximale. Dans un cadre d'inférence plus empirique, nous proposons ensuite un modèle de canal alimenté par des données réelles qui repose sur l'hypothèse selon laquelle une réponse impulsionnelle de canal mesurée en mer n'est qu'une observation d'un processus aléatoire sous-jacent. Nous dérivons dans un troisième temps de nouvelles bornes de capacité sur le canal ASM en considérant des hypothèses plus réalistes que l'état de l'art sur le sujet : le canal est ici supposé doublement dispersif, la puissance crête limitée et la réalisation courante du canal inconnue de l'émetteur et du récepteur (contexte non-cohérent). Enfin, nous nous intéressons à la structure "propre" du canal et cherchons à optimiser la forme d'onde de transmission pour trouver un bon compromis entre les notions très intriquées de robustesse et de débit qui caractérisent les performances des systèmes de communication.
APA, Harvard, Vancouver, ISO, and other styles
31

Vandenbussche, Pierre-Yves. "Définition d'un cadre formel de représentation des Systèmes d'Organisation de la Connaissance." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00642545.

Full text
Abstract:
Ce travail de thèse, réalisé au sein de l'entreprise MONDECA et du laboratoire de recherche INSERM, est né du besoin de disposer d'un serveur capable de supporter le processus éditorial de Systèmes d'Organisation de Connaissances (SOC) et soulève la problématique suivante: comment harmoniser la représentation des SOC et de leurs correspondances afin de proposer des services unifiés qui supportent l'édition, la publication et l'utilisation efficaces des connaissances de ces référentiels? Pour répondre à cette problématique, nous soutenons la thèse que l'élaboration d'un modèle de représentation commune de SOC est une solution adaptée pour (i) pallier l'hétérogénéité de ces référentiels, (ii) favoriser l'interopérabilité sémantique au sein d'un Système d'Information et (iii) proposer des services unifiés quel que soit le SOC. Nous utilisons pour cela des méthodes propres à l'Ingénierie des Connaissances couplées à celles de l'Ingénierie des modèles. Les contributions présentées se concentrent sur trois axes. Dans un premier axe, nous souhaitons obtenir une solution de modélisation de SOC la plus générique possible et qui puisse être étendue pour prendre en compte les spécificités de chacun des référentiels. Nous proposons donc un modèle extensible commun de représentation, nommé UniMoKR, construit à partir des standards, recommandations et projets existants. Notre modèle a été proposé et intégré en partie dans la future norme ISO 25964 qui porte sur la représentation des terminologies. Nous avons également soumis deux patrons de modélisation d'ontologie au portail Ontology Design Pattern. Le second axe est consacré à la proposition de services unifiés qui reposent sur cette modélisation. Parmi ces services nous distinguons l'export de tout ou partie de SOC dans un format standard d'échange ou encore des services Web de gestion de terminologies. Pour mettre ces services à disposition, nous préconisons la méthode de transformation de modèles qui utilise le langage SPARQL pour l'expression des règles de transformation. Dans un troisième axe, nous présentons l'application de notre solution testée et commercialisée pour divers projets dans différents domaines d'applications. Nous montrons ici la faisabilité de notre approche, ainsi que l'amélioration que la représentation formelle de notre modèle apporte à la qualité des informations. Ces implémentations ont permis d'effectuer une validation en condition d'utilisation.
APA, Harvard, Vancouver, ISO, and other styles
32

Hucher, Charlotte. "Définition et analyse des performances de protocoles coopératifs." Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00683338.

Full text
Abstract:
Dans un réseau coopératif, différents noeuds coopèrent afin de créer un réseau d’antennes virtuel et exploiter la diversité spatio-temporelle. On s’intéresse d'abord au canal à relai. Afin d'améliorer les performances à bas SNR, on propose une stratégie adaptative pour les protocoles ”amplify-and-forward” (AF) et ”decode-and-forward (DF) qui détermine la meilleure technique de transmission en fonction du canal. Afin de définir un protocole DF à la fois performant et facile à implémenter, on propose ensuite d'utiliser un décodage incomplet aux relais. Cette technique permet d’atteindre les gains de multiplexage et de diversité maximaux, son DMT est le même que celui du protocol AF non-orthogonal (NAF). Pour réduire la complexité aux relais, deux nouvelles méthodes de décodage sont proposées, basées pour l’une sur la structure des codes TAST, et pour l’autre sur une approximation diophantienne. Dans le cas où plusieurs sources transmettent simultanément, on parle de canal coopératif à accès multiple (CMA). Une implémentation pratique et deux améliorations du protocole CMA-NAF sont proposées, ainsi qu’une variante utilisant une stratégie DF. Ces protocoles permettent d’atteindre de meilleures performances asymptotiques et leur DMT est plus proche de la borne MISO. Enfin, si le lien direct entre source et destination est inutilisable, on utilise une stratégie multi-saut. Dans cette thèse, on propose un protocole pour le canal ”K-parallel-path” (KPP), basé sur la sélection de chemin combinée avec un code spatio-temporel de faible dimension. Ce protocole permet d’atteindre les limites théoriques du canal tout en ayant une complexité limitée
In cooperative networks, multiple nodes cooperate to form a virtual antenna array and exploit space-time diversity. The relay channel is first investigated. In order to improve performance at low SNRs, an adaptive strategy is proposed for both amplify-and-forward (AF) and decode-and-forward (DF) protocols. This strategy chooses the best transmission scheme in term of mutual information for each channel realization. To define an easily implementable and efficient DF protocol, we propose to use an incomplete decoding at relays. This technique provides both full rate and full diversity. Its DMT is similar to the one of the well-known non-orthogonal AF (NAF). In order to reduce the decoding complexity at relays, we also propose two decoding methods based on the space-time block code (STBC) structure and diophantine approximation, respectively. When several sources need to transmit simultaneously, a cooperative multiple access (CMA) channel has to be considered. A practical implementation and two modifications of the CMA-NAF protocol defined by Azarian et al. Are proposed, as well as a DF variant, the CMA-IDF. These protocols provide better asymptotic performance and their DMT is closer to the MISO bound. Finally, if the direct link between source and destination is nonexistent or experiences too much fading, a multihop strategy has to be used. In this thesis, a protocol is proposed for the K-parallel-path (KPP) network, based on path selection combined with a small STBC. This protocol achieves the optimal DMT of the KPP channel with a limited complexity
APA, Harvard, Vancouver, ISO, and other styles
33

Salah, Abdellatif. "Schémas de décodage MIMO à Complexité Réduite." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00682392.

Full text
Abstract:
L'utilisation des antennes MIMO est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. De nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les systèmes MIMO avec les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation réelle. Cette thèse présente une étude très détaillée de la complexité, la performance et les aspects les plus intéressants du comportement des algorithmes de la réception pour le décodage MIMO, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance et la complexité de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaissance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées.
APA, Harvard, Vancouver, ISO, and other styles
34

Lakshminarayana, Subhash. "Conception de Mecanismes Inter-couches dans les Systemes MIMO Multi-cellulaires." Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00778162.

Full text
Abstract:
Les prévisions relatives trafic de données au sein des systèmes de communications sans-fil suggèrent une croissance exponentielle, principalement alimentée par l'essor de transferts vidéo mobiles. Etant donné la nature soudaine et fluctuante des demandes de transfert vidéo, il faut dès à présent réfléchir à de nouveaux algorithmes d'allocation de ressources performants. En effet, les algorithmes en couche physique traditionnels, qui réalisent de l'allocation de ressources sous l'hypothèse classique que les transmetteurs sont toujours saturés avec des bits d'information, risquent à l'avenir de s'avérer inefficients. Pour cette raison, les algorithmes de demain se doivent d'être dynamiques, dans le sens où ils seront capables de prendre en compte la nature stochastique des fluctuations du trafic de données et qu'ils intégreront des informations issus de processus de couches supérieures. L'idée centrale de cette thèse est de développer des algorithmes, travaillant avec des informations issues de la couche PHY et de la couche NET, dans un scénario Multi-cells et MIMO (Multiple Inputs, Multiple Outputs).Plus particulièrement, nous considérons un réseau de stations de base (BS) équipés avec plusieurs antennes, chargés de servir plusieurs terminaux mobiles équipés d'une seule antenne (UT) dans leurs cellules respectives. Ce qui nous différencie des travaux précédents, c'est que nous tenons compte de l'aléa avec lequel des demandes de transferts peuvent arriver et que, pour cette raison, nous modélisons la formation de queue de données au niveau des stations de base. Dans cette disposition, nous développons plusieurs algorithmes multicouches, réalisant de l'allocation de ressources décentralisée, et ce, dans une optique d'efficacité énergétique. En particulier, il s'agit ici de réaliser des algorithmes réalisant du beamforming de façon décentralisée et capables de contrôler des fluctuations de trafic, des algorithmes optimisant l'efficacité énergétique sous une contrainte de qualité de service moyenne, des algorithmes de planification décentralisés dans des scénarios multi-cellulaires. Dans cette perspective, nous choisissons de recourir non seulement à des outils d'optimisation de la théorie.
APA, Harvard, Vancouver, ISO, and other styles
35

Rudolph, Frederick Marlow. "The evaluation of the effects of contrast versus numeric coding, redundancy, and density on input and output times." Thesis, Georgia Institute of Technology, 1992. http://hdl.handle.net/1853/33438.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Herbert, Vincent. "Des codes correcteurs pour sécuriser l'information numérique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00657110.

Full text
Abstract:
Les codes correcteurs d'erreurs sont utilisés pour reconstituer les données numériques, qui sont sujettes à des altérations lors de leur stockage et de leur transport. Il s'agit là de l'utilisation principale des codes correcteurs mais ils peuvent encore être employés en cryptographie. Ils sont dans ce contexte un outil permettant, entre autres choses, de chiffrer des données et d'authentifier des personnes. Ces différents aspects sont traités dans ce document. Pour commencer, nous étudions la classe de codes cycliques possédant un ensemble de définition de la forme {1, 2^i+1, 2^j+1}, où i et j désignent des entiers positifs distincts. Nous concentrons notre attention sur la caractérisation des codes trois-correcteurs appartenant à cette classe ainsi que sur la distribution de poids de ces codes. Nous améliorons l'algorithme de Schaub, qui donne une minoration de la distance minimale des codes cycliques. Nous mettons en oeuvre cet algorithme pour calculer l'immunité spectrale de fonctions booléennes. Cette quantité est reliée à la distance minimale de codes cycliques et est importante pour garantir la sécurité dans certains cryptosystèmes de chiffrement à flot. Dans un second temps, nous proposons une solution pour accélérer le calcul des racines de polynômes dans des corps finis de caractéristique deux. Ce calcul est la phase la plus lente du déchiffrement des cryptosystèmes de type McEliece basés sur les codes de Goppa binaires classiques. Nous fournissons une analyse de la complexité de l'algorithme sous-jacent baptisé BTZ. Nous achevons nos travaux par une étude des protocoles d'authentification à bas coût, dérivés du protocole HB, en adoptant une approche basée sur le problème du décodage par syndrome, plutôt que par l'approche standard, fondée sur le problème LPN.
APA, Harvard, Vancouver, ISO, and other styles
37

Zhang, Liren. "Recovery of cell loss in ATM networks using forward error correction coding techniques /." Title page, contents and summary only, 1992. http://web4.library.adelaide.edu.au/theses/09PH/09phz6332.pdf.

Full text
Abstract:
Thesis (Ph. D.)--University of Adelaide, Dept. of Electrical and Electronic Engineering, 1993.
Copies of author's previously published articles inserted. Includes bibliographical references (leaves 179-186).
APA, Harvard, Vancouver, ISO, and other styles
38

Quintin, Guillaume. "Sur l'algorithme de décodage en liste de Guruswami-Sudan sur les anneaux finis." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00759820.

Full text
Abstract:
Cette thèse porte sur l'algorithmique des techniques de décodage en liste, initiée par Guruswami et Sudan en 1998, dans le contexte des codes de Reed-Solomon sur les anneaux finis. Deux approches sont considérées. Dans un premier temps, nous adaptons l'algorithme de décodage en liste de Guruswami-Sudan aux codes de Reed-Solomon généralisés sur les anneaux finis. Nous étudions en détails les complexités de l'algorithme pour les anneaux de Galois et les anneaux de séries tronquées. Dans un deuxième temps nous approfondissons l'étude d'une technique de remontée pour le décodage en liste. Nous montrons que cette derni're permet de corriger davantage de motifs d'erreurs que la technique de Guruswami-Sudan originale. Nous appliquons ensuite cette même technique aux codes de Reed-Solomon généralisés sur les anneaux de Galois et les anneaux de séries tronquées et obtenons de meilleures bornes de complexités. Enfin nous présentons l'implantation des algorithmes en C et C++ des algorithmes de décodage en liste étudiés au cours de cette thèse. Tous les sous-algorithmes nécessaires au décodage en liste, comme la recherche de racines pour les polynômes univariés, l'arithmétique des corps et anneaux finis sont aussi présentés. Indépendamment, ce manuscrit contient d'autres travaux sur les codes quasi-cycliques. Nous prouvons qu'ils sont en correspondance biunivoque avec les idéaux à gauche d'un certain anneaux de matrices. Enfin nous adaptons le cadre proposé par Guruswami et Sudan pour les codes à base d'ideaux aux codes construits à l'aide des corps de nombres. Nous fournissons un algorithme de décodage en liste dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
39

Lefebvre, Thibaut. "Optimization of information flows in telecommunication networks." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1053/document.

Full text
Abstract:
Dans les réseaux de télécommunications, la demande croissante pour de nouveaux services, comme la diffusion de vidéos en continu ou les conférences en ligne, engendre un besoin pour des dispositifs de télécommunication où le même contenu est acheminé depuis un émetteur unique vers un groupe de récepteurs. Cette évolution ouvre la voie au développement de nouvelles techniques d'acheminement des données, comme le multicast qui laisse un nœud du réseau copier ses données d'entrée puis retransmettre ces copies, ou le codage réseau, qui est une technique permettant à un nœud d'effectuer des opérations de codage à partir de ses données d'entrée. Cette thèse traite de la mise en place de techniques de codage au sein d'un réseau multicast filaire. Nous formalisons certains problèmes qui apparaissent naturellement dans ce contexte grâce à la recherche opérationnelle et à des outils d'optimisation mathématique. Notre objectif est de développer des modèles et des algorithmes afin de calculer, au moins de manière approchée, certaines grandeurs qui ont vocation à être pertinentes dans le cadre de la comparaison de techniques d'acheminement de données dans un réseau de télécommunications. Nous évaluons ainsi, d'un point de vue à la fois théorique et expérimental, l'impact induit par l'introduction de techniques de codage au sein d'un réseau multicast. Nous nous concentrons en particulier sur des critères importants pour un opérateur de télécommunication, comme la maximisation du débit d'information entre une source et un ensemble de destinataires dans le réseau, la minimisation de la congestion sous contrainte de demande, ou la minimisation de la perte de débit ou du coût induit par l'acheminement des données dans un réseau soumis à des pannes
In telecommunication networks, the increasing demand for new services, like video-streaming or teleconferencing, along with the now common situation where the same content is simultaneously requested by a huge number of users, stress the need for point to many data transmission protocols where one sender wishes to transmit the same data to a set of receivers. This evolution leads to the development of new routing techniques like multicast, where any node of the network can copy its received data and then send these copies, or network coding, which is a technique allowing any node to perform coding operations on its data. This thesis deals with the implementation of coding techniques in a wired multicast network. We formalize some problems naturally arising in this setting by using operations research and mathematical optimization tools. Our objective is to develop models and algorithms which could compute, at least approximately, some quantities whose purpose is to be relevant as far as forwarding data using either multicast and network coding in telecommunications networks is concerned. We hence evaluate, both in theory and numerically, the impact of introducing coding techniques in a multicast network. We specifically investigate relevant criteria, with respect to the field of telecommunications, like the maximum amount of information one can expect to convey from a source to a set of receivers through the network, the minimum congestion one can guarantee while satisfying a given demand, or the minimum loss in throughput or cost induced by a survivable routing in a network prone to failures
APA, Harvard, Vancouver, ISO, and other styles
40

Pichon, Frédéric. "Fonctions de croyance : décompositions canoniques et règles de combinaison." Phd thesis, Université de Technologie de Compiègne, 2009. http://tel.archives-ouvertes.fr/tel-00793859.

Full text
Abstract:
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
APA, Harvard, Vancouver, ISO, and other styles
41

Danjean, Ludovic. "Algorithmes itératifs à faible complexité pour le codage de canal et le compressed sensing." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00797447.

Full text
Abstract:
L'utilisation d'algorithmes itératifs est aujourd'hui largement répandue dans tous les domaines du traitement du signal et des communications numériques. Dans les systèmes de communications modernes, les algorithmes itératifs sont utilisés dans le décodage des codes ''low-density parity-check'' (LDPC), qui sont une classe de codes correcteurs d'erreurs utilisés pour leurs performances exceptionnelles en terme de taux d'erreur. Dans un domaine plus récent qu'est le ''compressed sensing'', les algorithmes itératifs sont utilisés comme méthode de reconstruction afin de recouvrer un signal ''sparse'' à partir d'un ensemble d'équations linéaires, appelées observations. Cette thèse traite principalement du développement d'algorithmes itératifs à faible complexité pour les deux domaines mentionnés précédemment, à savoir le design d'algorithmes de décodage à faible complexité pour les codes LDPC, et le développement et l'analyse d'un algorithme de reconstruction à faible complexité, appelé ''Interval-Passing Algorithm (IPA)'', dans le cadre du ''compressed sensing''.Dans la première partie de cette thèse, nous traitons le cas des algorithmes de décodage des codes LDPC. Il est maintenu bien connu que les codes LDPC présentent un phénomène dit de ''plancher d'erreur'' en raison des échecs de décodage des algorithmes de décodage traditionnels du types propagation de croyances, et ce en dépit de leurs excellentes performances de décodage. Récemment, une nouvelle classe de décodeurs à faible complexité, appelés ''finite alphabet iterative decoders (FAIDs)'' ayant de meilleures performances dans la zone de plancher d'erreur, a été proposée. Dans ce manuscrit nous nous concentrons sur le problème de la sélection de bons décodeurs FAID pour le cas de codes LDPC ayant un poids colonne de 3 et le cas du canal binaire symétrique. Les méthodes traditionnelles pour la sélection des décodeurs s'appuient sur des techniques asymptotiques telles que l'évolution de densité, mais qui ne garantit en rien de bonnes performances sur un code de longueurs finies surtout dans la région de plancher d'erreur. C'est pourquoi nous proposons ici une méthode de sélection qui se base sur la connaissance des topologies néfastes au décodage pouvant être présente dans un code en utilisant le concept de ''trapping sets bruités''. Des résultats de simulation sur différents codes montrent que les décodeurs FAID sélectionnés grâce à cette méthode présentent de meilleures performance dans la zone de plancher d'erreur comparé au décodeur à propagation de croyances.Dans un second temps, nous traitons le sujet des algorithmes de reconstruction itératifs pour le compressed sensing. Des algorithmes itératifs ont été proposés pour ce domaine afin de réduire la complexité induite de la reconstruction par ''linear programming''. Dans cette thèse nous avons modifié et analysé un algorithme de reconstruction à faible complexité dénommé IPA utilisant les matrices creuses comme matrices de mesures. Parallèlement aux travaux réalisés dans la littérature dans la théorie du codage, nous analysons les échecs de reconstruction de l'IPA et établissons le lien entre les ''stopping sets'' de la représentation binaire des matrices de mesure creuses. Les performances de l'IPA en font un bon compromis entre la complexité de la reconstruction sous contrainte de minimisation de la norme $ell_1$ et le très simple algorithme dit de vérification.
APA, Harvard, Vancouver, ISO, and other styles
42

Lagarde, Matthieu, Philippe Gaussier, and Pierre Andry. "Apprentissage de nouveaux comportements: vers le développement épigénétique d'un robot autonome." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00749761.

Full text
Abstract:
La problématique de l'apprentissage de comportements sur un robot autonome soulève de nombreuses questions liées au contrôle moteur, à l'encodage du comportement, aux stratégies comportementales et à la sélection de l'action. Utiliser une approche développementale présente un intérêt tout particulier dans le cadre de la robotique autonome. Le comportement du robot repose sur des mécanismes de bas niveau dont les interactions permettent de faire émerger des comportements plus complexes. Le robot ne possède pas d'informations a priori sur ses caractéristiques physiques ou sur l'environnement, il doit apprendre sa propre dynamique sensori-motrice. J'ai débuté ma thèse par l'étude d'un modèle d'imitation bas niveau. Du point de vue du développement, l'imitation est présente dès la naissance et accompagne, sous de multiples formes, le développement du jeune enfant. Elle présente une fonction d'apprentissage et se révèle alors être un atout en terme de temps d'acquisition de comportements, ainsi qu'une fonction de communication participant à l'amorce et au maintien d'interactions non verbales et naturelles. De plus, même s'il n'y a pas de réelle intention d'imiter, l'observation d'un autre agent permet d'extraire suffisamment d'informations pour être capable de reproduire la tâche. Mon travail a donc dans un premier temps consisté à appliquer et tester un modèle développemental qui permet l'émergence de comportements d'imitation de bas niveau sur un robot autonome. Ce modèle est construit comme un homéostat qui tend à équilibrer par l'action ses informations perceptives frustres (détection du mouvement, détection de couleur, informations sur les angles des articulations d'un bras de robot). Ainsi, lorsqu'un humain bouge sa main dans le champ visuel du robot, l'ambigüité de la perception de ce dernier lui fait confondre la main de l'humain avec l'extrémité de son bras. De l'erreur qui en résulte émerge un comportement d'imitation immédiate des gestes de l'humain par action de l'homéostat. Bien sûr, un tel modèle implique que le robot soit capable d'associer au préalable les positions visuelles de son effecteur avec les informations proprioceptives de ses moteurs. Grace au comportement d'imitation, le robot réalise des mouvements qu'il peut ensuite apprendre pour construire des comportements plus complexes. Comment alors passer d'un simple mouvement à un geste plus complexe pouvant impliquer un objet ou un lieu ? Je propose une architecture qui permet à un robot d'apprendre un comportement sous forme de séquences temporelles complexes (avec répétition d'éléments) de mouvements. Deux modèles différents permettant l'apprentissage de séquences ont été développés et testés. Le premier apprend en ligne le timing de séquences temporelles simples. Ce modèle ne permettant pas d'apprendre des séquences complexes, le second modèle testé repose sur les propriétés d'un réservoir de dynamiques, il apprend en ligne des séquences complexes. A l'issue de ces travaux, une architecture apprenant le timing d'une séquence complexe a été proposée. Les tests en simulation et sur robot ont montré la nécessité d'ajouter un mécanisme de resynchronisation permettant de retrouver les bons états cachés pour permettre d'amorcer une séquence complexe par un état intermédiaire. Dans un troisième temps, mes travaux ont consisté à étudier comment deux stratégies sensorimotrices peuvent cohabiter dans le cadre d'une tâche de navigation. La première stratégie encode le comportement à partir d'informations spatiales alors que la seconde utilise des informations temporelles. Les deux architectures ont été testées indépendamment sur une même tâche. Ces deux stratégies ont ensuite été fusionnées et exécutées en parallèle. La fusion des réponses délivrées par les deux stratégies a été réalisée avec l'utilisation de champs de neurones dynamiques. Un mécanisme de "chunking" représentant l'état instantané du robot (le lieu courant avec l'action courante) permet de resynchroniser les dynamiques des séquences temporelles. En parallèle, un certain nombre de problème de programmation et de conception des réseaux de neurones sont apparus. En effet, nos réseaux peuvent compter plusieurs centaines de milliers de neurones. Il devient alors difficile de les exécuter sur une seule unité de calcul. Comment concevoir des architectures neuronales avec des contraintes de répartition de calcul, de communications réseau et de temps réel ? Une autre partie de mon travail a consisté à apporter des outils permettant la modélisation, la communication et l'exécution en temps réel d'architecture distribuées. Pour finir, dans le cadre du projet européen Feelix Growing, j'ai également participé à l'intégration de mes travaux avec ceux du laboratoire LASA de l'EPFL pour l'apprentissage de comportements complexes mêlant la navigation, le geste et l'objet. En conclusion, cette thèse m'a permis de développer à la fois de nouveaux modèles pour l'apprentissage de comportements - dans le temps et dans l'espace, de nouveaux outils pour maîtriser des réseaux de neurones de très grande taille et de discuter à travers les limitations du système actuel, les éléments importants pour un système de sélection de l'action.
APA, Harvard, Vancouver, ISO, and other styles
43

Jaume, Bennasar Andrés. "Las nuevas tecnologías en la administración de justicia. La validez y eficacia del documento electrónico en sede procesal." Doctoral thesis, Universitat de les Illes Balears, 2009. http://hdl.handle.net/10803/9415.

Full text
Abstract:
La tesis se encarga de analizar, por un lado, la integración y el desarrollo de las nuevas tecnologías en la Administración de Justicia; y, por otro, los parámetros que constituyen la validez y eficacia del documento electrónico.
La primera cuestión se centra en la configuración de los Sistemas de Información de la Oficina Judicial y del Ministerio Fiscal, así como de la informatización de los Registros Civiles, donde el art. 230 LOPJ es la pieza clave. Se estudian sus programas, aplicaciones, la videoconferencia, los ficheros judiciales y las redes de telecomunicaciones que poseen la cobertura de la firma electrónica reconocida, donde cobran gran relevancia los convenios de colaboración tecnológica. La digitalización de las vistas quizá sea una de las cuestiones con más trascendencia, teniendo en cuenta que el juicio es el acto que culmina el proceso. Aunque no todos los proyectos adoptados en el ámbito de la e.justicia se han desarrollado de forma integral, ni han llegado a la totalidad de los órganos judiciales. El objetivo final es lograr una Justicia más ágil y de calidad, a lo cual aspira el Plan Estratégico de Modernización de la Justicia 2009-2012 aprobado recientemente.
En referencia a la segunda perspectiva, no cabe duda que el Ordenamiento jurídico y los tribunales, en el ámbito de la justicia material, otorgan plena validez y eficacia al documento electrónico. Nuestra línea de investigación se justifica porque cada vez son más los procesos que incorporan soportes electrónicos de todo tipo, ya sea al plantearse la acción o posteriormente como medio de prueba (art. 299.2 LEC). Entre otros temas examinamos el documento informático, la problemática que rodea al fax, los sistemas de videograbación y el contrato electrónico.
La tesi s'encarrega d'analitzar, per una part, la integració i el desenvolupament de les noves tecnologies dins l´Administració de Justícia; i, per l'altra, els paràmetres que constitueixen la validesa i l'eficàcia del document electrònic.
La primera qüestió es centra en la configuració dels Sistemes d´Informació de l´Oficina Judicial i del Ministeri Fiscal, així com de la informatització dels Registres Civils, on l'art. 230 LOPJ es la peça clau. S'estudien els seus programes, aplicacions, la videoconferència, el fitxers judicials i les xarxes de telecomunicacions que tenen la cobertura de la firma electrònica reconeguda, on cobren gran rellevància els convenis de col·laboració tecnològica. La digitalització de les vistes tal vegada sigui una de les qüestions amb més transcendència, tenint amb compte que el judici es l'acte que culmina el procés. Però no tots el projectes adoptats en l'àmbit de la e.justicia s'han desenvolupat d'una manera integral ni han arribat a la totalitat dels òrgans judicials. L'objectiu final es assolir una Justícia més àgil i de qualitat, al que aspira el Pla Estratègic de Modernització de la Justícia 2009-2012 aprovat recentment.
En referència a la segona perspectiva, no hi ha dubte que l´Ordenament jurídic i els tribunals, en l'àmbit de la justícia material, donen plena validesa i eficàcia al document electrònic. La nostra línia d'investigació es justifica perquè cada vegada son més el processos que incorporen suports electrònics de tot tipus, ja sigui quant es planteja l'acció o posteriorment como a medi de prova (art. 299.2 LEC). Entre altres temes examinem el document informàtic, la problemàtica que envolta al fax, els sistemes de videogravació i el contracte electrònic.
The thesis seeks to analyse, on the one hand, the integration and development of the new technologies in the Administration of Justice; and, on the other, the parameters which constitute the validity and efficiency of the electronic document.
The first question centres on the configuration of the Information Systems of the Judicial Office and the Public Prosecutor, as well as the computerisation of the Civil Registers, where the art. 230 LOPJ it's the part key. Their programmes, applications, the Video Conferencing, the judicial registers and the telecommunication networks which are covered by the recognised electronic signatures, are studied, where the agreements on technological collaboration gain great relevance. The digitalisation of evidence might perhaps be one of the questions with most consequence, bearing in mind that the judgment is the act by which the process is culminated. Although not all the projects adopted within the compass of e.justice have developed completely nor have reached all the judicial organs. The final objective is to achieve an agile, quality Justice, to which the recently approved Strategic Plan for the Modernisation of Justice aspires.
With reference to the second perspective, there is no doubt that the juridical Ordinance and the tribunals within the compass of material justice grant full validity and efficacy to the electronic document. Our line of investigation is justified because there are more and more processes which are sustained by electronic supports of all kinds, whether it be at the establishment of the action or later, as a proof of it (art. 299.2 LEC). Amongst other things, we examine the computerised document, the problems which surround the fax, the systems for video recording and the electronic contract.
APA, Harvard, Vancouver, ISO, and other styles
44

"Pruned convolutional codes and Viterbi decoding with the Levenshtein distance metric." Thesis, 2009. http://hdl.handle.net/10210/2154.

Full text
Abstract:
M.Ing.
In practical transmission or storage systems, the convolutional encoding and Viterbi decoding scheme is widely used to protect the data from substitution errors. Two independent insertion/deletion/substitution (IDS) error correcting designs, working on the convolutional encoder and the Viterbi decoder respectively, are shown in this thesis. The Levenshtein distance has previously been postulated to be a suitable branch comparison metric for the Viterbi algorithm on channels with not only substitution errors, but also insertion/deletion errors. However, to a large extent, this hypothesis has still to be investigated. In the first coding scheme, a modified Viterbi algorithm based on the Levenshtein distance metric is used as the decoding algorithm. Our experiments give evidence that the modified Viterbi algorithm with the Levenshtein distance metric is suitable as an applicable decoding algorithm for IDS channels. In the second coding scheme, a new type of convolutional code called the path-pruned convolutional code is introduced on the encoder side. By periodically deleting branches in a high rate convolutional code trellis diagram to create a specific insertion/deletion error correcting block codeword structure in the encoded sequence, we can obtain an encoding system to protect against insertion, deletion and substitution errors at the same time. Moreover, the path-pruned convolutional code is an ideal code to use for unequal error protection. Therefore, we also present an application of the rate-compatible path-pruned convolutional codes over IDS channels.
APA, Harvard, Vancouver, ISO, and other styles
45

Paluncic, Filip. "Multiple insertion/deletion correcting and detecting codes : structural analysis, constructions and applications." Thesis, 2012. http://hdl.handle.net/10210/5366.

Full text
Abstract:
D.Ing.
This thesis is dedicated to an analysis of fundamental topics and issues related to deterministic insertion/deletion correcting and detecting codes. The most important contributions in this respect are the construction of a multiple insertion/deletion correcting code for run-length limited sequences and the construction and applications of multiple deletion (insertion) detecting codes. It is shown how run-length constraints and higher order moments can be combined to create a code which is simultaneously multiple insertion/deletion error correcting and runlength constrained. A systematic form of this code is presented, whereby any arbitrary run-length constrained sequence can be made into a multiple insertion/deletion correcting codeword by adding a prefix. This prefix is appended to the run-length constrained sequence in such a way that the resulting codeword is itself run-length constrained. Furthermore, it is shown that, despite the run-length constraints, the resulting code is guaranteed to have a better asymptotic rate than the Helberg code, the only other known non-trivial deterministic multiple insertion/deletion correcting code. We consider insertion/deletion detecting codes and present a multiple deletion (insertion) detecting code. It is shown that this code, which is systematic, is optimal in the sense that there exists no other systematic multiple deletion (insertion) detecting code with a better rate. Furthermore, we present a number of applications of such codes. In addition, further related topics of interest are considered. Firstly, jitter as a fundamental cause of insertion/deletion errors is investigated and as a result a counterpart to the signal-to-noise ratio in the amplitude domain is proposed for the time domain. Secondly, motivated by the correspondence of Levenshtein and Varshamov-Tenengol’ts codes, we investigate the insertion/deletion correcting capability of the single asymmetric error correcting Constantin-Rao codes within a wider framework of asymmetric error correcting and insertion/deletion correcting code structure correspondences. Finally, we propose a generalisation of Tenengol’ts’ construction for multiple non-binary insertion/deletion correction.
APA, Harvard, Vancouver, ISO, and other styles
46

Yin, Yizhi. "Le codage distribué pour un réseau de capteurs sans-fil basé sur les turbo codes en bloc." Phd thesis, 2012. http://tel.archives-ouvertes.fr/tel-00777396.

Full text
Abstract:
Cette thèse étudie les performances d'un réseau de capteurs sans-fil coopératif, basé sur un codage réseau algébrique linéaire appliqué au relais. On considère un schéma coopératif basé sur le code produit en bloc où un grand nombre de sources transmettent des données indépendantes codées par un premier code en bloc vers un seul destinataire avec l'aide du relais. Dans ce schéma, le relais applique le codage réseau algébrique linéaire en utilisant un code correcteur d'erreur systématique linéaire en bloc sur les mots de code source détectés par le relais. Seule, la redondance générée par le relais est transférée vers le destinataire. Le destinataire observe un mot de code produit en bloc en combinant les observations des sources et du relais. Premièrement, on aborde la coopération en mode time-division multiple-access (TDMA) et suppose un canal source-relais bruité. On analyse les probabilités théoriques à l'entrée et à la sortie du relais pour différente stratégies de détection au relais. On établit aussi une borne théorique sur la probabilité d'erreur de trame pour le schéma coopératif proposé. Puis on évalue la coopération multi-relais afin de traiter la corrélation des erreurs dans la redondance générée par le relais. Différents configurations de coopération (mono ou multi-relais avec différentes stratégies au relais) sont comparées. On montre que la liaison source-relais est le maillon faible du réseau. On évalue ensuite la capacité du réseau sous la condition de taille finie du code. Ensuite, on étudie la coopération basée sur la technique code-division multiple-access (CDMA) appliqué au relais de telle sorte que le signal du relais est avec ceux des sources dans la même bande de fréquence radio. Pour simplifier l'analyse, on suppose un canal source-relais sans erreur. On propose une procédure de décodage itératif avec la neutralisation de l'interférence. On formule deux cas de coopération basé sur CDMA: TDMA-CDMA avec répartition orthogonale dans le temps entre les sources et FDMA-CDMA avec allocation de sous-bandes de fréquence disjointes pour les sources. Le ratio d'allocation d'énergie entre les sources et le relais est évalué en utilisant les simulations.
APA, Harvard, Vancouver, ISO, and other styles
47

Babalola, Oluwaseyi Paul. "Analysis of bounded distance decoding for Reed Solomon codes." Thesis, 2017. http://hdl.handle.net/10539/22964.

Full text
Abstract:
Masters Report A report submitted in ful llment of the requirements for the degree of Master of Science (50/50) in the Centre for Telecommunication Access and Services (CeTAS) School of Electrical and Information Engineering Faculty of Engineering and the Built Environment February 2017
Bounded distance decoding of Reed Solomon (RS) codes involves nding a unique codeword if there is at least one codeword within the given distance. A corrupted message having errors that is less than or equal to half the minimum distance cor- responds to a unique codeword, and therefore will decode errors correctly using the minimum distance decoder. However, increasing the decoding radius to be slightly higher than half of the minimum distance may result in multiple codewords within the Hamming sphere. The list decoding and syndrome extension methods provide a maximum error correcting capability whereby the radius of the Hamming ball can be extended for low rate RS codes. In this research, we study the probability of having unique codewords for (7; k) RS codes when the decoding radius is increased from the error correcting capability t to t + 1. Simulation results show a signi cant e ect of the code rates on the probability of having unique codewords. It also shows that the probability of having unique codeword for low rate codes is close to one.
MT2017
APA, Harvard, Vancouver, ISO, and other styles
48

Ogundile, Olanyika Olaolu. "Symbol level decoding of Reed-Solomon codes with improved reliability information over fading channels." Thesis, 2016. http://hdl.handle.net/10539/21060.

Full text
Abstract:
A thesis submitted to the Faculty of Engineering and the Built Environment, University of the Witwatersrand, Johannesburg, in fulfilment of the requirements for the degree of Doctor of Philosophy in the School of Electrical and Information Engineering, 2016
Reliable and e cient data transmission have been the subject of current research, most especially in realistic channels such as the Rayleigh fading channels. The focus of every new technique is to improve the transmission reliability and to increase the transmission capacity of the communication links for more information to be transmitted. Modulation schemes such as M-ary Quadrature Amplitude Modulation (M-QAM) and Orthogonal Frequency Division Multiplexing (OFDM) were developed to increase the transmission capacity of communication links without additional bandwidth expansion, and to reduce the design complexity of communication systems. On the contrary, due to the varying nature of communication channels, the message transmission reliability is subjected to a couple of factors. These factors include the channel estimation techniques and Forward Error Correction schemes (FEC) used in improving the message reliability. Innumerable channel estimation techniques have been proposed independently, and in combination with di erent FEC schemes in order to improve the message reliability. The emphasis have been to improve the channel estimation performance, bandwidth and power consumption, and the implementation time complexity of the estimation techniques. Of particular interest, FEC schemes such as Reed-Solomon (RS) codes, Turbo codes, Low Density Parity Check (LDPC) codes, Hamming codes, and Permutation codes, are proposed to improve the message transmission reliability of communication links. Turbo and LDPC codes have been used extensively to combat the varying nature of communication channels, most especially in joint iterative channel estimation and decoding receiver structures. In this thesis, attention is focused on using RS codes to improve the message reliability of a communication link because RS codes have good capability of correcting random and burst errors, and are useful in di erent wireless applications. This study concentrates on symbol level soft decision decoding of RS codes. In this regards, a novel symbol level iterative soft decision decoder for RS codes based on parity-check equations is developed. This Parity-check matrix Transformation Algorithm (PTA) is based on the soft reliability information derived from the channel output in order to perform syndrome checks in an iterative process. Performance analysis verify that this developed PTA outperforms the conventional RS hard decision decoding algorithms and the symbol level Koetter and Vardy (KV ) RS soft decision decoding algorithm. In addition, this thesis develops an improved Distance Metric (DM) method of deriving reliability information over Rayleigh fading channels for combined demodulation with symbol level RS soft decision decoding algorithms. The newly proposed DM method incorporates the channel state information in deriving the soft reliability information over Rayleigh fading channels. Analysis verify that this developed metric enhances the performance of symbol level RS soft decision decoders in comparison with the conventional method. Although, in this thesis, the performance of the developed DM method of deriving soft reliability information over Rayleigh fading channels is only veri ed for symbol level RS soft decision decoders, it is applicable to any symbol level soft decision decoding FEC scheme. Besides, the performance of the all FEC decoding schemes plummet as a result of the Rayleigh fading channels. This engender the development of joint iterative channel estimation and decoding receiver structures in order to improve the message reliability, most especially with Turbo and LDPC codes as the FEC schemes. As such, this thesis develops the rst joint iterative channel estimation and Reed- Solomon decoding receiver structure. Essentially, the joint iterative channel estimation and RS decoding receiver is developed based on the existing symbol level soft decision KV algorithm. Consequently, the joint iterative channel estimation and RS decoding receiver is extended to the developed RS parity-check matrix transformation algorithm. The PTA provides design ease and exibility, and lesser computational time complexity in an iterative receiver structure in comparison with the KV algorithm. Generally, the ndings of this thesis are relevant in improving the message transmission reliability of a communication link with RS codes. For instance, it is pertinent to numerous data transmission technologies such as Digital Audio Broadcasting (DAB), Digital Video Broadcasting (DVB), Digital Subscriber Line (DSL), WiMAX, and long distance satellite communications. Equally, the developed, less computationally intensive, and performance e cient symbol level decoding algorithm for RS codes can be use in consumer technologies like compact disc and digital versatile disc.
GS2016
APA, Harvard, Vancouver, ISO, and other styles
49

Zibull, Marco. "A Fine-Grain Scalable and Channel-Adaptive Hybrid Speech Coding Scheme for Voice over Wireless IP." Doctoral thesis, 2006. http://hdl.handle.net/11858/00-1735-0000-0006-B386-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

KAMARY, ALIABADI Behrooz. "Réseaux de neurones et acquisition de l'information parcimonieuse." Phd thesis, 2013. http://tel.archives-ouvertes.fr/tel-00962603.

Full text
Abstract:
This thesis studies a neural network inspired by human neocortex. An extension of the recurrent and binary network proposed by Gripon and Berrou is given to store sparse messages. In this new version of the neural network, information is borne by graphical codewords (cliques) that use a fraction of the network available resources. These codewords can have different sizes that carry variable length information. We have examined this concept and computed the capacity limits on erasure correction as a function of error rate. These limits are compared with simulation results that are obtained from different experiment setups. We have finally studied the network under the formalism of information theory and established a connection between compressed sensing and the proposed network.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography