Siga este link para ver outros tipos de publicações sobre o tema: Représentation par codage 2D.

Teses / dissertações sobre o tema "Représentation par codage 2D"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 20 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Représentation par codage 2D".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Abidi, Azza. "Investigating Deep Learning and Image-Encoded Time Series Approaches for Multi-Scale Remote Sensing Analysis in the context of Land Use/Land Cover Mapping". Electronic Thesis or Diss., Université de Montpellier (2022-....), 2024. http://www.theses.fr/2024UMONS007.

Texto completo da fonte
Resumo:
Cette thèse explore le potentiel de l'apprentissage automatique pour améliorer la cartographie de modèles complexes d'utilisation des sols et de la couverture terrestre à l'aide de données d'observation de la Terre. Traditionnellement, les méthodes de cartographie reposent sur la classification et l'interprétation manuelles des images satellites, qui sont sujettes à l'erreur humaine. Cependant, l'application de l'apprentissage automatique, en particulier par le biais des réseaux neuronaux, a automatisé et amélioré le processus de classification, ce qui a permis d'obtenir des résultats plus objectifs et plus précis. En outre, l'intégration de données de séries temporelles d'images satellitaires (STIS) ajoute une dimension temporelle aux informations spatiales, offrant une vue dynamique de la surface de la Terre au fil du temps. Ces informations temporelles sont essentielles pour une classification précise et une prise de décision éclairée dans diverses applications. Les informations d'utilisation des sols et de la couverture terrestre précises et actuelles dérivées des données STIS sont essentielles pour guider les initiatives de développement durable, la gestion des ressources et l'atténuation des risques environnementaux. Le processus de cartographie de d'utilisation des sols et de la couverture terrestre à l'aide du l'apprentissage automatique implique la collecte de données, le prétraitement, l'extraction de caractéristiques et la classification à l'aide de divers algorithmes l'apprentissage automatique . Deux stratégies principales de classification des données STIS ont été proposées : l'approche au niveau du pixel et l'approche basée sur l'objet. Bien que ces deux approches se soient révélées efficaces, elles posent également des problèmes, tels que l'incapacité à capturer les informations contextuelles dans les approches basées sur les pixels et la complexité de la segmentation dans les approches basées sur les objets.Pour relever ces défis, cette thèse vise à mettre en œuvre une métho basée sur des informations multi-échelles pour effectuer la classification de l'utilisation des terres et de la couverture terrestre, en couplant les informations spectrales et temporelles par le biais d'une méthodologie combinée pixel-objet et en appliquant une approche méthodologique pour représenter efficacement les données multi-variées SITS dans le but de réutiliser la grande quantité d'avancées de la recherche proposées dans le domaine de la vision par ordinateur
In this thesis, the potential of machine learning (ML) in enhancing the mapping of complex Land Use and Land Cover (LULC) patterns using Earth Observation data is explored. Traditionally, mapping methods relied on manual and time-consuming classification and interpretation of satellite images, which are susceptible to human error. However, the application of ML, particularly through neural networks, has automated and improved the classification process, resulting in more objective and accurate results. Additionally, the integration of Satellite Image Time Series(SITS) data adds a temporal dimension to spatial information, offering a dynamic view of the Earth's surface over time. This temporal information is crucial for accurate classification and informed decision-making in various applications. The precise and current LULC information derived from SITS data is essential for guiding sustainable development initiatives, resource management, and mitigating environmental risks. The LULC mapping process using ML involves data collection, preprocessing, feature extraction, and classification using various ML algorithms. Two main classification strategies for SITS data have been proposed: pixel-level and object-based approaches. While both approaches have shown effectiveness, they also pose challenges, such as the inability to capture contextual information in pixel-based approaches and the complexity of segmentation in object-based approaches.To address these challenges, this thesis aims to implement a method based on multi-scale information to perform LULC classification, coupling spectral and temporal information through a combined pixel-object methodology and applying a methodological approach to efficiently represent multivariate SITS data with the aim of reusing the large amount of research advances proposed in the field of computer vision
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Cammas, Nathalie. "Codage vidéo scalable par maillages et ondelettes t+2D". Rennes 1, 2004. https://hal.archives-ouvertes.fr/tel-01131881.

Texto completo da fonte
Resumo:
Cette thèse s'incrit dans le cadre de la transmission de données vidéo sur réseaux. L'objectif de notre étude est d'étudier des technologies innovantes permettant d'offrir un codage vidéo hautement scalable et compétitif en terme de compression avec les standards de codage vidéo actuels non scalables. Pour cela, nous utilisons un schéma de codage vidéo basé sur une approche analyse-synthèse qui utilise une représentation du mouvement par maillages et un codage par ondelettes t+2D. La première partie de notre étude s'intéresse à l'exploitation du mouvement dans la transformée en ondelettes temporelles et à la définition des trajectoires de mouvement le long desquelles est appliquée la transformation temporelle. La deuxième partie de notre étude propose une amélioration de ce schéma en gérant le problème des occlusions engendrés par les discontinuités du mouvement.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Jeannic, Guillaume. "Représentation structurelle d'images par transformées locales en ondelettes orientées et codage". Phd thesis, Nantes, 2008. https://archive.bu.univ-nantes.fr/pollux/show/show?id=73adf8b7-d231-4673-be83-a6b623869d4c.

Texto completo da fonte
Resumo:
Dans un contexte de compression d’images fixes, de nouvelles représentations implantées par des techniques de redressement (lifting) orienté ont été imaginées. Pour ce travail de thèse, trois variantes de ces transformées sont évaluées comparativement selon un critère de minimisation de l’énergie des hautes fréquences reconstruites et selon la direction de régularité locale. Cette direction de régularité est estimée par des approches basées extraction de contours ou minimisation d’une fonction de coût. Les deux approches proposées permettent de plus une classification de l’activité directionnelle des blocs de l’image. Ces représentations des caractéristiques géométriques de l’image utilisées pour guider le filtrage en ondelettes orientées, est codé pour être transmis au décodeur. Les coûts de ces différentes représentations sont comparés. Finalement une quantification adaptée est proposée pour tenir compte à la fois des différentes classes structurelles et de l’anisotropie de la représentation
In the context of still image compression, some new représentation implemented with oriented lifting schemes has been conceived. For this thesis, three implementations of these transforms have been benchmarked upon a criteria considering the minimization of the high frequencies along the local direction of regularity. This orientation is estimated via edge extraction or minimization of a cost function. Both approaches lead to the classification of the directional activity of the image blocks. Those representations of the geometrical features that drive the oriented filtering process are coded in order to be transmitted to the decoder. The coding cost of these representations is compared. Finally an adaptive quantization is proposed to take into account the structural classes and the anisotropy of the representation
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Jeannic, Guillaume. "Représentation structurelle d'images par transformées locales en ondelettes orientées et codage". Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00350555.

Texto completo da fonte
Resumo:
Dans un contexte de compression d'images fixes, de nouvelles représentations implantées par des techniques de redressement (lifting) orienté ont été imaginées. Pour ce travail de thèse, trois variantes de ces transformées sont évaluées comparativement selon un critère de minimisation de l'énergie des hautes fréquences reconstruites et selon la direction de régularité locale. Cette direction de régularité est estimée par des approches basées extraction de contours ou minimisation d'une fonction de coût. Les deux approches proposées permettent de plus une classification de l'activité directionnelle des blocs de l'image. Ces représentations des caractéristiques géométriques de l'image utilisées pour guider le filtrage en ondelettes orientées, est codé pour être transmis au décodeur. Les coûts de ces différentes représentations sont comparés. Finalement une quantification adaptée est proposée pour tenir compte à la fois des différentes classes structurelles et de l'anisotropie de la représentation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Damiand, Guillaume. "Définition et étude d'un modèle topologique minimal de représentation d'images 2d et 3d". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2001. http://tel.archives-ouvertes.fr/tel-00211340.

Texto completo da fonte
Resumo:
Dans cette thèse, nous définissons et étudions un modèle topologique de représentation d'images segmentées en 2 et 3 dimensions : la carte topologique. La définition d'un tel modèle est primordiale afin de définir des algorithmes de segmentation efficaces. Ce problème a été beaucoup étudié en dimension 2, mais les solutions proposées sont difficilement extensibles en dimension 3.

Pour répondre à ce problème, nous définissons d'abord la carte topologique en dimension 2 en ayant comme préoccupation principale son extension en dimension supérieure. Nous introduisons une notion de niveau de simplification qui permet une définition progressive, chaque niveau s'obtenant simplement à partir du niveau précédent par application d'un type particulier de fusion. Cette notion permet de simplifier la définition de la carte topologique qui correspond au dernier niveau. Ces niveaux de simplification s'étendent sans difficulté majeure en dimension 3, et en dimension n. Ils facilitent également l'étude de la carte topologique et la preuve de ses propriétés. Ce modèle est en effet minimal, complet, invariant par rotation, translation et homothétie, et unique.

Nous présentons des algorithmes d'extraction permettant de construire ce modèle à partir d'images segmentées. Un premier algorithme << naïf >> effectue plusieurs passes sur l'image et n'est pas linéaire en dimension 3. Nous étudions ensuite un algorithme optimal d'extraction, basé sur la notion de précode, effectuant un seul balayage de l'image et un nombre minimal d'opérations. Les niveaux de simplification permettent de regrouper les nombreux cas à traiter, en étudiant pour chaque niveau les cas supplémentaires par rapport au niveau précédent.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Robert-Demolaize, Guillaume. "Représentation et codage de séquences vidéo par hybridation de fractales et d'éléments finis". Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10253.

Texto completo da fonte
Resumo:
Ces travaux de these ont abouti a la realisation d'une chaine de codage - decodage de videos numeriques couleurs, specialement performante a bas debit et rivalisant meme avec les codecs mpeg4. Ces travaux se decomposent en trois parties. La premiere partie de cette these concerne le codage d'images fixes couleurs fonde sur une technique hierarchique hybride ifs-elements finis. Les elements finis triangulaires hierarchiques, particulierement efficaces pour l'approximation des basses frequences des images ont ete completes par un modele residuel base ifs, afin de realiser une bonne approximation des zones texturees. A ce titre, differents aspects des fonctions de collage ont ete etudies de facon a enrichir et accelerer les recherches de similarites : etude de differentes partitions, extension du domaine de recherche des collages, recherche des collages par descente de gradient, rotations libres, definition d'une nouvelle famille de fonctions massique baptisee ifs harmoniques. Puis une etude statistique des parametres du modele hybride ifs-ef ainsi cree a ete menee, de maniere a en optimiser la quantification et la transmission, en tirant parti des proprietes de la repartition multi-resolutions des informations photometriques au sein de la hierarchie de maillages. La deuxieme partie de cette these s'interesse au suivi et a la compensation de mouvement, egalement fonde sur une hierarchie de maillages emboites. L'existence de travaux precedents nous a permis de focaliser notre attention sur les problemes de robustesse, d'economie de transmission, de gestion de tassement et de decouvrement de mailles. Ces problemes de fuite du maillage par travelling ont ete abordes en gerant l'entree et la sortie de nouvelles mailles au moyen d'un maillage etendu. Pour pallier le probleme des occlusions, plusieurs criteres ont ete implementes afin de garantir une degenerescence minimale et une correction du maillage en presence de zones pathologiques. La transmission du mouvement a ete optimisee en regard de ces nouvelles fonctionnalites, de facon a tenir compte des corrections apportees aux vecteurs de mouvement. Finalement, la troisieme partie traite de la jonction du codeur intra et de l'estimateur de mouvement afin de realiser la conception d'un nouveau type de codeur video. Enfin pour repondre aux exigences d'une transmission a bas debit, la possibilite de gerer des frames bidirectionnelles a ete integree a la chaine de codage. Cependant une derogation au schema classique ibp, autorisant l'apparition de zones intra au sein d'une frame inter, permet la reapproximation des zones de decouvrement et d'occlusions a moindre cout. Nous concluons ces travaux sur une etude comparative des performances de notre codeur avec un vm mpeg4 realise au sein de mon urd d'accueil. Cependant a la lumiere des resultats prometteurs, l'etude de certains aspects apparait neanmoins necessaire. On peut notamment mentionner l'interet d'utiliser un critere plus souple de controle du debit, la necessite d'encoder les erreurs de prediction de mouvement, et la mise en uvre d'un encodage scalable du flux video.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Mauris, Gilles. "Capteurs ultrasonores intelligents : application à la représentation symbolique de mesures de distance par codage flou". Chambéry, 1992. http://www.theses.fr/1992CHAMS007.

Texto completo da fonte
Resumo:
Les travaux présentés dans ce mémoire concernent l'étude et la réalisation de télémètres ultrasonores intelligents pour la mesure numérique et/ou symbolique de distance dans un contexte robotique. Le premier chapitre passe en revue les différentes techniques de mesure de distance et décrit les dispositifs ultrasonores employés en robotique. Le chapitre II est consacré à une étude théorique détaillée du procédé classique à impulsions et d'un procédé original en ultrasons basé sur une émission en modulation de fréquence. Le chapitre suivant traite du couplage de la connaissance de l'analyse du signal et de la connaissance humaine par l'intermédiaire d'un capteur symbolique qui réalise la conversion numérique-symbolique. Le mécanisme présenté a pour support la théorie ses sous-ensembles flous et prend en compte non seulement les incertitudes du langage, mais aussi les performances du capteur. La description des deux prototypes, ainsi que quelques expérimentations, mettant en évidence l'approche proposée, font l'objet du chapitre IV. Le mémoire est conclu par l'apport des travaux présentés et sur les améliorations à envisager pour faire de nouveaux pas vers une perception anthropomorphique de l'environnement
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Giannakis, Mélina. "Construction et représentation spatiale de l'interactivité numérique par manipulation d'informations 2D et 3D". Master's thesis, Université Laval, 2001. http://hdl.handle.net/20.500.11794/34436.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Bui, ngoc Hai. "Modélisation µPEEC : représentation des matériaux magnétiques par des courants de surface. Application aux noyaux ferrites 2D". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00737995.

Texto completo da fonte
Resumo:
Le but de cette thèse est donc de mettre en œuvre la méthode µPEEC pour évaluer, sans avoir recours à des simulations ni à des mesures, la réluctance de circuits magnétiques simples en 2D et ce, afin de prédire leur comportement électromagnétique dès les phases de conception. Cela revient à chercher le champ créé par un brin conducteur rectiligne placé dans une fenêtre ronde ou rectangulaire de circuit magnétique comportant ou non un entrefer. Cette étude s'inscrit dans le cadre d'une recherche plus vaste, visant à élaborer le circuit équivalent de transformateurs, avant la réalisation de prototypes, afin d'optimiser ces composants au sein de leurs applications. Avant d'atteindre ce but, différentes étapes ont été franchies progressivement, en s'aidant de solutions analytiques et de simulations par éléments finis pour valider nos approches.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Bui, Bgoc Hai. "Modélisation µPEEC : représentation des matériaux magnétiques par des courants de surface. Application aux noyaux ferrites 2D". Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT007/document.

Texto completo da fonte
Resumo:
Le but de cette thèse est donc de mettre en œuvre la méthode µPEEC pour évaluer, sans avoir recours à des simulations ni à des mesures, la réluctance de circuits magnétiques simples en 2D et ce, afin de prédire leur comportement électromagnétique dès les phases de conception. Cela revient à chercher le champ créé par un brin conducteur rectiligne placé dans une fenêtre ronde ou rectangulaire de circuit magnétique comportant ou non un entrefer. Cette étude s'inscrit dans le cadre d'une recherche plus vaste, visant à élaborer le circuit équivalent de transformateurs, avant la réalisation de prototypes, afin d'optimiser ces composants au sein de leurs applications. Avant d'atteindre ce but, différentes étapes ont été franchies progressivement, en s'aidant de solutions analytiques et de simulations par éléments finis pour valider nos approches
The aim of this thesis is to implement the method μPEEC to assess, without using simulations or measurements, the reluctance of magnetic circuits and simple 2D to predict their behavior from electromagnetic design phases . It's just asking the field created by a blade straight conductor placed in a round window or rectangular magnetic circuit with or without an air gap. This study is part of a larger research aimed at developing the equivalent circuit of transformers, before prototyping to optimize these components in their applications. Before reaching this goal, several steps were taken gradually, with the help of analytical solutions and finite element simulations to validate our approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Calemme, Marco. "Codage de carte de profondeur par déformation de courbes élastiques". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0048/document.

Texto completo da fonte
Resumo:
Dans le format multiple-view video plus depth, les cartes de profondeur peuvent être représentées comme des images en niveaux de gris et la séquence temporelle correspondante peut être considérée comme une séquence vidéo standard en niveaux de gris. Cependant les cartes de profondeur ont des propriétés différentes des images naturelles: ils présentent de grandes surfaces lisses séparées par des arêtes vives. On peut dire que l'information la plus importante réside dans les contours de l'objet, en conséquence une approche intéressante consiste à effectuer un codage sans perte de la carte de contour, éventuellement suivie d'un codage lossy des valeurs de profondeur par-objet. Dans ce contexte, nous proposons une nouvelle technique pour le codage sans perte des contours de l'objet, basée sur la déformation élastique des courbes. Une évolution continue des déformations élastiques peut être modélisée entre deux courbes de référence, et une version du contour déformée élastiquement peut être envoyée au décodeur avec un coût de codage très faible et utilisé comme information latérale pour améliorer le codage sans perte du contour réel. Après que les principales discontinuités ont été capturées par la description du contour, la profondeur à l'intérieur de chaque région est assez lisse. Nous avons proposé et testé deux techniques différentes pour le codage du champ de profondeur à l'intérieur de chaque région. La première technique utilise la version adaptative à la forme de la transformation en ondelette, suivie par la version adaptative à la forme de SPIHT. La seconde technique effectue une prédiction du champ de profondeur à partir de sa version sous-échantillonnée et l'ensemble des contours codés. Il est généralement reconnu qu'un rendu de haute qualité au récepteur pour un nouveau point de vue est possible qu’avec la préservation de l'information de contour, car des distorsions sur les bords lors de l'étape de codage entraînerait une dégradation évidente sur la vue synthétisée et sur la perception 3D. Nous avons étudié cette affirmation en effectuant un test d'évaluation de la qualité perçue en comparant, pour le codage des cartes de profondeur, une technique basée sur la compression d'objects et une techniques de codage vidéo hybride à blocs
In multiple-view video plus depth, depth maps can be represented by means of grayscale images and the corresponding temporal sequence can be thought as a standard grayscale video sequence. However depth maps have different properties from natural images: they present large areas of smooth surfaces separated by sharp edges. Arguably the most important information lies in object contours, as a consequence an interesting approach consists in performing a lossless coding of the contour map, possibly followed by a lossy coding of per-object depth values. In this context, we propose a new technique for the lossless coding of object contours, based on the elastic deformation of curves. A continuous evolution of elastic deformations between two reference contour curves can be modelled, and an elastically deformed version of the reference contours can be sent to the decoder with an extremely small coding cost and used as side information to improve the lossless coding of the actual contour. After the main discontinuities have been captured by the contour description, the depth field inside each region is rather smooth. We proposed and tested two different techniques for the coding of the depth field inside each region. The first technique performs the shape-adaptive wavelet transform followed by the shape-adaptive version of SPIHT. The second technique performs a prediction of the depth field from its subsampled version and the set of coded contours. It is generally recognized that a high quality view rendering at the receiver side is possible only by preserving the contour information, since distortions on edges during the encoding step would cause a sensible degradation on the synthesized view and on the 3D perception. We investigated this claim by conducting a subjective quality assessment test to compare an object-based technique and a hybrid block-based techniques for the coding of depth maps
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Gibet, Sylvie. "Codage, représentation et traitement du geste instrumental : application à la synthèse de sons musicaux par simulation de mécanismes instrumentaux". Grenoble INPG, 1987. http://www.theses.fr/1987INPG0142.

Texto completo da fonte
Resumo:
Une analyse preliminaire sur la typologie du geste instrumental a conduit a proposer un codage du geste qui traduit une organisation spatiale et temporelle des donnees gestuelles captees. Un systeme materiel et logiciel permettant la capture, le codage et le pretraitement en temps reel des signaux gestuels est propose. Recherche d'un espace de representation structurelle du geste. Proposition d'une methode qui consiste a identifier le comportement de l'operateur a un modele mecanique simple mais evolutif
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Calemme, Marco. "Codage de carte de profondeur par déformation de courbes élastiques". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0048.

Texto completo da fonte
Resumo:
Dans le format multiple-view video plus depth, les cartes de profondeur peuvent être représentées comme des images en niveaux de gris et la séquence temporelle correspondante peut être considérée comme une séquence vidéo standard en niveaux de gris. Cependant les cartes de profondeur ont des propriétés différentes des images naturelles: ils présentent de grandes surfaces lisses séparées par des arêtes vives. On peut dire que l'information la plus importante réside dans les contours de l'objet, en conséquence une approche intéressante consiste à effectuer un codage sans perte de la carte de contour, éventuellement suivie d'un codage lossy des valeurs de profondeur par-objet. Dans ce contexte, nous proposons une nouvelle technique pour le codage sans perte des contours de l'objet, basée sur la déformation élastique des courbes. Une évolution continue des déformations élastiques peut être modélisée entre deux courbes de référence, et une version du contour déformée élastiquement peut être envoyée au décodeur avec un coût de codage très faible et utilisé comme information latérale pour améliorer le codage sans perte du contour réel. Après que les principales discontinuités ont été capturées par la description du contour, la profondeur à l'intérieur de chaque région est assez lisse. Nous avons proposé et testé deux techniques différentes pour le codage du champ de profondeur à l'intérieur de chaque région. La première technique utilise la version adaptative à la forme de la transformation en ondelette, suivie par la version adaptative à la forme de SPIHT. La seconde technique effectue une prédiction du champ de profondeur à partir de sa version sous-échantillonnée et l'ensemble des contours codés. Il est généralement reconnu qu'un rendu de haute qualité au récepteur pour un nouveau point de vue est possible qu’avec la préservation de l'information de contour, car des distorsions sur les bords lors de l'étape de codage entraînerait une dégradation évidente sur la vue synthétisée et sur la perception 3D. Nous avons étudié cette affirmation en effectuant un test d'évaluation de la qualité perçue en comparant, pour le codage des cartes de profondeur, une technique basée sur la compression d'objects et une techniques de codage vidéo hybride à blocs
In multiple-view video plus depth, depth maps can be represented by means of grayscale images and the corresponding temporal sequence can be thought as a standard grayscale video sequence. However depth maps have different properties from natural images: they present large areas of smooth surfaces separated by sharp edges. Arguably the most important information lies in object contours, as a consequence an interesting approach consists in performing a lossless coding of the contour map, possibly followed by a lossy coding of per-object depth values. In this context, we propose a new technique for the lossless coding of object contours, based on the elastic deformation of curves. A continuous evolution of elastic deformations between two reference contour curves can be modelled, and an elastically deformed version of the reference contours can be sent to the decoder with an extremely small coding cost and used as side information to improve the lossless coding of the actual contour. After the main discontinuities have been captured by the contour description, the depth field inside each region is rather smooth. We proposed and tested two different techniques for the coding of the depth field inside each region. The first technique performs the shape-adaptive wavelet transform followed by the shape-adaptive version of SPIHT. The second technique performs a prediction of the depth field from its subsampled version and the set of coded contours. It is generally recognized that a high quality view rendering at the receiver side is possible only by preserving the contour information, since distortions on edges during the encoding step would cause a sensible degradation on the synthesized view and on the 3D perception. We investigated this claim by conducting a subjective quality assessment test to compare an object-based technique and a hybrid block-based techniques for the coding of depth maps
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Morelle, Mikaël. "Codage en 2 Dimensions pour les systèmes de communications Optiques CDMA (OCDMA) : application aux transmissions multimédia". Limoges, 2008. https://aurore.unilim.fr/theses/nxfile/default/ea319df9-7cfa-4973-8a4d-1416f7d6872b/blobholder:0/2008LIMO4012.pdf.

Texto completo da fonte
Resumo:
La technique d’accès multiple par répartition de code (CDMA) permet à plusieurs utilisateurs de communiquer simultanément et de manière asynchrone sur une ressource commune. Cette technique basée sur l’attribution d’une séquence de code spécifique à chaque utilisateur est envisagée dans les futurs réseaux optiques (OCDMA). Le codage utilisé est un point clé qui peut être considéré soit en une dimension (1D), soit en deux dimensions (2D). Les travaux menés portent sur la génération de codes en 2D pour les systèmes OCDMA incohérents, ces codes sont appelés Multi-Wavelength Optical Orthogonal Code (MWOOC). Pour permettre une communication multi-utilisateurs simultanée à haut débit pour une performance donnée, les performances théoriques sont développées pour différentes structures de réception. Dans le contexte des futurs réseaux, une diversité de services doit également être proposée. Pour cela, nous partitionnons les codes 2D construits afin de différencier la qualité de service. Nous proposons d’attribuer plusieurs codes par utilisateurs afin d’obtenir plusieurs débits (technique du parallel mapping). L’étude des potentialités de cette technique montre que la méthode développée présente une grande flexibilité pour de futures applications multimédia dans les réseaux d’accès optiques
The Code Division Multiple Access (CDMA) technique permits several users communicating simultaneously and asynchronously on a common resource. This technique consists in the allocation of a specific and distinct code signature to each user. For several decades, this has been studied to provide access in optical systems (Optical CDMA or OCDMA). The used coding is a key element which can either be in one dimension (1D) or in two dimensions (2D). The work undertaken in this thesis concerns 2D coding for incoherent OCDMA systems. The objective is to enable a high number of users simultaneously communicating at high data rate for a given performance. In this context, we proposed in this report a 2D code family construction named Multi-Wavelength Optical Orthogonal Codes (MWOOC) and we investigated various receiver structures to evaluate its performance. Future access networks are also expected to provide diversity of services. From the proposed 2D MWOOC coding, a methodology based on the code partitioning is developed in order to carry out quality of service (or Binary Error Rate BER) differentiation. The data rate differentiation is performed by allocating several codes to each user (parallel mapping). Then, the performance analysis is theoretically established in terms of data rate and quality of service. We show that the developed method yields a high flexibility for future multimedia applications in optical access networks
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Montanvert, Annick. "Contribution au traitement de formes discrètes : squelettes et codage par graphe de la ligne médiane". Phd thesis, Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00325209.

Texto completo da fonte
Resumo:
Étude des moyens de description et de manipulation des objets contenus dans des images binaires discrètes. Le calcul d'une ligne médiane, puis d'un graphe de la ligne médiane, aboutit a la représentation hiérarchisée de l'axe médian qui induit une analyse structurée de l'objet original. Différents procédés de manipulation de formes sont proposes et testés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Mary, David. "Techniques causales de codage avec et sans pertes pour les signaux vectoriels". Paris : École nationale supérieure des télécommunications, 2003. http://catalogue.bnf.fr/ark:/12148/cb39085235p.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Demaret, Laurent. "Etude de la scalabilité et de la représentation d'images fixes par maillages hiérarchiques exploitant les éléments finis et les ondelettes bidimensionnelles. Application au codage vidéo". Rennes 1, 2002. http://www.theses.fr/2002REN10147.

Texto completo da fonte
Resumo:
Ce mémoire est dedié à l'application de maillages triangulaires à la compression d'images fixes. On cherche à prouver l'efficacité des représentations hiérarchiques pour le codage avec perte. On commence par deux études portant respectivement sur les modèles d'approximation basées sur des éléments finis d'Hermite et sur la subdivison barycentrique. On aborde ensuite le thème principal : la multirésolution offerte dans le cadre des éléments finis hiérarchiques. Les méthodes de codage proposées exploitent l'hétérogénéité de la répartition statistique des coefficients d'amplitude forte. On a ensuite développé des méthodes originales de construction de préondelettes orthogonales à base d'éléments finis linéaires. De manière générale, le travail a permis de montrer les potentialités des schémas de codage par maillages et leurs bonnes performances lorsqu'on les compare aux meilleurs standards de compression actuels.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Chebira, Abdennasser. "Détection d'obstacles en temps réel par reconstruction de l'environnement 2d à partir de capteurs infrarouges id : modélisation capteur et scène, représentation d'imprécisions et incertitudes par des modèles probalistes et flous". Paris 11, 1994. http://www.theses.fr/1994PA112042.

Texto completo da fonte
Resumo:
Cette thèse décrit un système de détection d'obstacles qui utilise des capteurs de faibles coûts. Ces capteurs fournissent une faible quantité de données a traiter. Des capteurs infrarouges permettent le développement d'algorithmes rapides de reconstruction. Le système de détection d'obstacles faible coût est constitue de capteurs infrarouges 1d, d'un réseau embarque et de processeurs standards. Une structure algorithmique générique est utilisée pour la construction d'un modèle géométrique 2d de l'environnement perçu par les capteurs. Dans une première étape, un filtrage de signaux binaires fournis par les capteurs est opéré, elle est suivie par une phase d'extraction de primitives. L'appariement des primitives est ensuite effectue, cela permet une construction d'un modèle 2d en utilisant le principe de triangulation. La corrélation et le suivi temporel sont nécessaires pour prendre en compte les variations dynamiques de l'environnement observe. Un algorithme base sur le principe du maximum de vraisemblance est utilise pour estimer la vitesse des obstacles présents dans la scène. Les résultats des étapes précédentes sont transmis à un système expert qui analyse la configuration de l'environnement dans un but d'assistance au conducteur. Plus précisément, un algorithme original de filtrage binaire a été développé. Cet algorithme utilise un formalisme probabiliste pour représenter l'incertitude et manipule des chaînes de Markov commandées pour imposer un modèle d'évolution de la scène. Une modélisation floue des incertitudes est utilisée dans l'étape d'appariement. Des modèles flous et probabilistes sont utilisés pour représenter et manipuler les imprécisions de reconstruction
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Nour, Mohamed. "Représentation et interprétation des informations dans un système de vision par ordinateur : Approche de construction des informations sur des objets à partir de représentations 2D". Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/02163e11-f7b6-449f-830a-9e4142fdcb37.

Texto completo da fonte
Resumo:
La représentation des connaissances et leur expression à l'aide d'un formalisme linguistique et conceptuel capable de fournir une description symbolique très condensée de scènes visuelles demeure l'obstacle majeur au développement de robots intelligents. L’objectif de ce travail est de concevoir une méthodologie de programmation orientée objet, dédiée a la représentation et à l'interprétation des connaissances dans un système de vision par ordinateur. Cette thèse est consacrée en large partie à la tâche d'interprétation de scènes que doit effectuer le système de vision d'un robot autonome. Les connaissances nécessaires à cette tache sont formalisées. Dans un premier volet, l'étude s'attache à fournir un modèle de représentation utilisant une démarche: Descriptive des objets à manipuler. Un objet 3D est visuellement appréhendé à partir d'un nombre fini de points de vues 2D. Les connaissances associées à un point de vue forment un schéma dans la base de connaissances. Constructive des informations pertinentes pour chacune des opérations à appliquer à l'objet. Dans le second volet, nous proposons de résoudre le problème central : le contrôle et l'identification des objets grâce à l'approche dite: « prédiction-vérification d'hypothèses ». La représentation suggérée s'appuie sur le formalisme Objet. Les objets, décrits de manière redondante, sont considérés comme des processus communicants. En leur sein, est modélisée la prise de décision de leur reconnaissance. À cet effet, un système d'organisation des taches de perception et d'interprétation de scènes (actuellement à l'état de prototype) offre une représentation cohérente d'un environnement structuré et évolutif. Les concepts dégagés et le système proposé sont illustrés sous l'environnement Le-LISP empruntant la notion du langage orienté objet du système de représentation des connaissances SHIRKA.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Perrinet, Laurent. "Comment déchiffrer le code impulsionnel de la Vision? Étude du flux parallèle, asynchrone et épars dans le traitement visuel ultra-rapide". Phd thesis, Université Paul Sabatier - Toulouse III, 2003. http://tel.archives-ouvertes.fr/tel-00002693.

Texto completo da fonte
Resumo:
Le cadre de ce travail est l'étude de modèles neuromimétiques de codage parallèle et asynchrone de l'information visuelle ---tel qu'il est mis en évidence dans des taches de traitement ultra-rapide--- en la transformant en une vague d'événements élémentaires d'importance décroissante. Nous allons baser dans un premier temps les mécanismes de ce code sur les processus biologiques à l'échelle du neurone et de la synapse. En particulier, la plasticité synaptique peut induire l'extraction non-supervisée de l'information cohérente dans le flux des impulsions neuronales. Le codage par la latence de la première décharge permet de définir un code impulsionnel dans le nerf optique grâce une architecture multiéchelle. Nous avons étendu cette démarche en utilisant une approche \emph(écologique) qui permet exploiter les régularités de ses coefficients sur les images naturelles pour les quantifier par le rang d'arrivée des impulsions neuronales. Ce code par le rang des décharges, est basé sur une architecture hiérarchique et ``en avant'' qui se distingue, outre sa simplicité, par la richesse des résultats mathématiques et de par ses performances computationnelles. Enfin, nous avons répondu aux besoins d'un modèle efficace de la Vision en fondant une théorie de \emph(représentation impulsionnelle sur-complète) de l'image. Cette formalisation conduit alors à une stratégie de \emph(code impulsionnel épars) en définissant des interactions latérales. Cette stratégie est étendue à un modèle général de \emph(colonne corticale adaptative) permettant l'émergence de dictionnaires de représentation et s'adapte particulièrement à la construction d'une carte de saillance. Ces techniques font émerger de nouveaux outils pour le traitement de l'image et de vision active adaptés à des architectures de calcul distribué.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia