Thèses sur le sujet « Amélioration de la qualité visuelle des images »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Amélioration de la qualité visuelle des images.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 19 meilleures thèses pour votre recherche sur le sujet « Amélioration de la qualité visuelle des images ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Ding, Yi. « Amélioration de la qualité visuelle et de la robustesse aux post-traitements des images comprimées par une approche de type "problème inverse" ». Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0086.

Texte intégral
Résumé :
La compression avec perte contrôlée d'information est utilisée pour atteindre de faibles débits binaires. Les techniques usuelles de décompression utilisent un traitement inverse, symétrique de celui de la compression, et font apparaître des artefacts: effet de blocs et d'anneaux. De plus, les images ne supportent plus les posttraitements de rehaussement et de détection de contours des objets. Dans notre travail, nous proposons un schéma de décompression basé sur la théorie des problèmes inverses. La décompression restaure l'image avec des contraintes qui utilisent des informations sur l'image originale et le procédé de compression: régularité de l'image originale et borne supérieure du bruit de quantification. Ce concept est appliqué à l'algorithme normalisé JPEG dans un cadre conforme au standard puis par une méthode qui nécessite un préfiltrage de l'image originale et un postfiltrage de l'image décomprimée par l'algorithme JPEG. Cette deuxième technique est plus efficace que la première. Nous proposons également un algorithme qui consiste à adapter la taille des blocs à la distance de corrélation des images d'une classe dans le schéma JPEG et à optimiser les coefficients de la matrice de normalisation. Cette approche est très efficace pour les images médicales. La méthode de régularisation est appliquée également à la compression multirésolution par décomposition en sous-bandes. Là encore deux approches sont proposées. L'une restaure l'image comprimée à chaque niveau de résolution, l'autre est une restauration globale. Les résultats obtenus sont très satisfaisants du point de vue de la qualité visuelle et de la robustesse aux post-traitements. Pour compléter notre travail, nous comparons les performances de cette technique avec une approche non linéaire par projection sur des paraboloïdes qui est adaptée à l'atténuation de l'effet d'anneaux. Les résultats obtenus permettent d'envisager de combiner les deux algorithmes dans un seul schéma de compression
Low bit-rate can only be attained by lossy compression techniques. Most of the lossy compression schemes proceed by blocks at the transformation or at the quantization stage. The usual decompression algorithm is a symmetric inverse processing of the compression scheme. This generates blocking artifacts and ringing noise. Furthermore, decompressed image can never support post-processing such as edge detection. In this work, we propose a decompression scheme based on the theory of inverse problems. The decompression restores the compressed image with some constraints based on information about both the original image and on the compression procedure: the image smoothness and the upper bound of the quantization error, respectively. We consider an extension of the regularized mean square approach for ill-posed problems proposed by Miller. This idea is first carried out for the JPEG algorithm. We proposed two schemes. In the first one the dequantization array is calculated in order to minimize the reconstruction error subjected to a mean regularity constraint on the whole image blacks. This scheme is in full compliance with the JPEG standard. In the second approach the original image is pre-filtered by an unsharp masking filter in order to enhance the image details before compression and post-filtered by a low-pass inverse filter after decompression to remove the blocks. The inverse filter is designed for an optimal restoration subjected to both a constraint on the image roughness and on the decompression error. This second technique is more efficient than the first one against blocking artifacts. It is also in full compliance with the JPEG standard but requires two additional processing components. The robustness of the decompressed image to edge detection was assessed for both proposed schemes. We also proposed an algorithm which adapts the block size to the correlation length of the image in JPEG and which optimizes the coefficients of the quantization array. This approach is very efficient for medical images. The regularized restoration method is also applied to the subband coding techniques that use vector quantization of the subband images. Two approaches are considered. In the first one the image is restored at each resolution level and in the second one a global restoration is applied. Experimental results prove that both methods significantly reduce blocking effects and preserve the edges of compressed images. In order to complete the research, we compare the performance of our proposal to a non-linear approach which is adapted to the attenuation of ringing noise
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bouraoui, Atidel. « Image quality assessment using an artificial neural network approach ». Paris 13, 2012. http://scbd-sto.univ-paris13.fr/intranet/edgalilee_th_2012_lahoulou_ep_bouraoui.pdf.

Texte intégral
Résumé :
L’évaluation de la qualité d'image présente un intérêt substantiel pour les services ainsi que pour les systèmes de traitement d'images où le dernier maillon de la chaîne est l’observateur humain. En effet, la qualité d'image peut être mesurée de deux manières différentes. La première, appelée «évaluation subjective de la qualité", est l'approche évidente étant donnée la nature subjective de la qualité visuelle des médias. La seconde est appelée «évaluation objective de la qualité» qui permet de produire automatiquement des valeurs mesurant la qualité de l'image de manière quantitative. Il existe un large éventail de mesures d'évaluation objective de la qualité d'image pour lesquelles une taxonomie a été proposée au début de ce manuscrit. Le premier objectif de cette thèse est de fournir une évaluation statistique complète et approfondie des performances prédictives d'une large variété de mesures objectives de qualité avec référence complète sur un certain nombre de bases de données étiquetées avec des scores indiquant la qualité des images qui sont évaluées de manière subjective selon des protocoles strictes. Le second objectif consiste à définir les attributs de l'image qui sont les plus pertinents pour l’évaluation de sa qualité. Deux méthodes de sélection de caractéristiques ont été utilisées, à savoir la minimisation du risque structurel et l’approche basée sur le modèle connexionniste. Cela nous a permis de développer deux nouvelles métriques objectives de qualité d'image avec référence réduite où l’estimation de la qualité de l'image nécessite l'utilisation de seulement quelques uns des descripteurs de l’image de référence et celle de test. Le troisième objectif de ce travail de recherche est d'exploiter les techniques d'apprentissage supervisé, en particulier le modèle du perceptron multicouche, pour l’estimation automatique de la qualité de l'image. Le système apprend à partir des étiquettes de la qualité subjective issues des bases d’images utilisées et construit un modèle capable de généraliser après un certain temps d’entraînement. En d’autres termes, le modèle doit continuer à fournir une mesure objective toujours corresponde à l'avis de l'homme à toute image qui lui est présentée. L'objectif principal était d'optimiser la performance prédictive des mesures développées en fonction de la corrélation, la monotonicité et la précision. La fonction de coût par défaut basée sur l'erreur a été employée pour la première mesure développée (que nous avons appelé ECF) et une fonction de coût personnalisée basée sur la corrélation a été proposée pour concevoir la deuxième mesure (que nous avons appelé le CCF). L’étude comparative de ces deux nouvelles métriques à dix-huit autres algorithmes de qualité d'image avec référence complète sur trois bases de données de qualité d'image montre que les algorithmes d’ECF et CCF prennent en considération les non-linéarités du système visuel humain. L'ECF est plus précise que la majorité des mesures étudiées, tandis que la CCF améliore largement les résultats de toutes les métriques concurrentes en termes de corrélation et de monotonicité
Image quality assessment presents a substantial interest for image services that target human observers. Indeed, Image quality can be measured in two different ways. The first, called “subjective quality assessment”, is the obvious approach given the subjective nature of the visual data quality. The second one is called “objective quality assessment” that automatically allow to produce values that score image quality. There exists a large array of objective image quality assessment measures for which a taxonomic scheme has been proposed in the beginning of this manuscript. In fact, the first objective of this thesis is to provide a complete and thorough statistical predictive performance assessment of a variety of full‐reference objective quality measures over number of subjectively rated image quality databases. The second is to define the image attributes that are the most relevant to its quality evaluation. Two feature selection methods have been used including the structural risk minimization and the neural network based approaches. This allowed us to develop two new objective reduced‐reference image quality metrics where the image quality assessment requires the use of only a few features of the reference and the test images. The third objective of this research work is to exploit the supervised machine learning techniques, especially the multilayer perceptron based model, for automatic image quality appreciation. The system learns from the subjective quality scores and builds a model capable to further provide an objective measure that continues to match with the human opinion to any other image. The main target was to optimize the predictive performance of the developed measures according to correlation, monotonicity and accuracy. The default cost function based on error was employed for the first developed measure (that we called ECF) and a customized cost function based on correlation was proposed to design the second metric (that we called CCF). The comparative investigation to eighteen other full‐reference image quality algorithms over three image quality databases shows that both ECF and CCF take into consideration the nonlinearities of the human visual system. The ECF is more accurate than the majority of the metrics under study, while the CCF outperforms all its counterparts in terms of correlation and hence monotonicity
Styles APA, Harvard, Vancouver, ISO, etc.
3

Cherifi, Daikha. « Amélioration et évaluation de la qualité des images ». Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132053.

Texte intégral
Résumé :
Dans le cadre de cette thèse nous nous sommes intéressés à l’amélioration de la qualité visuelle des images, en rehaussant le contraste des images. Nous avons proposé, tout d’abord, une méthode de rehaussement simple et efficace s’inspirant du système visuel humain. Cette méthode est efficace,quand elle est appliquée aux images naturelles en couleur, ou monochromes. La méthode proposée est ensuite améliorée pour pouvoir rehausser d’autre type d’image comme les images médicale, telles que les images de rétine et l’endoscopie. Par la suite, nous nous sommes aussi intéressés aux rehaussements des images médicales et en particulier aux images de mammographie et nous avons donc proposé une méthode de rehaussement de contraste qui leur est spécifiquement dédiée. Au final,nous nous sommes intéressés à l’évaluation des méthodes de rehaussement proposées et aux différentes approches existantes dans la littérature. La méthode d’évaluation proposée s’appuie sur l’analyse radiale et angulaire du spectre d’énergie de Fourier. La validation de notre méthode de rehaussement de contraste a été faite en utilisant des échantillons d’images de 2 bases et en utilisant un test subjectif pour la comparer à d’autres méthodes de rehaussement. La note subjective finale de MOS, obtenue par la moyenne des notes des observateurs, montre la fiabilité de notre méthode de rehaussement de contraste et son intérêt par comparaison aux autres méthodes classiques
The aim of this thesis is to propose new methods for image enhancement based on oriented and multi-scale transforms using some perceptual criteria. The first part of the thesis is devoted to the development of a simple and efficient contrast enhancement method inspired from the human visual system. This method is evaluated on a set of natural color and monochrome images. The obtained results are evaluated subjectively and by using objective measures based on energy spectrum analysis and perceptual criteria. The enhancement technique is also extended to some medical images, such as mammography and endoscopy images. A special contrast enhancement method adapted to mammography is then proposed. It is based on a segmentation process using a priori information on the mammography images. The last part of the thesis is devoted to image enhancement evaluation. A critical literature survey of image enhancement evaluation methods is provided. The evaluation method proposed in this thesis is based on the radial and angular analysis of the Fourier powerspectrum. Another perceptual approach is proposed to evaluate the output. This method is based on the analysis of the visibility map computed by using a pyramidal contrast. The evaluation is performed on some samples taken from two databases. Both subjective and objective evaluations demonstrate the efficiency of the proposed image enhancement methods
Styles APA, Harvard, Vancouver, ISO, etc.
4

Le, Callet Patrick. « Critères objectifs avec référence de qualité visuelle des images couleur ». Nantes, 2001. http://www.theses.fr/2001NANT2084.

Texte intégral
Résumé :
La conception de critères objectifs d'évaluation de qualité visuelle des images est d'une grande utilité afin d'optimiser les performances des systèmes de traitement d'images pour la saisie, l'affichage, le stockage et la transmission de l'information visuelle. Un critère objectif de qualité doit fournir des mesures de qualité en forte correspondance avec le jugement humain. Il est donc nécessaire d'intégrer des modèles des principales propriétés du système visuel humain dans la conception d'un tel critère. L'objectif de cette thèse est d'établir et d'appliquer ces modèles afin d'évaluer la qualité des images fixes couleur. Cette évaluation s'effectue avec la connaissance de l'image de référence. Par contre, le critère ne nécessite pas la connaissance de la nature des distorsions de l'image dégradée
Objective metrics for image quality assessment are very useful in order to optimise performance of image processing systems for acquiring, viewing, archiving or transmitting visual data. An objective metric should provide quality measures in strong correspondence with human judgement. So, it is necessary to incorporate models of most of human visual system properties in the design of such metric. The main global of this thesis is to establish and apply these models in order to assess colour image quality. This assessment is done with the full reference image but without any a priori knowledge on the distortion nature introduced in the distorted image
Styles APA, Harvard, Vancouver, ISO, etc.
5

Nguyen, Tien Nam. « Segmentation, Recognition and Indexing of Cham characters in Cham documents ». Electronic Thesis or Diss., La Rochelle, 2023. http://www.theses.fr/2023LAROS016.

Texte intégral
Résumé :
Depuis la disparition des royaumes Champa au cours du 19e siècle, la langue Cham qui est née et s'est développée à partir de 2e siècle, n'est plus vraiment utilisée chez les descendants des Champa. Le manque de transmission des connaissances et des documents de la culture Cham rend, l'étude de cette langue difficile pour les épigraphistes et les historiens. Par conséquent, le projet ANR CHAMDOC vise à préserver et proposer des outils pour étudier la langue Cham. Dans cette thèse, nous nous sommes concentrés sur l'analyse de deux types de documents Cham à savoir : des inscriptions, qui ont été gravées sur des stèles en pierre, du 6e au 15e siècle et des manuscrits datant du 18e siècle. Quelques travaux sur la numérisation des inscriptions ont été menés mais aucune étude n'a vraiment été réalisée. La collection de manuscrits, quant à elle, n'a jamais été exploitée. Ces deux collections de documents offrent de nombreux défis pour la communauté scientifique. Au cours de ces travaux, nous proposons un pipeline complet pour le traitement automatique de ces documents. Celui-ci est basé sur différentes techniques d'analyse d'images de documents. Les défis rencontrés proviennent des caractéristiques des documents eux-mêmes, mais aussi des spécificités linguistiques du Cham. Une analyse de ces caractéristiques a été menée afin de proposer des solutions adaptées aux inscriptions et aux manuscrits
Since the demise of Champa kingdoms during the 19th century, the Cham language that originated and developed from the 2nd century, is no longer really used among the descendants of the Champa. The lack of transmission of knowledge and documents of the Cham culture makes the study of this language difficult for epigraphists and historians. Therefore, the ANR CHAMDOC project aims to preserve and provide tools for studying the Cham language. In this thesis, we focused on the analysis of two types of Cham documents namely: inscriptions, which were engraved on stone steles, from 6th to 15th century; manuscripts dating from the 18th century. Some work on the digitization of inscriptions has started but no study has really been carried out. The collection of manuscripts, for its part, has never been exploited. These two collections offer many challenges for the scientific community. During this work, we propose a complete pipeline for the automatic processing of these documents. This is based on different DIA techniques. The challenges encountered come from the characteristics of the documents themselves, but also from the linguistic specificities of Cham. An analysis of these characteristics has been carried out in order to propose solutions adapted to inscriptions and manuscripts
Styles APA, Harvard, Vancouver, ISO, etc.
6

Ninassi, Alexandre. « De la perception locale des distorsions de codage à l'appréciation globale de la qualité visuelle des images et vidéos : apport de l'attention visuelle dans le jugement de qualité ». Nantes, 2009. http://www.theses.fr/2009NANT2012.

Texte intégral
Résumé :
Cette étude traite de l’évaluation locale des distorsions perceptuelles, de l’évaluation globale de la qualité visuelle, et de l’influence de l'attention visuelle en évaluation de qualité. Afin d’évaluer localement les distorsions dans les images, nous avons simplifié un modèle existant du système visuel humain en utilisant la transformée en ondelettes et nous avons proposé une meilleure modélisation des effets de masquage par la prise en compte du masquage semi-local. A partir de ces modèles, nous avons conçu et validé des métriques de qualité d’images. Pour les vidéos, nous avons conçu une méthode d'évaluation locale des distorsions temporelles reposant sur un cumul temporel court terme des distorsions spatiales. Celui-ci simule l'évaluation des distorsions via des mécanismes de sélection de l'attention visuelle. Une métrique de qualité s’appuyant sur cette méthode a été conçue et validée. Celle-ci est basée sur un cumul temporel long terme incorporant un comportement asymétrique et un effet de saturation perceptuelle. L’influence de l’attention visuelle sur l’évaluation de la qualité a été analysée à partir des données issues de tests oculométriques réalisés sur des images et sur des vidéos, en exploration libre et en tâche de qualité. Les résultats ont confirmé, entre autres, l'influence de la tâche de qualité sur le déploiement de l'attention visuelle. L'impact de l'attention visuelle sur l’évaluation objective de la qualité a également été étudié en utilisant l'information de saillance réelle. Nous avons montré qu’une simple pondération linéaire des distorsions par l'attention visuelle ne permettait pas d'améliorer clairement les performances des métriques de qualité
This study deals with the local evaluation of perceptual distortions, the overall visual quality assessment and the influence of visual attention in viusal quality assessment. To locally evaluate distortions in images, we have simplified an existing human visual system model using wavelet transform and we have proposed an improved visual masking model that takes into account both semi-local masking and contrast masking. From these models, we have designed and tested several image quality metrics. Regarding videos, we have developed a new method to locally evaluate the spatio-temporal distortions. This method is based on a short-term temporal pooling of spatial distortions which simulates the evaluation of distortions through some selection mechanisms of visual attention. A video quality metric based on this method has been designed and validated. It is based on a longterm temporal pooling incorporating perceptual saturation and asymmetric behavior. In order to study visual attention in subjective and objective visual quality assessment, eye-tracking experiments on images and videos have been conducted both in free task and quality task. From collected data we have studied the visual attention deployed in the different configurations. The results have confirmed, among others, the influence of the quality task on deployment of visual attention. The impact of visual attention in the construction of the quality judgment has also been studied using the real saliency information. Results show that, both with images and videos, a simple linear weighting of distortions by the visual attention does not clearly improve performances of objective quality metrics
Styles APA, Harvard, Vancouver, ISO, etc.
7

El, Khalifa Moulay Ahmed. « Amélioration de la qualité des images en tomographie microonde : contribution à une imagerie quantitative ». Paris 11, 1989. http://www.theses.fr/1989PA112203.

Texte intégral
Résumé :
L'imagerie microonde ou "tomographie par diffraction" est abordée ici sur deux plans : - la résolution du problème physique, intégrant à la fois la résolution du problème direct par la méthode des moments et le problème inverse basé sur une méthode spectrale. Les principes théoriques de la méthode d'imagerie active, microonde, par transmission ou par réflexion, sont décrits. Des simulations numériques sur des objets de caractéristique donnée permettent d'évaluer la sensibilité de la méthode de reconstruction à certains paramètres tels que la longueur de la ligne de mesure. Nous abordons également le problème de la détermination quantitative des paramètres à partir de la connaissance des sources induites dans l'hypothèse de l'approximation de Born et en dehors de celle-ci. - l'application de la synthèse de Fourier pour l'amélioration de la qualité des images. Etant donné que le problème inverse est un problème dit mal-posé, on a recours aux deux méthodes de régularisation suivantes : - l'approche déterministe qui utilise une connaissance a priori. - l'approche Bayésienne qui définit tout en termes de probabilité. L'outil utilisé est le principe du maximum d'entropie.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Belgued, Youssef. « Amélioration de la qualité géométrique des images spatiales radar : méthodes de localisation et restitution du relief par radargrammétrie ». Toulouse, INPT, 2000. http://www.theses.fr/2000INPT019H.

Texte intégral
Résumé :
L'observation de la Terre depuis l'espace par les capteurs radar a ouvert de nouvelles perspectives dans le domaine des techniques d'exploitation des images et dans le domaine des applications servies par ces produits radar. Cette thèse s'intéresse à la qualité géométrique des images radar à synthèse d'ouverture acquises par satellite. Cet aspect est d'une grande importance lors de l'intégration de ces données dans des systèmes avec des sources de données hétérogènes, et lors de l'application de méthodes basées sur les modèles géométriques des images telles que la localisation et la restitution du relief. Nous commençons par la description de la modélisation du processus physique de prise de vue de l'image radar qui sert de base aux méthodes de localisation et aux applications liées à la géométrie des images. Puis nous montrons que des erreurs contaminent les valeurs des paramètres du modèle de prise de vue et nous analysons tous les foyers éventuels d'imprécision afin, d'une part, d'établir le vecteur d'état des paramètres à estimer et, d'autre part, par un processus de modélisation/simulation de disposer d'un outil d'expertise sur les potentialités en localisation et en restitution du relief de systèmes spatiaux radar existants ou futurs. L'ajustement des modèles de prise de vue, posé comme un problème d'estimation de paramètres en présence de bruit dans les mesures d'appui, est ensuite résolu simultanément pour un bloc d'images qui se chevauchent. Finalement, nous étudions la radargrammétrie qui consiste à générer des modèles numériques de terrain à partir d'images radar stéréoscopiques. Une nouvelle chaîne de traitement radargrammétrique est mise au point avec un module original de mise en géométrie épipolaire et une analyse de l'influence du filtrage des images en amont de l'étape d'appariement.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Atif, Jamal. « Recalage non-rigide multimodal des images radiologiques par information mutuelle quadratique normalisée ». Paris 11, 2004. http://www.theses.fr/2004PA112337.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Exposito, Jonathan. « Amélioration de la qualité des images obtenues par optique adaptative et application à l'étude des noyaux actifs de galaxie ». Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-01005770.

Texte intégral
Résumé :
Ma thèse se situe à la jonction de trois domaines : l'étude des noyaux actifs de galax- ies (AGN), l'optique adaptative (OA) et l'optimisation des méthodes de traitement de données associées. Elle porte sur le développement d'outils permettant d'obtenir la meilleure qualité d'image en terme de résolution et de contraste et ainsi de max- imiser le retour scientifique notamment pour l'étude des AGN. L'optique adaptative permet de compenser les effets de la turbulence atmosphérique sur le front d'onde et ainsi de s'approcher de la limite théorique de résolution d'un télescope optique. La correction apportée est cependant partielle et des résidus de correction limitent le contraste dans l'image. Afin de maximiser celui-ci, il est possible d'utiliser des méthodes de déconvolution, mais il est nécessaire pour les appliquer de connaître précisément la fonction d'étalement de point (FEP) durant l'observation. J'ai étudié le noyau actif de la galaxie NGC 1068 à l'aide de NACO, une caméra proche infrarouge munie d'une optique adaptative sur le VLT. J'ai pu déterminer que le jet, détecté en radio, est la source d'excitation probable des raies coronales observées dans les régions proches (30-60 pc), au nord du noyau, ayant une struc- turation très particulière en vagues régulièrement espacées et disposées le long du jet. J'ai aussi mis en évidence la présence de super amas d'étoiles dans ces mêmes régions. L'étude a été limitée par la perte de contraste dans certaines images qui aurait pu être restaurée à l'aide d'une déconvolution. La seconde partie de ma thèse est alors dédiée à la reconstruction de la FEP afin de déconvoluer les images. Après le développement d'un outil utilisant une estimation au sens des moindres-carrés (MC) pour reconstruire la FEP à partir des données de l'OA, j'ai développé une nouvelle méthode basée sur une approche de type maximum de vraisemblance (MV) qui utilise également les données de boucle. J'ai montré sur simulation numérique (sur un système de type Canary) que la méthode MV et MC permettent toutes deux une estimation précise de la FEP dans les cas où le système d'optique adaptative fonctionne à fréquence élevée. À basse fréquence, où la méthode MC atteint ses limites, la méthode MV reste robuste et permet une estimation précise de la FEP. Sur la base des résultats préliminaires que j'ai obtenus, la méthode MV semble très prometteuse et pourra être à terme appliquée dans le cadre des ELT.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Exposito, Cano Jonathan. « Amélioration de la qualité des images obtenues par optique adaptative et application à l'étude des noyaux actifs de galaxie ». Paris 7, 2013. http://www.theses.fr/2013PA077211.

Texte intégral
Résumé :
Pour obtenir la meilleure qualité d'image issue d'un système optique en terme de contraste, il est de coutume de déconvoluer l'image de la fonction d'étalement de point (FEP). Pour que cette méthode soit efficace, il faut que la fonction de transfert optique du système télescope + atmosphère résiduelle soit bien caractérisée. Une déconvolution dite myope est parfois utilisée pour pallier ce problème. Cette méthode permet d'estimer à la fois l'objet et la FEP à partir d'une FEP moyenne obtenue durant l'observation de la source étalon, d'une densité spectrale de puissance de la FEP et de l'image. Cependant, comme tout algorithme d'inversion, la déconvolution myope a besoin de conditions initiales assez proche de la solution finale pour converger vers la bonne solution. Les résultats peuvent être aléatoires si l'incertitude sur la FEP est trop grande. La reconstruction de FEP est alors une solution. La boucle d'optique adaptative analyse à chaque instant l'état de la turbulence et les mesures de l'analyseur ainsi que les commandes sont enregistrées. Il est alors possible d'utiliser une méthode qui permet de reconstruire la fonction de transfert optique (FTO ou la FEP) de l'atmosphère résiduelle durant l'observation en utilisant les données de télémétrie en temps réel fournies par la boucle d'OA. La reconstruction est faite en post-traitement et ne nécessite pas de temps supplémentaire, ce qui maximise le temps réservé à la source scientifique et présente donc un intérêt certain pour les observations. J'ai développé durant cette thèse un nouvel outil permettant la reconstruction de la FEP basé sur une approche du maximum de vraisemblance. En parallèle, j'ai étudié les régions proche du noyaux actif de la galaxie NGC 1068 à l'aide de NACO, un spectro-imageur muni d'une optique adaptative sur le VLT
To get the best quality of the images from an optical system in terms of contrast , it is used to deconvolve the image from the point spread function (PSF). For this method to be effective, it is necessary that the optical transfer function of the system telescope + residual atmosphere is well characterized. Myopic deconvolution is sometimes used to overcome this problem. This method is used to estimate both the object and the PSF from an average PSF obtained during the observation of the standard source, a power spectral density of the PSF and of the image. However, like any inversion algorithm, the myopic deconvolution needs initial conditions close enough to the final solution to converge to the correct solution. The results can be random if the uncertainty on PSF is too large. The reconstruction of FEP is then a solution. The analysis at each time adaptive optics loop state of turbulence and analyzer measurements and controls are recorded. 11 is then possible to use a method to reconstruct the optical transfer function (OTF or PSF) of the residual atmosphere during the observation using data from real-time telemetry provided by the AO loop. The reconstruction is done in post-processing and does not require extra time, which maximizes the time available for scientific source and therefore has a certain interest in the observations. I developed during this thesis a new tool for the reconstruction of PSF based on a maximum likelihood approach. At the same time, I studied the regions near the active nucleus of the galaxy NGC 1068 using NACO, an imaging spectrometer equipped with adaptive optics on the VLT
Styles APA, Harvard, Vancouver, ISO, etc.
12

Bertolino, Pascal. « Algorithmes pour la segmentation et l'amélioration de la qualité des images et des vidéos ». Habilitation à diriger des recherches, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00798440.

Texte intégral
Résumé :
Travaux sur la segmentation des images et des vidéos en vue de leur codage, indexation et interprétation ainsi que sur l'amélioration de la qualité de la restitution de ces images sur les écrans plats.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Ninassi, Alexandre. « DE LA PERCEPTION LOCALE DES DISTORSIONS DE CODAGE A L'APPRECIATION GLOBALE DE LA QUALITE VISUELLE DES IMAGES ET VIDEOS. APPORT DE L'ATTENTION VISUELLE DANS LE JUGEMENT DE QUALITE ». Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00426909.

Texte intégral
Résumé :
Cette étude traite de l'évaluation locale des distorsions perceptuelles, de l'évaluation globale de la qualité visuelle, et de l'influence de l'attention visuelle en évaluation de qualité. Afin d'évaluer localement les distorsions dans les images, nous avons simplifié un modèle existant du système visuel humain en utilisant la transformée en ondelettes et nous avons proposé une meilleure modélisation des effets de masquage par la prise en compte du masquage semi-local. A partir de ces modèles, nous avons conçu et validé des métriques de qualité d'images. Pour les vidéos, nous avons conçu une méthode d'évaluation locale des distorsions temporelles reposant sur un cumul temporel court terme des distorsions spatiales. Celui-ci simule l'évaluation des distorsions via des mécanismes de sélection de l'attention visuelle. Une métrique de qualité s'appuyant sur cette méthode a été conçue et validée. Celle-ci est basée sur un cumul temporel long terme incorporant un comportement asymétrique et un effet de saturation perceptuelle. L'influence de l'attention visuelle sur l'évaluation de la qualité a été analysée à partir des données issues de tests oculométriques réalisés sur des images et sur des vidéos, en exploration libre et en tâche de qualité. Les résultats ont confirmé, entre autres, l'influence de la tâche de qualité sur le déploiement de l'attention visuelle. L'impact de l'attention visuelle sur l'évaluation objective de la qualité a également été étudié en utilisant l'information de saillance réelle. Nous avons montré qu'une simple pondération linéaire des distorsions par l'attention visuelle ne permettait pas d'améliorer clairement les performances des métriques de qualité.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Nauge, Michaël. « Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue ». Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2300/document.

Texte intégral
Résumé :
Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images
In the field of computer vision, the use of interest points (IP) is very frequent for objects tracking and recognition. Several studies have demonstrated the usefulness of these techniques, combining robustness and complexity that can be compatible with the real time. This thesis proposes to explore and exploit these image statistical descriptors under a different angle. Thus, we conducted a study on the relationship between IP and human visual saliency. In this study, we developed a method for predicting saliency maps relying on the efficiency of the descriptors. We also used the descriptive power of the PI to develop new metrics for image quality. With encouraging results in terms of prediction of perceived quality and the reduced amount of used information, we were able to integrate our metric "QIP" in an image transmission framework over a MIMO wireless network. The inclusion of this metric can improve the quality of experience by ensuring the best visual quality despite the errors introduced by the wireless transmission. We have extended this study by deeply analyzing structural statistics of the image and migration attributes to provide a generic model for predicting impairments. Finally, we conducted various psychovisual experiments to validate the proposed approaches or to contribute to JPEG standard committee. This led to develop a web application dedicated to the benchmark of image quality metrics
Styles APA, Harvard, Vancouver, ISO, etc.
15

Sendjasni, Abderrezzaq. « Objective and subjective quality assessment of 360-degree images ». Electronic Thesis or Diss., Poitiers, 2023. http://www.theses.fr/2023POIT2251.

Texte intégral
Résumé :
Les images à 360 degrés, aussi appelées images omnidirectionnelles, sont au cœur des contenus immersifs. Avec l’augmentation de leur utilisation notamment grâce à l’expérience interactive et immersive qu’ils offrent, il est primordial de garantir une bonne qualité d’expérience (QoE). Cette dernière est considérablement impactée par la qualité du contenu lui-même. En l’occurrence, les images à 360 degrés, comme tout type de signal visuel, passent par une séquence de processus comprenant l’encodage, la transmission, le décodage et le rendu. Chacun de ces processus est susceptible d’introduire des distorsions dans le contenu. Pour améliorer la qualité d’expérience, toutes ces dégradations potentielles doivent être soigneusement prises en compte et réduites à un niveau imperceptible. Pour atteindre cet objectif, l’évaluation de la qualité de l’image est l’une des stratégies devant être utilisée. Cette thèse aborde l’évaluation de la qualité des images à 360 degrés des points de vue objectif et subjectif. Ainsi, en s’intéressant à l’effet des visiocasques sur la qualité perçue des images 360 degrés, une étude psycho-visuelle est conçue et réalisée en utilisant quatre dispositifs différents. À cette fin, une base de données a été créé et un panel d’observateurs a été impliqué. L’impact des visiocasques sur la qualité a été identifié et mis en évidence comme un facteur important à prendre en compte lors de la réalisation d’expériences subjectives pour des images à 360 degrés. D’un point de vue objectif, nous avons d’abord procédé à une étude comparative extensive de plusieurs modèles de réseaux de neurones convolutifs (CNN) sous diverses configurations. Ensuite, nous avons amélioré la chaîne de traitement de l’évaluation de la qualité basée sur les CNN à différentes échelles, de l’échantillonnage et de la représentation des entrées à l’agrégation des scores de qualité. En se basant sur les résultats de ces études, et de l’analyse comparative, deux modèles de qualité basés sur les CNN sont proposés pour prédire avec précision la qualité des images à 360 degrés. Les observations et les conclusions obtenues à partir des différentes contributions de cette thèse apporteront un éclairage sur l’évaluation de la qualité des images à 360 degrés
360-degree images, a.k.a. omnidirectional images, are in the center of immersive media. With the increase in demands of the latter, mainly thanks to the offered interactive and immersive experience, it is paramount to provide good quality of experience (QoE). This QoE is significantly impacted by the quality of the content. Like any type of visual signal, 360-degree images go through a sequence of processes including encoding, transmission, decoding, and rendering. Each of these processes has the potential to introduce distortions to the content. To improve the QoE, image quality assessment (IQA) is one of the strategies to be followed. This thesis addresses the quality evaluation of 360-degree images from the objective and subjective perspectives. By focusing on the influence of Head Mounted Displays (HMDs) on the perceived quality of 360-degree images, a psycho-visual study is designed and carried out using four different devices. For this purpose, a 360-degree image datasets is created and a panel of observers is involved. The impact of HMDs on the quality ratings is identified and highlighted as an important factor to consider when con- ducting subjective experiments for 360-degree images. From the objective perspective, we first comprehensively benchmarked several convolutional neural network (CNN) models under various configurations. Then, the processing chain of CNN-based 360-IQA is improved at different scales, from input sampling and representation to aggregating quality scores. Based on the observations of the above studies as well as the benchmark, two 360-IQA models based on CNNs are proposed to accurately predict the quality of 360-degree images. The obtained observations and conclusions from the various contributions shall bring insights for assessing the quality of 360-degree images
360-graders bilder, også kjent som rundstrålende bilder, er i sentrum av oppslukende medier. Med økningen i forventninger til sistnevnte, hovedsakelig takket være den aktiverte interaktive og oppslukende opplevelse, er det avgjørende å gi god kvaliteten på opplevelsen (QoE).Denne QoE er betydelig påvirket av kvaliteten på innholdet. Som alle typer visuelle signaler går 360-graders bilder gjennom en sekvens av prosesser, inkludert koding, overføring, dekoding og gjengivelse. Hver av disse prosessene har potensial til å introdusere forvrengninger til innholdet.For å forbedre QoE er vurdering av bildekvalitet (IQA) en av strategiene å følge. Denne oppgaven tar for seg kvalitetsevaluering av 360-graders bilder fra objektive og subjektive perspektiver. Ved å fokusere på påvirkningen av Head Mounted Displays (HMD-er) på den oppfattede kvaliteten til 360-graders bilder, er en psyko-visuell studie designet og utført ved hjelp av fire forskjellige enheter. For dette formålet opprettes et 360-graders bildedatasett og et panel av observatører er involvert. Virkningen av HMD-er på valitetsvurderingene identifiseres og fremheves som en viktig faktor når du utfører subjektive eksperimenter for 360-graders bilder.Fra det objektive perspektivet benchmarket vi først flere konvolusjonelle nevrale nettverk (CNN) under forskjellige konfigurasjoner. Deretter forbedres prosesseringskjeden til CNN-baserte 360-IQA i forskjellige skalaer, fra input-sampling og representasjon til aggregering av kvalitetspoeng. Basert på observasjonene av de ovenfornevnte studiene så vel som benchmark, foreslås to 360-IQA-modeller basert på CNN-er for å nøyaktig forutsi kvaliteten på 360-graders bilder.De innhentede observasjonene og konklusjonene fra de ulike bidragene skal gi innsikt for å vurdere kvaliteten på 360-graders bilder
Styles APA, Harvard, Vancouver, ISO, etc.
16

Roggeman, Hélène. « Amélioration de performance de la navigation basée vision pour la robotique autonome : une approche par couplage vision/commande ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS497/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de réaliser des missions diverses de navigation autonome en environnement intérieur et encombré avec des robots terrestres. La perception de l'environnement est assurée par un banc stéréo embarqué sur le robot et permet entre autres de calculer la localisation de l'engin grâce à un algorithme d'odométrie visuelle. Mais quand la qualité de la scène perçue par les caméras est faible, la localisation visuelle ne peut pas être calculée de façon précise. Deux solutions sont proposées pour remédier à ce problème. La première solution est l'utilisation d'une méthode de fusion de données multi-capteurs pour obtenir un calcul robuste de la localisation. La deuxième solution est la prédiction de la qualité de scène future afin d'adapter la trajectoire du robot pour s'assurer que la localisation reste précise. Dans les deux cas, la boucle de commande est basée sur l'utilisation de la commande prédictive afin de prendre en compte les différents objectifs de la mission : ralliement de points, exploration, évitement d'obstacles. Une deuxième problématique étudiée est la navigation par points de passage avec évitement d'obstacles mobiles à partir des informations visuelles uniquement. Les obstacles mobiles sont détectés dans les images puis leur position et vitesse sont estimées afin de prédire leur trajectoire future et ainsi de pouvoir anticiper leur déplacement dans la stratégie de commande. De nombreuses expériences ont été réalisées en situation réelle et ont permis de montrer l'efficacité des solutions proposées
The aim of this thesis is to perform various autonomous navigation missions in indoor and cluttered environments with mobile robots. The environment perception is ensured by an embedded stereo-rig and a visual odometry algorithm which computes the localization of the robot. However, when the quality of the scene perceived by the cameras is poor, the visual localization cannot be computed with a high precision. Two solutions are proposed to tackle this problem. The first one is the data fusion from multiple sensors to perform a robust computation of the localization. The second solution is the prediction of the future scene quality in order to adapt the robot's trajectory to ensure that the localization remains accurate. In the two cases, the control loop is based on model predictive control, which offers the possibility to consider simultaneously the different objectives of the mission : waypoint navigation, exploration, obstacle avoidance. A second issue studied is waypoint navigation with avoidance of mobile obstacles using only the visual information. The mobile obstacles are detected in the images and their position and velocity are estimated in order to predict their future trajectory and consider it in the control strategy. Numerous experiments were carried out and demonstrated the effectiveness of the proposed solutions
Styles APA, Harvard, Vancouver, ISO, etc.
17

Kang, Chen. « Image Aesthetic Quality Assessment Based on Deep Neural Networks ». Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG004.

Texte intégral
Résumé :
Avec le développement des dispositifs de capture et d'Internet, les gens accèdent à un nombre croissant d'images. L'évaluation de l'esthétique visuelle a des applications importantes dans plusieurs domaines, de la récupération d'image et de la recommandation à l'amélioration. L'évaluation de la qualité esthétique de l'image vise à déterminer la beauté d'une image pour les observateurs humains. De nombreux problèmes dans ce domaine ne sont pas bien étudiés, y compris la subjectivité de l'évaluation de la qualité esthétique, l'explication de l'esthétique et la collecte de données annotées par l'homme. La prédiction conventionnelle de la qualité esthétique des images vise à prédire le score moyen ou la classe esthétique d'une image. Cependant, la prédiction esthétique est intrinsèquement subjective, et des images avec des scores / classe esthétiques moyens similaires peuvent afficher des niveaux de consensus très différents par les évaluateurs humains. Des travaux récents ont traité de la subjectivité esthétique en prédisant la distribution des scores humains, mais la prédiction de la distribution n'est pas directement interprétable en termes de subjectivité et pourrait être sous-optimale par rapport à l'estimation directe des descripteurs de subjectivité calculés à partir des scores de vérité terrain. De plus, les étiquettes des ensembles de données existants sont souvent bruyantes, incomplètes ou ne permettent pas des tâches plus sophistiquées telles que comprendre pourquoi une image est belle ou non pour un observateur humain. Dans cette thèse, nous proposons tout d'abord plusieurs mesures de la subjectivité, allant de simples mesures statistiques telles que l'écart type des scores, aux descripteurs nouvellement proposés inspirés de la théorie de l'information. Nous évaluons les performances de prédiction de ces mesures lorsqu'elles sont calculées à partir de distributions de scores prédites et lorsqu'elles sont directement apprises à partir de données de vérité terrain. Nous constatons que cette dernière stratégie donne en général de meilleurs résultats. Nous utilisons également la subjectivité pour améliorer la prédiction des scores esthétiques, montrant que les mesures de subjectivité inspirées de la théorie de l'information fonctionnent mieux que les mesures statistiques. Ensuite, nous proposons un ensemble de données EVA (Explainable Visual Aesthetics), qui contient 4070 images avec au moins 30 votes par image. EVA a été collecté en utilisant une approche plus disciplinée inspirée des meilleures pratiques d'évaluation de la qualité. Il offre également des caractéristiques supplémentaires, telles que le degré de difficulté à évaluer le score esthétique, l'évaluation de 4 attributs esthétiques complémentaires, ainsi que l'importance relative de chaque attribut pour se forger une opinion esthétique. L'ensemble de données accessible au public devrait contribuer aux recherches futures sur la compréhension et la prédiction de l'esthétique de la qualité visuelle. De plus, nous avons étudié l'explicabilité de l'évaluation de la qualité esthétique de l'image. Une analyse statistique sur EVA démontre que les attributs collectés et l'importance relative peuvent être combinés linéairement pour expliquer efficacement les scores d'opinion moyenne esthétique globale. Nous avons trouvé que la subjectivité a une corrélation limitée avec la difficulté personnelle moyenne dans l'évaluation esthétique, et la région du sujet, le niveau photographique et l'âge affectent de manière significative l'évaluation esthétique de l'utilisateur
With the development of capture devices and the Internet, people access to an increasing amount of images. Assessing visual aesthetics has important applications in several domains, from image retrieval and recommendation to enhancement. Image aesthetic quality assessment aims at determining how beautiful an image looks to human observers. Many problems in this field are not studied well, including the subjectivity of aesthetic quality assessment, explanation of aesthetics and the human-annotated data collection. Conventional image aesthetic quality prediction aims at predicting the average score or aesthetic class of a picture. However, the aesthetic prediction is intrinsically subjective, and images with similar mean aesthetic scores/class might display very different levels of consensus by human raters. Recent work has dealt with aesthetic subjectivity by predicting the distribution of human scores, but predicting the distribution is not directly interpretable in terms of subjectivity, and might be sub-optimal compared to directly estimating subjectivity descriptors computed from ground-truth scores. Furthermore, labels in existing datasets are often noisy, incomplete or they do not allow more sophisticated tasks such as understanding why an image looks beautiful or not to a human observer. In this thesis, we first propose several measures of subjectivity, ranging from simple statistical measures such as the standard deviation of the scores, to newly proposed descriptors inspired by information theory. We evaluate the prediction performance of these measures when they are computed from predicted score distributions and when they are directly learned from ground-truth data. We find that the latter strategy provides in general better results. We also use the subjectivity to improve predicting aesthetic scores, showing that information theory inspired subjectivity measures perform better than statistical measures. Then, we propose an Explainable Visual Aesthetics (EVA) dataset, which contains 4070 images with at least 30 votes per image. EVA has been crowd-sourced using a more disciplined approach inspired by quality assessment best practices. It also offers additional features, such as the degree of difficulty in assessing the aesthetic score, rating for 4 complementary aesthetic attributes, as well as the relative importance of each attribute to form aesthetic opinions. The publicly available dataset is expected to contribute to future research on understanding and predicting visual quality aesthetics. Additionally, we studied the explainability of image aesthetic quality assessment. A statistical analysis on EVA demonstrates that the collected attributes and relative importance can be linearly combined to explain effectively the overall aesthetic mean opinion scores. We found subjectivity has a limited correlation to average personal difficulty in aesthetic assessment, and the subject's region, photographic level and age affect the user's aesthetic assessment significantly
Styles APA, Harvard, Vancouver, ISO, etc.
18

Ben, Younes Ridha. « Contribution à l'amélioration qualitative et quantitative des images de médecine nucléaire en tomographie d'émission à simple photon ». Besançon, 1989. http://www.theses.fr/1989BESA2008.

Texte intégral
Résumé :
Reconstruction tomographique de la distribution radioactive d'un traceur placé dans le milieu non atténuant puis atténuant. Différentes méthodes de reconstruction, performances et contrôle de la qualité du détecteur, dégradation des images. Méthode de détection automatique des contours
Styles APA, Harvard, Vancouver, ISO, etc.
19

Adam, Pierre. « Améliorations d'artefacts sur panneaux LCD ». Phd thesis, 2008. http://tel.archives-ouvertes.fr/tel-00396368.

Texte intégral
Résumé :
Bien que les écrans à cristaux liquides (ou LCD) sont aujourd'hui devenus un standard dans les technologies d'affichage en détrônant le tube cathodique, la qualité des images fournie par ce type d'écran reste en deçà de son vieillissant homologue. Ces problèmes visuels (ou artefacts) sont caractérisés par des effets de flou présents à l'écran et ont pour origine le "temps de réponse" des écrans LCD ainsi que le mode de pilotage de l'écran peu adapté à notre système visuel (artefact appelé "hold effect"). Le travail présenté dans ce mémoire de thèse apporte sa contribution dans le domaine de l'amélioration des artefacts visuels sur les panneaux LCD. Notre approche propose non seulement un vocabulaire mathématique et des définitions adaptées aux transitions de luminance mais aussi plusieurs modèles permettant une représentation analytique concise du temps de réponse. Contrairement aux solutions classiques de réduction de temps de réponse, appelées overdrive, l'utilisation des modèles mathématiques proposés permet de s'affranchir de longues campagnes de mesures et de s'adapter facilement au changement de fréquence de rafraîchissement de l'écran. Deux algorithmes d'amélioration des artefacts sont ainsi proposés : le premier pour les téléviseurs et les moniteurs LCD et le second pour les petits écrans d'appareils portables. Enfin, une fois cette première étape franchie, nous proposons une étude des solutions destinée à réduire le hold effect, artefact indépendant du temps de réponse.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie