Dissertations / Theses on the topic 'Estimation de la qualité des images'

To see the other types of publications on this topic, follow the link: Estimation de la qualité des images.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estimation de la qualité des images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Al, Chami Zahi. "Estimation de la qualité des données multimedia en temps réel." Thesis, Pau, 2021. http://www.theses.fr/2021PAUU3066.

Full text
Abstract:
Au cours de la dernière décennie, les fournisseurs de données ont généré et diffusé une grande quantité de données, notamment des images, des vidéos, de l'audio, etc. Dans cette thèse, nous nous concentrerons sur le traitement des images puisqu'elles sont les plus communément partagées entre les utilisateurs sur l'inter-réseau mondial. En particulier, le traitement des images contenant des visages a reçu une grande attention en raison de ses nombreuses applications, telles que les applications de divertissement et de médias sociaux. Cependant, plusieurs défis pourraient survenir au cours de la phase de traitement et de transmission : d'une part, le nombre énorme d'images partagées et produites à un rythme rapide nécessite un temps de traitement et de livraison considérable; d’autre part, les images sont soumises à un très grand nombre de distorsions lors du traitement, de la transmission ou de la combinaison de nombreux facteurs qui pourraient endommager le contenu des images. Deux contributions principales sont développées. Tout d'abord, nous présentons un framework d'évaluation de la qualité d'image ayant une référence complète en temps réel, capable de : 1) préserver le contenu des images en s'assurant que certaines informations visuelles utiles peuvent toujours être extraites de l'image résultante, et 2) fournir un moyen de traiter les images en temps réel afin de faire face à l'énorme quantité d'images reçues à un rythme rapide. Le framework décrit ici est limité au traitement des images qui ont accès à leur image de référence (connu sous le nom référence complète). Dans notre second chapitre, nous présentons un framework d'évaluation de la qualité d'image sans référence en temps réel. Il a les capacités suivantes : a) évaluer l'image déformée sans avoir recours à son image originale, b) préserver les informations visuelles les plus utiles dans les images avant de les publier, et c) traiter les images en temps réel, bien que les modèles d'évaluation de la qualité des images sans référence sont considérés très complexes. Notre framework offre plusieurs avantages par rapport aux approches existantes, en particulier : i. il localise la distorsion dans une image afin d'évaluer directement les parties déformées au lieu de traiter l'image entière, ii. il a un compromis acceptable entre la précision de la prédiction de qualité et le temps d’exécution, et iii. il pourrait être utilisé dans plusieurs applications, en particulier celles qui fonctionnent en temps réel. L'architecture de chaque framework est présentée dans les chapitres tout en détaillant les modules et composants du framework. Ensuite, un certain nombre de simulations sont faites pour montrer l'efficacité de nos approches pour résoudre nos défis par rapport aux approches existantes
Over the past decade, data providers have been generating and streaming a large amount of data, including images, videos, audio, etc. In this thesis, we will be focusing on processing images since they are the most commonly shared between the users on the global inter-network. In particular, treating images containing faces has received great attention due to its numerous applications, such as entertainment and social media apps. However, several challenges could arise during the processing and transmission phase: firstly, the enormous number of images shared and produced at a rapid pace requires a significant amount of time to be processed and delivered; secondly, images are subject to a wide range of distortions during the processing, transmission, or combination of many factors that could damage the images’content. Two main contributions are developed. First, we introduce a Full-Reference Image Quality Assessment Framework in Real-Time, capable of:1) preserving the images’content by ensuring that some useful visual information can still be extracted from the output, and 2) providing a way to process the images in real-time in order to cope with the huge amount of images that are being received at a rapid pace. The framework described here is limited to processing those images that have access to their reference version (a.k.a Full-Reference). Secondly, we present a No-Reference Image Quality Assessment Framework in Real-Time. It has the following abilities: a) assessing the distorted image without having its distortion-free image, b) preserving the most useful visual information in the images before publishing, and c) processing the images in real-time, even though the No-Reference image quality assessment models are considered very complex. Our framework offers several advantages over the existing approaches, in particular: i. it locates the distortion in an image in order to directly assess the distorted parts instead of processing the whole image, ii. it has an acceptable trade-off between quality prediction accuracy and execution latency, andiii. it could be used in several applications, especially these that work in real-time. The architecture of each framework is presented in the chapters while detailing the modules and components of the framework. Then, a number of simulations are made to show the effectiveness of our approaches to solve our challenges in relation to the existing approaches
APA, Harvard, Vancouver, ISO, and other styles
2

Cotte, Florian. "Estimation d’objets de très faible amplitude dans des images radiologiques X fortement bruitées." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT112.

Full text
Abstract:
Dans le domaine de la radiologie par rayons X pour le diagnostic médical, les progrès de l'industrie en informatique, électronique et matériaux des trois dernières décennies ont permis le développement de capteurs numériques permettant d'améliorer la qualité des images. Cette thèse CIFRE, préparée en collaboration entre le laboratoire Gipsa-Lab et l'entreprise Trixell, constructeur de détecteurs plats numériques destinés à l'imagerie radiologique, s'inscrit dans un contexte industriel d'amélioration de la qualité image des capteurs à rayons X. Plus précisément, diverses causes technologiques peuvent générer des perturbations, appelées "artéfacts". La connaissance fine de ces causes technologiques (internes ou externes au capteur) permet de modéliser ces artéfacts et de les éliminer des images.La démarche choisie modélise l'image comme une somme de 3 termes Y = C + S + B :le contenu clinique, le signal ou artéfact à modéliser et le bruit. Le problème consiste donc à retrouver l'artéfact à partir de Y et de connaissances sur le contenu clinique et le bruit. Pour résoudre ce problème inverse mal posé, plusieurs approches bayésiennes utilisant diverses connaissances a priori sont développées. Contrairement aux méthodes d'estimation existantes qui sont spécifiques à un artéfact particulier, notre approche est générique et nos modèles prennent en considération des formes et caractéristiques spatialement variables des artéfacts mais localement stationnaires. Elles permettent de plus d'avoir un retour sur la qualité de l'estimation, validant ou invalidant la modélisation. Les méthodes sont évaluées et comparées sur des images synthétiques pour 2 types d'artefacts. Sur des images réelles, ces méthodes sont illustrées sur la suppression des grilles anti-diffusantes. Les performances des algorithmes développés sont supérieures à celles des méthodes dédiées à un artéfact donné, au prix d'une plus grande complexité. Les derniers résultats obtenus ouvrent des perspectives intéressantes, en particulier pour les artefacts non stationnaires dans l'espace et dans le temps
In the field of X-ray radiology for medical diagnostics, progress in computer, electronics and materials industry over the past three decades have led to the development of digital sensors to improve the quality of images. This CIFRE thesis, prepared in collaboration between the Gipsa-Lab laboratory and the company Trixell, manufacturer of digital flat detectors for radiological imaging, takes place in an industrial context for improving the image quality of X-ray sensors. More specifically, various technological causes can generate disturbances, called "artifacts". The fine knowledge of these technological causes (internal or external to the sensor) makes it possible to model these artifacts and to eliminate them from images.The chosen approach models the image as a sum of 3 terms Y = C + S + B : the clinical content, the signal or artifact to be modeled and the noise. The problem is to find the artifact from Y and knowledge about the clinical content and noise. To solve this inverse problem, several Bayesian approaches using various prior knowledge are developed. Unlike existing estimation methods that are specific to a particular artifact, our approach is generic and our models take into account spatially variable shapes and features of artifacts that are locally stationary. They also give us a feedback on the quality of the estimate, validating or invalidating the model. The methods are evaluated and compared on synthetic images for 2 types of artifacts. On real images, these methods are illustrated on the removal of anti-scattering grids. The performances of the developed algorithms are superior to those of the methods dedicated to a given artifact, at the cost of greater complexity. The latest results obtained open interesting perspectives, especially for non-stationary artefacts in space and time
APA, Harvard, Vancouver, ISO, and other styles
3

Wang, Liang. "NOVEL DENSE STEREO ALGORITHMS FOR HIGH-QUALITY DEPTH ESTIMATION FROM IMAGES." UKnowledge, 2012. http://uknowledge.uky.edu/cs_etds/4.

Full text
Abstract:
This dissertation addresses the problem of inferring scene depth information from a collection of calibrated images taken from different viewpoints via stereo matching. Although it has been heavily investigated for decades, depth from stereo remains a long-standing challenge and popular research topic for several reasons. First of all, in order to be of practical use for many real-time applications such as autonomous driving, accurate depth estimation in real-time is of great importance and one of the core challenges in stereo. Second, for applications such as 3D reconstruction and view synthesis, high-quality depth estimation is crucial to achieve photo realistic results. However, due to the matching ambiguities, accurate dense depth estimates are difficult to achieve. Last but not least, most stereo algorithms rely on identification of corresponding points among images and only work effectively when scenes are Lambertian. For non-Lambertian surfaces, the "brightness constancy" assumption is no longer valid. This dissertation contributes three novel stereo algorithms that are motivated by the specific requirements and limitations imposed by different applications. In addressing high speed depth estimation from images, we present a stereo algorithm that achieves high quality results while maintaining real-time performance. We introduce an adaptive aggregation step in a dynamic-programming framework. Matching costs are aggregated in the vertical direction using a computationally expensive weighting scheme based on color and distance proximity. We utilize the vector processing capability and parallelism in commodity graphics hardware to speed up this process over two orders of magnitude. In addressing high accuracy depth estimation, we present a stereo model that makes use of constraints from points with known depths - the Ground Control Points (GCPs) as referred to in stereo literature. Our formulation explicitly models the influences of GCPs in a Markov Random Field. A novel regularization prior is naturally integrated into a global inference framework in a principled way using the Bayes rule. Our probabilistic framework allows GCPs to be obtained from various modalities and provides a natural way to integrate information from various sensors. In addressing non-Lambertian reflectance, we introduce a new invariant for stereo correspondence which allows completely arbitrary scene reflectance (bidirectional reflectance distribution functions - BRDFs). This invariant can be used to formulate a rank constraint on stereo matching when the scene is observed by several lighting configurations in which only the lighting intensity varies.
APA, Harvard, Vancouver, ISO, and other styles
4

Belgued, Youssef. "Amélioration de la qualité géométrique des images spatiales radar : méthodes de localisation et restitution du relief par radargrammétrie." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT019H.

Full text
Abstract:
L'observation de la Terre depuis l'espace par les capteurs radar a ouvert de nouvelles perspectives dans le domaine des techniques d'exploitation des images et dans le domaine des applications servies par ces produits radar. Cette thèse s'intéresse à la qualité géométrique des images radar à synthèse d'ouverture acquises par satellite. Cet aspect est d'une grande importance lors de l'intégration de ces données dans des systèmes avec des sources de données hétérogènes, et lors de l'application de méthodes basées sur les modèles géométriques des images telles que la localisation et la restitution du relief. Nous commençons par la description de la modélisation du processus physique de prise de vue de l'image radar qui sert de base aux méthodes de localisation et aux applications liées à la géométrie des images. Puis nous montrons que des erreurs contaminent les valeurs des paramètres du modèle de prise de vue et nous analysons tous les foyers éventuels d'imprécision afin, d'une part, d'établir le vecteur d'état des paramètres à estimer et, d'autre part, par un processus de modélisation/simulation de disposer d'un outil d'expertise sur les potentialités en localisation et en restitution du relief de systèmes spatiaux radar existants ou futurs. L'ajustement des modèles de prise de vue, posé comme un problème d'estimation de paramètres en présence de bruit dans les mesures d'appui, est ensuite résolu simultanément pour un bloc d'images qui se chevauchent. Finalement, nous étudions la radargrammétrie qui consiste à générer des modèles numériques de terrain à partir d'images radar stéréoscopiques. Une nouvelle chaîne de traitement radargrammétrique est mise au point avec un module original de mise en géométrie épipolaire et une analyse de l'influence du filtrage des images en amont de l'étape d'appariement.
APA, Harvard, Vancouver, ISO, and other styles
5

Nawarathna, Ruwan D. "Detection of Temporal Events and Abnormal Images for Quality Analysis in Endoscopy Videos." Thesis, University of North Texas, 2013. https://digital.library.unt.edu/ark:/67531/metadc283849/.

Full text
Abstract:
Recent reports suggest that measuring the objective quality is very essential towards the success of colonoscopy. Several quality indicators (i.e. metrics) proposed in recent studies are implemented in software systems that compute real-time quality scores for routine screening colonoscopy. Most quality metrics are derived based on various temporal events occurred during the colonoscopy procedure. The location of the phase boundary between the insertion and the withdrawal phases and the amount of circumferential inspection are two such important temporal events. These two temporal events can be determined by analyzing various camera motions of the colonoscope. This dissertation put forward a novel method to estimate X, Y and Z directional motions of the colonoscope using motion vector templates. Since abnormalities of a WCE or a colonoscopy video can be found in a small number of frames (around 5% out of total frames), it is very helpful if a computer system can decide whether a frame has any mucosal abnormalities. Also, the number of detected abnormal lesions during a procedure is used as a quality indicator. Majority of the existing abnormal detection methods focus on detecting only one type of abnormality or the overall accuracies are somewhat low if the method tries to detect multiple abnormalities. Most abnormalities in endoscopy images have unique textures which are clearly distinguishable from normal textures. In this dissertation a new method is proposed that achieves the objective of detecting multiple abnormalities with a higher accuracy using a multi-texture analysis technique. The multi-texture analysis method is designed by representing WCE and colonoscopy image textures as textons.
APA, Harvard, Vancouver, ISO, and other styles
6

Harouna, Seybou Aboubacar. "Analyse d'images couleurs pour le contrôle qualité non destructif." Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2282/document.

Full text
Abstract:
La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance
Color is a major criterion for many sectors to identify, to compare or simply to control the quality of products. This task is generally assumed by a human operator who performs a visual inspection. Unfortunately, this method is unreliable and not repeatable due to the subjectivity of the operator. To avoid these limitations, a RGB camera can be used to capture and extract the photometric properties. This method is simple to deploy and permits a high speed control. However, it's very sensitive to the metamerism effects. Therefore, the reflectance measurement is the more reliable solution to ensure the conformity between samples and a reference. Thus in printing industry, spectrophotometers are used to measure uniform color patches printed on a lateral band. For a control of the entire printed surface, multispectral cameras are used to estimate the reflectance of each pixel. However, they are very expensive compared to conventional cameras. In this thesis, we study the use of an RGB camera for the spectral reflectance estimation in the context of printing. We propose a complete spectral description of the reproduction chain to reduce the number of measurements in the training stages and to compensate for the acquisition limitations. Our first main contribution concerns the consideration of the colorimetric limitations in the spectral characterization of a camera. The second main contribution is the exploitation of the spectral printer model in the reflectance estimation methods
APA, Harvard, Vancouver, ISO, and other styles
7

Ortiz, Cayón Rodrigo. "Amélioration de la vitesse et de la qualité d'image du rendu basé image." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4004/document.

Full text
Abstract:
Le rendu photo-réaliste traditionnel exige un effort manuel et des calculs intensifs pour créer des scènes et rendre des images réalistes. C'est principalement pour cette raison que la création de contenus pour l’imagerie numérique de haute qualité a été limitée aux experts et le rendu hautement réaliste nécessite encore des temps de calcul significatifs. Le rendu basé image (IBR) est une alternative qui a le potentiel de rendre les applications de création et de rendu de contenus de haute qualité accessibles aux utilisateurs occasionnels, puisqu'ils peuvent générer des images photo-réalistes de haute qualité sans subir les limitations mentionnées ci-dessus. Nous avons identifié trois limitations importantes des méthodes actuelles de rendu basé image : premièrement, chaque algorithme possède des forces et faiblesses différentes, en fonction de la qualité de la reconstruction 3D et du contenu de la scène, et un seul algorithme ne permet souvent pas d’obtenir la meilleure qualité de rendu partout dans l’image. Deuxièmement, ces algorithmes présentent de forts artefacts lors du rendu d’objets manquants ou partiellement reconstruits. Troisièmement, la plupart des méthodes souffrent encore d'artefacts visuels significatifs dans les régions de l’image où la reconstruction est de faible qualité. Dans l'ensemble, cette thèse propose plusieurs améliorations significatives du rendu basé image aussi bien en termes de vitesse de rendu que de qualité d’image. Ces nouvelles solutions sont basées sur le rendu sélectif, la substitution de modèle basé sur l'apprentissage, et la prédiction et la correction des erreurs de profondeur
Traditional photo-realistic rendering requires intensive manual and computational effort to create scenes and render realistic images. Thus, creation of content for high quality digital imagery has been limited to experts and highly realistic rendering still requires significant computational time. Image-Based Rendering (IBR) is an alternative which has the potential of making high-quality content creation and rendering applications accessible to casual users, since they can generate high quality photo-realistic imagery without the limitations mentioned above. We identified three important shortcomings of current IBR methods: First, each algorithm has different strengths and weaknesses, depending on 3D reconstruction quality and scene content and often no single algorithm offers the best image quality everywhere in the image. Second, such algorithms present strong artifacts when rendering partially reconstructed objects or missing objects. Third, most methods still result in significant visual artifacts in image regions where reconstruction is poor. Overall, this thesis addresses significant shortcomings of IBR for both speed and image quality, offering novel and effective solutions based on selective rendering, learning-based model substitution and depth error prediction and correction
APA, Harvard, Vancouver, ISO, and other styles
8

Conze, Pierre-Henri. "Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement." Phd thesis, INSA de Rennes, 2014. http://tel.archives-ouvertes.fr/tel-00992940.

Full text
Abstract:
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.
APA, Harvard, Vancouver, ISO, and other styles
9

Delvit, Jean-Marc. "Évaluation de la résolution d'un instrument optique par une méthode neuronale : application à une image quelconque de télédétection." Toulouse, ENSAE, 2003. http://www.theses.fr/2003ESAE0010.

Full text
Abstract:
La connaissance de la résolution d’un instrument permet de comparer les caractéristiques de plusieurs imageurs, coopératifs ou non et d’améliorer en terme de qualité les images issues de ces instruments. Mais, le terme de résolution reste assez vague et a été l'objet de nombreuses définitions. La résolution est ce qui caractérise la capacité d’un système imageur à fournir une image dans laquelle on pourra distinguer des détails plus ou moins petits. Nous définissons comme résolution le triplet {échantillonnage, bruit, Fonction de Transfert de Modulation} Nous proposons, dans ce travail, d’évaluer la Fonction de transfert de modulation (FTM) et le bruit pour un pas d’échantillonnage donné à partir d’une image quelconque sans utiliser d’image de référence. Il faut remarquer que deux images quelconques auront a priori deux résolutions différentes, donc deux triplets différents, mais aussi deux paysages différents. C’est un des problèmes majeurs de cette étude, problème qui nécessite de modéliser un paysage quelconque. Les phénomènes à modéliser sont complexes et noué-linéaires ; pour ces raisons, nous avons choisi d’utiliser des réseaux de neurones artificiels (RNA). En effet, les RNA sont des modèles non linéaires simples, comportant peu de paramètres. Ils sont en plus d’excellents interpolateurs. En pratique, il s’agit dans un premier temps de trier les images selon leur type de paysage. Des paysages très structurés (urbains) sont utiles pour estimer la FTM et des paysages peu structurés (ruraux) sont utiles pour estimer le bruit. Ensuite, il est essentiel de caractériser chacune des composantes du triplet. Le RNA apprend à associer, grâce à des images connues, la caractérisation de chacune des composantes du triplet à la résolution de l’image considérée. Cette caractérisation est une étape essentielle au bon fonctionnement de la méthode. Il s’agit de trouver des paramètres pertinents pour l’estimation du triplet résolution. Pour cela, nous utilisons une caractérisation du paysage, certaines propriétés fréquentielles des images ainsi que des propriétés issues de l'analyse des images en paquets d’ondelettes. Enfin, le RNA peut être utilisé de manière autonome sur des images inconnues pour estimer leur triplet résolution. Le résultat est une estimation de la FTM avec des erreurs moyennes de 5% et une estimation de bruit avec des erreurs de l’ordre du 1/4 de pas de quantification (sur l'écart type du bruit) pour des images codées sur 8 bits.
APA, Harvard, Vancouver, ISO, and other styles
10

Akinbola, Akintunde A. "Estimation of image quality factors for face recognition." Morgantown, W. Va. : [West Virginia University Libraries], 2005. https://eidr.wvu.edu/etd/documentdata.eTD?documentid=4308.

Full text
Abstract:
Thesis (M.S.)--West Virginia University, 2005.
Title from document title page. Document formatted into pages; contains vi, 56 p. : ill. (some col.). Includes abstract. Includes bibliographical references (p. 52-56).
APA, Harvard, Vancouver, ISO, and other styles
11

Istenič, Klemen. "Underwater image-based 3D reconstruction with quality estimation." Doctoral thesis, Universitat de Girona, 2021. http://hdl.handle.net/10803/672199.

Full text
Abstract:
This thesis addresses the development of resources for accurate scaling and uncertainty estimation of image-based 3D models for scientific purposes based on data acquired with monocular or unsynchronized camera systems in difficult-to-access GPS-denied (underwater) environments. The developed 3D reconstruction framework allows the creation of textured 3D models based on optical and navigation data and is independent of a specific platform, camera or mission. The dissertation presents two new methods for automatically scaling of SfM-based 3D models using laser scalers. Both were used to perform an in-depth scale error analysis of large-scale models of deep-sea underwater environments to determine the advantages and limitations of image-based 3D reconstruction strategies. In addition, a novel SfM-based system is proposed to demonstrate the feasibility of producing a globally consistent reconstruction with its uncertainty while the robot is still in the water or shortly after
Aquesta tesi aborda el desenvolupament de mètodes per a l'estimació precisa de l’escala i la incertesa de models 3D basats en imatges adquirides amb sistemes de càmeres monoculars o no sincronitzades en entorns submarins, de difícil accés i sense GPS. El sistema desenvolupat permet la creació de models 3D amb textura fent servir dades òptiques i de navegació, i és independent d’una plataforma, càmera o missió específica. La tesi presenta dos nous mètodes per a l’escalat automàtic de models 3D basats en SfM mitjançant mesuradors làser. Tots dos es van utilitzar per realitzar una anàlisi exhaustiva d'errors d’escalat de models en aigües submarines profundes per determinar avantatges i limitacions de les estratègies de reconstrucció 3D. A més, es proposa un nou sistema basat en SfM per demostrar la viabilitat de la reconstrucció 3D, globalment consistent, i amb informació d'incertesa mentre el robot encara està a l’aigua o poc després
Esta tesis aborda el desarrollo de recursos para el escalado preciso y la estimación de la incertidumbre de modelos 3D basados en imágenes, y con fines científicos. El marco de reconstrucción 3D desarrollado permite la creación de modelos 3D texturizados basados en datos ópticos y de navegación, adquiridos con sistemas monoculares o no sincronizados de cámaras en entornos (submarinos) de difícil acceso sin disponibilidad de GPS. Además, presenta dos nuevos métodos para el escalado automático de modelos 3D basados en SfM mediante medidores laser. Ambos se utilizaron para analizar los errores en escala, de modelos de ambientes submarinos en aguas profundas, con el fin de determinar las ventajas y las limitaciones de las estrategias de reconstrucción 3D. Además, se propone un nuevo sistema para demostrar la viabilidad de una reconstrucción global consistente junto con su incertidumbre mientras el robot aún está en el agua o poco después
Programa de Doctorat en Tecnologia
APA, Harvard, Vancouver, ISO, and other styles
12

Douze, Matthijs Thiesse Bernard Charvillat Vincent. "Estimation d'homographies inter-images." Toulouse : INP Toulouse, 2005. http://ethesis.inp-toulouse.fr/archive/00000034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Cui, Lei. "Topics in image recovery and image quality assessment /Cui Lei." HKBU Institutional Repository, 2016. https://repository.hkbu.edu.hk/etd_oa/368.

Full text
Abstract:
Image recovery, especially image denoising and deblurring is widely studied during the last decades. Variational models can well preserve edges of images while restoring images from noise and blur. Some variational models are non-convex. For the moment, the methods for non-convex optimization are limited. This thesis finds new non-convex optimizing method called difference of convex algorithm (DCA) for solving different variational models for various kinds of noise removal problems. For imaging system, noise appeared in images can show different kinds of distribution due to the different imaging environment and imaging technique. Here we show how to apply DCA to Rician noise removal and Cauchy noise removal. The performance of our experiments demonstrates that our proposed non-convex algorithms outperform the existed ones by better PSNR and less computation time. The progress made by our new method can improve the precision of diagnostic technique by reducing Rician noise more efficiently and can improve the synthetic aperture radar imaging precision by reducing Cauchy noise within. When applying variational models to image denoising and deblurring, a significant subject is to choose the regularization parameters. Few methods have been proposed for regularization parameter selection for the moment. The numerical algorithms of existed methods for parameter selection are either complicated or implicit. In order to find a more efficient and easier way to estimate regularization parameters, we create a new image quality sharpness metric called SQ-Index which is based on the theory of Global Phase Coherence. The new metric can be used for estimating parameters for a various of variational models, but also can estimate the noise intensity based on special models. In our experiments, we show the noise estimation performance with this new metric. Moreover, extensive experiments are made for dealing with image denoising and deblurring under different kinds of noise and blur. The numerical results show the robust performance of image restoration by applying our metric to parameter selection for different variational models.
APA, Harvard, Vancouver, ISO, and other styles
14

Hachicha, Walid. "Traitement, codage et évaluation de la qualité d’images stéréoscopiques." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132037.

Full text
Abstract:
Les récents développements des technologies de l’imagerie 3D et en particulier la stéréoscopie ont ouvert de nouveaux horizons dans de nombreux domaines d’application tels que la TV 3D, le cinéma 3D, les jeux vidéo et la vidéoconférence. Ces avancées technologiques ont soulevé plusieurs défis aussi bien sur le plan théorique que pratique et en particulier dans le domaine du codage des données 3D. En effet, l’énorme quantité d’information issue des systèmes d’acquisition requiert des solutions efficaces pour la coder et la transmettre. L’objectif de cette thèse est le développement de méthodes pour optimiser les principales étapes de la chaine de traitement et transmission d’images stéréoscopiques. Nous nous limitons dans ce travail au rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques. La première partie de ce travail traite les problèmes d’évaluation et d’amélioration de la qualité d’images stéréoscopiques. Nous nous intéressons d’abord au rehaussement de contraste en s’inspirant des méthodes 2D et en intégrant quelques éléments liés à la perception visuelle. Nous proposons ainsi une première méthode de rehaussement de contraste local basée sur la carte de saillance visuelle. L’aspect qualité est aussi traité selon une approche basée sur les protocoles et méthodes conues pour le cas des images 2D et 3D. Cette méthode exploite les caractéristiques et propriétés connues du système visuel humain (SVH) telles que la non-linéarité, la sensibilité au contraste, la sélectivité directionnelle et fréquentielle ainsi que le seuil de discrimination binoculaire. Nous avons aussi d´eveloppé une méthode de prédiction de la qualité d’images stéréoscopiques sans référence. Cette dernière est basée sur des descripteurs 3D statistiques issus de la scène naturelle afin identifier les distorsions. Ces descripteurs 3D statistiques correspondent aux attributs extraits à partir de la paire stéréo naturelle et de la carte de disparité. L’extraction de ces descripteurs se fait au moyen de l’analyse en ondelettes des images stéréoscopiques. La deuxième partie de cette thèse traite les problèmes de compression d’images stéréoscopiques. Nous avons commencé par l’exploitation de la transformée en cosinus discret unidirectionnel et unidimensionnel pour encoder l’image résiduelle issue de la compensation de disparité. Ensuite, en se basant sur la transformée en ondelettes, nous avons étudié deux techniques pour optimiser le calcul de l’image résiduelle. Enfin, nous avons proposé des méthodes d’allocation de débit pour la compression des images stéréoscopiques. En général, le problème d’allocation de bits est résolu d’une manière empirique en cherchant le débit optimale qui minimise une certaine distorsion. Cependant cette stratégie est complexe. Pour cela, nous avons proposé des méthodes d’allocation de débits, rapides et efficaces appropriées pour le codage en boucle ouverte et en boucle fermée. Cette thèse ouvre des perspectives dans les trois thématiques abordées, à savoir le rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques
Recent developments in 3D stereoscopic technology have opened new horizons in many application fields such as 3DTV, 3D cinema, video games and videoconferencing and at the same time raised a number of challenges related to the processing and coding of 3D data. Today, stereoscopic imaging technology is becoming widely used in many fields. There are still some problems related to the physical limitations of image acquisition systems, e.g. transmission and storage requirements. The objective of this thesis is the development of methods for improving the main steps of stereoscopic imaging pipeline such as enhancement, coding and quality assessment. The first part of this work addresses quality issues including contrast enhancement and quality assessment of stereoscopic images. Three algorithms have been proposed. The first algorithm deals with the contrast enhancement aiming at promoting the local contrast guided by calculated/estimated object importance map in the visual scene. The second and the third algorithms aim at predicting the distortion severity of stereo images. In the second one, we have proposed a fullreference metric that requires the reference image and is based on some 2D and 3D findings such as amplitude non-linearity, contrast sensitivity, frequency and directional selectivity, and binocular just noticeable difference model. While in the third algorithm, we have proposed a no-reference metric which needs only the stereo pair to predict its quality. The latter is based on Natural Scene statistics to identify the distortion affecting the stereo image. The statistic 3D features consist in combining features extracted from the natural stereo pair and those from the estimate disparity map. To this end, a joint wavelet transform, inspired from the vector lifting concept is first employed. Then, the features are extracted from the obtained subbands. The second part of this dissertation addresses stereoscopic image compression issues. We started by investigating a one-dimensional directional discrete cosine transform to encode the disparity compensated residual image. Afterwards, and based on the wavelet transform, we investigated two techniques for optimizing the computation of the residual image. Finally, we present efficient bit allocation methods for stereo image coding purpose. Generally, the bit allocation problem is solved in an empirical manner by looking for the optimal rates leading to the minimum distortion value. Thanks to recently published work on approximations of the entropy and distortion functions, we proposed accurate and fast bit allocation schemes appropriate for the open-loop and closed-loop based stereo coding structures
APA, Harvard, Vancouver, ISO, and other styles
15

CASTRO, JOSE DAVID BERMUDEZ. "AGE ESTIMATION FROM FACIALS IMAGES." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2015. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=25755@1.

Full text
Abstract:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
PROGRAMA DE EXCELENCIA ACADEMICA
Esta dissertação tem por objetivo investigar métodos de estimação da idade a partir de imagens faciais. Avalia-se o impacto de distintos fatores sobre a acurácia da estimativa, especificamente, a acurácia da localização de pontos fiduciais, métodos de extração de atributos, de redução de dimensionalidade, e técnicas de regressão. Adicionalmente, foi estudada a influência da raça e do sexo na acurácia da estimação da idade desenvolvido. Consideraram-se cinco métricas de desempenho do sistema, especificamente, o erro médio absoluto (MAE), o erro médio absoluto por década (MAE/D), o erro médio absoluto por idade (MAE/A), o escore acumulado (CS), e os intervalos de confiança (IC). Os experimentos foram realizados empregando dois bancos de dados públicos, cujas imagens estão rotuladas com a idade da face. Os resultados indicaram que o método automático para detecção de pontos fiduciais da face tem uma repercussão moderada sobre a acurácia das estimativas. Entre as variantes analisadas, a que apresentou a melhor acurácia foi o sistema que emprega os AAMs (Active Appearance Models) como método de extração de atributos, o PCA (Principal Components Analysis) como método para reduzir dimensionalidade, e as SVRs (Support Vector Regression) como técnica para fazer regressão.
This thesis aims to investigate methods for age estimation from facial images. The impact of distinct factors over the estimate’s accuracy is assessed, specifically the accuracy in the location of face fiducial points, feature extraction and dimensionality reduction methods, and regression techniques. Additionally, the dependence on race and gender in the accuracy of age estimation is assessed. Five performance metrics have been considered: the mean absolute error (MAE), the mean absolute error per decade (MAE / D), the mean absolute error for age (MAE / A), the cumulative score (CS) and confidence intervals (CI). The experiments were performed using two public databases, whose images are labeled with the age of the face. The results showed the impact of the automatic method for detection of fiducial points of the face has a moderate impact on the accuracy of the estimates. Among the analyzed variants, the one with the best accuracy was the system that employs the Active Appearance Models (AAMs) as feature extraction method, the Principal Components Analysis (PCA) as dimensionality reduction method, and Support Vector Regression (SVRs) as a technique to do regression.
APA, Harvard, Vancouver, ISO, and other styles
16

Zayas-Cedeño, Gricelis 1974. "Motion estimation of cloud images." Thesis, Massachusetts Institute of Technology, 1998. http://hdl.handle.net/1721.1/50035.

Full text
Abstract:
Thesis (M.S.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1998.
Includes bibliographical references (leaves 63-64).
by Gricelis Zayas-Cedeño.
M.S.
APA, Harvard, Vancouver, ISO, and other styles
17

Thomas, Graham A. "Motion estimation and its application in broadcast television." Thesis, University of Essex, 1990. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.258717.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Cherifi, Daikha. "Amélioration et évaluation de la qualité des images." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132053.

Full text
Abstract:
Dans le cadre de cette thèse nous nous sommes intéressés à l’amélioration de la qualité visuelle des images, en rehaussant le contraste des images. Nous avons proposé, tout d’abord, une méthode de rehaussement simple et efficace s’inspirant du système visuel humain. Cette méthode est efficace,quand elle est appliquée aux images naturelles en couleur, ou monochromes. La méthode proposée est ensuite améliorée pour pouvoir rehausser d’autre type d’image comme les images médicale, telles que les images de rétine et l’endoscopie. Par la suite, nous nous sommes aussi intéressés aux rehaussements des images médicales et en particulier aux images de mammographie et nous avons donc proposé une méthode de rehaussement de contraste qui leur est spécifiquement dédiée. Au final,nous nous sommes intéressés à l’évaluation des méthodes de rehaussement proposées et aux différentes approches existantes dans la littérature. La méthode d’évaluation proposée s’appuie sur l’analyse radiale et angulaire du spectre d’énergie de Fourier. La validation de notre méthode de rehaussement de contraste a été faite en utilisant des échantillons d’images de 2 bases et en utilisant un test subjectif pour la comparer à d’autres méthodes de rehaussement. La note subjective finale de MOS, obtenue par la moyenne des notes des observateurs, montre la fiabilité de notre méthode de rehaussement de contraste et son intérêt par comparaison aux autres méthodes classiques
The aim of this thesis is to propose new methods for image enhancement based on oriented and multi-scale transforms using some perceptual criteria. The first part of the thesis is devoted to the development of a simple and efficient contrast enhancement method inspired from the human visual system. This method is evaluated on a set of natural color and monochrome images. The obtained results are evaluated subjectively and by using objective measures based on energy spectrum analysis and perceptual criteria. The enhancement technique is also extended to some medical images, such as mammography and endoscopy images. A special contrast enhancement method adapted to mammography is then proposed. It is based on a segmentation process using a priori information on the mammography images. The last part of the thesis is devoted to image enhancement evaluation. A critical literature survey of image enhancement evaluation methods is provided. The evaluation method proposed in this thesis is based on the radial and angular analysis of the Fourier powerspectrum. Another perceptual approach is proposed to evaluate the output. This method is based on the analysis of the visibility map computed by using a pyramidal contrast. The evaluation is performed on some samples taken from two databases. Both subjective and objective evaluations demonstrate the efficiency of the proposed image enhancement methods
APA, Harvard, Vancouver, ISO, and other styles
19

Shafi, Muhammad. "Face pose estimation in monocular images." Thesis, Loughborough University, 2010. https://dspace.lboro.ac.uk/2134/5894.

Full text
Abstract:
People use orientation of their faces to convey rich, inter-personal information. For example, a person will direct his face to indicate who the intended target of the conversation is. Similarly in a conversation, face orientation is a non-verbal cue to listener when to switch role and start speaking, and a nod indicates that a person has understands, or agrees with, what is being said. Further more, face pose estimation plays an important role in human-computer interaction, virtual reality applications, human behaviour analysis, pose-independent face recognition, driver s vigilance assessment, gaze estimation, etc. Robust face recognition has been a focus of research in computer vision community for more than two decades. Although substantial research has been done and numerous methods have been proposed for face recognition, there remain challenges in this field. One of these is face recognition under varying poses and that is why face pose estimation is still an important research area. In computer vision, face pose estimation is the process of inferring the face orientation from digital imagery. It requires a serious of image processing steps to transform a pixel-based representation of a human face into a high-level concept of direction. An ideal face pose estimator should be invariant to a variety of image-changing factors such as camera distortion, lighting condition, skin colour, projective geometry, facial hairs, facial expressions, presence of accessories like glasses and hats, etc. Face pose estimation has been a focus of research for about two decades and numerous research contributions have been presented in this field. Face pose estimation techniques in literature have still some shortcomings and limitations in terms of accuracy, applicability to monocular images, being autonomous, identity and lighting variations, image resolution variations, range of face motion, computational expense, presence of facial hairs, presence of accessories like glasses and hats, etc. These shortcomings of existing face pose estimation techniques motivated the research work presented in this thesis. The main focus of this research is to design and develop novel face pose estimation algorithms that improve automatic face pose estimation in terms of processing time, computational expense, and invariance to different conditions.
APA, Harvard, Vancouver, ISO, and other styles
20

Duncan, William J. "Visual Acuity Estimation from Simulated Images." Diss., The University of Arizona, 2016. http://hdl.handle.net/10150/613300.

Full text
Abstract:
Simulated images can provide insight into the performance of optical systems, especially those with complicated features. Many modern solutions for presbyopia and cataracts feature sophisticated power geometries or diffractive elements. Some intraocular lenses (IOLs) arrive at multifocality through the use of a diffractive surface and multifocal contact lenses have a radially varying power profile. These type of elements induce simultaneous vision as well as affecting vision much differently than a monofocal ophthalmic appliance. With myriad multifocal ophthalmics available on the market it is difficult to compare or assess performance in ways that effect wearers of such appliances. Here we present software and algorithmic metrics that can be used to qualitatively and quantitatively compare ophthalmic element performance, with specific examples of bifocal intraocular lenses (IOLs) and multifocal contact lenses. We anticipate this study, methods, and results to serve as a starting point for more complex models of vision and visual acuity in a setting where modeling is advantageous. Generating simulated images of real- scene scenarios is useful for patients in assessing vision quality with a certain appliance. Visual acuity estimation can serve as an important tool for manufacturing and design of ophthalmic appliances.
APA, Harvard, Vancouver, ISO, and other styles
21

Quiroga, Sepúlveda Julián. "Scene Flow Estimation from RGBD Images." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM057/document.

Full text
Abstract:
Cette thèse aborde le problème du calcul de manière fiable d'un champ de mouvement 3D, appelé flot de scène, à partir d'une paire d'images RGBD prises à des instants différents. Nous proposons un schéma d'estimation semi-rigide pour le calcul robuste du flot de scène, en prenant compte de l'information de couleur et de profondeur, et un cadre de minimisation alternée variationnelle pour récupérer les composantes rigides et non rigides du champ de mouvement 3D. Les tentatives précédentes pour estimer le flot de scène à partir des images RGBD étaient des extensions des approches de flux optique, et n'exploitaient pas totalement les données de profondeur, ou bien elles formulaient l'estimation dans l'espace 3D sans tenir compte de la semi-rigidité des scènes réelles. Nous démontrons que le flot de scène peut ^etre calculé de manière robuste et précise dans le domaine de l'image en reconstruisant un mouvement 3D cohérent avec la couleur et la profondeur, en encourageant une combinaison réglable entre rigidité locale et par morceaux. En outre, nous montrons que le calcul du champ de mouvement 3D peut être considéré comme un cas particulier d'un problème d'estimation plus général d'un champ de mouvements rigides à 6 dimensions. L'estimation du flot de scène est donc formulée comme la recherche d'un champ optimal de mouvements rigides. Nous montrons finalement que notre méthode permet d'obtenir des résultats comparables à l'état de l'art
This thesis addresses the problem of reliably recovering a 3D motion field, or scene flow, from a temporal pair of RGBD images. We propose a semi-rigid estimation framework for the robust computation of scene flow, taking advantage of color and depth information, and an alternating variational minimization framework for recovering rigid and non-rigid components of the 3D motion field. Previous attempts to estimate scene flow from RGBD images have extended optical flow approaches without fully exploiting depth data or have formulated the estimation in 3D space disregarding the semi-rigidity of real scenes. We demonstrate that scene flow can be robustly and accurately computed in the image domain by solving for 3D motions consistent with color and depth, encouraging an adjustable combination between local and piecewise rigidity. Additionally, we show that solving for the 3D motion field can be seen as a specific case of a more general estimation problem of a 6D field of rigid motions. Accordingly, we formulate scene flow estimation as the search of an optimal field of twist motions achieving state-of-the-art results.STAR
APA, Harvard, Vancouver, ISO, and other styles
22

Tseng, Hsin-Wu, Jiahua Fan, and Matthew A. Kupinski. "Assessing computed tomography image quality for combined detection and estimation tasks." SPIE-SOC PHOTO-OPTICAL INSTRUMENTATION ENGINEERS, 2017. http://hdl.handle.net/10150/626451.

Full text
Abstract:
Maintaining or even improving image quality while lowering patient dose is always the desire in clinical computed tomography (CT) imaging. Iterative reconstruction (IR) algorithms have been designed to allow for a reduced dose while maintaining or even improving an image. However, we have previously shown that the dose-saving capabilities allowed with IR are different for different clinical tasks. The channelized scanning linear observer (CSLO) was applied to study clinical tasks that combine detection and estimation when assessing CT image data. The purpose of this work is to illustrate the importance of task complexity when assessing dose savings and to move toward more realistic tasks when performing these types of studies. Human-observer validation of these methods will take place in a future publication. Low-contrast objects embedded in body-size phantoms were imaged multiple times and reconstructed by filtered back projection (FBP) and an IR algorithm. The task was to detect, localize, and estimate the size and contrast of low-contrast objects in the phantom. Independent signal-present and signal-absent regions of interest cropped from images were channelized by the dense-difference of Gauss channels for CSLO training and testing. Estimation receiver operating characteristic (EROC) curves and the areas under EROC curves (EAUC) were calculated by CSLO as the figure of merit. The one-shot method was used to compute the variance of the EAUC values. Results suggest that the IR algorithm studied in this work could efficiently reduce the dose by similar to 50% while maintaining an image quality comparable to conventional FBP reconstruction warranting further investigation using real patient data. (C) The Authors. Published by SPIE under a Creative Commons Attribution 3.0 Unported License. Distribution or reproduction of this work in whole or in part requires full attribution of the original publication, including its DOI.
APA, Harvard, Vancouver, ISO, and other styles
23

Le, Callet Patrick. "Critères objectifs avec référence de qualité visuelle des images couleur." Nantes, 2001. http://www.theses.fr/2001NANT2084.

Full text
Abstract:
La conception de critères objectifs d'évaluation de qualité visuelle des images est d'une grande utilité afin d'optimiser les performances des systèmes de traitement d'images pour la saisie, l'affichage, le stockage et la transmission de l'information visuelle. Un critère objectif de qualité doit fournir des mesures de qualité en forte correspondance avec le jugement humain. Il est donc nécessaire d'intégrer des modèles des principales propriétés du système visuel humain dans la conception d'un tel critère. L'objectif de cette thèse est d'établir et d'appliquer ces modèles afin d'évaluer la qualité des images fixes couleur. Cette évaluation s'effectue avec la connaissance de l'image de référence. Par contre, le critère ne nécessite pas la connaissance de la nature des distorsions de l'image dégradée
Objective metrics for image quality assessment are very useful in order to optimise performance of image processing systems for acquiring, viewing, archiving or transmitting visual data. An objective metric should provide quality measures in strong correspondence with human judgement. So, it is necessary to incorporate models of most of human visual system properties in the design of such metric. The main global of this thesis is to establish and apply these models in order to assess colour image quality. This assessment is done with the full reference image but without any a priori knowledge on the distortion nature introduced in the distorted image
APA, Harvard, Vancouver, ISO, and other styles
24

Ghosh, Roy Gourab. "A Simple Second Derivative Based Blur Estimation Technique." The Ohio State University, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=osu1366890068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Johnson, Samuel Alan. "Articulated human pose estimation in natural images." Thesis, University of Leeds, 2012. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.598026.

Full text
Abstract:
In this thesis the problem of estimating the 2-D articulated pose, or configuration of a person in unconstrained images such as consumer photographs is addressed. Contributions are split among three major chapters. In previous work the Pictorial Structure Model approach has proven particularly successful. and is appealing because of its moderate computational cost. However, the accuracy of resulting pose estimates has been limited by the use of simple representations of limb appearance. In this thesis strong discriminatively trained limb detectors combining gradient and colour segmentation cues are proposed. The approach improves significantly on the "iterative image parsing" method which was the state-of-the-art at the time, and shows significant promise for combination with other models of pose and appearance. In the second pan of this thesis higher fidelity models of pose and appearance are proposed. The aim is to tackle extremely challenging properties of the human pose estimation task arising from variation in pose, anatomy, clothing. and imaging conditions. Current methods use simple models of body part appearance and plausible configurations due to limitations of available training data and constraints on computational expense. It is shown that such models severely limit accuracy. A new annotated database of challenging consumer images is introduced, an order of magnitude larger than currently available datasets. This larger amount of data allows partitioning of the pose space and the learning of multiple, clustered Pictorial Structure Models. A relative improvement in accuracy of over 50% is achieved compared to the standard, single model approach. In the final part of this thesis the clustered Pictorial Structure Model framework is extended to handle much larger quantities of training data. Furthermore it is shown how to utilise Amazon Mechanical Turk and a latent annotation update scheme to achieve high quality annotations at low cost. A significant increase in pose estimation accuracy is presented, while the computational expense of the framework is improved by a factor of
APA, Harvard, Vancouver, ISO, and other styles
26

Wheelwright, Alison V. "Estimation of edges in magnetic resonance images." Thesis, University of Edinburgh, 1992. http://hdl.handle.net/1842/11547.

Full text
Abstract:
This thesis is concerned with the estimation of edges in magnetic resonance images (MRI), which may be seen as a first step in the automatic classification of such data. The estimation is taken as a two-stage process. A set of points lying on a single edge is first identified. Secondly, some form of closed curve is fitted to this set of points to describe the edge. The data analysed in this study are MRI of cross-sections through human thighs. Although the subject of the images exists in continuous two-dimensional space, in practice data values are only recorded at discrete, sampled points. This is due to quantisation of the underlying continuous function for storage on a computer. A major theme for this study is the recovery of the underlying continuous function from the sampled data: it is expected that this will allow edges to be estimated more accurately. Bivariate kernel regression is used in the first stage to fit a smooth function to the observed data. Edge points are identified as positions of zero-crossings of the smooth function. The accuracy with which edge points are located is influenced by the amount of smoothing, and several data-based methods are discussed for estimating an appropriate smoothing parameter. In the second stage, an edge is modelled as a simple, closed curve by fitting a Fourier series (FS) to the set of edge points. Geometric properties, such as perimeter length, can be determined from the fitted series. The accuracy of the estimation of such properties is used as a criterion to determine the number of terms to be included in the series. The choice of variable with which to label consecutive points prior to fitting the FS is also discussed.
APA, Harvard, Vancouver, ISO, and other styles
27

Hadhri, Tesnim. "Single view depth estimation from train images." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70388.

Full text
Abstract:
L’estimation de la profondeur consiste à calculer la distance entre différents points de la scène et la caméra. Savoir à quelle distance un objet donné est de la caméra permettrait de comprendre sa représentation spatiale. Les anciennes méthodes ont utilisé des paires d’images stéréo pour extraire la profondeur. Pour avoir une paire d’images stéréo, nous avons besoin d’une paire de caméras calibrées. Cependant, il est plus simple d’avoir une seule image étant donnée qu’aucun calibrage de caméra n’est alors nécessaire. C’est pour cette raison que les méthodes basées sur l’apprentissage sont apparues. Ils estiment la profondeur à partir d’une seule image. Les premières solutions des méthodes basées sur l’apprentissage ont utilisé la vérité terrain de la profondeur durant l’apprentissage. Cette vérité terrain est généralement acquise à partir de capteurs tels que Kinect ou Lidar. L’acquisition de profondeur est coûteuse et difficile, c’est pourquoi des méthodes auto-supervisées se sont apparues naturellement comme une solution. Ces méthodes ont montré de bons résultats pour l’estimation de la profondeur d’une seule image. Dans ce travail, nous proposons d’estimer des cartes de profondeur d’images prises du point de vue des conducteurs de train. Pour ce faire, nous avons proposé d’utiliser les contraintes géométriques et les paramètres standards des rails pour extraire la carte de profondeur à entre les rails, afin de la fournir comme signal de supervision au réseau. Il a été démontré que la carte de profondeur fournie au réseau résout le problème de la profondeur des voies ferrées qui apparaissent généralement comme des objets verticaux devant la caméra. Cela a également amélioré les résultats de l’estimation de la profondeur des séquences des trains. Au cours de ce projet, nous avons d’abord choisi certaines séquences de trains et déterminé leurs distances focales pour calculer la carte de profondeur de la voie ferrée. Nous avons utilisé ce jeu de données et les distances focales calculées pour affiner un modèle existant « Monodepth2 » pré-entrainé précédemment sur le jeu de données Kitti.
Depth prediction is the task of computing the distance of different points in the scene from the camera. Knowing how far away a given object is from the camera would make it possible to understand its spatial representation. Early methods have used stereo pairs of images to extract depth. To have a stereo pair of images, we need a calibrated pair of cameras. However, it is simpler to have a single image as no calibration or synchronization is needed. For this reason, learning-based methods, which estimate depth from monocular images, have been introduced. Early solutions of learning-based problems have used ground truth depth for training, usually acquired from sensors such as Kinect or Lidar. Acquiring depth ground truth is expensive and difficult which is why self-supervised methods, which do not acquire such ground truth for fine-tuning, has appeared and have shown promising results for single image depth estimation. In this work, we propose to estimate depth maps for images taken from the train driver viewpoint. To do so, we propose to use geometry constraints and rails standard parameters to extract the depth map inside the rails, to provide it as a supervisory signal to the network. To this end, we first gathered a train sequences dataset and determined their focal lengths to compute the depth map inside the rails. Then we used this dataset and the computed focal lengths to finetune an existing model “Monodepth2” trained previously on the Kitti dataset. We show that the ground truth depth map provided to the network solves the problem of depth of the rail tracks which otherwise appear as standing objects in front of the camera. It also improves the results of depth estimation of train sequences.
APA, Harvard, Vancouver, ISO, and other styles
28

Zhang, Changjun. "Seismic absorption estimation and compensation." Thesis, University of British Columbia, 2008. http://hdl.handle.net/2429/2820.

Full text
Abstract:
As seismic waves travel through the earth, the visco-elasticity of the earth's medium will cause energy dissipation and waveform distortion. This phenomenon is referred to as seismic absorption or attenuation. The absorptive property of a medium can be described by a quality factor Q, which determines the energy decay and a velocity dispersion relationship. Four new ideas have been developed in this thesis to deal with the estimation and application of seismic absorption. By assuming that the amplitude spectrum of a seismic wavelet may be modeled by that of a Ricker wavelet, an analytical relation has been derived to estimate a quality factor from the seismic data peak frequency variation with time. This relation plays a central role in quality factor estimation problems. To estimate interval Q for reservoir description, a method called reflectivity guided seismic attenuation analysis is proposed. This method first estimates peak frequencies at a common midpoint location, then correlates the peak frequency with sparsely-distributed reflectivities, and finally calculates Q values from the peak frequencies at the reflectivity locations. The peak frequency is estimated from the prestack CMP gather using peak frequency variation with offset analysis which is similar to amplitude variation with offset analysis in implementation. The estimated Q section has the same layer boundaries of the acoustic impedance or other layer properties. Therefore, the seismic attenuation property obtained with the guide of reflectivity is easy to interpret for the purpose of reservoir description. To overcome the instability problem of conventional inverse Q filtering, Q compensation is formulated as a least-squares (LS) inverse problem based on statistical theory. The matrix of forward modeling is composed of time-variant wavelets. The LS de-absorption is solved by an iterative non-parametric approach. To compensate for absorption in migrated seismic sections, a refocusing technique is developed using non-stationary multi-dimensional deconvolution. A numerical method is introduced to calculate the blurring function in layered media, and a least squares inverse scheme is used to remove the blurring effect in order to refocus the migrated image. This refocusing process can be used as an alternative to regular migration with absorption compensation.
APA, Harvard, Vancouver, ISO, and other styles
29

Ouni, Sonia. "Evaluation de la qualité des images couleur. Application à la recherche & à l'amélioration des images." Thesis, Reims, 2012. http://www.theses.fr/2012REIMS034.

Full text
Abstract:
Le domaine de recherche dans l'évaluation objective de la qualité des images couleur a connu un regain d'intérêt ces dernières années. Les travaux sont essentiellement dictés par l'avènement des images numérique et par les nouveaux besoins en codage d'images (compression, transmission, restauration, indexation,…). Jusqu'à présent la meilleure évaluation reste visuelle (donc subjective) soit par des techniques psychophysiques soit par évaluation experte. Donc, il est utile, voire nécessaire, de mettre en place des critères et des mesures objectifs qui produisent automatiquement des notes de qualité se rapprochant le plus possible des notes de qualité données par l'évaluation subjective. Nous proposons, tout d'abort, une nouvelle métrique avec référence d'évaluation de la qualité des images couleur, nommée Delta E globale, se base sur l'aspect couleur et intègre les caractéristiques du système visuel humain (SVH). Les performances ont été mesurées dans deux domaines d'application la compression et la restauration. Les expérimentations réalisées montrent une corrélation importante entre les résultats obtenus et l'appréciation subjective. Ensuite, nous proposons une nouvelle approche d'évaluation sans référence de la qualité des images couleur en se basant sur les réseaux de neurones : compte tenu du caractère multidimensionnel de la qualité d'images, une quantification de la qualité a été proposée en se basant sur un ensemble d'attributs formant le descripteur PN (Précision, Naturalité). La précision traduit la netteté et la clarté. Quant à la naturalité, elle traduit la luminosité et la couleur. Pour modéliser le critère de la couleur, trois métriques sans référence ont été définies afin de détecter la couleur dominante dans l'image, la proportion de cette couleur et sa dispersion spatiale. Cette approche se base sur les réseaux de neurones afin d'imiter la perception du SVH. Deux variantes de cette approche ont été expérimentées (directe et progressive). Les résultats obtenus ont montré la performance de la variante progressive par rapport à la variante directe. L'application de l'approche proposée dans deux domaines : dans le contexte de la restauration, cette approche a servi comme un critère d'arrêt automatique pour les algorithmes de restauration. De plus, nous l'avons utilisé au sein d'un système d'estimation de la qualité d'images afin de détecter automatiquement le type de dégradation contenu dans une image. Dans le contexte de l'indexation et de la recherche d'images, l'approche proposée a servi d'introduire la qualité des images de la base comme index. Les résultats expérimentaux ont montré l'amélioration des performances du système de recherche d'images par le contenu en utilisant l'index qualité ou en réalisant un raffinement des résultats avec le critère de qualité
The research area in the objective quality assessment of the color images has been a renewed interest in recent years. The work is primarily driven by the advent of digital pictures and additional needs in image coding (compression, transmission, recovery, indexing,...). So far the best evaluation is visual (hence subjective) or by psychophysical techniques or by expert evaluation. Therefore, it is useful, even necessary, to establish criteria and objectives that automatically measures quality scores closest possible quality scores given by the subjective evaluation. We propose, firstly, a new full reference metric to assess the quality of color images, called overall Delta E, based on color appearance and incorporates the features of the human visual system (HVS). Performance was measured in two areas of application compression and restoration. The experiments carried out show a significant correlation between the results and subjective assessment.Then, we propose a new no reference quality assessmenent color images approach based on neural networks: given the multidimensional nature of image quality, a quantification of quality has been proposed, based on a set of attributes forming the descriptor UN (Utility, Naturalness). Accuracy reflects the sharpness and clarity. As for naturality, it reflects the brightness and color. To model the criterion of color, three no reference metrics were defined to detect the dominant color in the image, the proportion of that color and its spatial dispersion. This approach is based on neural networks to mimic the HVS perception. Two variants of this approach have been tried (direct and progressive). The results showed the performance of the progressive variant compared to the direct variant. The application of the proposed approach in two areas: in the context of restoration, this approach has served as a stopping criterion for automatic restoration algorithms. In addition, we have used in a system for estimating the quality of images to automatically detect the type of content in an image degradation. In the context of indexing and image retrieval, the proposed approach was used to introduce the quality of images in the database as an index. The experimental results showed the improvement of system performance image search by content by using the index or by making a quality refinement results with the quality criterion
APA, Harvard, Vancouver, ISO, and other styles
30

Montard, Nathalie. "Estimation de la qualité perceptuelle de signaux numériques audiovisuels : de la qualité à l'acceptabilité du service." Saint-Etienne, 2001. http://www.theses.fr/2002STET4009.

Full text
Abstract:
Le développement des technologies numériques et du paysage multimédia amène de nombreux nouveaux services, de nouveaux types de terminaux et de nouvelles conditions de diffusion de ces services. Ces évolutions entraînent également l'évolution des techniques de surveillance de la qualité audiovisuelle et des procédés de qualification de la qualité du service. De nombreuses méthodes d'estimation de la qualité de signaux numériques sont apparues ces dernières années. Cependant, ces méthodes ne permettent pas toujours de répondre aux contraintes de la surveillance d'un réseau de diffusion en temps réel et en continu. De plus, ces techniques permettent de qualifier le signal audio ou vidéo sans rendre compte de la qualité globale du service tel qu'il est abordé par l'utilisateur. Cette thèse propose des solutions pour l'intégration des informations perceptuelle audio et vidéo dans le but de qualifier l'ensemble d'un service audiovisuel. L'approche adoptée est orientée utilisateur final, c'est à dire qu'elle prend également en compte l'intégration du temps et le contexte de l'exploitation du service. Les méthodes développées utilisent la modélisation de phénomènes psychophysiques des interactions perceptuelles audio et vidéo, ainsi que l'influence de la mémoire perceptuelle et du temps. Cette thèse présente également un modèle d'estimation aveugle de la qualité vidéo au moyen de paramètres sensibles à différents types de dégradations. Ces paramètres exploitent simultanément des données fréquentielles et spatiales et sont fusionnés par un modèle non linéaire d'estimation de qualité perceptuelle. Les phases de simulation ont permis de valider la pertinence des procédés de mesure. 2 applications ont permis la mise en œuvre de ces solutions sur des plates-formes de traitement du signal. Les développements réalisés lors de ces recherches ont fait l'objet de plusieurs brevets
The development of digital technologies and multimedia landscape has led to the creation of several new services, a nex generation of terminals and new broadcasting conditions. These changes bring about new audio-visual monitoring techniques and re-open the whole question of the assessment of quality of service. . . [etc. ]
APA, Harvard, Vancouver, ISO, and other styles
31

Vlad, Raluca Ioana. "Une méthode pour l'évaluation de la qualité des images 3D stéréoscopiques." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00925280.

Full text
Abstract:
Dans le contexte d'un intérêt grandissant pour les systèmes stéréoscopiques, mais sans méthodes reproductible pour estimer leur qualité, notre travail propose une contribution à la meilleure compréhension des mécanismes de perception et de jugement humains relatifs au concept multi-dimensionnel de qualité d'image stéréoscopique. Dans cette optique, notre démarche s'est basée sur un certain nombre d'outils : nous avons proposé un cadre adapté afin de structurer le processus d'analyse de la qualité des images stéréoscopiques, nous avons implémenté dans notre laboratoire un système expérimental afin de conduire plusieurs tests, nous avons crée trois bases de données d'images stéréoscopiques contenant des configurations précises et enfin nous avons conduit plusieurs expériences basées sur ces collections d'images. La grande quantité d'information obtenue par l'intermédiaire de ces expérimentations a été utilisée afin de construire un premier modèle mathématique permettant d'expliquer la perception globale de la qualité de la stéréoscopie en fonction des paramètres physiques des images étudiée.
APA, Harvard, Vancouver, ISO, and other styles
32

Jung, Mathieu. "Évaluation univariante de la qualité des images par une approche neuronale." Toulouse, ENSAE, 2000. http://www.theses.fr/2000ESAE0012.

Full text
Abstract:
Disposer d'un outil universel d'évaluation automatique de la qualité des images est très utile lorsque le nombre d'images à traiter est important. C'est le cas quand il s'agit d'optimiser les paramètres caractéristiques d'un sytème imageur. La plupart des méthodes d'évaluation de la qualité des images sont des méthodes bivariantes, c'est-à-dire reposant sur une comparaison entre une image dégradée et la même image parfaite. Très souvent, cependant, la référence n'existe pas. Quelques méthodes univariantes, c'est-à-dire sans image de référence, ont été développées mais les résultats sont encore peu probants. Cette thèse propose une nouvelle approche pour évaluer de façon univariante la qualité d'une image. Cette approche repose sur l'utilisation de réseaux de neurones. La démarche proposée peut être appliquée à tout type de dégradation. Elle comporte trois étapes. Il faut d'abord trouver sur l'image dégradée les caractéristiques qui permettent d'évaluer sa qualité. Il faut ensuite étalonner un modèle permettant d'associer ces caractéristiques et la note de qualité attendue. Enfin, il faut vérifier la stabilité du modèle sur un grand nombre d'images. Les caractéristiques de dégradation dépendent non seulement de son importance, mais aussi du type d'image. Ces informations sont extraites de l'image par des traitements et calculs systématiques. Elles sont regroupées sous la forme d'un vecteur caractéristique. Ce vecteur sert d'entrée au modèle univariant. Le modèle choisi est un réseau de neurones (RN). L'étalonnage des paramètres du RN se fait sur un grand nombre d'exemples connus que l'on appelle base d'apprentissage. Ils sont choisis de manière à obtenir un échantillon représentatif de tous les types d'images que l'on peut rencontrer dans l'application désirée. La méthode est appliquée à différents contextes. Entre autres, elle permet d'estimer la qualité visuelle d'images comprimées JPEG, d'estimer en vol le défaut de mise au point d'un instrument satellitaire ou de modéliser la détection visuelle de défauts ponctuels sur une image. La précision des résultats est comparée à celle obtenue dans le même contexte avec des critères de qualité bivariants.
APA, Harvard, Vancouver, ISO, and other styles
33

Mazeyev, Yuri. "Direction estimation on 3D-tomography images of jawbones." Thesis, Halmstad University, School of Information Science, Computer and Electrical Engineering (IDE), 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-1661.

Full text
Abstract:

The present work expose a technique of estimation of optimal direction for placing dental implant. A volumetric computed tomography (CT) scan is used as a help of the following searches. The work offers criteria of the optimal implant placement direction and methods of evaluation on direction’s significance. The technique utilizes structure tensor to find a normal to the jawbone surface. Direction of that normal is then used as initial direction for search of optimal direction.

The technique described in the present work aimed to support doctor’s decisions during dental implantation treatment.

APA, Harvard, Vancouver, ISO, and other styles
34

Senses, Engin Utku. "Blur Estimation And Superresolution From Multiple Registered Images." Master's thesis, METU, 2008. http://etd.lib.metu.edu.tr/upload/3/12609929/index.pdf.

Full text
Abstract:
Resolution is the most important criterion for the clarity of details on an image. Therefore, high resolution images are required in numerous areas. However, obtaining high resolution images has an evident technological cost and the value of these costs change with the quality of used optical systems. Image processing methods are used to obtain high resolution images with low costs. This kind of image improvement is named as superresolution image reconstruction. This thesis focuses on two main titles, one of which is the identification methods of blur parameters, one of the degradation operators, and the stochastic SR image reconstruction methods. The performances of different stochastic SR image reconstruction methods and blur identification methods are shown and compared. Then the identified blur parameters are used in superresolution algorithms and the results are shown.
APA, Harvard, Vancouver, ISO, and other styles
35

Zhu, Aichun. "Articulated human pose estimation in images and video." Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0013/document.

Full text
Abstract:
L’estimation de la pose du corps humain est un problème difficile en vision par ordinateur et les actions de toutes les difficultés de détection d’objet. Cette thèse se concentre sur les problèmes de l’estimation de la pose du corps humain dans les images ou vidéo, y compris la diversité des apparences, les changements de scène et l’éclairage de fond de confusion encombrement. Pour résoudre ces problèmes, nous construisons un modèle robuste comprenant les éléments suivants. Tout d’abord, les méthodes top-down et bottom-up sont combinés à l’estimation pose humaine. Nous étendons le modèle structure picturale (PS) de coopérer avec filtre à particules recuit (APF) pour robuste multi-vues estimation de la pose. Deuxièmement, nous proposons plusieurs parties de mélange à base (MMP) modèle d’une partie supérieure du corps pour l’estimation de la pose qui contient deux étapes. Dans la phase de pré-estimation, il y a trois étapes: la détection du haut du corps, catégorie estimation du modèle pour le haut du corps, et la sélection de modèle complet pour pose estimation. Dans l’étape de l’estimation, nous abordons le problème d’une variété de poses et les activités humaines. Enfin, le réseau de neurones à convolution (CNN) est introduit pour l’estimation de la pose. Un Local Multi-résolution réseau de neurones à convolution (LMR-CNN) est proposé pour apprendre la représentation pour chaque partie du corps. En outre, un modèle hiérarchique sur la base LMR-CNN est défini pour faire face à la complexité structurelle des parties de branche. Les résultats expérimentaux démontrent l’efficacité du modèle proposé
Human pose estimation is a challenging problem in computer vision and shares all the difficulties of object detection. This thesis focuses on the problems of human pose estimation in still images or video, including the diversity of appearances, changes in scene illumination and confounding background clutter. To tackle these problems, we build a robust model consisting of the following components. First, the top-down and bottom-up methods are combined to estimation human pose. We extend the Pictorial Structure (PS) model to cooperate with annealed particle filter (APF) for robust multi-view pose estimation. Second, we propose an upper body based multiple mixture parts (MMP) model for human pose estimation that contains two stages. In the pre-estimation stage, there are three steps: upper body detection, model category estimation for upper body, and full model selection for pose estimation. In the estimation stage, we address the problem of a variety of human poses and activities. Finally, a Deep Convolutional Neural Network (DCNN) is introduced for human pose estimation. A Local Multi-Resolution Convolutional Neural Network (LMR-CNN) is proposed to learn the representation for each body part. Moreover, a LMR-CNN based hierarchical model is defined to meet the structural complexity of limb parts. The experimental results demonstrate the effectiveness of the proposed model
APA, Harvard, Vancouver, ISO, and other styles
36

Kazemi, Vahid. "Correspondence Estimation in Human Face and Posture Images." Doctoral thesis, KTH, Datorseende och robotik, CVAP, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-150115.

Full text
Abstract:
Many computer vision tasks such as object detection, pose estimation,and alignment are directly related to the estimation of correspondences overinstances of an object class. Other tasks such as image classification andverification if not completely solved can largely benefit from correspondenceestimation. This thesis presents practical approaches for tackling the corre-spondence estimation problem with an emphasis on deformable objects.Different methods presented in this thesis greatly vary in details but theyall use a combination of generative and discriminative modeling to estimatethe correspondences from input images in an efficient manner. While themethods described in this work are generic and can be applied to any object,two classes of objects of high importance namely human body and faces arethe subjects of our experimentations.When dealing with human body, we are mostly interested in estimating asparse set of landmarks – specifically we are interested in locating the bodyjoints. We use pictorial structures to model the articulation of the body partsgeneratively and learn efficient discriminative models to localize the parts inthe image. This is a common approach explored by many previous works. Wefurther extend this hybrid approach by introducing higher order terms to dealwith the double-counting problem and provide an algorithm for solving theresulting non-convex problem efficiently. In another work we explore the areaof multi-view pose estimation where we have multiple calibrated cameras andwe are interested in determining the pose of a person in 3D by aggregating2D information. This is done efficiently by discretizing the 3D search spaceand use the 3D pictorial structures model to perform the inference.In contrast to the human body, faces have a much more rigid structureand it is relatively easy to detect the major parts of the face such as eyes,nose and mouth, but performing dense correspondence estimation on facesunder various poses and lighting conditions is still challenging. In a first workwe deal with this variation by partitioning the face into multiple parts andlearning separate regressors for each part. In another work we take a fullydiscriminative approach and learn a global regressor from image to landmarksbut to deal with insufficiency of training data we augment it by a large numberof synthetic images. While we have shown great performance on the standardface datasets for performing correspondence estimation, in many scenariosthe RGB signal gets distorted as a result of poor lighting conditions andbecomes almost unusable. This problem is addressed in another work wherewe explore use of depth signal for dense correspondence estimation. Hereagain a hybrid generative/discriminative approach is used to perform accuratecorrespondence estimation in real-time.

QC 20140919

APA, Harvard, Vancouver, ISO, and other styles
37

Timoner, Samson J. (Samson Joshua) 1975. "Subpixel motion estimation from sequences of video images." Thesis, Massachusetts Institute of Technology, 2000. http://hdl.handle.net/1721.1/86429.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Navaratnam, Ramanan. "Probabilistic human body pose estimation from monocular images." Thesis, University of Cambridge, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.612174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Chari, Visesh. "Shape estimation of specular objects from multiview images." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM106/document.

Full text
Abstract:
Un des modèles les plus simples de surface de réfraction est une surface plane. Bien que sa présence soit omniprésente dans notre monde sous la forme de vitres transparentes, de fenêtres, ou la surface d'eau stagnante, très peu de choses sont connues sur la géométrie multi-vues causée par la réfraction d'une telle surface. Dans la première partie de cette thèse, nous analysons la géométrie à vues multiple d'une surface réfractive. Nous considérons le cas où une ou plusieurs caméras dans un milieu (p. ex. l'air) regardent une scène dans un autre milieu (p. ex. l'eau), avec une interface plane entre ces deux milieux. Le cas d'une photo sous-marine, par exemple, correspond à cette description. Comme le modèle de projection perspectif ne correspond pas à ce scenario, nous dérivons le modèle de caméra et sa matrice de projection associée. Nous montrons que les lignes 3D de la scène correspondent à des courbes quartiques dans les images. Un point intéressant à noter à propos de cette configuration est que si l'on considère un indice de réfraction homogène, alors il existe une courbe unique dans l'image pour chaque ligne 3D du monde. Nous décrivons et développons ensuite des éléments de géométrie multi-vues telles que les matrices fondamentales ou d'homographies liées à la scène, et donnons des éléments pour l'estimation de pose des caméras à partir de plusieurs points de vue. Nous montrons également que lorsque le milieu est plus dense, la ligne d'horizon correspond à une conique qui peut être décomposer afin d'en déduire les paramètres de l'interface. Ensuite, nous étendons notre approche en proposant des algorithmes pour estimer la géométrie de plusieurs surfaces planes refractives à partir d'une seule image. Un exemple typique d'un tel scenario est par exemple lorsque l'on regarde à travers un aquarium. Nous proposons une méthode simple pour calculer les normales de telles surfaces étant donné divers scenari, en limitant le système à une caméra axiale. Cela permet dans notre cas d'utiliser des approches basées sur ransac comme l'algorithme “8 points” pour le calcul de matrice fondamentale, d'une manière similaire à l'estimation de distortions axiales de la littérature en vision par ordinateur. Nous montrons également que le même modèle peut être directement adapté pour reconstruire des surfaces réflectives sous l'hypothèse que les surfaces soient planes par morceaux. Nous présentons des résultats de reconstruction 3D encourageants, et analysons leur précision. Alors que les deux approches précédentes se focalisent seulement sur la reconstruction d'une ou plusieurs surfaces planes réfractives en utilisant uniquement l'information géométrique, les surfaces spéculaires modifient également la manière dont l'énergie lumineuse à la surface est redistribuée. Le modèle sous-jacent correspondant peut être expliqué par les équations de Fresnel. En exploitant à la fois cette information géométrique et photométrique, nous proposons une méthode pour reconstruire la forme de surfaces spéculaires arbitraires. Nous montrons que notre approche implique un scenario d'acquisition simple. Tout d'abord, nous analysons plusieurs cas minimals pour la reconstruction de formes, et en déduisons une nouvelle contrainte qui combine la géométrie et la théorie de Fresnel à propos des surfaces transparentes. Ensuite, nous illustrons la nature complémentaire de ces attributs qui nous aident à obtenir une information supplémentaire sur l'objet, qu'il est difficile d'avoir autrement. Finalement, nous proposons une discussion sur les aspects pratiques de notre algorithme de reconstruction, et présentons des résultats sur des données difficiles et non triviales
The task of understanding, 3D reconstruction and analysis of the multiple view geometry related to transparent objects is one of the long standing challenging problems in computer vision. In this thesis, we look at novel approaches to analyze images of transparent surfaces to deduce their geometric and photometric properties. At first, we analyze the multiview geometry of the simple case of planar refraction. We show how the image of a 3D line is a quartic curve in an image, and thus derive the first imaging model that accounts for planar refraction. We use this approach to then derive other properties that involve multiple cameras, like fundamental and homography matrices. Finally, we propose approaches to estimate the refractive surface parameters and camera poses, given images. We then extend our approach to derive algorithms for recovering the geometry of multiple planar refractive surfaces from a single image. We propose a simple technique to compute the normal of such surfaces given in various scenarios, by equating our setup to an axial camera. We then show that the same model could be used to reconstruct reflective surfaces using a piecewise planar assumption. We show encouraging 3D reconstruction results, and analyse the accuracy of results obtained using this approach. We then focus our attention on using both geometric and photometric cues for reconstructing transparent 3D surfaces. We show that in the presence of known illumination, we can recover the shape of such objects from single or multiple views. The cornerstone of our approach are the Fresnel equations, and we both derive and analyze their use for 3D reconstruction. Finally, we show our approach could be used to produce high quality reconstructions, and discuss other potential future applications
APA, Harvard, Vancouver, ISO, and other styles
40

Forbes, Keith. "Volume estimation of fruit from digital profile images." Master's thesis, University of Cape Town, 2000. http://hdl.handle.net/11427/5220.

Full text
Abstract:
Includes bibliographical references.
This dissertation investigates the feasibility of using the same digital profile images of fruit that are used in commercial packing houses for colour sorting and blemish detection purposes to estimate the volumes of the corresponding individual pieces of fruit, Data sets of actual fruit volumes and digitial images of the fruit that simulate both single and multiple camera set-ups are obtained.
APA, Harvard, Vancouver, ISO, and other styles
41

Altmann, Yoann. "Nonlinear unmixing of Hyperspectral images." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/10588/1/altmann.pdf.

Full text
Abstract:
Spectral unmixing is one the major issues arising when analyzing hyperspectral images. It consists of identifying the macroscopic materials present in a hyperspectral image and quantifying the proportions of these materials in the image pixels. Most unmixing techniques rely on a linear mixing model which is often considered as a first approximation of the actual mixtures. However, the linear model can be inaccurate for some specific images (for instance images of scenes involving multiple reflections) and more complex nonlinear models must then be considered to analyze such images. The aim of this thesis is to study new nonlinear mixing models and to propose associated algorithms to analyze hyperspectral images. First, a ost-nonlinear model is investigated and efficient unmixing algorithms based on this model are proposed. The prior knowledge about the components present in the observed image, their proportions and the nonlinearity parameters is considered using Bayesian inference. The second model considered in this work is based on the approximation of the nonlinear manifold which contains the observed pixels using Gaussian processes. The proposed algorithm estimates the relation between the observations and the unknown material proportions without explicit dependency on the material spectral signatures, which are estimated subsequentially. Considering nonlinear effects in hyperspectral images usually requires more complex unmixing strategies than those assuming linear mixtures. Since the linear mixing model is often sufficient to approximate accurately most actual mixtures, it is interesting to detect pixels or regions where the linear model is accurate. This nonlinearity detection can be applied as a pre-processing step and nonlinear unmixing strategies can then be applied only to pixels requiring the use of nonlinear models. The last part of this thesis focuses on new nonlinearity detectors based on linear and nonlinear models to identify pixels or regions where nonlinear effects occur in hyperspectral images. The proposed nonlinear unmixing algorithms improve the characterization of hyperspectral images compared to methods based on a linear model. These methods allow the reconstruction errors to be reduced. Moreover, these methods provide better spectral signature and abundance estimates when the observed pixels result from nonlinear mixtures. The simulation results conducted on synthetic and real images illustrate the advantage of using nonlinearity detectors for hyperspectral image analysis. In particular, the proposed detectors can identify components which are present in few pixels (and hardly distinguishable) and locate areas where significant nonlinear effects occur (shadow, relief, ...). Moreover, it is shown that considering spatial correlation in hyperspectral images can improve the performance of nonlinear unmixing and nonlinearity detection algorithms.
APA, Harvard, Vancouver, ISO, and other styles
42

Garaud, Damien, and Damien Garaud. "Estimation des incertitudes et prévision des risques en qualité de l'air." Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00679178.

Full text
Abstract:
Ce travail porte sur l'estimation des incertitudes et la prévision de risques en qualité de l'air. Il consiste dans un premier temps à construire un ensemble de simulations de la qualité de l'air qui prend en compte toutes les incertitudes liées à la modélisation de la qualité de l'air. Des ensembles de simulations photochimiques à l'échelle continentale ou régionale sont générés automatiquement. Ensuite, les ensembles générés sont calibrés par une méthode d'optimisation combinatoire qui sélectionne un sous-ensemble représentatif de l'incertitude ou performant (fiabilité et résolution) pour des prévisions probabilistes. Ainsi, il est possible d'estimer et de prévoir des champs d'incertitude sur les concentrations d'ozone ou de dioxyde d'azote, ou encore d'améliorer la fiabilité des prévisions de dépassement de seuil. Cette approche est ensuite comparée avec la calibration d'un ensemble Monte Carlo. Ce dernier, moins dispersé, est moins représentatif de l'incertitude. Enfin, on a pu estimer la part des erreurs de mesure, de représentativité et de modélisation de la qualité de l'air
APA, Harvard, Vancouver, ISO, and other styles
43

Garaud, Damien. "Estimation des incertitudes et prévision des risques en qualité de l'air." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1162/document.

Full text
Abstract:
Ce travail porte sur l'estimation des incertitudes et la prévision de risques en qualité de l'air. Il consiste dans un premier temps à construire un ensemble de simulations de la qualité de l'air qui prend en compte toutes les incertitudes liées à la modélisation de la qualité de l'air. Des ensembles de simulations photochimiques à l'échelle continentale ou régionale sont générés automatiquement. Ensuite, les ensembles générés sont calibrés par une méthode d'optimisation combinatoire qui sélectionne un sous-ensemble représentatif de l'incertitude ou performant (fiabilité et résolution) pour des prévisions probabilistes. Ainsi, il est possible d'estimer et de prévoir des champs d'incertitude sur les concentrations d'ozone ou de dioxyde d'azote, ou encore d'améliorer la fiabilité des prévisions de dépassement de seuil. Cette approche est ensuite comparée avec la calibration d'un ensemble Monte Carlo. Ce dernier, moins dispersé, est moins représentatif de l'incertitude. Enfin, on a pu estimer la part des erreurs de mesure, de représentativité et de modélisation de la qualité de l'air
This work is about uncertainty estimation and risk prediction in air quality. Firstly, we need to build an ensemble of air quality simulations which can take into account all uncertainty sources related to air quality modeling. Ensembles of photochemical simulations at continental and regional scales are automatically built. Then, these generated ensemble are calibrated with a combinatorial optimization method. It selects a sub-ensemble which is representative of uncertainty or has good resolution and reliability of probabilistic forecasts. Thus, this work show that it is possible to estimate and forecast uncertainty fields related to ozone and nitrogen dioxide concentrations or to improve reliability related to the threshold exceedance prediction. This approach is compared with Monte Carlo ensemble calibration. This ensemble is less representative of uncertainty. Finally, we can estimate the part of the measure error, representativity error and modeling error in air quality
APA, Harvard, Vancouver, ISO, and other styles
44

Yang, Xiaoyi. "Background reconstruction from multiple images." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT020/document.

Full text
Abstract:
La problématique générale de cette thèse est de reconstituer la scène de fond à partir d’une séquence d’images en présence de masques d’avant-plan. Nous nous sommes intéressés aux méthodes pour détecter ce qui constitue le fond ainsi que les solutions pour corriger les parties cachées et les distor­sions géométrique et chromatique introduites lors de la photographie.Une série de processus est proposée, dont la mise en œuvre comporte dans l'ordre l’aligne­ment géométrique, le réglage chromatique, la fusion des images et la correction des défauts.Nous nous plaçons dans l’hypothèse où le fond est porté sur une surface plane. L'aligne­ment géométrique est alors réalisé par calcul de l'homographie entre une image quelconque et l’image qui sert de référence, suivi d’une interpolation bilinéaire.Le réglage chromatique vise à retrouver un même contraste dans les différentes images. Nous proposons de modéliser la mise en cor­respondance chromatique entre images par une approximation linéaire dont les para­mètres sont déterminés par les résultats de la mise en correspondance des points de contrôle (SIFT).Ces deux étapes sont suivies par une étape de fusion. Plusieurs techniques sont comparées.La première proposition est d’étendre la définition de la médiane dans l’espace vec­toriel. Elle est robuste lorsqu’il y a plus de la moitié des images qui voient les pixels d’arrière-plan. En outre, nous concevons un algorithme original basé sur la notion de clique. Il permet de détecter le plus grand nuage de pixels dans l'espace RGB. Cette approche est fiable même lorsque les pixels d’arrière-plan sont minoritaires.Lors de la mise en œuvre de ce protocole, on constate que certains résultats de fusion présentent des défauts de type flou dus à l’existence d’erreurs d’alignement géomé­trique. Nous proposons donc un traitement complémentaire. Il est basé sur une compa­raison entre le résultat de fusion et les images alignées après passage d'un filtre gaussien. Sa sortie est un assemblage des morceaux très détaillés d'image alignés qui ressemblent le plus au résultat de fusion associés.La performance de nos méthodes est éva­luée par un ensemble de données contenant de nombreuses images de qualités diffé­rentes. Les expériences confirment la fiabi­lisé et la robustesse de notre conception dans diverses conditions de photographie
The general topic of this thesis is to reconstruct the background scene from a burst of images in presence of masks. We focus on the background detection methods as well as on solutions to geometric and chromatic distortions introduced during ph-otography. A series of process is proposed, which con­sists of geometric alignment, chromatic adjustment, image fusion and defect correction.We consider the case where the background scene is a flat surface. The geometric align­ment between a reference image and any other images in the sequence, depends on the computation of a homography followed by a bilinear interpolation.The chromatic adjustment aims to attach a similar contrast to the scene in different im­ages. We propose to model the chromatic mapping between images with linear approximations whose parameters are decided by matched pixels of SIFT .These two steps are followed by a discus­sion on image fusion. Several methods have been compared.The first proposition is a generation of typical median filter to the vector range. It is robust when more than half of the images convey the background information. Besides, we design an original algorithm based on the notion of clique. It serves to distinguish the biggest cloud of pixels in RGB space. This approach is highly reliable even when the background pixels are the minority.During the implementation, we notice that some fusion results bear blur-like defects due to the existence of geometric alignment errors. We provide therefore a combination method as a complementary step to ameli-orate the fusion results. It is based on a com-parison between the fusion image and other aligned images after applying a Gaussian filter. The output is a mosaic of patches with clear details issued from the aligned images which are the most similar to their related fusion patches.The performance of our methods is evaluated by a data set containing extensive images of different qualities. Experiments confirm the reliability and robustness of our design under a variety of photography conditions
APA, Harvard, Vancouver, ISO, and other styles
45

Nezhadarya, Ehsan. "Image derivative estimation and its applications to edge detection, quality monitoring and copyright protection." Thesis, University of British Columbia, 2013. http://hdl.handle.net/2429/44504.

Full text
Abstract:
Multi-order image derivatives are used in many image processing and computer vision applications, such as edge detection, feature extraction, image enhancement, segmentation, matching, watermarking and quality assessment. In some applications, the image derivatives are modified and then inverse-transformed to the image domain. For example, one approach for image denoising is to keep the significant image derivatives and shrink the non-significant derivatives. The denoised image is then reconstructed from the modified derivatives. The main challenge here is how to inverse-transform the derivatives to the image domain. This thesis proposes different algorithms to estimate the image derivatives and apply them to image denosing , watermarking and quality assessment. For noisy color images, we present a method that yields accurate and robust estimates of the gradient magnitude and direction. This method obtains the gradient at a certain direction by applying a prefilter and a postfilter in the perpendicular direction. Simulation results show that the proposed method outperforms state-of-the-art methods. We also present a multi-scale derivative transform, MSDT, that obtains the gradient at a given image scale using the detail horizontal, vertical and diagonal wavelet coefficients of the image at that scale. The inverse transform is designed such that any change in the image derivative results in the minimum possible change in the image. The MSDT transform is used to derive a novel multi-scale image watermarking method. This method embeds the watermark bits in the angles of the significant gradient vectors, at different image scales. Experimental results show that the proposed method outperforms other watermarking methods in terms of robustness to attacks, imperceptibility of the watermark and watermark capacity.The MSDT is then used to obtain a semi-blind method for video quality assessment. The method embeds pseudo-random binary watermarks in the derivative vectors of the original undistorted video. The quality of the distorted video is estimated based on the similarity between the embedded and the extracted watermarks. The simulation results on video distorted by compression/decompression show that the proposed method can accurately estimate the quality of a video and its frames for a wide range of compression ratios.
APA, Harvard, Vancouver, ISO, and other styles
46

Atay, Yagmur. "Temperature Estimation Studies On Infrared Images Using Radiometric Approaches." Master's thesis, METU, 2011. http://etd.lib.metu.edu.tr/upload/12613570/index.pdf.

Full text
Abstract:
In this thesis work, temperature estimation algorithms based on physical and radiometric approaches are developed. Developed algorithms, firstly, tested on artificial images for different test cases. Following this, algorithms are tried out on real infrared images in order to verify that they are working properly. Finally, temperature estimations are done by including emissivity. Obtained results are compared to the temperature estimation results of a reference infrared camera. All the results and errors obtained during this study are presented and discussed.
APA, Harvard, Vancouver, ISO, and other styles
47

Azarbayejani, Ali J. "Nonlinear probabilistic estimation of 3-D geometry from images." Thesis, Massachusetts Institute of Technology, 1997. http://hdl.handle.net/1721.1/29122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Lomelin, Stoupignan Mauricio. "Character template estimation from document images and their transcriptions." Thesis, Massachusetts Institute of Technology, 1995. http://hdl.handle.net/1721.1/36566.

Full text
Abstract:
Thesis (M.S.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1995.
Includes bibliographical references (p. 124-126).
by Mauricio Lomelin Stoupignan.
M.S.
APA, Harvard, Vancouver, ISO, and other styles
49

Joshi, Niranjan Bhaskar. "Non-parametric probability density function estimation for medical images." Thesis, University of Oxford, 2008. http://ora.ox.ac.uk/objects/uuid:ebc6af07-770b-4fee-9dc9-5ebbe452a0c1.

Full text
Abstract:
The estimation of probability density functions (PDF) of intensity values plays an important role in medical image analysis. Non-parametric PDF estimation methods have the advantage of generality in their application. The two most popular estimators in image analysis methods to perform the non-parametric PDF estimation task are the histogram and the kernel density estimator. But these popular estimators crucially need to be ‘tuned’ by setting a number of parameters and may be either computationally inefficient or need a large amount of training data. In this thesis, we critically analyse and further develop a recently proposed non-parametric PDF estimation method for signals, called the NP windows method. We propose three new algorithms to compute PDF estimates using the NP windows method. One of these algorithms, called the log-basis algorithm, provides an easier and faster way to compute the NP windows estimate, and allows us to compare the NP windows method with the two existing popular estimators. Results show that the NP windows method is fast and can estimate PDFs with a significantly smaller amount of training data. Moreover, it does not require any additional parameter settings. To demonstrate utility of the NP windows method in image analysis we consider its application to image segmentation. To do this, we first describe the distribution of intensity values in the image with a mixture of non-parametric distributions. We estimate these distributions using the NP windows method. We then use this novel mixture model to evolve curves with the well-known level set framework for image segmentation. We also take into account the partial volume effect that assumes importance in medical image analysis methods. In the final part of the thesis, we apply our non-parametric mixture model (NPMM) based level set segmentation framework to segment colorectal MR images. The segmentation of colorectal MR images is made challenging due to sparsity and ambiguity of features, presence of various artifacts, and complex anatomy of the region. We propose to use the monogenic signal (local energy, phase, and orientation) to overcome the first difficulty, and the NPMM to overcome the remaining two. Results are improved substantially on those that have been reported previously. We also present various ways to visualise clinically useful information obtained with our segmentations in a 3-dimensional manner.
APA, Harvard, Vancouver, ISO, and other styles
50

Pilzer, Andrea. "Learning Unsupervised Depth Estimation, from Stereo to Monocular Images." Doctoral thesis, Università degli studi di Trento, 2020. http://hdl.handle.net/11572/268252.

Full text
Abstract:
In order to interact with the real world, humans need to perform several tasks such as object detection, pose estimation, motion estimation and distance estimation. These tasks are all part of scene understanding and are fundamental tasks of computer vision. Depth estimation received unprecedented attention from the research community in recent years due to the growing interest in its practical applications (ie robotics, autonomous driving, etc.) and the performance improvements achieved with deep learning. In fact, the applications expanded from the more traditional tasks such as robotics to new fields such as autonomous driving, augmented reality devices and smartphones applications. This is due to several factors. First, with the increased availability of training data, bigger and bigger datasets were collected. Second, deep learning frameworks running on graphical cards exponentially increased the data processing capabilities allowing for higher precision deep convolutional networks, ConvNets, to be trained. Third, researchers applied unsupervised optimization objectives to ConvNets overcoming the hurdle of collecting expensive ground truth and fully exploiting the abundance of images available in datasets. This thesis addresses several proposals and their benefits for unsupervised depth estimation, i.e., (i) learning from resynthesized data, (ii) adversarial learning, (iii) coupling generator and discriminator losses for collaborative training, and (iv) self-improvement ability of the learned model. For the first two points, we developed a binocular stereo unsupervised depth estimation model that uses reconstructed data as an additional self-constraint during training. In addition to that, adversarial learning improves the quality of the reconstructions, further increasing the performance of the model. The third point is inspired by scene understanding as a structured task. A generator and a discriminator joining their efforts in a structured way improve the quality of the estimations. Our intuition may sound counterintuitive when cast in the general framework of adversarial learning. However, in our experiments we demonstrate the effectiveness of the proposed approach. Finally, self-improvement is inspired by estimation refinement, a widespread practice in dense reconstruction tasks like depth estimation. We devise a monocular unsupervised depth estimation approach, which measures the reconstruction errors in an unsupervised way, to produce a refinement of the depth predictions. Furthermore, we apply knowledge distillation to improve the student ConvNet with the knowledge of the teacher ConvNet that has access to the errors.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography