To see the other types of publications on this topic, follow the link: Contour extraction.

Dissertations / Theses on the topic 'Contour extraction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Contour extraction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wang, Jiankang. "Actively searching contour models for contour extraction." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0014/NQ59691.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ananta, Soujanya Siddavaram. "Contour Extraction of Drosophila Embryos Using Active Contours in Scale Space." TopSCHOLAR®, 2012. http://digitalcommons.wku.edu/theses/1222.

Full text
Abstract:
Contour extraction of Drosophila embryos is an important step to build a computational system for pattern matching of embryonic images which aids in the discovery of genes. Automatic contour extraction of embryos is challenging due to several image variations such as size, shape, orientation and neigh- boring embryos such as touching and non-touching embryos. In this thesis, we introduce a framework for contour extraction based on the connected components in the gaussian scale space of an embryonic image. The active contour model is applied on the images to refine embryo contours. Data cleaning methods are applied to smooth the jaggy contours caused by blurred embryo boundaries. The scale space theory is applied to improve the performance of the result. The active contour adjusts better to the object for finer scales. The proposed framework contains three components. In the first component, we find the connected components of the image. The second component is to find the largest component of the image. Finally, we analyze the largest component across scales by selecting the optimal scale corresponding to the largest component having largest area. The optimal scale at which maximum area is attained is assumed to give information about the feature being extracted. We tested the proposed framework on BDGP images, and the results achieved promising accuracy in extracting the targeting embryo.
APA, Harvard, Vancouver, ISO, and other styles
3

Gunn, Steve R. "Dual active contour models for image feature extraction." Thesis, University of Southampton, 1996. https://eprints.soton.ac.uk/250089/.

Full text
Abstract:
Active contours are now a very popular technique for shape extraction, achieved by minimising a suitably formulated energy functional. Conventional active contour formulations suffer difficulty in appropriate choice of an initial contour and values of parameters. Recent approaches have aimed to resolve these problems, but can compromise other performance aspects. To relieve the problem in initialisation, an evolutionary dual active contour has been developed, which is combined with a local shape model to improve the parameterisation. One contour expands from inside the target feature, the other contracts from the outside. The two contours are inter-linked to provide a balanced technique with an ability to reject weak’local energy minima. Additionally a dual active contour configuration using dynamic programming has been developed to locate a global energy minimum and complements recent approaches via simulated annealing and genetic algorithms. These differ from conventional evolutionary approaches, where energy minimisation may not converge to extract the target shape, in contrast with the guaranteed convergence of a global approach. The new techniques are demonstrated to extract successfully target shapes in synthetic and real images, with superior performance to previous approaches. The new technique employing dynamic programming is deployed to extract the inner face boundary, along with a conventional normal-driven contour to extract the outer face boundary. Application to a database of 75 subjects showed that the outer contour was extracted successfully for 96% of the subjects and the inner contour was successful for 82%. This application highlights the advantages new dual active contour approaches for automatic shape extraction can confer.
APA, Harvard, Vancouver, ISO, and other styles
4

Kienel, Enrico, and Guido Brunnett. "GPU-Accelerated Contour Extraction on Large Images Using Snakes." Universitätsbibliothek Chemnitz, 2009. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200900358.

Full text
Abstract:
Active contours have been proven to be a powerful semiautomatic image segmentation approach, that seems to cope with many applications and different image modalities. However, they exhibit inherent drawbacks, including the sensibility to contour initialization due to the limited capture range of image edges and problems with concave boundary regions. The Gradient Vector Flow replaces the traditional image force and provides an enlarged capture range as well as enhanced concavity extraction capabilities, but it involves an expensive computational effort and considerably increased memory requirements at the time of computation. In this paper, we present an enhancement of the active contour model to facilitate semiautomatic contour detection in huge images. We propose a tile-based image decomposition accompanying an image force computation scheme on demand in order to minimize both computational and memory requirements. We show an efficient implementation of this approach on the basis of general purpose GPU processing providing for continuous active contour deformation without a considerable delay.
APA, Harvard, Vancouver, ISO, and other styles
5

Tejada, Pedro J. "A Computational Geometry Approach to Digital Image Contour Extraction." DigitalCommons@USU, 2009. https://digitalcommons.usu.edu/etd/422.

Full text
Abstract:
We present a method for extracting contours from digital images, using techniques from computational geometry. Our approach is different from traditional pixel-based methods in image processing. Instead of working directly with pixels, we extract a set of oriented feature points from the input digital images, then apply classical geometric techniques, such as clustering, linking, and simplification, to find contours among these points. Experiments on synthetic and natural images show that our method can effectively extract contours, even from images with considerable noise; moreover, the extracted contours have a very compact representation.
APA, Harvard, Vancouver, ISO, and other styles
6

TANG, YINGJIE. "ON CLOSE CONTOUR PRESENTATION AND MATCHING PROBLEMS WITH BIOMEDICAL IMAGE APPLICATIONS." University of Cincinnati / OhioLINK, 2001. http://rave.ohiolink.edu/etdc/view?acc_num=ucin983567833.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gilson, Stuart J. "Deformable contour methods for shape extraction from binary edge-point images." Thesis, University of Southampton, 1999. https://eprints.soton.ac.uk/256268/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Nöjdh, Oscar. "Intelligent boundary extraction for area and volume measurement : Using LiveWire for 2D and 3D contour extraction in medical imaging." Thesis, Linköpings universitet, Programvara och system, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-136448.

Full text
Abstract:
This thesis tries to answer if a semi-automatic tool can speed up the process of segmenting tumors to find the area of a slice in the tumor or the volume of the entire tumor. A few different 2D semi-automatic tools were considered. The final choice was to implement live-wire. The implemented live-wire was evaluated and improved upon with hands-on testing from developers. Two methods were found for extending live-wire to 3D bodies. The first method was to interpolate the seed points and create new contours using the new seed points. The second method was to let the user segment contours in two orthogonal projections. The intersections between those contours and planes in the third orthogonal projection were then used to create automatic contours in this third projection. Both tools were implemented and evaluated. The evaluation compared the two tools to manual segmentation on two cases posing different difficulties. Time-on-task and accuracy were measured during the evaluation. The evaluation revealed that the semi-automatic tools could indeed save the user time while maintaining acceptable (80%) accuracy. The significance of all results were analyzed using two-tailed t-tests.
APA, Harvard, Vancouver, ISO, and other styles
9

Niu, Xutong. "Highway extraction from high resolution aerial photography using a geometric active contour model." The Ohio State University, 2004. http://rave.ohiolink.edu/etdc/view?acc_num=osu1101833084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Berjass, Hisham. "Hardware Implementation Of An Object Contour Detector Using Morphological Operators." Thesis, Linköpings universitet, Institutionen för systemteknik, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-66353.

Full text
Abstract:
The purpose of this study was the hardware implementation of a real time moving object contour extraction.Segmentation of image frames to isolate moving objects followed by contour extraction using digitalmorphology was carried out in this work. Segmentation using temporal difference with median thresholdingapproach was implemented, experimental methods were used to determine the suitable morphological operatorsalong with their structuring elements dimensions to provide the optimum contour extraction.The detector with image resolution of 1280 x1024 pixels and frame rate of 60 Hz was successfully implemented,the results indicate the effect of proper use of morphological operators for post processing and contourextraction on the overall efficiency of the system. An alternative segmentation method based on Stauffer & Grimson algorithm was investigated and proposed which promises better system performance at the expense ofimage resolution and frame rate
APA, Harvard, Vancouver, ISO, and other styles
11

Seo, Suyoung. "Model-Based Automatic Building Extraction From LIDAR and Aerial Imagery." The Ohio State University, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=osu1048886400.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Ozkaya, Meral. "Road Extraction From High-resolution Satellite Images." Master's thesis, METU, 2009. http://etd.lib.metu.edu.tr/upload/3/12610655/index.pdf.

Full text
Abstract:
Roads are significant objects of an infrastructure and the extraction of roads from aerial and satellite images are important for different applications such as automated map generation and change detection. Roads are also important to detect other structures such as buildings and urban areas. In this thesis, the road extraction approach is based on Active Contour Models for 1- meter resolution gray level images. Active Contour Models contains Snake Approach. During applications, the road structure was separated as salient-roads, non-salient roads and crossings and extraction of these is provided by using Ribbon Snake and Ziplock Snake methods. These methods are derived from traditional snake model. Finally, various experimental results were presented. Ribbon and Ziplock Snake methods were compared for both salient and non-salient roads. Also these methods were used to extract roads in an image. While Ribbon snake is described for extraction of salient roads in an image, Ziplock snake is applied for extraction of non-salient roads. Beside these, some constant variables in literature were redefined and expressed in a formula as depending on snake approach and a new approach for extraction of crossroads were described and tried.
APA, Harvard, Vancouver, ISO, and other styles
13

Smestad, Ole Marius. "On the feasability of automatic segmentation with active contour models in image databases for shape extraction." Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2005. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9223.

Full text
Abstract:

In this thesis the image segmentation system EDISON, was tested against an automatic version snake, which is an algorithm active contour models. The algorithms were tested against each to see if an automatic snake algorithm could be feasible for use in an image database for shape extraction. The conducted tests showed that EDISON yielded the best results, and that snake should be given further work before being considered.

APA, Harvard, Vancouver, ISO, and other styles
14

Gonulsen, Aysegul. "Feature Extraction Of Honeybee Forewings And Hindlegs Using Image Processing And Active Contours." Master's thesis, METU, 2004. http://etd.lib.metu.edu.tr/upload/12604738/index.pdf.

Full text
Abstract:
Honeybees have a rich genetic diversity in Anatolia. This is reflected in the presence of numerous subspecies of honeybee in Turkey. In METU, Department of Biology, honeybee populations of different regions in Turkey are investigated in order to characterize population variation in these regions. A total of 23 length and angle features belonging to the honeybee hindlegs and forewings are measured in these studies using a microscope and a monitor. These measurements are carried out by placing rulers on the monitor that shows the honeybee image and getting the length and angle features. However, performing measurements in this way is a time consuming process and is open to human-dependent errors. In this thesis, a &ldquo
semi-automated honeybee feature extraction system&rdquo
is presented. The aim is to increase the efficiency by decreasing the time spent on handling these measurements and by increasing the accuracy of measured hindleg and forewing features. The problem is studied from the acquisition of the microscope images, to the feature extraction of the honeybee features. In this scope, suitable methods are developed for segmentation of honeybee hindleg and forewing images. Within intermediate steps, blob analysis is utilized, and edges of the forewing and hindlegs are thinned using skeletonization. Templates that represent the forewing and hindleg edges are formed by either Bezier Curves or Polynomial Interpolation. In the feature extraction phase, Active Contour (Snake) algorithm is applied to the images in order to find the critical points using these templates.
APA, Harvard, Vancouver, ISO, and other styles
15

Kerkeni, Naceur. "Contribution à l'unification des méthodes d'inspection automatique : applications par vision artificielle." Valenciennes, 1992. https://ged.uphf.fr/nuxeo/site/esupversions/d45e0a52-5a66-4ed5-8c23-9c668e3ccfec.

Full text
Abstract:
L'inspection automatique, branche particulière du traitement d'image est un des champs majeurs d'application industrielle de la vision artificielle. Souvent empirique, l'ingénierie en ce domaine ne résout les problèmes posés qu'au cas par cas; il lui serait profitable de disposer d'une méthodologie ouverte et systématique. Dans une première étape, nous présentons une tentative d'unification des méthodes, après une classification des types de techniques employées: une expression mathématique générale tente de caractériser la méthodologie par type et sous-type. En second lieu, trois des quatre types de systèmes sont analysés grâce à un exemple par type au travers de deux applications industrielles et d'un prototype de laboratoire. Les deux premières opérationnelles et la troisième en cours d'intégration permettent de dégager les caractéristiques générales des méthodes correspondantes et de présenter une technique originale susceptible de développer une nouvelle méthode d'extraction de contour temps réel. Enfin sont établies les caractéristiques principales d'un système-type d'inspection généralisée.
APA, Harvard, Vancouver, ISO, and other styles
16

Millioz, Fabien. "Deux approches de segmentation temps-fréquence : détection par modèle statistique et extraction de contour par le champ de vecteurs de réallocation." Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00421599.

Full text
Abstract:
Les représentation temps-fréquence montrent l'évolution spectral d'un signal dans le temps. L'objectif de ces travaux de recherche est de proposer deux principes de segmentation du plan temps-fréquence, cherchant à déterminer quelles sont les zones temps-fréquence présentant un intérêt relatif au signal analysé.

La première méthode s'appuie sur une méthode statistique, modélisant le signal analysé par un signal d'intérêt à segmenter perturbé par un bruit blanc gaussien additif de variance inconnue. Le but est de déterminer le support temps-fréquence, ensemble des points sur lesquels l'énergie du signal à segmenter est répartie. Une détection de type Neyman-Pearson à probabilité de fausse alarme fixée permet de détecter les points temps-fréquence contenant du signal, à niveau de bruit connu. L'algorithme proposé est itératif, estimant le niveau de bruit à partir des points non segmentés, ce niveau de bruit servant à détecter de nouveaux points contenant du signal. Un critère basé sur le kurtosis spectral des points non segmentés permet de définir l'arrêt des itérations.

La seconde méthode est basée sur le principe de la réallocation du spectrogramme, en tant que source d'information sur le spectrogramme. La réallocation déplace l'énergie du spectrogramme sur le centre de gravité local de l'énergie. Aux frontière d'un motif temps-fréquence, l'énergie sera déplacée vers l'intérieur du motif. Ainsi, les vecteur
s de réallocation, décrivant le déplacement de l'énergie du pectrogramme par la réallocation, sont localement parallèles sur la frontière d'un motif. Nous définissons alors un « degré de parallélisme » pour chaque vecteur, égal au nombre de ses vecteurs voisins qui lui sont parallèles. Un algorithme de type suivi de crête, parcourant le plan temps-fréquence en suivant les maximums de ce degré de parallélisme, construit alors un contour entourant le motif temps-fréquence.
APA, Harvard, Vancouver, ISO, and other styles
17

Johansson, Gunnar. "Local Level Set Segmentation with Topological Structures." Thesis, Linköping University, Department of Science and Technology, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-6904.

Full text
Abstract:

Locating and segmenting objects such as bones or internal organs is a common problem in medical imaging. Existing segmentation methods are often cumbersome to use for medical staff, since they require a close initial guess and a range of different parameters to be set appropriately. For this work, we present a two-stage segmentation framework which relies on an initial isosurface interactively extracted by topological analysis. The initial isosurface seldom provides a correct segmentation, so we refine the surface using an iterative level set method to better match the desired object boundary. We present applications and improvements to both the flexible isosurface interface and level set segmentation without edges.

APA, Harvard, Vancouver, ISO, and other styles
18

Peng, Ting. "New higher-order active contour models, shape priors, and multiscale analysis : their applications to road network extraction from very high resolution satellite images." Nice, 2008. http://www.theses.fr/2008NICE4031.

Full text
Abstract:
L’objectif de cette thèse est de développer et valider des approches robustes d’extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d’images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d’ordre supérieur (CAOS). Le problème est difficile pour deux raisons principales : les images YHR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l’information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu’un modèle multi-résolution contraint a priori. Ces derniers permettent l’intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d’une ancienne carte numérique issue d’un SIG. Ce terme spécifique a priori équilibre l’effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d’une limitation importante : la largeur des branches dur réseau est contrainte à être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l’un contenant un terme additionnel, non local, non-linéaire de CAOS, et l’autre contenant un terme additionnel, non local, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d’une part il se calcule plus efficacement, d’autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d’une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres de fonctions d’énergies. Des expériences sur des images satellitaires THR et la comparaison avec d’autres modèles démontrent la supériorité de nos modèles
The objective of this thesis is to develop and validate robust approaches for the semi-automatic extraction of road networks in dense urban areas from very high resolution (VHR) optical satellite images. Our models are based on the recently developed higher-order active contour (HOAC) phase field framework. The problem is difficult for two main reasons : HR images are intrinsically complex and network regions may have arbitrary topology. To tackle the complexity of the information contained in VHR images, we propose a multiresolution statistical data model and a multiresolution constrained prior model. They enable the integration of segmentation results from coarse resolution and fine resolution. Subsequently, for the particular case of road map updating, we present a specific shape prior model derived from and outdated GIS digital map. This specific prior term balances the effect of the generic prior knowledge carried by the HOAC model, which describes the geometric shape of road networks in general. However, the classical of curvature, thereby providing a poor model of networks with straight narrow branches or highly cured, wide branches. We solve this problem by introducing two new models : one with an additional nonlinear nonlocal HOAC term, and one with an additional linear nonlocal HOAC term. Both terms allow separate control of branch width and branch curvature, and furnish better prolongation for the same width, but the linear term has several advantages : it is more efficient from a computational standpoint, and it is able to conditions for a long bar with a given width described by these energies, and hence show how to choose rigorously the parameters of he energy functions. Experiments on VHR satellite images and comparisons with other approaches demonstrate the superiority of our models
APA, Harvard, Vancouver, ISO, and other styles
19

Girod, Jean-Pierre. "Extraction de primitives en traitement d'images par modélisation des systèmes visuels biologiques." Nancy 1, 1994. http://www.theses.fr/1994NAN10211.

Full text
Abstract:
Ce mémoire introduit une nouvelle méthode d'extraction des primitives contours et points anguleux dans des images digitalisées en niveaux de gris, déduit des systèmes visuels biologiques. Les systèmes visuels biologiques, étudiés au travers de la bibliographie biomédicale afférente, se présentent sous la forme de modules fonctionnels places en cascade. L'il, le corps genouillé latéral, ainsi que les aires visuelles corticales v1 et v2, en sont les premiers éléments. L'analyse de ces modules, en vue de trouver tout ou partie des mécanismes auxquels ils doivent leurs performances, a permis de proposer un modèle capable de remplacer les operateurs habituellement employés pour la segmentation par les contours et la détection des points anguleux. Le modèle présenté tire profit des particularités de chaque module pour aboutir à un ensemble homogène et performant. Ainsi, l'antagonisme centre-périphérie de la rétine assure la localisation précise des contours ; les filtres directionnels des colonnes corticales de l'aire v1 atténuent le bruit sans affecter le signal ; l'analyse en demi-contours de l'aire v2 permet la détection des coins et facilite l'affinage des contours par inhibition latérale. Proposé comme une alternative aux algorithmes classiques de détection des contours et des points anguleux, dépourvu de réglage et peu sensible aux caractéristiques des images à traiter, ce modèle offre des performances supérieures dans la plupart des cas. De plus, il est imprésentable en temps réel sur des architectures de type pipe-line ou neuromimétiques
APA, Harvard, Vancouver, ISO, and other styles
20

Faichney, Jolon. "Content-Based Retrieval of Digital Video." Thesis, Griffith University, 2005. http://hdl.handle.net/10072/365697.

Full text
Abstract:
In the next few years consumers will have access to large amounts of video and image data either created by themselves with digital video and still cameras or by having access to other image and video content electronically. Existing personal computer hardware and software has not been designed to manage large quantities of multimedia content. As a result, research in the area of content-based video retrieval (CBVR) has been underway for the last fifteen years. This research aims to improve CBVR by providing an accurate and reliable shape-colour representation and by providing a new 3D user interface called DomeWorld for the efficient browsing of large video databases. Existing feature extraction techniques designed for use in large databases are typically simple techniques as they must conform to the limited processing and storage constraints that are exhibited by large scale databases. Conversely, more complex feature extraction techniques provide higher level descriptions of the underlying data but are time consuming and require large amounts of storage making them less useful for large databases. In this thesis a technique for medium to high level shape representation is presented that exhibits efficient storage and query performance. The technique uses a very accurate contour detection system that incorporates a new asymmetry edge detector which is shown to perform better than other contour detection techniques combined with a new summarisation technique to efficiently store contours. In addition, contours are represented by histograms further reducing space requirements and increasing query performance. A new type of histogram is introduced called the fuzzy histogram and is applied to content-based retrieval systems for the first time. Fuzzy histograms improve the ranking of query results over non-fuzzy techniques especially in low bin-count histogram configurations. The fuzzy contour histogram approach is compared with an exhaustive contour comparison technique and is found to provide equivalent or better results. A number of colour distribution representation techniques were investigated for integration with the contour histogram and the fuzzy HSV histogram was found to provide the best performance. When the colour and contour histograms were integrated less overall bins were required as each histogram compensates for the other’s weaknesses. The result is that only a quarter of the bins were required than either colour or contour histogram alone further reducing query times and storage requirements. This research also improves the user experience with a new user interface called DomeWorld that uses three-dimensional translucent domes. Existing user interfaces are either designed for image databases, for browsing videos, or for browsing large non-multimedia data sets. DomeWorld is designed to be able to browse both image and video databases through a number of innovative techniques including hierarchical clustering, radial space-filling layout of nodes, three-dimensional presentation, and translucent domes that allow the hierarchical nature of the data to be viewed whilst also seeing the relationship between child nodes a number of levels deep. A taxonomy of existing image, video, and large data set user interfaces is presented and the proposed user interface is evaluated within the framework. It is found that video database user interfaces have four requirements: context and detail, gisting, clustering, and integration of video and images. None of the 27 evaluated user interfaces satisfy all four requirements. The DomeWorld user interface is designed to satisfy all of the requirements and presents a step forward in CBVR user interaction. This thesis investigates two important areas of CBVR, structural indexing and user interaction, and presents techniques which advance the field. These two areas will become very important in the future when users must access and manage large collections of image and video content.
Thesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Information Technology
Science, Environment, Engineering and Technology
Full Text
APA, Harvard, Vancouver, ISO, and other styles
21

Salamon, Justin J. "Melody extraction from polyphonic music signals." Doctoral thesis, Universitat Pompeu Fabra, 2013. http://hdl.handle.net/10803/123777.

Full text
Abstract:
Music was the first mass-market industry to be completely restructured by digital technology, and today we can have access to thousands of tracks stored locally on our smartphone and millions of tracks through cloud-based music services. Given the vast quantity of music at our fingertips, we now require novel ways of describing, indexing, searching and interacting with musical content. In this thesis we focus on a technology that opens the door to a wide range of such applications: automatically estimating the pitch sequence of the melody directly from the audio signal of a polyphonic music recording, also referred to as melody extraction. Whilst identifying the pitch of the melody is something human listeners can do quite well, doing this automatically is highly challenging. We present a novel method for melody extraction based on the tracking and characterisation of the pitch contours that form the melodic line of a piece. We show how different contour characteristics can be exploited in combination with auditory streaming cues to identify the melody out of all the pitch content in a music recording using both heuristic and model-based approaches. The performance of our method is assessed in an international evaluation campaign where it is shown to obtain state-of-the-art results. In fact, it achieves the highest mean overall accuracy obtained by any algorithm that has participated in the campaign to date. We demonstrate the applicability of our method both for research and end-user applications by developing systems that exploit the extracted melody pitch sequence for similarity-based music retrieval (version identification and query-by-humming), genre classification, automatic transcription and computational music analysis. The thesis also provides a comprehensive comparative analysis and review of the current state-of-the-art in melody extraction and a first of its kind analysis of melody extraction evaluation methodology.
La industria de la música fue una de las primeras en verse completamente reestructurada por los avances de la tecnología digital, y hoy en día tenemos acceso a miles de canciones almacenadas en nuestros dispositivos móviles y a millones más a través de servicios en la nube. Dada esta inmensa cantidad de música al nuestro alcance, necesitamos nuevas maneras de describir, indexar, buscar e interactuar con el contenido musical. Esta tesis se centra en una tecnología que abre las puertas a nuevas aplicaciones en este área: la extracción automática de la melodía a partir de una grabación musical polifónica. Mientras que identificar la melodía de una pieza es algo que los humanos pueden hacer relativamente bien, hacerlo de forma automática presenta mucha complejidad, ya que requiere combinar conocimiento de procesado de señal, acústica, aprendizaje automático y percepción sonora. Esta tarea se conoce en el ámbito de investigación como “extracción de melodía”, y consiste técnicamente en estimar la secuencia de alturas correspondiente a la melodía predominante de una pieza musical a partir del análisis de la señal de audio. Esta tesis presenta un método innovador para la extracción de la melodía basado en el seguimiento y caracterización de contornos tonales. En la tesis, mostramos cómo se pueden explotar las características de contornos en combinación con reglas basadas en la percepción auditiva, para identificar la melodía a partir de todo el contenido tonal de una grabación, tanto de manera heurística como a través de modelos aprendidos automáticamente. A través de una iniciativa internacional de evaluación comparativa de algoritmos, comprobamos además que el método propuesto obtiene resultados punteros. De hecho, logra la precisión más alta de todos los algoritmos que han participado en la iniciativa hasta la fecha. Además, la tesis demuestra la utilidad de nuestro método en diversas aplicaciones tanto de investigación como para usuarios finales, desarrollando una serie de sistemas que aprovechan la melodía extraída para la búsqueda de música por semejanza (identificación de versiones y búsqueda por tarareo), la clasificación del estilo musical, la transcripción o conversión de audio a partitura, y el análisis musical con métodos computacionales. La tesis también incluye un amplio análisis comparativo del estado de la cuestión en extracción de melodía y el primer análisis crítico existente de la metodología de evaluación de algoritmos de este tipo
La indústria musical va ser una de les primeres a veure's completament reestructurada pels avenços de la tecnologia digital, i avui en dia tenim accés a milers de cançons emmagatzemades als nostres dispositius mòbils i a milions més a través de serveis en xarxa. Al tenir aquesta immensa quantitat de música al nostre abast, necessitem noves maneres de descriure, indexar, buscar i interactuar amb el contingut musical. Aquesta tesi es centra en una tecnologia que obre les portes a noves aplicacions en aquesta àrea: l'extracció automàtica de la melodia a partir d'una gravació musical polifònica. Tot i que identificar la melodia d'una peça és quelcom que els humans podem fer relativament fàcilment, fer-ho de forma automàtica presenta una alta complexitat, ja que requereix combinar coneixement de processament del senyal, acústica, aprenentatge automàtic i percepció sonora. Aquesta tasca es coneix dins de l'àmbit d'investigació com a “extracció de melodia”, i consisteix tècnicament a estimar la seqüència de altures tonals corresponents a la melodia predominant d'una peça musical a partir de l'anàlisi del senyal d'àudio. Aquesta tesi presenta un mètode innovador per a l'extracció de la melodia basat en el seguiment i caracterització de contorns tonals. Per a fer-ho, mostrem com es poden explotar les característiques de contorns combinades amb regles basades en la percepció auditiva per a identificar la melodia a partir de tot el contingut tonal d'una gravació, tant de manera heurística com a través de models apresos automàticament. A més d'això, comprovem a través d'una iniciativa internacional d'avaluació comparativa d'algoritmes que el mètode proposat obté resultats punters. De fet, obté la precisió més alta de tots els algoritmes proposats fins la data d'avui. A demés, la tesi demostra la utilitat del mètode en diverses aplicacions tant d'investigació com per a usuaris finals, desenvolupant una sèrie de sistemes que aprofiten la melodia extreta per a la cerca de música per semblança (identificació de versions i cerca per taral•larà), la classificació de l'estil musical, la transcripció o conversió d'àudio a partitura, i l'anàlisi musical amb mètodes computacionals. La tesi també inclou una àmplia anàlisi comparativa de l'estat de l'art en extracció de melodia i la primera anàlisi crítica existent de la metodologia d'avaluació d'algoritmes d'aquesta mena.
APA, Harvard, Vancouver, ISO, and other styles
22

Bosch, Vicente Juan José. "From heuristics-based to data-driven audio melody extraction." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404678.

Full text
Abstract:
The identification of the melody from a music recording is a relatively easy task for humans, but very challenging for computational systems. This task is known as "audio melody extraction", more formally defined as the automatic estimation of the pitch sequence of the melody directly from the audio signal of a polyphonic music recording. This thesis investigates the benefits of exploiting knowledge automatically derived from data for audio melody extraction, by combining digital signal processing and machine learning methods. We extend the scope of melody extraction research by working with a varied dataset and multiple definitions of melody. We first present an overview of the state of the art, and perform an evaluation focused on a novel symphonic music dataset. We then propose melody extraction methods based on a source-filter model and pitch contour characterisation and evaluate them on a wide range of music genres. Finally, we explore novel timbre, tonal and spatial features for contour characterisation, and propose a method for estimating multiple melodic lines. The combination of supervised and unsupervised approaches leads to advancements on melody extraction and shows a promising path for future research and applications.
La identificación de la melodía en una grabación musical es una tarea relativamente fácil para seres humanos, pero muy difícil para sistemas computacionales. Esta tarea se conoce como "extracción de melodía", más formalmente definida como la estimación automática de la secuencia de alturas correspondientes a la melodía de una grabación de música polifónica. Esta tesis investiga los beneficios de utilizar conocimiento derivado automáticamente de datos para extracción de melodía, combinando procesado digital de la señal y métodos de aprendizaje automático. Ampliamos el alcance de la investigación en este campo, al trabajar con un conjunto de datos variado y múltiples definiciones de melodía. En primer lugar presentamos un extenso análisis comparativo del estado de la cuestión y realizamos una evaluación en un contexto de música sinfónica. A continuación, proponemos métodos de extracción de melodía basados en modelos de fuente-filtro y la caracterización de contornos tonales, y los evaluamos en varios géneros musicales. Finalmente, investigamos la caracterización de contornos con información de timbre, tonalidad y posición espacial, y proponemos un método para la estimación de múltiples líneas melódicas. La combinación de enfoques supervisados y no supervisados lleva a mejoras en la extracción de melodía y muestra un camino prometedor para futuras investigaciones y aplicaciones.
APA, Harvard, Vancouver, ISO, and other styles
23

ZOU, QIN. "Etude et experimentation d'un instrument de vision a fonction de transfert optique synthetisee par deux pupilles : application a l'analyse d'objets reels (extraction de contour et analyse de texture)." Paris 6, 1989. http://www.theses.fr/1989PA066531.

Full text
Abstract:
Ce travail est consacre a l'etude et l'experimentation d'un nouveau type d'instrument de vision, capable d'extraire directement les informations importantes d'un objet reel (contour, texture) et soulager ainsi le traitement informatique. Une methode de synthese par deux pupilles des fonctions de transfert optique (otf) est utilisee. Le systeme ainsi realise correspond a un systeme de filtrage incoherent des frequences spatiales dont l'otf peut etre un filtre passe-bande (reponse impulsionnelle - psf - bipolaire). Un montage avec un laser he-ne et deux modulateurs acousto-optiques et un autre avec une diode laser modulee lineairement en frequence ont ete realises. Des resultats de detection directionnelle (1d) et omnidirectionnelle (2d) des contours d'un objet reel sont presentes. Deux methodes pour mesurer l'otf sont mises en uvre. Une definition, basee sur l'otf defocalisee, est proposee pour determiner la profondeur de champ (tolerance de focalisation). Son effet dans la detection de contour est aborde. La faisabilite de l'extraction par le systeme des informations texturales d'un objet est discutee et etayee par des cas simples. Les resultats de ces travaux demontrent la faisabilite de l'acquisition de scene en frequence spatiale en alternative a l'amplitude, ouvrant ainsi la voie a des capteurs de vision specialises, pouvant permettre par exemple a terme l'analyse multi-echelle directe
APA, Harvard, Vancouver, ISO, and other styles
24

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
25

Bokhabrine, Youssef. "Application des techniques de numérisation tridimensionnelle au contrôle de process de pièces de forge." Thesis, Dijon, 2010. http://www.theses.fr/2010DIJOS070.

Full text
Abstract:
L’objectif de ces travaux de thèse est la conception et le développement d’un système de caractérisation tridimensionnelle de pièces forgées de grande dimension portées à haute température. Les travaux se basent sur de nombreuses thématiques telles que l’acquisition tridimensionnelle, l’extraction, la segmentation et le recalage de primitives 3D. Nous présentons tout d’abord les limites des systèmes de caractérisation de pièces forgées cités dans la littérature. Dans la deuxième partie, nous présentons la réalisation du système de caractérisation de pièces forgées, constitué de deux scanners temps de vol (TOF). Nous présentons également le simulateur de numérisation par scanner TOF qui nous permet de nous affranchir des contraintes industrielles (temps, difficulté de manœuvres) pour positionner les deux scanners. La troisième partie est consacrée à l’extraction des primitives 3D. Nous avons traité deux types de primitives : viroles et sphères avec deux approches différentes : méthode supervisée et méthode automatique. La première approche basée sur une méthode de croissance de région et de contour actif, permet d’extraire des formes extrudées complexes. Des problèmes d’ergonomie du système nous ont conduits à développer une deuxième approche, basée sur l’image de Gauss et l’extraction d’ellipse, qui permet l’extraction automatique de formes cylindriques ovales ou circulaires. Nous présentons également quatre méthodes d’extraction automatique de sphères basées sur des approches heuristiques : RANSAC (RANdom SAmple Consensus), algorithme génétique et algorithme génétique par niche. Dans la quatrième partie, nous étudions les différentes approches de recalage de données 3D traitées : le calibrage basé sur les cibles artificielles et le recalage fin basé sur l’algorithme ICP. Pour conclure, nous présentons la réalisation d’un système complet de caractérisation tridimensionnelle de pièces forgées de grande dimension. Ensuite, nous comparons les performances et les limites de ce système avec les systèmes de caractérisation cités dans la littérature
The main objective of this Phd project is to conceive a machine vision system for hot cylindrical metallic shells diameters measurement during forging process. The manuscript is structured by developing in the first chapter the state of the art and the limits of hot metallic shells measurement systems suggested in literature. Our implemented system which is based on two conventional Time Of Flight (TOF) laser scanners has been described in the same chapter along, chapter two, with presentation of its respective numerical simulator. Simulation series have been done using the digitizing simulator and were aimed to determine the optimal positions of the two scanners without any industrial constraints (time, difficulty of operations). The third part of the manuscript copes with 3D primitives extraction. Two major types of approaches have been studied according to the primitive’s form (cylinders or spheres) to be extracted: supervised method and automatic method. The first approach, based on a growing region method and active contour, enables to extract complex extruded forms; while problems of ergonomics have been solved using automatic methods that have been carried out along the programme research. The proposed methods consist in automatically extracting: oval or circular cylindrical forms, using Gauss map associated with ellipse extraction techniques : spherical forms, using heuristic approaches such as RANdom SAmple Consensus RANSAC, Genetic Algorithm (GA) and Niche Genetic Algorithm (NGA). Two varieties of 3D data registration approach have been presented and discussed in chapter 4: the registration based on the artificial targets and the fine registration based on algorithm ICP. A complete system for three-dimensional characterization of hot cylindrical metallic shells during forging process has been implemented and then compared with existing systems in order to identify its performances and limits in conclusion
APA, Harvard, Vancouver, ISO, and other styles
26

Galvanin, Edinéia Aparecida dos Santos. "Extração automática de contornos de telhados de edifícios em um modelo digital de elevação, utilizando inferência Bayesiana e campos aleatórios de Markov /." Presidente Prudente : [s.n.], 2007. http://hdl.handle.net/11449/100258.

Full text
Abstract:
Orientador: Aluir Porfírio Dal Poz
Banca: Nilton Nobuhiro Imai
Banca: Maurício Galo
Banca: Edson Aparecido Mitishita
Resumo: As metodologias para a extração automática de telhados desempenham um papel importante no contexto de aquisição de informação espacial para Sistemas de Informação Geográficas (SIG). Neste sentido, este trabalho propõe uma metodologia para extração automática de contornos de telhado de edifícios utilizando dados de varredura a laser. A metodologia baseiase em duas etapas principais: 1) Extração de regiões altas (edifícios, árvores etc.) de um Modelo Digital de Elevação (MDE) gerado a partir dos dados laser; 2) Extração das regiões altas que correspondem a contornos de telhados. Na primeira etapa são utilizadas as técnicas de divisão recursiva, via estrutura quadtree e de fusão Bayesiana de regiões considerando Markov Random Field (MRF). Inicialmente a técnica de divisão recursiva é usada para particionar o MDE em regiões homogêneas. No entanto, devido a ligeiras diferenças de altura no MDE, nesta etapa a fragmentação das regiões pode ser relativamente alta. Para minimizar essa fragmentação, a técnica de fusão Bayesiana de regiões é aplicada nos dados segmentados. Utiliza-se para tanto um modelo hierárquico, cujas alturas médias das regiões dependem de uma média geral e de um efeito aleatório, que incorpora a relação de vizinhança entre elas. A distribuição a priori para o efeito aleatório é especificada como um modelo condicional auto-regressivo (CAR). As distribuições a posteriori para os parâmetros de interesse foram obtidas utilizando o Amostrador de Gibbs. Na segunda etapa os contornos de telhados são identificados entre todos os objetos altos extraídos na etapa anterior. Levando em conta algumas propriedades de telhados e as medidas de alguns atributos (por exemplo, área, retangularidade, ângulos entre eixos principais de objetos) é construída uma função de energia a partir do modelo MRF.
Abstract: Methodologies for automatic building roof extraction are important in the context of spatial information acquisition for geographical information systems (GIS). Thus, this work proposes a methodology for automatic extraction of building roof contour from laser scanning data. The methodology is based on two stages: 1) Extraction of high regions (buildings, trees etc.) from a Digital Elevation Model (DEM) derived from laser scanning data; 2) Building roof contour extraction. In the first stage is applied the recursive splitting technique using the quadtree structure followed by a Bayesian merging technique considering Markov Random Field (MRF) model. The recursive splitting technique subdivides the DEM into homogeneous regions. However, due to slight height differences in the DEM, in this stage the region fragmentation can be relatively high. In order to minimize the fragmentation, a region merging technique based on the Bayesian framework is applied to the previously segmented data. Thus, a hierarchical model is proposed, whose height values in the data depend on a general mean plus a random effect. The prior distribution for the random effects is specified by the Conditional Autoregressive (CAR) model. The posterior probability distributions are obtained by the Gibbs sampler. In the second stage the building roof contours are identified among all high objects extracted previously.
Doutor
APA, Harvard, Vancouver, ISO, and other styles
27

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN23001/document.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
APA, Harvard, Vancouver, ISO, and other styles
28

Bessinger, Zachary. "An Automatic Framework for Embryonic Localization Using Edges in a Scale Space." TopSCHOLAR®, 2013. http://digitalcommons.wku.edu/theses/1262.

Full text
Abstract:
Localization of Drosophila embryos in images is a fundamental step in an automatic computational system for the exploration of gene-gene interaction on Drosophila. Contour extraction of embryonic images is challenging due to many variations in embryonic images. In the thesis work, we develop a localization framework based on the analysis of connected components of edge pixels in a scale space. We propose criteria to select optimal scales for embryonic localization. Furthermore, we propose a scale mapping strategy to compress the range of a scale space in order to improve the efficiency of the localization framework. The effectiveness of the proposed framework and the scale mapping strategy are validated in our experiments.
APA, Harvard, Vancouver, ISO, and other styles
29

Auclair, Fortier Marie-Flavie. "Extraction de caractéristiques contours multispectraux, contours de texture et routes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0021/MQ56853.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Auclair, Fortier Marie-Flavie. "Extraction de caractéristiques : contours multispectraux, contours de texture et routes." Sherbrooke : Université de Sherbrooke, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
31

Perez, Oramas Oliver. "Contribution à une méthodologie d'intégration de connaissances pour le traitement d'images : application à la détection de contours par règles linguistiques floues." Nancy 1, 2000. http://www.theses.fr/2000NAN10091.

Full text
Abstract:
Dans ce mémoire, nous proposons une contribution à une méthodologie d'intégration de connaissances dans le traitement d'images que nous appliquons à la détection de contours. Nous avons esquissé cette méthodologie sous la base de la théorie de la granulation floue de l'information récemment proposée par L. A. Zadeh. Ainsi, nous construisons pour une application de détection de contours, un modèle contextuel qui incorpore de la connaissance relative à diverses parties du système d'acquisition telles que l'environnement, le montage d'observation et le produit, tenant compte des imprécisions des contours réels. Ce modèle est ensuite inséré dans le paradigme de traitement flou des images que nous avons proposé. Ce mémoire s'articule en quatre parties : la première présente notre point de vue d'un système de vision industrielle et cible le traitement d'images auquel nous nous intéressons. Nous introduisons ensuite la modélisation linguistique, servant de base théorique au raisonnement approximatif et la théorie de la granulation floue de l'information. La deuxième partie généralise des applications de traitement d' images en utilisant la théorie des ensembles flous par le paradigme de traitement flou des images. Nous particularisons ensuite ce paradigme pour le cas d'un système à base de règles floues pour construire notre opérateur de détection de contours FRED, Fuzzy Resoning Edge Detection. Le modèle générique complet de cet opérateur est constitué de cinq modules qui définissent l'image de contours de sortie à partir d'une image numérique d'entrée: une étape d' extraction des propriétés, une étape de fuzzification, une étape de raisonnement, une étape de défuzzification et un modèle contextuel lié à la base de connaissances. Sur la base de la théorie de la granulation floue de l'information, nous avons présenté une méthodologie pour construire le modèle contextuel, impliquant les étapes de granulation, d'attribution et de valuation. La troisième partie détaille l'implémentation de deux opérateurs de détection de contours sur la base de l'opérateur générique FRED. Bien que ces deux opérateurs utilisent la même structure générique et aient le même objectif de détection de contours, ils traduisent néanmoins deux contextes différents. Les résultats de ces deux opérateurs sont alors agrégés par un opérateur de fusion que nous avons développé en fonction de critères spécifiques. Dans la dernière partie, pour valider l'implémentation de nos deux opérateurs, nous avons utilisé les critères de Fram et Deutsch sur des images de synthèse, qui reflètent la robustesse de l'opérateur vis à vis du bruit et la continuité des points du segment de contour. Cette validation est illustrée sur des angiographies rénales par une application dans le domaine bio-médical concernant l'extraction de contours de sténoses
In this thesis, we propose a contribution to a methodology for knowledge integration in image processing that we apply to edge detection. We outlined this methodology under the base of the theory of fuzzy information granulation, recently suggested by L A. Zadeh. Thus, we built a contextual model, for an edge detection application, that incorporates knowledge about the elements relating to the acquisition system and that takes into account the imprecision of real contours. This model is inserted in a fuzzy image processing paradigm. This document is articulated in four parts. First, we present our point of view about an industrial vision system. Next, we introduce linguistic modeling as the theoretical base of approximate reasoning as same as the theory of the fuzzy information granulation. Second, we start with a generalization of image processing applications using fuzzy set theory through the paradigm of fuzzy image processing. Then we particularize this paradigm for fuzzy rules system case in order to construct our edge detection operator FRED, (Fuzzy Reasoning Edge Detection). FRED consists of five modules : the extraction of properties, the fuzzification, the reasoning, the defuzzification and the contextual model related to the knowledge base. On the ground of fuzzy information granulation, we presented a methodology to construct the contextual model, implying the stages of granulation, attribution and valuation. Third, we detail the implementation of two operators of detection of contours on the basis of FRED. Although these two operators use the same generic structure and have the same objective, edge detection, they translate nevertheless two different contexts. The results of these operators are then aggregated with a specific fusion operator that we have especially developed. And fourth, we validate the implementations of our two operators\ using Fram and Deutsch criteria on computergenerated images. These criteria reflect the robustness of the operator with respect to the noise and the continuity of the contour's segment. An application concerning a renal arteriography edge detection process ends this document
APA, Harvard, Vancouver, ISO, and other styles
32

Galvanin, Edinéia Aparecida dos Santos [UNESP]. "Extração automática de contornos de telhados de edifícios em um modelo digital de elevação, utilizando inferência Bayesiana e campos aleatórios de Markov." Universidade Estadual Paulista (UNESP), 2007. http://hdl.handle.net/11449/100258.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:30:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-03-29Bitstream added on 2014-06-13T18:40:49Z : No. of bitstreams: 1 galvanin_eas_dr_prud.pdf: 5173646 bytes, checksum: aae51c2e230277eff607da015efe8a65 (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
As metodologias para a extração automática de telhados desempenham um papel importante no contexto de aquisição de informação espacial para Sistemas de Informação Geográficas (SIG). Neste sentido, este trabalho propõe uma metodologia para extração automática de contornos de telhado de edifícios utilizando dados de varredura a laser. A metodologia baseiase em duas etapas principais: 1) Extração de regiões altas (edifícios, árvores etc.) de um Modelo Digital de Elevação (MDE) gerado a partir dos dados laser; 2) Extração das regiões altas que correspondem a contornos de telhados. Na primeira etapa são utilizadas as técnicas de divisão recursiva, via estrutura quadtree e de fusão Bayesiana de regiões considerando Markov Random Field (MRF). Inicialmente a técnica de divisão recursiva é usada para particionar o MDE em regiões homogêneas. No entanto, devido a ligeiras diferenças de altura no MDE, nesta etapa a fragmentação das regiões pode ser relativamente alta. Para minimizar essa fragmentação, a técnica de fusão Bayesiana de regiões é aplicada nos dados segmentados. Utiliza-se para tanto um modelo hierárquico, cujas alturas médias das regiões dependem de uma média geral e de um efeito aleatório, que incorpora a relação de vizinhança entre elas. A distribuição a priori para o efeito aleatório é especificada como um modelo condicional auto-regressivo (CAR). As distribuições a posteriori para os parâmetros de interesse foram obtidas utilizando o Amostrador de Gibbs. Na segunda etapa os contornos de telhados são identificados entre todos os objetos altos extraídos na etapa anterior. Levando em conta algumas propriedades de telhados e as medidas de alguns atributos (por exemplo, área, retangularidade, ângulos entre eixos principais de objetos) é construída uma função de energia a partir do modelo MRF.
Methodologies for automatic building roof extraction are important in the context of spatial information acquisition for geographical information systems (GIS). Thus, this work proposes a methodology for automatic extraction of building roof contour from laser scanning data. The methodology is based on two stages: 1) Extraction of high regions (buildings, trees etc.) from a Digital Elevation Model (DEM) derived from laser scanning data; 2) Building roof contour extraction. In the first stage is applied the recursive splitting technique using the quadtree structure followed by a Bayesian merging technique considering Markov Random Field (MRF) model. The recursive splitting technique subdivides the DEM into homogeneous regions. However, due to slight height differences in the DEM, in this stage the region fragmentation can be relatively high. In order to minimize the fragmentation, a region merging technique based on the Bayesian framework is applied to the previously segmented data. Thus, a hierarchical model is proposed, whose height values in the data depend on a general mean plus a random effect. The prior distribution for the random effects is specified by the Conditional Autoregressive (CAR) model. The posterior probability distributions are obtained by the Gibbs sampler. In the second stage the building roof contours are identified among all high objects extracted previously.
APA, Harvard, Vancouver, ISO, and other styles
33

Gonzalez, Ivan. "Extração de contornos de figuras via sincronismo em redes de osciladores com acoplamento dinâmico." Universidade Presbiteriana Mackenzie, 2006. http://tede.mackenzie.br/jspui/handle/tede/1483.

Full text
Abstract:
Made available in DSpace on 2016-03-15T19:38:07Z (GMT). No. of bitstreams: 1 Ivan Gonzalez.pdf: 604401 bytes, checksum: 1652d5996de760edf38fd1a3bb2e64e4 (MD5) Previous issue date: 2006-09-18
A variant of Kuramoto's model for phase oscillators with dynamic coupling is studied. The coupling weight is adjusted by the phase difference resulting in a connection which is strengthened for synchronized oscillators and weakened for non-synchronized oscillators. Equilibrium solutions and their stabilities are presents and it is shown the occurrence of saddle-node and Hopf bifurcations. It is shown that networks formed by such oscillators can be used for detecting image border.
Uma variante do modelo de Kuramoto para osciladores de fase com acoplamento dinâmico é estudada. A intensidade do acoplamento é ajustada pela diferença de fases dos osciladores, de forma que a conexão é reforçada para osciladores sincronizados e enfraquecida para osciladores não sincronizados. As soluções de equilíbrio e suas estabilidades são apresentadas, e mostra-se que o sistema apresenta bifurcações sela-nó e de Hopf. Mostra-se que redes formadas com esses osciladores podem ser usadas para extrair o contorno de figuras.
APA, Harvard, Vancouver, ISO, and other styles
34

Li, Yaqian. "Image segmentation and stereo vision matching based on declivity line : application for vehicle detection." Thesis, Rouen, INSA, 2010. http://www.theses.fr/2010ISAM0010.

Full text
Abstract:
Dans le cadre de systèmes d’aide à la conduite, nous avons contribué aux approches de stéréovision pour l’extraction de contour, la mise en correspondance des images stéréoscopiques et la détection de véhicules. L’extraction de contour réalisée est basée sur le concept declivity line que nous avons proposé. La declivity line est construite en liant des déclivités selon leur position relative et similarité d’intensité. L’extraction de contour est obtenue en filtrant les declivity lines construites basées sur leurs caractéristiques. Les résultats expérimentaux montrent que la declivity lines méthode extrait plus de l’informations utiles comparées à l’opérateur déclivité qui les a filtrées. Des points de contour sont ensuite mis en correspondance en utilisant la programmation dynamique et les caractéristiques de declivity lines pour réduire le nombre de faux appariements. Dans notre méthode de mise en correspondance, la declivity lines contribue à la reconstruction détaillée de la scène 3D. Finalement, la caractéristique symétrie des véhicules sont exploitées comme critère pour la détection de véhicule. Pour ce faire, nous étendons le concept de carte de symétrie monoculaire à la stéréovision. En conséquence, en effectuant la détection de véhicule sur la carte de disparité, une carte de symétrie (axe; largeur; disparity) est construite au lieu d’une carte de symétrie (axe; largeur). Dans notre concept, des obstacles sont examinés à différentes profondeurs pour éviter la perturbation de la scène complexe dont le concept monoculaire souffre
In the framework of driving assistance systems, we contributed to stereo vision approaches for edge extraction, matching of stereoscopic pair of images and vehicles detection. Edge extraction is performed based on the concept of declivity line we introduced. Declivity line is constructed by connecting declivities according to their relative position and intensity similarity. Edge extraction is obtained by filtering constructed declivity lines based on their characteristics. Experimental results show that declivity line method extracts additional useful information compared to declivity operator which filtered them out. Edge points of declivity lines are then matched using dynamic programming, and characteristics of declivity line reduce the number of false matching. In our matching method, declivity line contributes to detailed reconstruction of 3D scene. Finally, symmetrical characteristic of vehicles are exploited as a criterion for their detection. To do so, we extend the monocular concept of symmetry map to stereo concept. Consequently, by performing vehicle detection on disparity map, a (axis; width; disparity) symmetry map is constructed instead of an (axis; width) symmetry map. In our stereo concept, obstacles are examined at different depths thus avoiding disturbance of complex scene from which monocular concept suffers
APA, Harvard, Vancouver, ISO, and other styles
35

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : application aux documents arabes." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00495972.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabe anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : – Application d'un maillage automatique en utilisant le modèle de contour actif (snake). – Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. – Application de quelques règles d'extension pour trouver les zones. – Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. – Séparation de lignes
APA, Harvard, Vancouver, ISO, and other styles
36

Dong, Lixin. "Extraction automatique des contours cardiaques sur des images échocardiographiques." Paris 12, 1990. http://www.theses.fr/1990PA120040.

Full text
Abstract:
L'echocardiographie est une technique non-invasive frequemment utilisee en cardiologie, et elle porte un grand interet pour evaluer des fonctions cardiaques, plus particulierement, celles du ventricule gauche. Nous avons mis au point un systeme de traitement d'images autour d'un environnement informatique tres souple et convivial, plus certaines fonctions de traitements specifiques pour extraire des contours myocardiques a partir des images echocardiographiques. Compte-tenu de la particularite et la difficulte de notre probleme, nos efforts portent sur l'introduction des informations complementaires dans la detection des contours. Deux algorithmes ont ete proposes, un pour tracer les contours du septum interventriculaire, de l'endocarde et de l'epicarde en image mode m, un autre pour extraire le contour endocardique a partir d'echocardiographie bidimensionnelle. Pour l'analyse automatique de l'image mode m, la representation specifique (1d+t) du mode m a ete exploree par un filtrage adaptatif et une contrainte physiologique a egalement ete introduite pendant la detection. Quant a l'echocardiographie bidimensionnelle, la forme geometrique de l'objet a ete tenue en compte par un modele specifique du contour et la technique de la programmation dynamique optimise la detection globale du contour. L'amelioration importante de la qualite de la detection des contours myocardiques montre que cette introduction des informations complementaires est indispensable pour extraire correctement des contours myocardiques en echocardiographie
APA, Harvard, Vancouver, ISO, and other styles
37

Delmas, Patrice. "Extraction des contours des lèvres d'un visage parlant par contours actifs-application a la parole multimodale." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0027.

Full text
Abstract:
La conception d'un outil de communication audio-visuel performant passe par l'extraction prealable des caracteres pertinents de la parole visuelle et principalement des contours labiaux. Dans le cadre d'un projet multimedia visant a la conception d'un systeme de services de communication et de telecommunication multimodale, cette these s'est attachee a produire un systeme d'extraction de contours des levres non maquilles, automatique, robuste et rapide a partir d'images a niveaux de gris a des fins de transmission via codage mpeg-4. Les aspects theoriques des contours actifs sont developpes apres une etude bibliographique des differents systemes de lip-tracking existants et des methodes de suivi de contours labiaux actuellement utilises. Une methode d'inversion litterale, originale, de la matrice de rigidite du snake est presentee. Plusieurs solutions sont apportees aux trois problemes majeurs des contours actifs : l'initialisation, le reglage des coefficients, la convergence. Enfin l'extraction des contours labiaux dans differentes sequences a positionnement et eclairage variable sont montres afin de prouver la robustesse de nos algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
38

Adluru, Nagesh. "Techniques for Extracting Contours and Merging Maps." Diss., Temple University Libraries, 2008. http://cdm16002.contentdm.oclc.org/cdm/ref/collection/p245801coll10/id/24684.

Full text
Abstract:
Computer and Information Science
Ph.D.
Understanding machine vision can certainly improve our understanding of artificial intelligence as vision happens to be one of the basic intellectual activities of living beings. Since the notion of computation unifies the concept of a machine, computer vision can be understood as an application of modern approaches for achieving artificial intelligence, like machine learning and cognitive psychology. Computer vision mainly involves processing of different types of sensor data resulting in "perception of machines". Perception of machines plays a very important role in several artificial intelligence applications with sensors. There are numerous practical situations where we acquire sensor data for e.g. from mobile robots, security cameras, service and recreational robots. Making sense of this sensor data is very important so that we have increased automation in using the data. Tools from image processing, shape analysis and probabilistic inferences i.e. learning theory form the artillery for current generation of computer vision researchers. In my thesis I will address some of the most annoying components of two important open problems viz. object recognition and autonomous navigation that remain central in robotic, or in other words computational, intelligence. These problems are concerned with inducing computers, the abilities to recognize and navigate similar to those of humans. Object boundaries are very useful descriptors for recognizing objects. Extracting boundaries from real images has been a notoriously open problem for several decades in the vision community. In the first part I will present novel techniques for extracting object boundaries. The techniques are based on practically successful state-of-the-art Bayesian filtering framework, well founded geometric properties relating boundaries and skeletons and robust high-level shape analyses Acquiring global maps of the environments is crucial for robots to localize and be able to navigate autonomously. Though there has been a lot of progress in achieving autonomous mobility, for e.g. as in DARPA grand-challenges of 2005 and 2007, the mapping problem itself remains to be unsolved which is essential for robust autonomy in hard cases like rescue arenas and collaborative exploration. In the second part I will present techniques for merging maps acquired by multiple and single robots. We developed physics-based energy minimization techniques and also shape based techniques for scalable merging of maps. Our shape based techniques are a product of combining of high-level vision techniques that exploit similarities among maps and strong statistical methods that can handle uncertainties in Bayesian sense.
Temple University--Theses
APA, Harvard, Vancouver, ISO, and other styles
39

MOULET, DOMINIQUE. "Extraction et suivi de contours dans les sequences d'images animees." Nantes, 1990. http://www.theses.fr/1990NANT2016.

Full text
Abstract:
Ce memoire de these presente une methode de segmentation et de suivi temporel de sequences d'images. La methode que nous proposons permet d'obtenir d'une part l'ensemble des segmentations spatiales associees a chacune des images de la sequence et, d'autre part, un suivi temporel de points caracteristiques fournis par la segmentation. Le procede de suivi temporel de la segmentation spatiale peut se decomposer en trois grandes phases: la phase de prediction, la phase de mise en correspondance et la phase d'affinage. La phase de prediction permet le calcul d'une prediction de la position de chacun des points caracteristiques dans l'image suivante, position que l'on determine de facon precise lors de la phase de mise en correspondance. Cette mise en correspondance est effectuee de facon hierarchique dans une premiere etape par une procedure deterministe puis, dans une seconde etape, par une methode de relaxation probabiliste. Enfin, lors de la derniere phase qui reste a mettre au point, la segmentation obtenue est ajustee afin de rester en parfaite coherence avec les segmentations precedentes
APA, Harvard, Vancouver, ISO, and other styles
40

Yogeswaran, Arjun. "3D Surface Analysis for the Automated Detection of Deformations on Automotive Panels." Thèse, Université d'Ottawa / University of Ottawa, 2011. http://hdl.handle.net/10393/19992.

Full text
Abstract:
This thesis examines an automated method to detect surface deformations on automotive panels for the purpose of quality control along a manufacturing assembly line. Automation in the automotive manufacturing industry is becoming more prominent, but quality control is still largely performed by human workers. Quality control is important in the context of automotive body panels as deformations can occur along the assembly line such as inadequate handling of parts or tools around a vehicle during assembly, rack storage, and shipping from subcontractors. These defects are currently identified and marked, before panels are either rectified or discarded. This work attempts to develop an automated system to detect deformations to alleviate the dependence on human workers in quality control and improve performance by increasing speed and accuracy. Some techniques make use of an ideal CAD model behaving as a master work, and panels scanned on the assembly line are compared to this model to determine the location of deformations. This thesis presents a solution for detecting deformations of various scales without a master work. It also focuses on automated analysis requiring minimal intuitive operator-set parameters and provides the ability to classify the deformations as dings, which are deformations that protrude from the surface, or dents, which are depressions into the surface. A complete automated deformation detection system is proposed, comprised of a feature extraction module, segmentation module, and classification module, which outputs the locations of deformations when provided with the 3D mesh of an automotive panel. Two feature extraction techniques are proposed. The first is a general feature extraction technique for 3D meshes using octrees for multi-resolution analysis and evaluates the amount of surface variation to locate deformations. The second is specifically designed for the purpose of deformation detection, and analyzes multi-resolution cross-sections of a 3D mesh to locate deformations based on their estimated size. The performance of the proposed automated deformation detection system, and all of its sub-modules, is tested on a set of meshes which represent differing characteristics of deformations in surface panels, including deformations of different scales. Noisy, low resolution meshes are captured from a 3D acquisition, while artificial meshes are generated to simulate ideal acquisition conditions. The proposed system shows accurate results in both ideal situations as well as non-ideal situations under the condition of noise and complex surface curvature by extracting only the deformations of interest and accurately classifying them as dings or dents.
APA, Harvard, Vancouver, ISO, and other styles
41

Zhao, Fangwei. "Multiresolution analysis of ultrasound images of the prostate." University of Western Australia. School of Electrical, Electronic and Computer Engineering, 2004. http://theses.library.uwa.edu.au/adt-WU2004.0028.

Full text
Abstract:
[Truncated abstract] Transrectal ultrasound (TRUS) has become the urologist’s primary tool for diagnosing and staging prostate cancer due to its real-time and non-invasive nature, low cost, and minimal discomfort. However, the interpretation of a prostate ultrasound image depends critically on the experience and expertise of a urologist and is still difficult and subjective. To overcome the subjective interpretation and facilitate objective diagnosis, computer aided analysis of ultrasound images of the prostate would be very helpful. Computer aided analysis of images may improve diagnostic accuracy by providing a more reproducible interpretation of the images. This thesis is an attempt to address several key elements of computer aided analysis of ultrasound images of the prostate. Specifically, it addresses the following tasks: 1. modelling B-mode ultrasound image formation and statistical properties; 2. reducing ultrasound speckle; and 3. extracting prostate contour. Speckle refers to the granular appearance that compromises the image quality and resolution in optics, synthetic aperture radar (SAR), and ultrasound. Due to the existence of speckle the appearance of a B-mode ultrasound image does not necessarily relate to the internal structure of the object being scanned. A computer simulation of B-mode ultrasound imaging is presented, which not only provides an insight into the nature of speckle, but also a viable test-bed for any ultrasound speckle reduction methods. Motivated by analysis of the statistical properties of the simulated images, the generalised Fisher-Tippett distribution is empirically proposed to analyse statistical properties of ultrasound images of the prostate. A speckle reduction scheme is then presented, which is based on Mallat and Zhong’s dyadic wavelet transform (MZDWT) and modelling statistical properties of the wavelet coefficients and exploiting their inter-scale correlation. Specifically, the squared modulus of the component wavelet coefficients are modelled as a two-state Gamma mixture. Interscale correlation is exploited by taking the harmonic mean of the posterior probability functions, which are derived from the Gamma mixture. This noise reduction scheme is applied to both simulated and real ultrasound images, and its performance is quite satisfactory in that the important features of the original noise corrupted image are preserved while most of the speckle noise is removed successfully. It is also evaluated both qualitatively and quantitatively by comparing it with median, Wiener, and Lee filters, and the results revealed that it surpasses all these filters. A novel contour extraction scheme (CES), which fuses MZDWT and snakes, is proposed on the basis of multiresolution analysis (MRA). Extraction of the prostate contour is placed in a multi-scale framework provided by MZDWT. Specifically, the external potential functions of the snake are designated as the modulus of the wavelet coefficients at different scales, and thus are “switchable”. Such a multi-scale snake, which deforms and migrates from coarse to fine scales, eventually extracts the contour of the prostate
APA, Harvard, Vancouver, ISO, and other styles
42

Mayer, Stefan. "Automatisierte Objekterkennung zur Interpretation hochauflösender Bilddaten in der Erdfernerkundung." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2004. http://dx.doi.org/10.18452/15040.

Full text
Abstract:
Als Datengrundlage für die Erhebung von Flächennutzungsparametern, wie sie in geografischen Informationssystemen (GIS) abgelegt und verwaltet werden, dienen oft Bilddaten aus der Erdfernerkundung. Die zur Erkennung und Unterscheidung der Objekte notwendige hohe Pixelauflösung führt bei der Erfassung eines Zielgebiets wie beispielsweise einer Stadt zu enormen Datenmengen. Aus diesen Bilddaten gilt es, möglichst schnell und preiswert die für ein GIS notwendigen Informationen, wie Umrissvektoren und Objektattribute, zu extrahieren. Diese Arbeit ist ein Beitrag zur Automatisierung dieses Schritts mit besonderem Schwerpunkt auf der Gebäudeextraktion. Datengrundlage sind hochauflösende multispektrale Orthobilder und ein digitales Oberflächenmodell (DOM) der digitalen Luftbildkamera HRSC-A bzw. HRSC-AX zum Einsatz. Deswegen werden das Aufnahmeprinzip sowie die Datenverarbeitung der HRSC überblicksartig vorgestellt. Auf Basis dieser HRSC-Standarddatenprodukte wird ein Vorgehen zur Extraktion von Objekten entwickelt. In einer hierarchisch geordneten Abfolge an Segmentierungsschritten werden aus der Pixelinformation bedeutungstragende Einheiten extrahiert. Dieser Segmentierungsansatz lässt sich auf mehrere Objektkategorien, wie Straßen oder Ackerflächen, erweitern. So werden in der aktuellen Entwicklungsstufe neben Gebäuden auch Baumregionen detektiert. Anhand des Oberflächenmodells werden erhöhte Regionen erkannt. Dazu wird das DOM durch Berechnung eines Terrainmodells auf Grundhöhe normiert. Für erhöhte Objekte wird die Grundhöhe aus umliegenden Grundregionen abgeleitet. Die erhöhten Regionen werden anschließend in Bäume und Gebäude unterteilt. Dazu werden aus den Multispektraldaten Vegetationscharakteristika bestimmt und entsprechende Baumsegmente ermittelt. Die Gebäuderegionen resultieren aus einer Nachverarbeitung der verbleibenden Segmente. Um Gebäudekomplexe in einzelne Häuser aufzuteilen, wird ein gradientenbasierter Ansatz entwickelt. Anhand der für Brandmauern typischen Gradienteninformation werden Linienhypothesen zur Unterteilung der Gebäudesegmente generiert. Diese werden schrittweise anhand geometrischer und radiometrischer Kriterien auf ihre Plausibilität überprüft. Schließlich werden die ursprünglich aus dem DOM stammenden Konturen der Gebäudesegmente und deren Übereinstimung mit Bildkanten eines Orthobildes betrachtet. In einem adaptiven Ansatz wird das Konturpolygon durch die Gradienteninformation an angrenzende Bildkanten angepasst. Zur Umsetzung typischer Gebäudegeometrien wie rechter Winkel oder Parallelität werden innerhalb des Adaptionsprozesses entsprechende Nebenbedingungen formuliert. Die Extraktion erhöhter Objekte wie auch deren Unterteilung in Bäume und Gebäude erfolgt mit hoher Genauigkeit, z.B. liegen die Detektionsraten bei Gebäuden über 90%. Der neuartige Ansatz zur Unterteilung in einzelne Häuser ohne explizite Liniendetektion führt bereits in der vorgestellten Entwicklungsstufe zur Beschleunigung einer manuellen Interpretation. Die adaptive Verbesserung der Gebäudekontur führt zu gebäudetypischeren Umrissen ohne Beeinträchtigung der hohen Detektionsraten.
Remote sensing image data are often used as a basis for determining land use parameters, as they are stored and managed in geographic information systems (GIS). Covering a target area leads to an enormous amount of data due to the high pixel resolution required for recognizing and discriminating objects. To effectively derive GIS information like contour vectors or object attributes from these data, the extraction process has to be fast and cost-effective. This thesis is a contribution to the automization of this step with a focus on building extraction. High resolution multispectral ortho-images and a digital surface model (DSM), generated by the digital aerial camera HRSC-A or HRSC-AX, are used as data basis. Therefore, the HRSC imaging principle and data processing are summarized. Based on these HRSC standard data products, an object extraction scheme is developed. In a hierarchically ordered sequence of segmentation steps, meaningful units are extracted from pixel information. This segmentation approach is extendable to several object categories like streets or fields. Thus, tree regions, as well as buildings are detected in the current stage of implementation. Elevated regions are recognized using the digital surface model. For that purpose the DSM is normalized by calculating a terrain model. For elevated objects the terrain height is derived from surrounding ground regions. Subsequently, the elevated regions are separated into trees and buildings. Determining spectral characteristics of vegetation from the multispectral data leads to corresponding tree segments. The building regions result from post-processing the remaining segments. In order to split the building segments into single houses, a gradient based approach is developed. By means of the gradient information associated with firewalls, line hypotheses for subdividing the building segments are generated. Their plausibility is checked by gradually applying geometric and spectral criteria. Finally, the building contours, originally derived from the DSM, and their correspondence to image edges in an ortho-image, are considered. In an adaptive approach, the contour polygon is adjusted to neighboring image edges using the gradient information. Typical building geometries like right angles or parallelism are enforced by applying corresponding constraints in the adaption process. The extraction of elevated objects, as well as the separation into trees and buildings, is carried out with high accuracy, e.g. the building detection rates are over 90%. In the current development stage the novel approach for separating building segments into single houses without an explicit line detection already leads to a speeding-up of a manual interpretation. The adaptive improvement of building contours leads to building typical contours without affecting the high detection rates.
APA, Harvard, Vancouver, ISO, and other styles
43

Peng, Ting. "Nouveaux modèles de contours actifs d'ordre supérieur, formes «a priori» et analyse multi-échelle : leurs application à l'extraction de réseaux routiers à partir des images satellitaires à très haute résolution." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00349768.

Full text
Abstract:
L'objectif de cette thèse est de développer et de valider des approches robustes d'extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d'images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d'ordre supérieur (CAOS). Le probléme est difficile pour deux raisons principales : les images THR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l'information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu'un modèle multi-résolution contraint a priori. Ces derniers permettent l'intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d'une ancienne carte numérique issue d'un SIG. Ce terme spécifique a priori équilibre l'effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d'une limitation importante : la largeur des branches du réseau est contrainte à d'être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l'un contenant un terme additionnel, nonlocal, non-linéaire de CAOS, et l'autre contenant un terme additionnel, nonlocal, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d'une part il se calcule plus efficacement, d'autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d'une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres des fonctions d'énergie. Des expériences sur des images satellitaires THR et la comparaison avec d'autres modèles démontrent la supériorité de nos modèles.
APA, Harvard, Vancouver, ISO, and other styles
44

Pereira, Jerônymo Peixoto Athayde. "Extração de fatores de intensidade de tensão utilizando a solução do método dos elementos finitos generalizados." Universidade de São Paulo, 2004. http://www.teses.usp.br/teses/disponiveis/18/18134/tde-01092006-145853/.

Full text
Abstract:
O trabalho apresenta uma análise do desempenho de vários métodos de extração de fatores de intensidade de tensão a partir de soluções numéricas obtidas com o método dos elementos finitos generalizados (MEFG). A convergência dos fatores de intensidade de tensão é comparada com a da energia de deformação a fim de investigar a superconvergência dos métodos. Para extração dos fatores de intensidade de tensão e o cálculo da taxa de energia disponibilizada para propagação da fissura, implementam-se os métodos da integral de contorno (MIC), da função cutoff (MFC) e da integral-J no contexto do MEFG. Desenvolve-se a formulação dos métodos de extração de forma a obter uma implementação independente da malha utilizada na modelagem do problema. Aplica-se a extração dos fatores de intensidade de tensão, para modos puros e mistos, em problemas clássicos da mecânica da fratura. Verifica-se a convergência dos fatores de intensidade de tensão e da taxa de energia disponibilizada para a propagação da fissura, obtidos com cada método de extração, com o enriquecimento da ordem polinomial da solução do MEFG. Investiga-se a robustez dos métodos com relação ao tamanho dos domínios de extração
The performance of several techniques to extract stress intensity factors (SIF) from numerical solutions computed with the generalized finite element method (GFEM) is investigated. The convergence of the stress intensity factors is compared with the convergence of strain energy with the aim of investigate the superconvergence of the methods. The contour integral (CIM), the cutoff function (CFM) and the J-integral methods are considered to compute stress intensity factors and energy release rate. The proposed implementation of the extraction techniques is completely independent of the discretization used. Several numerical examples demonstrating the convergence of the computed stress intensity factors and the energy release rate, with the increasing of p order of the GFEM solution, are presented
APA, Harvard, Vancouver, ISO, and other styles
45

Toulminet, Gwenaëlle. "Extraction des contours 3D des obstacles par stéréovision pour l'aide à la conduite automobile." INSA de Rouen, 2002. http://www.theses.fr/2002ISAM0011.

Full text
Abstract:
Dans le cadre de la conception d'un capteur de vision 3D pour l'aide à la conduite automobile, nous avons conçu une méthode d'extraction rapide, robuste et fiable des contours 3D des obstacles. Dans une première étape, nous améliorons les cartes 3D éparses construites à partir de paires d'images stéréoscopiques. L'amélioration des cartes 3D éparses consiste à détecter et à corriger les faux appariements de mise en correspondance. Pour cela, nous appliquons un critère de continuité sur des courbes 3D de contour préalablement construites, et nous supposons que la majorité des points 3D des courbes 3D sont les résultats d'appariements corrects de mise en correspondance. Dans une deuxième étape, les contours 3D des obstacles sont extraits à partir des courbes 3D améliorées, ce qui permet de réduire la sensibilité de la méthode aux faux appariements de mise en correspondance. De plus, l'extraction des contours 3D des obstacles a été conçue de manière à réduire sa sensibilité au bruit stochastique et à une modélisation et une détection approximative du plan de la route : cette extraction est une coopération de deux méthodes d'extraction des contours 3D des obstacles qui n'ont pas la même sensibilité et qui sont utilisées de manière complémentaire. La robustesse et la fiabilité de l'extraction des contours 3D des obstacles sont étudiées à partir de scènes routières réelles dont les conditions de visibilité sont différentes. Une partie de ces travaux a été réalisée dans le cadre d'une action intégrée franco-italienne GALILEE 2000 en collaboration avec le Dipartimento di Ingegneria dell'Informazione de l'Université de Parme.
APA, Harvard, Vancouver, ISO, and other styles
46

El, Ghoul Aymen. "Phase fields for network extraction from images." Nice, 2010. http://www.theses.fr/2010NICE4075.

Full text
Abstract:
Cette thèse décrit la construction d’un modèle de réseaux non-directionnels (e. G. Réseaux routiers), fondé sur les contours actifs d’ordre supérieur (CAOs) et les champs de phase développés récemment, et introduit une nouvelle famille de champs de phase des CAOs pour les réseaux directionnels (e. G. Réseaux hydrographiques, vaisseaux sanguins). Dans la première partie de cette thèse, nous nous intéressons à l’analyse de la stabilité d’une énergie de type CAOs aboutissant à un « diagramme de phase ». Les résultats permettent une sélection des valeurs des paramètres pour la modélisation de réseaux non-directionnels. Au contraire des réseaux routiers, les réseaux hydrographiques sont directionnels, i. E. Ils contiennent un « flux » monodimensionnel circulant dans chaque branche. Nous développons un modèle de champ de phase non-local de réseaux directionnels, qui, en plus du champ de phase scalaire décrivant une région par une fonction caractéristique lisse et qui interagit non-localement afin que des configurations de réseaux linéiques soient favorisées, introduit un champ vectoriel représentant le « flux » dans les branches du réseau. Ce champ vectoriel est contraint d’être nul à l’extérieur, et de magnitude égale à 1 à l’intérieur du réseau ; circulant dans le sens longitudinal des branches du réseau ; et de divergence très faible. Cela prolonge les branches du réseau ; contrôle la variation de largeur tout au long d’une branche, et forme des jonctions non-symétriques telles que la somme des largeurs entrantes soit approximativement égale à celle des largeurs sortantes. Ce nouveau modèle a été appliqué au problème d’extraction de réseaux hydrographiques à partir d’images satellitaires très haute résolution
This thesis describes the construction of an undirected network (e. G. Road network) model, based on the recently developed higher-order active contours (HOACs) and phase fields, and introduces a new family of phase field HOACs for directed networks (e. G. Hydrographic networks in remote sensing imagery, vascular networks in medical imagery). In the first part of this thesis, we focus on the stability analysis of a HOAC energy leading to a “phase diagram”. The results which are confirmed by numerical experiments enable the selection of parameter values for the modeling of indirectly networks. Hydrographic networks, unlike road networks, are directed, i. E. They carry a unidirectional flow in each branch. This leads to specific geometric properties of the branches and particularly of the junctions that it is useful to capture in model, for network extraction purposes. We thus develop a nonlocal phase field model of directed networks, which, in addition to a scalar field representing a region by its smoothed characteristic function and interacting no locally so as to favor network configurations, contains a vector field representing the “flow” through the network branches. The vector field is strongly encouraged to be zero outside, and of unit magnitude inside the network ; running along the network branches ; and to have a zero divergence. This prolongs network, controls width variation along a branch ; and produces asymmetric junctions for which total incoming branch width approximately equals total outgoing branch width. The new proposed model is applied to the problem of hydrographic network extraction from very high resolution satellite images, and it outperforms the undirected network model
APA, Harvard, Vancouver, ISO, and other styles
47

Zéboudj, Rachid. "Filtrage, seuillage automatique, contraste et contours : du pré-traitement à l'analyse d'image." Saint-Etienne, 1988. http://www.theses.fr/1988STET4001.

Full text
Abstract:
Etude de quelques aspects du traitement et de l'analyse d'image : présentation d'un lissage adaptatif mettant en évidence les régions qui composent une image; introduction de la notion de contraste utile en seuillage d'image; segmentation d'image; techniques d'extraction d'information par seuillage d'image et détection de contours; classification de formes utilisant la courbure
APA, Harvard, Vancouver, ISO, and other styles
48

Mozaffari, Maaref Mohammad Hamed. "A Real-Time and Automatic Ultrasound-Enhanced Multimodal Second Language Training System: A Deep Learning Approach." Thesis, Université d'Ottawa / University of Ottawa, 2020. http://hdl.handle.net/10393/40477.

Full text
Abstract:
The critical role of language pronunciation in communicative competence is significant, especially for second language learners. Despite renewed awareness of the importance of articulation, it remains a challenge for instructors to handle the pronunciation needs of language learners. There are relatively scarce pedagogical tools for pronunciation teaching and learning, such as inefficient, traditional pronunciation instructions like listening and repeating. Recently, electronic visual feedback (EVF) systems (e.g., medical ultrasound imaging) have been exploited in new approaches in such a way that they could be effectively incorporated in a range of teaching and learning contexts. Evaluation of ultrasound-enhanced methods for pronunciation training, such as multimodal methods, has asserted that visualizing articulator’s system as biofeedback to language learners might improve the efficiency of articulation learning. Despite the recent successful usage of multimodal techniques for pronunciation training, manual works and human manipulation are inevitable in many stages of those systems. Furthermore, recognizing tongue shape in noisy and low-contrast ultrasound images is a challenging job, especially for non-expert users in real-time applications. On the other hand, our user study revealed that users could not perceive the placement of their tongue inside the mouth comfortably just by watching pre-recorded videos. Machine learning is a subset of Artificial Intelligence (AI), where machines can learn by experiencing and acquiring skills without human involvement. Inspired by the functionality of the human brain, deep artificial neural networks learn from large amounts of data to perform a task repeatedly. Deep learning-based methods in many computer vision tasks have emerged as the dominant paradigm in recent years. Deep learning methods are powerful in automatic learning of a new job, while unlike traditional image processing methods, they are capable of dealing with many challenges such as object occlusion, transformation variant, and background artifacts. In this dissertation, we implemented a guided language pronunciation training system, benefits from the strengths of deep learning techniques. Our modular system attempts to provide a fully automatic and real-time language pronunciation training tool using ultrasound-enhanced augmented reality. Qualitatively and quantitatively assessments indicate an exceptional performance for our system in terms of flexibility, generalization, robustness, and autonomy outperformed previous techniques. Using our ultrasound-enhanced system, a language learner can observe her/his tongue movements during real-time speech, superimposed on her/his face automatically.
APA, Harvard, Vancouver, ISO, and other styles
49

Kulikova, Maria. "Reconnaissance de forme pour l'analyse de scène." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00477661.

Full text
Abstract:
Cette thèse est composée de deux parties principales. La première partie est dédiée au problème de la classification d'espèces d'arbres en utilisant des descripteurs de forme, en combainison ou non, avec ceux de radiométrie ou de texture. Nous montrons notamment que l'information sur la forme améliore la performance d'un classifieur. Pour ce faire, dans un premier temps, une étude des formes de couronnes d'arbres extraites à partir d'images aériennes, en infrarouge couleur, est eectuée en utilisant une méthodologie d'analyse de formes des courbes continues fermées dans un espace de formes, en utilisant la notion de chemin géodésique sous deux métriques dans des espaces appropriés : une métrique non-élastique en utilisant la reprèsentation par la fonction d'angle de la courbe, ainsi qu'une métrique élastique induite par une représentation par la racinecarée appelée q-fonction. Une étape préliminaire nécessaire à la classification est l'extraction des couronnes d'arbre. Dans une seconde partie, nous abordons donc le problème de l'extraction d'objets de forme complexe arbitraire, à partir d'images de télédétection à très haute résolution. Nous construisons un modèle fondé sur les processus ponctuels marqués. Son originalité tient dans sa prise en compte d'objets de forme arbitraire par rapport aux objets de forme paramétrique, e.g. ellipses ou rectangles. Les formes sélectionnées sont obtenues par la minimisation locale d'une énergie de type contours actifs avec diérents a priori sur la forme incorporé. Les objets de la configuration finale (optimale) sont ensuite sélectionnés parmi les candidats par une dynamique de naissances et morts multiples, couplée à un schéma de recuit simulé. L'approche est validée sur des images de zones forestières à très haute résolution fournies par l'Université d'Agriculture de Suède.
APA, Harvard, Vancouver, ISO, and other styles
50

Serce, Hakan. "Facial Feature Extraction Using Deformable Templates." Master's thesis, METU, 2003. http://etd.lib.metu.edu.tr/upload/1224674/index.pdf.

Full text
Abstract:
The purpose of this study is to develop an automatic facial feature extraction system, which is able to identify the detailed shape of eyes, eyebrows and mouth from facial images. The developed system not only extracts the location information of the features, but also estimates the parameters pertaining the contours and parts of the features using parametric deformable templates approach. In order to extract facial features, deformable models for each of eye, eyebrow, and mouth are developed. The development steps of the geometry, imaging model and matching algorithms, and energy functions for each of these templates are presented in detail, along with the important implementation issues. In addition, an eigenfaces based multi-scale face detection algorithm which incorporates standard facial proportions is implemented, so that when a face is detected the rough search regions for the facial features are readily available. The developed system is tested on JAFFE (Japanese Females Facial Expression Database), Yale Faces, and ORL (Olivetti Research Laboratory) face image databases. The performance of each deformable templates, and the face detection algorithm are discussed separately.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography