Dissertations / Theses on the topic 'Reconnaissance de contour'

To see the other types of publications on this topic, follow the link: Reconnaissance de contour.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconnaissance de contour.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ruch, Olivier. "Reconnaissance des formes par Contour Actif Statistique - Application à l'imagerie optronique active." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30058.

Full text
Abstract:
Les systèmes d'imagerie actifs permettent d'acquérir des images de jour comme de nuit, avec une résolution supérieure à celle des équipements infra-rouges. Cependant, l'inconvénient de ces systèmes par rapport aux capteurs optiques classiques est qu'ils délivrent des images fortement dégradées par le phénomène de speckle, qui en limite l'interpretation automatique. Nous proposons, au cours de cette thèse, d'étudier dans quelle mesure la technique du Contour Actif Statistique Polygonal (CASP) peut etre employée afin d'effectuer la reconnaissance des objets présents dans des images de speckle. La méthode de reconnaissance des formes employée correspond à l'algorithme du plus proche voisin; on selectionne ainsi la référence la plus proche de la silhouette obtenue avec le CASP, en évaluant une certaine mesure de comparaison entre contours
Active systems allow image acquisition both during day and night, with a highest resolution than the infra-red equipments do. Nevertheless, the main drawback of these systems compared to the classical optical sensors is that the obtained images are strongly corruptedby the speckle effect, and therefore their automatic interpretation is drastically limited. In this thesis, we propose to study in which way the Statistical Polygonal Snake (SPS) can be used in orderto perform the recognition of objects in speckled images. The recognition method which has been considered is the nearest neighbour algorithm; we select the reference which is the most similar to the silhouette obtained with the SPS by evaluating a given similarity function between contours
APA, Harvard, Vancouver, ISO, and other styles
2

Al, Nachar Rabih. "Vers un efficace détecteur de trait : Les coins de contour et ses applications." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0054/document.

Full text
Abstract:
Nous proposons dans cette thèse un nouveau détecteur de « Coins » de contour dans une image. Ces coins sont les sommets de la ligne polygonale approximant le contour. Ils peuvent appartenir ou non au contour. Ils correspondent à une déviation importante de la direction de ce contour. Aussi, ils sont répétables en présence de transformations affines ou similitudes et sont robustes au bruit présent aux frontières d'une image. Grâce à cette répétabilité, les coins sont utilisés dans une application de reconnaissance de la forme.Les coins peuvent être classés selon leur force. Ainsi sous ensemble de ces coins,appelé "Coins Dominants", peuvent être extraits formant les sommets du polygone« minimal » qui représente le contour, pour un nombre de segments donné. Deux applications, basées sur les Coins/Coins Dominants du contour ont été réalisées : La première est une application de recalage d’images où de nouvelles primitives invariantes constituées de quatre "Coins Dominants" du contour ont été proposées. La seconde application est la reconnaissance des caractères dans une image déformée où les coins du contour des caractères ont été utilisés dans un processus de segmentation / reconnaissance simultané
In this thesis, a new feature detector is proposed. The new features are edgecorners located on the contours of a studied image. These points are edge pointswhere a deviation in the edge direction occurs. In addition, they are repeatable versussimilarity, affine transformations and also robust to noise at the boundaries of theobject's image. Due to their repeatability, these corners are used in a shape recognitionapplication. Also, a smaller set of corners called "Dominant Corners" or "DCs" isextracted form the original set of corners using a new proposed polygonalapproximation algorithm. These DCs form the vertices of a polygon that bestapproximate their contour. Two applications using the edge corners are alsodeveloped. The first one is an image registration application that forms invariantprimitives using the DCs. The second application is a word recognition applicationwhere the edge corners located on the characters contours are used in a simultaneoussegmentation/recognition process to recognize the characters in a deformed wordimage
APA, Harvard, Vancouver, ISO, and other styles
3

Mariyanayagam, Damien. "Localisation et reconnaissance de marqueurs circulaires à partir d'une vue de leur contour." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0051.

Full text
Abstract:
La localisation ou l’estimation de la pose d’une caméra à partir d’une vue est un problème essentiel dans de nombreuses applications, telles que le suivi d’une trajectoire de véhicule autonome ou la réalité augmentée. La pose d’une caméra peut être estimée à partir de marqueurs construits spécifiquement pour cette tâche et qui peuvent être placés dans la scène. Ces marqueurs possèdent des caractéristiques qui permettent de les distinguer des autres objets de la scène. Il est ainsi plus facile de les détecter dans une image et de les reconnaître que des objets naturels comme des points d’intérêts. La correspondance entre la forme du marqueur et son image par une caméra contraint la pose de sorte qu'il est possible de retrouver les coordonnées du marqueur dans le repère de la caméra. Les marqueurs circulaires sont particulièrement intéressants pour leur résilience à l’occultation partielle de l’image. En effet une ellipse peut être estimée à partir de seulement 5 points quelconques de son contour. Ainsi un marqueur partiellement occulté peut toujours être correctement localisé. Le problème c’est que l’image du contour circulaire n’est pas suffisante pour calculer la pose du marqueur, les marqueurs circulaires fonctionnent ainsi soit avec une caméra calibrée, soit en ajoutant d’autres primitives comme par exemple des cercles concentriques. L’image du contour est pourtant souvent la seule information fiable dont on dispose dans certains cas d’utilisation. De plus, même avec une caméra est calibrée, l’image d’un seul cercle n’est pas suffisante pour obtenir la pose de son plan de support, il existe en effet une double ambiguïté qu’on ne peut distinguer sans information supplémentaire. En plus de cette ambiguïté, il existe une infinité de poses possibles pour le marqueur. Ces poses correspondent à l’ensemble des rotations autour de l’axe perpendiculaire au plan de support et passant par le centre du cercle. Ainsi nous pouvons distinguer quatre problématiques majeures traitées dans cette thèse : 1) Comment prendre en compte des connaissances approximatives sur les paramètres de calibrage ? 2) Quelles sont les conditions minimales de résolution de l’ambiguïté sur la pose du plan ? 3) Comment calculer la rotation autour de l’axe du cercle ? 4) Est-il possible d’identifier le marqueur en utilisant également son environnement ? Notre première contribution répond à la première question. Pour cela nous proposons un modèle « par défaut » de la caméra. Ce modèle permet d’insérer nos incertitudes sur les paramètres intrinsèques de la caméra dans un algorithme qui recherche une solution photométrique au problème de la rectification métrique de l’image du marqueur. Les résultats démontrent que l’utilisation de ce modèle « par défaut » offre des perspectives encourageantes pour les marqueurs circulaires. Notre seconde contribution porte sur l’ambiguïté de la pose du plan de support. Pour l’étudier nous proposons une nouvelle formulation du problème de l’estimation de la pose d’un cercle à partir de l’image de son contour. Cette formulation permet de faire le lien entre l’ambiguïté géométrique et les solutions algébriques obtenues. Cela nous amène à proposer une paramétrisation minimale de la pose qui fournit une condition simple de résolution de l’ambiguïté. Enfin nous proposons une nouvelle méthode de localisation du marqueur circulaire à partir de points d’intérêts détectés dans son voisinage. La méthode repose sur une bibliothèque composée de vues de référence du marqueur prises hors ligne. Le marqueur est ensuite reconnu sur une nouvelle vue en utilisant conjointement l’image du cercle et des correspondances de points sur les vues de références. Le modèle de pose est ensuite validé par une procédure de type RANSAC qui s’appuie sur une paramétrisation minimale par l’image d’un point 3D et d’un cercle
Locating or estimating the pose of a camera from a view is an essential problem in many applications, such as tracking a trajectory of autonomous vehicle navigation or augmented reality. The pose of a camera can be estimated from markers built specifically for this task and which can be placed in the scene. These markers have characteristics that distinguish them from other objects in the scene, making them easier to detect and recognize than natural objects such as points of interest. The correspondence between the shape of the marker and its image by a camera gives constraints to the pose so that it is possible to find the coordinates of the marker in the camera's reference frame. Circular markers are particularly interesting for their robustness to partial occlusion of their image. Indeed an ellipse can be estimated from only 5 points of its contour so a partially occulted marker can always be correctly located. The problem is that the image of the circular contour is not sufficient to calculate the marker pose, the circular markers work either with a calibrated camera or by adding other circular contours such as concentric circles. Unfortunately, the contour image is often the only reliable information available in some cases of use. Moreover, even if the camera is calibrated, the image of a single circle is not sufficient to obtain the pose of its support plane, there is indeed a double ambiguity that cannot be distinguished without additional information. In addition to this ambiguity, there is an infinity of possible poses for the marker. These poses correspond to all the rotations about the axis perpendicular to the support plane and passing through the center of the circle. Thus we can distinguish four major issues addressed in this thesis: How to take into account approximate knowledge of camera calibration parameters? What are the minimum conditions for solving the ambiguity on the pose of the plane? How to calculate the rotation around the axis of the circle? Is it possible to identify the marker using the image of its contour and its surrounding? Our first contribution handles the first question, in this purpose we introduce a "default" model of the camera. This model let us to incorporate our uncertainties about the intrinsic parameters of the camera into an algorithm that search for a photometric solution to the problem of metric correction of the marker image. The results show that the use of this "default" model offers encouraging prospects for circular markers. Our second contribution concerns the ambiguity of the pose of the support plan. To study it, we propose a new formulation of the problem of estimating the pose of a circle from the image of its contour. This formulation makes it possible to make the link between geometric ambiguity and the algebraic solutions obtained. This leads us to propose a minimal parameterization of the pose that provides a simple condition on the resolution of ambiguity. Finally, we propose a new method for locating the circular marker based on points of interest detected in its vicinity. The method is based on a library of marker reference views made offline. The marker is then recognized in a new view by using the image of the circle and the point correspondences found in the reference views together. The pose is then validated by a RANSAC procedure based on a minimal parameterization by the image of a 3D point and a circle
APA, Harvard, Vancouver, ISO, and other styles
4

Chesnaud, Christophe. "Techniques statistiques de segmentation par contour actif et mise en oeuvre rapide." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30005.

Full text
Abstract:
Cette these est consacree au developpement et a l'etude d'une technique originale de segmentation d'un objet dans une image. L'apport de cette technique est d'obtenir une segmentation acceptable meme en l'absence de contour net entre l'objet et le fond de l'image analysee. Les applications considerees concernent essentiellement la poursuite d'objet dans des sequences d'images, ce qui entraine une contrainte importante sur les temps de calcul admissibles pour les algorithmes developpes. La technique proposee repose sur des modelisations probabilistes simples de l'image analysee qui permettent de prendre en compte des informations relatives aux statistiques des niveaux de gris de l'objet et du fond. La segmentation est alors posee comme un probleme d'estimation de la forme d'un objet dans une image. Un modele parametrique polygonal a ete choisi et l'estimation de sa forme est obtenue a l'aide des techniques statistiques de l'estimation en presence de champs stochastiques decorreles mais de parametres inconnus. Dans ce document apres avoir presente les principes de base de cette nouvelle technique, nous en illustrons les performances sur differents types d'images. Pour les images optroniques, nous montrons que si elle s'avere le plus souvent peu efficace quand on l'applique directement, elle devient beaucoup plus pertinente quand elle est associee a un pretraitement simple de l'image. Une partie importante de notre travail a consiste a optimiser le temps de calcul qui est a priori important pour les applications considerees. Les developpements algorithmiques qui nous ont permis d'obtenir une acceleration de l'ordre d'un facteur 400 sont egalement presentes car ils tirent pleinement parti des proprietes statistiques des modeles d'images et des algorithmes consideres. Nous concluons ce document en presentant des resultats en poursuite d'objets dans des resultats en poursuite d'objets dans des sequences d'images.
APA, Harvard, Vancouver, ISO, and other styles
5

Tan, Shengbiao. "Contribution à la reconnaissance automatique des images : application à l'analyse de scènes de vrac planaire en robotique." Paris 11, 1987. http://www.theses.fr/1987PA112349.

Full text
Abstract:
Ce mémoire présente une méthode de modélisation et de reconnaissance automatique d'objets partiellement observés. Notre travail se décompose selon trois parties essentielles: le pré-traitement de l'image, la modélisation d'objets, et l'évaluation de la réalisation des concepts énoncés. Au cours de la première partie, nous présentons une méthode de codage de contours basée sur un ré-échantillonnage de données codées selon Freeman, qui génère une représentation isotrope, homogène et très précise. La deuxième partie traite de la modélisation des objets, cette étape très importante permet de faciliter grandement le travail au cours de la reconnaissance. Nous proposons une nouvelle méthode qui consiste à caractériser un modèle par deux groupes d'informations : un groupe descriptif, et un groupe discriminatif, qui contiennent respectivement les primitives et des paquets de données appelés "vecteurs de transition". Cette méthode originale d'organisation d'informations constitue la base d'un "apprentissage relationnel" qui permet de sélectionner, négliger ou remettre à jour automatiquement les informations concernant les objets déjà appris, en fonction des nouvelles informations à inclure dans la base de données. La reconnaissance se déroule en deux - temps : une étape de génération d'hypothèses détermine très efficacement l'occurrence des objets à l'aide de la mise en valeur des particularités propres à chaque modèle, l'autre étape de vérification fine permet de confirmer ou d'infirmer ces hypothèses. La dernière partie décrit en détail les résultats expérimentaux. Nous démontrons la robustesse des algorithmes sur des images d'objets partiellement cachés, relevées dans des conditions difficiles d'éclairage. Le système, baptisé SOFIA, a été installé sur une famille de systèmes de vision industrielle et fonctionne en temps réel
A method for object modeling and overlapped object automatic recognition is presented. Our work is composed of three essential parts: image processing, object modeling, and evaluation, implementation of the stated concepts. In the first part, we present a method of edge encoding which is based on a re-sampling of the data encoded according to Freeman, this method generates an isotropie, homogenous and very precise representation. The second part relates to object modeling. This important step makes much easier the recognition work. The new method proposed characterizes a model with two groups of information : the description group containing the primitives, the discrimination group containing data packs, called "transition vectors". Based on this original method of information organization, a "relative learning" is able to select, to ignore and to update the information concerning the objects already learned, according to the new information to be included into the data base. The recognition is a two - pass process: the first pass determines very efficiently the presence of objects by making use of each object's particularities, and this hypothesis is either confirmed or rejected by the following fine verification pass. The last part describes in detail the experimentation results. We demonstrate the robustness of the algorithms with images in both poor lighting and overlapping objects conditions. The system, named SOFIA, has been installed into an industrial vision system series and works in real time
APA, Harvard, Vancouver, ISO, and other styles
6

Matusiak, Stanislaw. "Description invariante et locale des formes planes : application à l'indexation d'une base d'images." Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/7570969d-50dd-44f1-84ef-c2e50a0fa07d.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'indexation et de la reconnaissance des formes dans une base d'images constituées d'objets contours, par l'utilisation des invariants locaux. Notre approche permet de reconnaitre les objets, même si ceux-ci sont partiellement visibles ou observés de différents points de vue, car elle est basée sur une caractérisation invariante et locale des contours. Un des problèmes fondamentaux de l'indexation d'une base d'images réside dans le choix de la description invariante de l'image. En effet, on estime que la requête ne correspond jamais exactement à l'image recherchée, des transformations affines peuvent les séparer. C’est pourquoi la description du contour doit posséder de bonnes propriétés d'invariance afin de conférer de la robustesse au système de reconnaissance. Un cadre général permettant d'unifier différentes descriptions locales, a été élaboré. A l'issue de celui-ci, nous avons proposé deux descriptions invariantes : la première basée sur les points d'intérêts des courbes et la seconde reposant sur l'analyse multi-échelle des contours, par rapport aux transformations affines. Les descriptions invariantes proposées ont été appliques à la recherche d'objets-contours dans une base d'images. Tout d'abord, nous avons proposé une solution au problème de la recherche d'objets par le dessin. L’utilisateur dessine sa requête à l'aide d'une interface graphique : l'image requête comporte alors un contour sur fond uniforme. Sa description par les courbures multi-échelles permet d'en extraire les indexes. Ensuite, pour effectuer une recherche rapide dans une large base d'images, un mécanisme d'indexation basé sur le hachage géométrique a été développé
This Ph. D. Contributes to the subject of indexing and pattern recognition in an image database constituted of object contours, by the use of local invariant descriptions. Our approach allows to recognize objects, even if they are partially occluded or observed at different viewpoints, since it is based on a local and invariant characterization of contours. One of the fundamental problems of indexing an image database resides in the choice of the invariant description of the image. Indeed, it is agreed that the request never corresponds exactly to the research image, affine transformations can separate them. Hence the description of the contour has a possess invariance properties so as to confer robustness to the recognition system. A general framework allowing to unify different local descriptions has been elaborated. This unification lead us propose two invariant descriptions with respect to affine transformations: the first one is based on points of interest of curves and the second one on the multi-scale analysis contours. Invariant descriptions, proposed in this work, have been applied to retrieval of objects-contours in image database. First of all, we have proposed a solution to the problem of object retrieval by sketch. The user draws his request on a graphic interface: the request image is made of a contour on uniform background. Then, its description by multi-scale curvatures allows to extract indexes. Finally, to undertake a rapid retrieving from a large image database, a mechanism of indexing based on the geometric hashing has been developed
APA, Harvard, Vancouver, ISO, and other styles
7

Hueber, Eric. "Segmentation d'images par contour actif : implantation optique avec un corrélateur incohérent ombroscopique." Phd thesis, Université de Haute Alsace - Mulhouse, 2002. http://tel.archives-ouvertes.fr/tel-00002984.

Full text
Abstract:
Nous proposons de mettre en œuvre un prototype de processeur
optoélectronique destiné à segmenter par contour actif des images
réelles. Le processus de segmentation est fondé sur des algorithmes
statistiques itératifs qui contiennent des opérations de corrélation.
Notre première contribution a été de les adapter pour bénéficier de la
rapidité de la rapidité des corrélations optiques.

Nous avons conçu et mis en œuvre un corrélateur incohérent ombroscopique
dont les résultats ont pu valider cette approche optoélectronique de la
segmentation par contour actif.

Afin d'accélérer le processus, nous avons ensuite exploité les capacités
de traitement parallèle de l'optique. La configuration multicanal permet
alors d'accélérer sensiblement la segmentation.

Cette thèse ouvre de nouvelles perpectives pour les processeurs optiques
vers des applications de description et met en lumière les grandes
capacités de traitement des corrélateurs incohérents utilisés comme
calculateurs parallèles.
APA, Harvard, Vancouver, ISO, and other styles
8

Jaber, Jamal. "Définition et validation d'une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image." Nancy 1, 1993. http://www.theses.fr/1993NAN10332.

Full text
Abstract:
Dans cette thèse nous proposons une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image. La caractérisation se fait par la détermination de certains paramètres. Dans le cadre d'une exécution rapide le choix du paramètre est lié à la possibilité de le déterminer rapidement. Nous caractérisons l'objet par estimation de la surface et du périmètre grâce à des calculs récursifs rapides. Pour ce faire, nous proposons des algorithmes de détection de contour aussi bien sur une image provenant de camera hors standard que sur une image tramée. Ils sont basés sur des traitements combinatoires locaux utilisant un voisinage 33. En présence de plusieurs objets l'individualisation de la caractérisation est obtenue par une procédure d'étiquetage. Une architecture pipe line permet d'intégrer en parallèle les algorithmes de détection et d'étiquetage. Ainsi, nous aboutissons à une caractérisation séparée des objets de l'image sans connaissance préalable de son contenu. L'architecture est organisée autour de circuits f. P. G. A. Associés à des mémoires f. I. F. O. L'implantation de l'ensemble des algorithmes représente un equi de 9000 portes logiques. Le caractère combinatoire des traitements autorise des fréquences de travail intéressantes, ils sont réalisés à la volée sur le signal vidéo avec un retard de deux lignes plus deux cycles d'horloge par rapport à la ligne courante. Cette performance de rapidité permet de traiter en temps réel certains problèmes de reconnaissance de formes et d'étude de mouvements, un autre intérêt réside dans l'utilisation de circuits entièrement programmables
APA, Harvard, Vancouver, ISO, and other styles
9

Kulikova, Maria. "Reconnaissance de forme pour l'analyse de scène." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00477661.

Full text
Abstract:
Cette thèse est composée de deux parties principales. La première partie est dédiée au problème de la classification d'espèces d'arbres en utilisant des descripteurs de forme, en combainison ou non, avec ceux de radiométrie ou de texture. Nous montrons notamment que l'information sur la forme améliore la performance d'un classifieur. Pour ce faire, dans un premier temps, une étude des formes de couronnes d'arbres extraites à partir d'images aériennes, en infrarouge couleur, est eectuée en utilisant une méthodologie d'analyse de formes des courbes continues fermées dans un espace de formes, en utilisant la notion de chemin géodésique sous deux métriques dans des espaces appropriés : une métrique non-élastique en utilisant la reprèsentation par la fonction d'angle de la courbe, ainsi qu'une métrique élastique induite par une représentation par la racinecarée appelée q-fonction. Une étape préliminaire nécessaire à la classification est l'extraction des couronnes d'arbre. Dans une seconde partie, nous abordons donc le problème de l'extraction d'objets de forme complexe arbitraire, à partir d'images de télédétection à très haute résolution. Nous construisons un modèle fondé sur les processus ponctuels marqués. Son originalité tient dans sa prise en compte d'objets de forme arbitraire par rapport aux objets de forme paramétrique, e.g. ellipses ou rectangles. Les formes sélectionnées sont obtenues par la minimisation locale d'une énergie de type contours actifs avec diérents a priori sur la forme incorporé. Les objets de la configuration finale (optimale) sont ensuite sélectionnés parmi les candidats par une dynamique de naissances et morts multiples, couplée à un schéma de recuit simulé. L'approche est validée sur des images de zones forestières à très haute résolution fournies par l'Université d'Agriculture de Suède.
APA, Harvard, Vancouver, ISO, and other styles
10

Negri, Pablo Augusto. "Détection et reconnaissance d'objets structurés : application aux transports intelligents." Paris 6, 2008. http://www.theses.fr/2008PA066346.

Full text
Abstract:
Cette thèse est dédiée à l'étude de méthodes de vision artificielle pour la détection et la reconnaissance d'objets structurés, plus précisément les véhicules automobiles. La première partie est vouée à la détection de véhicules sur des scènes routières à l'aide d'un système embarqué de vision monoculaire. La stratégie utilisée se fonde sur une cascade de classifieurs de type Adaboost qui permet la concaténation des fonctions de classification discriminantes et génératives. Nous avons proposé aussi des méthodes pour classifier les véhicules détectés. La deuxième partie est consacrée à la reconnaissance du type d'un véhicule (constructeur, modèle) à partir de sa vue de face. L'application principale visée est le contrôle d'accès dans des parkings ou péages d'autoroutes. Le système système de reconnaissance multi-classes utilise un descripteur visuel local, à base de pixels de contour orientés. La classification est obtenue à partir d'une méthode de votes, robuste aux occultations partielles.
APA, Harvard, Vancouver, ISO, and other styles
11

Paumard, José. "Reconnaissance multiéchelle d'objets dans des scènes." Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0025.

Full text
Abstract:
Nous étudions dans cette thèse la possibilité de reconnaitre des objets dans des images compressées, sans les reconstruire. L'algorithme de compression le plus adapte semble celui fonde sur l'extraction des contours multi échelle quinconce des images. Le problème de la reconnaissance nous amène à introduire un nouvel outil de comparaison d'images binaires: la distance de Hausdorff censurée. Cet outil s'est avéré robuste et rapide à calculer. Ces deux points sont étudiés avec soin. Cette distance est enfin utilisée pour reconnaitre et localiser des objets spécifiques dans des scènes de grande taille. Nous proposons trois approches multi échelles pour résoudre ce problème, qui prennent en compte le fait que l'objet recherché peut être en partie caché, ou qu'il peut être vu sous un angle différent de son modèle. L'algorithme que nous avons développé est rapide sur station de travail classique. Sa robustesse a été étudiée soigneusement. Sa parallélisation nous permet d'atteindre le temps réel dans un cadre opérationnel raisonnable
APA, Harvard, Vancouver, ISO, and other styles
12

Lardeux, Florian. "Robust Modelling and Efficient Recognition of Quasi-Flat Objects — Application to Ancient Coins." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS002.

Full text
Abstract:
Les objets quasi-plans sont obtenus à partir d’une matrice qui définit des caractéristiques spécifiques observables dans leur gravure. Les exemples de ce type d’objets incluent les timbres à sec, les timbres amphoriques ou encore les pièces de monnaies anciennes. Les objetsquasi-plans sont par conséquent des formes très plates sur lesquelles un relief caractéristique est inscrit. Reconnaître de tels objets est une tâche compliquée car de nombreux verrous entrent en jeu. Le relief d’objets quasi-plans est sujet à des déformations non rigides et les conditions lumineuses influencent la façon dont ils sont perçus. De plus, ces objets ont pu subir diverses détériorations menant à l’occlusion de certaines parties de leur relief. Dans cette dissertation, nous adressons le problème de la reconnaissance d’objets quasi-plans. Cette thèse est articulée autour de trois grands axes. Le premier axe vise à créer un modèle adapté pour représenter l’objet en exposant ces caractéristiques et en prenant en compte les divers verrous précités. Dans ce but, le concept de carte d’énergie lumineuse est introduit. Les deuxième et troisième axes introduisent des stratégies de reconnaissance. D’un côté, nous proposons l’utilisation de contours de l’objet en tant que données caractéristiques. Ceux-ci sont représentés via un modèle de signature à partir duquel sont calculés des descripteurs. Afin de stocker, retrouver et comparer ces descripteurs, une structure de donnée basée sur des tableaux associatifs, les LACS, est présentée ; elle permet une reconnaissance rapide de contours similaires. D’un autre côté, l’utilisation de textures comme descripteurs de l’objet est envisagée. Dans cette partie, l’étude est centrée sur l’emploi de régions 2D et leur description comme moyen de reconnaissance. Un angle similaire est adopté pour stocker et retrouver l’information ; une structure de donnée proche de celle précédemment décrite, mais plus complexe, est introduite
Quasi-flat objects are obtained from a matrix which defines specific features observable in their engraving. Some examples of these are dry stamps, amphora stamps or ancient coins. Quasi-flat objects are subsequently understood as very flat shapes onto which a characteristic relief is inscribed. Recognizing such objects is not an easy feat as many barriers come into play. The relief of quasi-flat objects is prone to non-rigid deformations and the illumination conditions influence the perception of the object’s relief. Furthermore, these items may have undergone various deteriorations, leading to the occlusion of some parts of their relief. In this thesis, we tackle the issue of recognizing quasi-flat objects. This work is articulated around three major axes. The first one aims at creating a model to represent the objects both by highlighting their main characteristics and taking into account the afore mentioned barriers. To this aim, the concept of multi-light energy map is introduced. The second and third axes introduce strategies for the recognition. On the one hand, we propose the use of contours as main features. Contours are described via a signature model from which specific descriptors are calculated. In order to store, retrieve and match those features, a data structure based on associative arrays, the LACS system, is introduced, which enables a fast retrieval of similar contours. On the other hand, the use of textures is investigated. The scope here is centered on the use of specific 2D regions and their description in order to perform the recognition. A similar angle is taken to store and retrieve the information as a similar, yet a more complex data structure is introduced
APA, Harvard, Vancouver, ISO, and other styles
13

Derrode, Stéphane. "Contributions en segmentation statistique d'images et reconnaissance de formes 2D." Habilitation à diriger des recherches, Université Paul Cézanne - Aix-Marseille III, 2008. http://tel.archives-ouvertes.fr/tel-00325082.

Full text
Abstract:
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
APA, Harvard, Vancouver, ISO, and other styles
14

Couroux, Wilfrid. "Méthode de localisation absolue d'un robot mobile évoluant en milieu extérieur fondée sur la recherche d'indices visuels." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL043N.

Full text
Abstract:
Les travaux présentés dans ce mémoire concernent la localisation absolue d'un robot mobile par vision artificielle. Le site d'expérimentation choisi est un parking d'environ 60 x 60 m. Des problèmes spécifiques au milieu extérieur apparaissent ici : changement d'ensoleillement, ombres portées, variabilité de la scène observée, occultation de certains objets recherchés, inclinaison du sol. Notre contribution se situe dans la recherche d'une méthode robuste d'identification et de reconnaissance de certains objets du site, les amers, et d'une technique de localisation précise qui utilise les informations provenant d'une carte du site. Les amers retenus, plus de 700, sont constitués de détails architecturaux des bâtiments. Nous avons tout particulièrement étudié la calibration du système de vision, l'extraction des amers de l'image et leur mise en correspondance avec des données de la carte. La recherche des amers dans l'image est vue comme un problème de détection de contours avec un chainage orienté suivant des directions privilégiées. La mise en correspondance, du type génération - propagation - validation d'hypothèses, s'appuie sur deux contraintes définies pour simplifier le problème combinatoire. La localisation se présente en deux parties, l'une simple, pour déterminer rapidement et grossièrement la position du robot, l'autre plus fine prend en compte l'ensemble des appariements formes pour réaliser un recalage précis. Nous avons été amené à établir un protocole de prises de vues garantissant l'acquisition d'images qui permet d'obtenir robustesse et précision dans les traitements. Les techniques présentées ont été testées et validées sur le démonstrateur ROMANE (robot mobile autonome pour la navigation extérieur). L’ensemble des expérimentations comportent plus d'une centaine d'images prises à différents endroits du site. La précision obtenue est d'environ 10 cm pour des distances de prises de vues supérieures à 50 m.
APA, Harvard, Vancouver, ISO, and other styles
15

Tabbone, Salvatore-Antoine. "Détection multi-échelle de contours subpixel et de jonctions." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL021N.

Full text
Abstract:
Un système de vision se décompose généralement en plusieurs niveaux. Le premier niveau (bas niveau) a pour objectif d'extraire, de l'énorme quantité d'information contenue dans une image, des primitives robustes et exploitables. La qualité des résultats des niveaux supérieurs est donc tributaire de celle du bas niveau. Nous tentons de répondre aux attentes des niveaux supérieurs d'un système de vision en leur fournissant des informations robustes, exploitables et aussi proches que possible de la scène observée. Nous proposons un système complet de traitement bas niveau d'images à niveau de gris. Une image est décrite à plusieurs échelles (détection multi-échelle) en termes de jonctions et de contours avec une précision subpixel. Un algorithme de fermeture de contours fait coopérer les contours et les jonctions détectés. Notre système est fonde sur des études originales de comportement de modèles d'indices vis-à-vis d'un détecteur de contours
APA, Harvard, Vancouver, ISO, and other styles
16

Delort, François. "Systeme d'approximation polygonale des contours pour application en vision industrielle." Clermont-Ferrand 2, 1988. http://www.theses.fr/1988CLF2D209.

Full text
Abstract:
Deux algorithmes sont presentes. L'un d'entre eux a ete etudie dans le detail et les performances esperees ont conduit a la realisation d'une machine d'evaluation. La realisation de cette machine a necessite un approfondissement de l'aspect systeme associe. En particulier, les interactions materiel,logiciel ainsi que l'aspect temps reel sont detailles
APA, Harvard, Vancouver, ISO, and other styles
17

CAPRIOGLIO, MYRIAM. "Reconnaissance de contours : application a la videokeratographie." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX22050.

Full text
Abstract:
L'analyse d'images est l'outil essentiel d'extraction intelligente d'information, aussi bien au niveau qualitatif que quantitatif, en matiere d'imagerie medicale, de teledetection, de vision industrielle dans ce domaine de recherche, nous nous interessons aux aspects algorithmiques, aux differentes approches de segmentation et a la mise en oeuvre de strategies de reconnaissance des formes. L'objet de nos travaux est de definir une methodologie novatrice de reconnaissance de contours dans une image bidimensionnelle et de valider ce travail dans un domaine d'application particulier relevant de l'imagerie medicale : la videokeratographie. La videokeratographie est un procede qui permet d'evaluer les distorsions de la cornee humaine en etudiant les deformations de l'image d'une mire (constituee d'anneaux concentriques lumineux) reflechie par la surface anterieure de cette cornee. Toutefois, les algorithmes implantes actuellement dans les videokeratographes ne sont pas parfaitement fiables et commettent des erreurs de detection et d'interpretation. La correction de telles erreurs ne releve plus de filtrage d'image mais requiert un processus plus intelligent tenant compte de la structure globale de l'image et beneficiant d'une expertise du domaine. La methodologie d'analyse d'image que nous developpons est basee sur une phase ascendante et sur une phase descendante de traitement. Cette methode consiste dans un premier temps a determiner par filtrage lineaire d'image un ensemble de points de contours. Dans un second temps on effectue une segmentation a l'aide de la transformee de hough pour regrouper ces points sous forme de primitives. Les primitives en question sont des arcs de cercles eventuellement de rayons infinis. Une fois obtenues, ces primitives sont concatenees au moyen d'un systeme de contraintes definies a partir de la coherence globale de l'image. Enfin, dans une analyse descendante, la structure obtenue permet d'appliquer sur l'image de depart un processus de modeles deformables pour ameliorer la finesse de la detection. La detection d'arcs de cercles au moyen de la transformee de hough induit certaines difficultes. Une etude theorique approfondie de cette transformee nous a permis de proposer un certain nombre de solutions. Enfin, la phase de reconstruction strucurelle implique un large travail de description des connaissances liees a la forme de la mire. Cette formalisation est un probleme delicat puisque tres souvent, l'interpretation visuelle est intuitive voire inconsciente et donc difficile a representer par des regles.
APA, Harvard, Vancouver, ISO, and other styles
18

El, Ez Eddine El Dandachy Nancy. "Techniques alternatives de visualisation pour la prise de connaissance de scènes tridimensionnelles." Limoges, 2007. http://aurore.unilim.fr/theses/nxfile/default/b0a2c636-a13a-4923-97ea-cb655a15baeb/blobholder:0/2007LIMO4043.pdf.

Full text
Abstract:
Le développement rapide du domaine de la synthèse d'image, la diffusion de son domaine dans de nombreuses applications et puis grâce au développement des matériels en vitesse et capacité en mémoire permettant ainsi la visualisation de scènes de hauts niveaux, le problème de la compréhension et de la prise des connaissances des scènes tridimensionnelles devient de plus en plus pertinent et compliqué. Depuis le milieu des années 70, pratiquement aucune technique de base nouvelle de visualisation n'a vu le jour. Tous les efforts des chercheurs se sont portés sur les possibilités d'amélioration des techniques déjà existantes soit en réduisant les temps de calcul, soit en réduisant l'encombrement de la mémoire, soit encore en inventant des modèles photométriques plus sophistiqués permettant une meilleure qualité des images obtenues. D'autres chercheurs ont concentré leurs études sur la recherche des méthodes de calcul automatiques de bons points de vue ou à faire une animation tout autour de la scène suivant un chemin qui respecte des règles heuristiques évitant les brusques changements déconcertants l'observateur. Or ces techniques ne sont pas suffisantes pour répondre à toutes les scènes qui peuvent être crées par les matériels actuels. Nous allons donc proposer dans ce mémoire des techniques alternatives basées sur la combinaison des techniques existantes de visualisation afin d'améliorer la compréhension de certaines scènes complexes. Nous allons tout d'abord étudier le cas des scènes tridimensionnelles complexes qui comportent beaucoup de lumières, des miroirs et des objets transparents, produisant ainsi des effets réalistes qui peuvent créer des illusions dues à la présence des ombres, réflexions et réfractions. La présence de ces effets réalistes peut confondre l'utilisateur et l'empêcher de distinguer entre les objets réels de la scène et tout ce qui est illusoire. Pour améliorer la compréhension de ce type des scènes, nous avons proposé une nouvelle méthode qui combine la technique de visualisation réaliste de lancer de rayon avec l'algorithme économique du raffinement sélectif et la méthode de suivi de contour par le code de direction afin de mettre en évidence les objets réels de la scène en détectant leurs contours apparents dans le but de leurs distinguer de leurs réflexions et réfractions. Un autre type de scènes sera introduit dans ce mémoire, celui des scènes qui comportent des objets englobant d'autres objets. Trois nouvelles techniques alternatives seront décrites dans ce mémoire afin d'améliorer la visualisation et la prise de connaissance de ce type de scène. La première tend à visualiser l'objet englobant en mode filiaire alors que l'objet intérieur sera visualisé en mode plein. L'élimination des parties cachées sera réglée par la combinaison de la méthode du z-buffer avec le back facing culling. La deuxième approche tend à créer un trou sur les faces de l'objet englobant faisant ainsi apparaître l'objet intérieur. Deux méthodes sont proposées afin de réaliser ce but. La première est appliquée seulement aux scènes dans lesquelles l'objet englobant en modélisé par des facettes polygonales et elle tend à éliminer les facettes de l'objet englobant qui cachent l'objet intérieur. La deuxième peut être appliquée à n'importe quelle modélisation de scène et elle tend tout d'abord à visualiser les deux objets: l'objet englobant et l'objet intérieur, puis d'assombrir les pixels proportionnels à la silhouette de l'objet intérieur et orthogonaux dirigés vers l'extérieur de l'objet intérieur
The fast development of the image synthesis domain, the spread of this domain in lot of applications and then because of the development of PCs in speed and memory capacities, the problem of scene understanding and extracting knowledge is becoming more and more pertinent and complicated. Since the half of the seventies, practically no new basic techniques of visualization were invented. All the researchers’ efforts were focused on the possibility of the enhancement of existent techniques whether by reducing the time of computations, or by inventing photometric models more sophisticated allowing the obtaining of better image quality. Other researchers have turned their attention to search for methods that compute automatically a good point of view position or do an automatic animation around the scene following a path that respect heuristic rules in order to avoid brusque changes that might disconcert the observer. However, these techniques aren't sufficient to resolve the problem of the visualization of all type of scenes created by the PCs so developed nowadays. We are going to propose in this thesis alternative techniques which are based on the combination of existent visualization techniques in order to enhance the understanding of complex scenes. We are going first to study the case of three-dimensional complex scene that contain lot of lights, mirrors and transparent objects which produce realistic effects that might create illusions due of the presence of shadows, reflections and refractions. The presence of these realistic effects might confuse the observer and prevent him to distinguish between real objects of the scene and illusions. In order to enhance the understanding of this type of scenes, we have proposed a new method that combine between the ray tracing realistic technique of visualization with the selective refinement improvement algorithm and the followed contour technique by the code direction method, in order to underline the real objects of the scene by detecting their apparent contours so that we will be able to distinguish them from their reflexions and refractions. Another type of scenes will be introduced in this thesis, scenes which contain objects that include other objects. Three new alternative techniques will be described in order to enhance the visualization end the taking knowledge of this type of scene. The first one leads to visualize the exterior object on wireframe mode while the interior one will be visualized in fill mode. The elimination of hidden surfaces will be regulated by the combination of the z-buffer method with the back facing culling technique. The second approach leads to create a hole on the surface of the exterior object in order to show the interior one. Two methods will be proposed in order to achieve this project. The first one is applied only for scenes where exterior objects are modeled by a polygonal mesh and leads to eliminate the exterior faces which hide the interior object. The second method can be applied to any scene model and leads first to visualize both objects: the exterior and the interior one, and then make darken the pixels which are proportional and orthogonal to the silhouette of the interior object oriented to the outside of the interior object
APA, Harvard, Vancouver, ISO, and other styles
19

Yang, Lixuan. "Structuring of image databases for the suggestion of products for online advertising." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1102/document.

Full text
Abstract:
Le sujet de la thèse est l'extraction et la segmentation des vêtements à partir d'images en utilisant des techniques de la vision par ordinateur, de l'apprentissage par ordinateur et de la description d'image, pour la recommandation de manière non intrusive aux utilisateurs des produits similaires provenant d'une base de données de vente. Nous proposons tout d'abord un extracteur d'objets dédié à la segmentation de la robe en combinant les informations locales avec un apprentissage préalable. Un détecteur de personne localises des sites dans l'image qui est probable de contenir l'objet. Ensuite, un processus d'apprentissage intra-image en deux étapes est est développé pour séparer les pixels de l'objet de fond. L'objet est finalement segmenté en utilisant un algorithme de contour actif qui prend en compte la segmentation précédente et injecte des connaissances spécifiques sur la courbure locale dans la fonction énergie. Nous proposons ensuite un nouveau framework pour l'extraction des vêtements généraux en utilisant une procédure d'ajustement globale et locale à trois étapes. Un ensemble de modèles initialises un processus d'extraction d'objet par un alignement global du modèle, suivi d'une recherche locale en minimisant une mesure de l'inadéquation par rapport aux limites potentielles dans le voisinage. Les résultats fournis par chaque modèle sont agrégés, mesuré par un critère d'ajustement globale, pour choisir la segmentation finale. Dans notre dernier travail, nous étendons la sortie d'un réseau de neurones Fully Convolutional Network pour inférer le contexte à partir d'unités locales (superpixels). Pour ce faire, nous optimisons une fonction énergie, qui combine la structure à grande échelle de l'image avec le local structure superpixels, en recherchant dans l'espace de toutes les possibilité d'étiquetage. De plus, nous introduisons une nouvelle base de données RichPicture, constituée de 1000 images pour l'extraction de vêtements à partir d'images de mode. Les méthodes sont validées sur la base de données publiques et se comparent favorablement aux autres méthodes selon toutes les mesures de performance considérées
The topic of the thesis is the extraction and segmentation of clothing items from still images using techniques from computer vision, machine learning and image description, in view of suggesting non intrusively to the users similar items from a database of retail products. We firstly propose a dedicated object extractor for dress segmentation by combining local information with a prior learning. A person detector is applied to localize sites in the image that are likely to contain the object. Then, an intra-image two-stage learning process is developed to roughly separate foreground pixels from the background. Finally, the object is finely segmented by employing an active contour algorithm that takes into account the previous segmentation and injects specific knowledge about local curvature in the energy function.We then propose a new framework for extracting general deformable clothing items by using a three stage global-local fitting procedure. A set of template initiates an object extraction process by a global alignment of the model, followed by a local search minimizing a measure of the misfit with respect to the potential boundaries in the neighborhood. The results provided by each template are aggregated, with a global fitting criterion, to obtain the final segmentation.In our latest work, we extend the output of a Fully Convolution Neural Network to infer context from local units(superpixels). To achieve this we optimize an energy function,that combines the large scale structure of the image with the locallow-level visual descriptions of superpixels, over the space of all possiblepixel labellings. In addition, we introduce a novel dataset called RichPicture, consisting of 1000 images for clothing extraction from fashion images.The methods are validated on the public database and compares favorably to the other methods according to all the performance measures considered
APA, Harvard, Vancouver, ISO, and other styles
20

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
21

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN23001/document.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
APA, Harvard, Vancouver, ISO, and other styles
22

Hachouf, Fella. "Télédétection des contours linéaires." Rouen, 1988. http://www.theses.fr/1988ROUES027.

Full text
Abstract:
Etude du problème de la détection des contours tel qu'il se pose par exemple en détection automatique des réseaux routiers ou fluviaux sur des images issues de photographies aériennes. Les principes de base du traitement d'image sont passés en revue. Les différentes méthodes de filtrage sont ensuite abordées. La solution proposée consiste dans la squelettisation homologique de l'image du module du gradient, ce qui permet l'extraction des structures à reconnaître par transformation du squelette en graphe
APA, Harvard, Vancouver, ISO, and other styles
23

Berger, Marie-Odile. "Les contours actifs : modélisation, comportement et convergence." Vandoeuvre-les-Nancy, INPL, 1991. http://docnum.univ-lorraine.fr/public/INPL_T_1991_BERGER_M_O.pdf.

Full text
Abstract:
Les modèles actifs de contour, encore appelés SNAKE et introduits initialement par Kass, Witkin et Terzopoulos, proposent un cadre unifié, basé sur l'utilisation d'énergies potentielles, permettent de résoudre globalement de nombreux problèmes de vision. Cependant des problèmes de choix de coefficients du modèle de potentiel, une grande dépendance de l'initialisation et des instabilités numériques entravent encore le bon fonctionnement de cette méthode. Apres une étude de ces problèmes, nous proposons une méthode, dite de croissance du SNAKE, fonctionnant par allongements successifs du SNAKE et dont les principaux avantages concernent l'amélioration de la convergence du processus et une plus grande indépendance des conditions d'initialisation. Nous avons ensuite développé un modèle étendu de SNAKE rendant possible des rétractions ou des expansions. Nous envisageons une méthode dynamique d'utilisation de telles déformations pour permettre une détection de meilleure qualité
APA, Harvard, Vancouver, ISO, and other styles
24

Nguyen, Tan Bao. "Évaluation des algorithmes d'extraction de contours dans des images à niveaux de gris." Sherbrooke : Université de Sherbrooke, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
25

Sall, Amadou Abdoulaye. "Une approche multi-vue et topologiquement stable du paramétrage de contours." Aix-Marseille 2, 2003. http://www.theses.fr/2003AIX22021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Taud, Hind. "Description et parametrisation de contours : application a l'image satellitaire pour une reconnaissance des structures geologiques." Paris 6, 1993. http://www.theses.fr/1993PA066255.

Full text
Abstract:
Ce memoire concerne l'analyse des contours sur image numerique en vue de reconnaitre les structures qu'ils decrivent. Cette analyse comporte trois etapes: l'extraction, la description et la parametrisation. L'extraction consiste a ne retenir que les lignes de contours correspondant soit a des structures isolees, soit a des limites de plages homogenes. Deux approches ont ete developpees, l'une basee sur les filtrages morphologiques, l'autre sur l'iteration des filtres spatiaux. La description effectuee sur l'image binaire des contours extraits precedemment, repose sur l'approximation des elements de contours par arcs de cercle. Elle necessite tout d'abord une individualisation un a un des contours par un algorithme de suivi de contour qui tient compte des croisements. Cette individualisation est suivie par une decomposition en elements de courbe en fonction du changement de direction de courbure. L'approximation est ensuite obtenue soit par l'application de la transformee de hough, soit par la methode des moindres carres. Enfin, la parametrisation permet de definir differentes caracteristiques que presentent les courbes etudiees. Des parametres de contour concernant essentiellement la forme des courbes ont ete definis dans des espaces a deux et trois dimensions. De plus, les valeurs de toute nature rencontrees dans les surfaces que dessinent les contours fournissent des parametres de surface. On dispose ainsi d'un reseau d'informations ouvrant non seulement sur une analyse quantitative des differentes familles de forme, voire la recherche de formes predefinies, mais encore sur une integration de ces parametres dans un modele formel s'inscrivant dans un processus de reconnaissance de formes. Cette methodologie donne des resultats repetitifs et transportables. Quatre exemples d'application en teledetection concernent le domaine geologique et partent des donnees satellitaires et/ou de modeles numeriques de terrain
APA, Harvard, Vancouver, ISO, and other styles
27

Chidiac, Hanna. "Études des contours dans des images à niveaux de gris : origines, détection et classification." Sherbrooke : Université de Sherbrooke, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
28

Said, Mouhammad. "Géométrie multi-résolution des objets discrets bruités." Grenoble, 2010. http://www.theses.fr/2010GRENM084.

Full text
Abstract:
Les courbes frontières définissent les régions ou les formes du plan de manière compacte et descriptive. Il est bien connu que les formes doivent être étudiées à différentes échelles. Ceci a conduit au développement des pyramides régulières et irrégulières pour l'analyse des formes et la compréhension des scènes. Cependant, il n'existe pas une description analytique de la multi-résolution d'une forme numérique, contrairement au célèbre espace-échelle (scale-space) dans le monde continu. En outre, les primitives géométriques telles que les lignes, les cercles ou les polynômes ont une grande importance dans le contexte de la géométrie numérique. Les morceaux des droites numériques sont un bon moyen pour estimer les tangentes et les arcs discrets approchent la courbure. Il est donc nécessaire de les garder dans l'analyse multi-échelle des frontières numériques. Un des objectifs de cette thèse est de donner des nouveaux résultats analytiques sur la multi-résolution des droites 4-connexes et des segments de droites 4-connexes. Figueiredo est le premier qui a étudié le comportement des droites 8-connexes lors du changement de la résolution de la grille. Dans le présent travail, nous considérons une droite 4-connexe pour laquelle une description analytique est fournie lorsque la résolution de la grille est modifiée par un facteur arbitraire. En plus, nous montrons que leurs couvertures sont des droites 4-connexes. Comme les formules analytiques des segments de droite sont un problème beaucoup plus difficile, nous proposons un parcours indirect pour la multi-résolution d'un DSS en utilisant le fait qu'un segment est un morceau fin d'une droite discrète. Etant donné un DSS, nous construisons deux droites dont l'intersection le contient et dont la partie connexe principale a les mêmes caractéristiques arithmétiques, ainsi que le même nombre de motifs. Notons que nous proposons de nouveaux résultats combinatoires des intersections de droites. Nous déterminons la multi-résolution du segment en examinant la multi-résolution de l'intersection de ces deux droites. Nous donnons une nouvelle description analytique de cet ensemble avec des inégalités arithmétiques. Nous abordons également le problème du calcul des caractéristiques exactes d'un sous-segment d'une droite 4-connexe qui a des caractéristiques connues. Nous présentons deux nouveaux algorithmes SmartDSS et ReversedSmartDSS qui résolvent ce problème. Leur principe est de se déplacer dans l'arbre de Stern-Brocot de la fraction soit de manière haut-bas ou bas-haut. Dans le pire cas, leur complexité est meilleure que l'algorithme de reconnaissance DSS classique. Les deux algorithmes peuvent dès lors servir à calculer efficacement la multi-résolution d'un segment. Les bruits tout au long des contours numériques ne sont pas vraiment détectés, mais plutôt annulés par l'épaississement des segments de droites 4-connexes. De plus, l'épaisseur est réglée par un utilisateur et aussi définie globalement pour le contour. Pour surmonter ce problème, nous proposons une stratégie originale pour détecter localement à la fois la quantité de bruit et les épaisseurs significatives de chaque point de contour. Ce travail se base sur les propriétés asymptotiques de segments flous d'épaisseurs différentes, et forme une alternative à l'approche multi-résolution de la détection du bruit
Boundary curves are compact and descriptive means for defining regions or shapes in the plane. It is well known that shapes should be studied at different scales. This has led to the development of regular and irregular pyramids for shape analysis and scene understanding. However there exists no analytical description of the multiresolution of a digital shape, contrary to the famous scale-space analysis in the continuous world. Moreover, in the context of digital geometry, geometric primitives such as lines, circles or polynomials are of a great importance. For instance, pieces of digital lines are excellent tangent estimators, circular arcs estimate curvature. It is thus fundamental to keep them in the multiscale analysis of digital boundaries. One of the contribution of this thesis is to give new analytical results on the multiresolution of Digital Straight Line (DSL) and Digital Straight Segment (DSS). Figueiredo is the first one who studied the behavior of 8-connected lines when changing the resolution of the grid [41]. In this work, we consider a standard digital line. The objective is to provide an analytic description of digital straight line DSL when the resolution of the grid is changed by an arbitrary factor. We also prove that their subsampling is a standard digital line. As analytical formulae for DSS appear to be a much harder problem and DSS are finite parts of DSL, we propose an indirect path to DSS multiresolution. Given a DSS, we build two DSL whose intersection contains it and whose main connected part has the same arithmetic characteristics as well as the same number of patterns. We note here that we propose new results about the combinatorics of such digital line intersections. We determine the multiresolution of DSS by examining the multiresolution of the intersection of these two DSL. We give a new analytical description of this set with arithmetic inequalities. We also address the problem of computing the exact characteristics of any subsegment of digital straight line with known characteristics. We present two new algorithms SmartDSS and ReversedSmartDSS that solve this problem. Their principle is to climb the Stern-Brocot tree of fraction either in a top-down or bottom-up way. Their worst-time complexity are better than the classical DSS recognition algorithm. Both algorithms are useful to compute efficiently the multiresolution of a DSS. The noise along digital contours is not really detected but is rather canceled out by thickening digital straight segments. The thickness is tuned by a user and set globally for the contour. To overcome this issue, we propose an original strategy to detect locally both the amount of noise and the meaningful thickness of each point of a digital contour. This work is based on the asymptotic properties of blurred segments with different thicknesses and forms an alternative to the multiscale approach to noise detection
APA, Harvard, Vancouver, ISO, and other styles
29

Hansen, Steven R. "Applications of Search Theory to Coordinated Searching by Unmanned Aerial Vehicles." Diss., CLICK HERE for online access, 2007. http://contentdm.lib.byu.edu/ETD/image/etd1809.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Hmida, Marwa. "Reconnaissance de formes basée sur l'approche possibiliste dans les images mammographiques." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0061/document.

Full text
Abstract:
Face à l'augmentation significative du taux de mortalité par cancer du sein chez les femmes ainsi que la croissance continue du nombre de mammographies réalisées chaque année, le diagnostic assisté par ordinateur devient de plus en plus impératif pour les experts. Dans notre travail de thèse, une attention particulière est accordée aux masses mammaires vu qu'elles représentent le signe de cancer du sein le plus couramment observé en mammographies. Néanmoins, ces images présentent un très faible contraste, ce qui fait que les frontières entre les tissus sains et les masses sont mal définies. C'est ainsi qu'il est difficile de pouvoir discerner avec précision ces masses et de leur définir un contour unique. En outre, la complexité et la grande variabilité des formes des masses mammaires rendent les tâches de diagnostic et de classification difficiles. Dans ce cadre, nous proposons un système d'aide au diagnostic dont le but est la segmentation de masses dans les régions d'intérêt et par la suite la classification de ces masses en deux catégories : bénignes et malignes. La première étape de segmentation est une étape assez délicate vu que les étapes postérieures à savoir la caractérisation et la classification y sont dépendantes. En effet, une mauvaise segmentation peut entrainer une mauvaise prise de décision. Un tel cas peut survenir en raison de l'incertitude et l'imprécision émanant de l'image mammographique. C'est pour cette raison que nous proposons une définition de contours flous permettant de prendre en compte ces types d'imperfections. Ces contours flous sont introduits dans l'énergie d'un contour actif pour modifier son mouvement et aboutir à une délimitation exacte des masses. Une fois les régions d'intérêt sont segmentées, nous présentons une méthode de classification de masses basée sur la théorie des possibilités qui permet de modéliser les ambigüités inhérentes aux connaissances exprimées par l'expert. En outre, cette méthode utilise essentiellement les descripteurs de forme pour caractériser les masses et décider de leur degré de gravité vu que la forme des masses constitue un bon indicateur de gravité.La validation et l'évaluation de ces deux méthodes sont réalisées en utilisant les régions d'intérêt contenant des masses extraites de la base MIAS. Les résultats obtenus sont très intéressants et les comparaisons effectuées ont mis en évidence leurs performances
In view of the significant increase in breast cancer mortality rate among women as well as the continuous growth in number of mammograms performed each year, computer-aided diagnosis is becoming more and more imperative for experts. In our thesis work, special attention is given to breast masses as they represent the most common sign of breast cancer in mammograms. Nevertheless, mammographic images have very low contrast and breast masses possess ambiguous margins. Thus, it is difficult to distinguish them from the surrounding parenchymal. Moreover, the complexity and the large variability of breast mass shapes make diagnostic and classification challenging tasks.In this context, we propose a computer-aided diagnosis system which firstly segments masses in regions of interests and then classifies them as benign or malignant. Mass segmentation is a critical step in a computer-aided diagnosis system since it affects the performance of subsequent analysis steps namely feature analysis and classification. Indeed, poor segmentation may lead to poor decision making. Such a case may occur due to two types of imperfection: uncertainty and imprecision. Therefore, we propose to deal with these imperfections using fuzzy contours which are integrated in the energy of an active contour to get a fuzzy-energy based active contour model that is used for final delineation of mass.After mass segmentation, a classification method is proposed. This method is based on possibility theory which allows modeling the ambiguities inherent to the knowledge expressed by the expert. Moreover, since shape and margin characteristics are very important for differentiating between benign and malignant masses, the proposed method is essentially based on shape descriptors.The evaluation of the proposed methods was carried out using the regions of interest containing masses extracted from the MIAS base. The obtained results are very interesting and the comparisons made have demonstrated their performances
APA, Harvard, Vancouver, ISO, and other styles
31

Leroy, Bertrand. "Modèles déformables et modèles de déformation appliqués à la reconnaissance de visage." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090015.

Full text
Abstract:
Cette thèse présente un ensemble de méthodes de traitement d'images s'intégrant dans un processus de reconnaissance de visage selon une approche géométrique. La localisation des éléments caractéristiques du visage est effectuée en utilisant des opérateurs de morphologie mathématique ainsi que l'information spatio-temporelle. Le modèle de contour actif propose pour l'extraction des éléments du visage est un modèle déformable paramétrique décrit dans une base de sinusoïdes. Deux méthodes d'identification sont présentées. La première est une extension de l'analyse en composantes principales à des données de type intervalles. Elle permet d'obtenir une représentation discriminante des visages tout en tenant compte de la mobilité de certaines caractéristiques du visage. La seconde est une méthode d'identification par mesure de déformation. Elle permet de mesurer la ressemblance entre deux visages en calculant le cout de la déformation devant être appliquée à une image de visage afin de la rendre superposable avec l'autre image
APA, Harvard, Vancouver, ISO, and other styles
32

Foulonneau, Alban. "Une contribution à l'introduction de contraintes géométriques dans les contours actifs orientés région." Université Louis Pasteur (Strasbourg) (1971-2008), 2004. http://www.theses.fr/2004STR13140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Selsis, Muriel. "Application des modèles de contours actifs au suivi et à la localisation 3D d'objets en mouvement." Lille 1, 1996. http://www.theses.fr/1996LIL10021.

Full text
Abstract:
Ce travail concerne l'adaptation des modèles de contours actifs au suivi et à la localisation 3d d'objets en mouvement dans des séquences d'images stéréoscopiques. Les contours actifs ont été introduits récemment en traitement d'images pour la segmentation d'images statiques. Ce sont des courbes dont l'évolution est régie par la minimisation de l'énergie qui leur est associée. Cette énergie doit être définie en fonction du problème à traiter. La contribution principale de ce travail est la définition d'une énergie permettant le suivi d'objets en mouvement, ainsi que l'introduction d'une procédure d'initialisation rendant ce suivi automatique. Une méthodologie du choix des différents paramètres régissant l'évolution des contours actifs est également proposée. D'autre part, les contours actifs constituent un modelé pertinent des objets caractérisant bien leur forme et leur surface. En les utilisant comme primitives pour l'appariement stéréoscopique, la complexité algorithmique de ce type de procédure est grandement diminuée, de même que le temps de calcul. Les modèles de contours actifs permettent donc de simplifier considérablement les procédures d'appariement, aussi bien temporelles que spatiales. Nous montrons les résultats obtenus sur des séquences stéréoscopiques d'images de synthèse et d'images réelles de trafic urbain.
APA, Harvard, Vancouver, ISO, and other styles
34

Serrano-Soucarre, Jacqueline. "Integration sur reseau prediffuse d'un systeme d'extraction de contours." Toulouse, INSA, 1986. http://www.theses.fr/1986ISAT0041.

Full text
Abstract:
Conception et verification d'un circuit d'extraction rapide des contours d'une image video sur un reseau prediffuse en technologie cmos 3 microns. Partant d'une maquette preexistante en circuits standards, l'ensemble des problemes lies a l'integration sont developpes: dissipation, rapidite, densite d'integration qui imposent des contraintes au niveau de l'architecture du circuit. L'utilisation des outils de conception est egalement decrite. I. Generalites sur les circuits specifiques, description du systeme initial, et cahier des charges. Ii. Solutions adoptees, en particulier en ce qui concerne la modification du schema logique afin de respecter le cahier des charges, tenant compte des contraintes imposees par la technologie et le type de matrice. Iii. Simulation et verification des prototypes realises en milieu industriel
APA, Harvard, Vancouver, ISO, and other styles
35

Amer, Fawzy. "Les algorithmes d'extraction de contours ligne par ligne." Compiègne, 1986. http://www.theses.fr/1986COMPI235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Aberkane, Arezki. "Détection de contours dans les images CFA." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10222/document.

Full text
Abstract:
Cette thèse est consacrée à la détection des contours à partir d'images acquises par des caméras couleur mono-capteur. Dans ces dispositifs, le capteur est recouvert d'une mosaïque de filtres chromatiques (Color Filter Array, ou CFA) et forme une image (dite <> ou CFA) qui ne comporte qu'une seule composante couleur par pixel. Une procédure de dématriçage est classiquement appliquée à cette image pour estimer les deux composantes couleur manquantes en chaque pixel et obtenir une image couleur. Cependant, les artéfacts générés par le dématriçage peuvent altérer les performances des méthodes d'analyse bas-niveau des images. Ceci nous amène à éviter le dématriçage pour la détection des contours. Dans une approche de type gradient, nous proposons d'estimer les dérivées partielles soit en calculant les dérivées partielles dans les trois plans couleur (approche vectorielle), soit en estimant une luminance adaptée à la détection des contours (approche scalaire). L'état de l'art met en évidence que l'exploitation directe de l'image brute a été peu abordée et que les approches développées dans cette thèse sont originales. Pour l'approche vectorielle, nous proposons une adaptation de l'implantation récursive du filtre de Deriche au treillis du CFA. Pour l'approche luminance, nous utilisons un filtre optimal qui lisse et dérive conjointement les données brutes. Nous évaluons les performances des méthodes développées sur une base d'images synthétiques dont la vérité terrain est connue. Nous montrons ainsi que la détection des contours à partir des données brutes peut être satisfaisante tout en étant peu coûteuse en temps de calcul
This thesis is devoted to edge detection from the raw image acquired by single-sensor cameras. Such cameras are fitted with Bayer Color Filter Array (CFA, generally Bayer one) and deliver raw CFA image, in which each pixel is characterized by only one out of the three colour components (red, green, or blue). A demosaicing procedure is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image. This however produces artefacts that may affect the performance of low-level processing tasks applied to such estimated images. We propose to avoid demosaicing to compute partial derivatives for edge detection. Simple differentiation kernels, Deriche filters or shifted Deriche filters can be used either in a vector or a scalar approache. The vector approach computes partial derivatives for the three channels and the scalar approach first estimates a luminance image, then computes derivatives. The partial CFA derivatives are then used to compute Di Zenzo gradient for edge detection. We assess the performance of our methods on a large dataset of synthetic images with available edge ground truth. We show that CFA-based approaches may provide as accurate edge detection results as colour vector-based ones at much reduced computation cost
APA, Harvard, Vancouver, ISO, and other styles
37

Pécréaux, Jacques. "Mesure du spectre de fluctuations de vésicules géantes par analyse de contours : application aux membranes passives et actives." Paris 6, 2004. http://www.theses.fr/2004PA066569.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Mahmoudi, Saïd. "Indexation de formes planes : application à la reconnaissance multi-vues de modèles 3D." Lille 1, 2003. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2003/50376-2003-291.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'indexation et de la reconnaissance des formes planes dans une base constituée d'objets contours, et son application dans l'indexation multi-vues des objets tridimensionnels. Notre approche permet de reconnaître les objets 3D à partir d'une requête qui peut être une forme 2D ou une vue arbitraire d'un objet tridimensionnel. Un des problèmes fondamentaux de l'indexation d'images par la forme réside dans le choix d'une description invariante de celle-ci. Pour cela, nous proposons l'utilisation du descripteur CSS, qui s'appuie sur une analyse multi-échelle du contour. Nous proposons une organisation de l'index extrait à partir du CSS par une structure d'arbre dite M-tree, qui est totalement paramétrisée par une fonction de distance et qui permet aussi en sauvegardant les distances intermédiaires d'améliorer considérablement les temps de calculs. Nous avons aussi introduit une technique probabiliste bayésienne de recherche de ressemblance entre formes. L'application proposée représente une nouvelle méthode d'indexation de modèles 3D. Cette méthode consiste à caractériser les objets 3D par un ensemble de sept vues caractéristiques (trois principales et quatre secondaires). Les angles de prise de vues principales sont choisis par le biais d'une analyse d'information présente sous forme de nuage de points sur l'objet 3D. Les vues secondaires sont déduites à partir des vues principales. L'index du modèle 3D est calculé à partir des index correspondants aux sept vues qui le caractérisent. De ce fait, nous utilisons l'approche de reconnaissance de formes proposée pour le procédé de reconnaissance des vues. Une méthode de vote bayésienne est proposée pour la sélection des objets 3D similaires à la requête.
APA, Harvard, Vancouver, ISO, and other styles
39

Li, Yaqian. "Image segmentation and stereo vision matching based on declivity line : application for vehicle detection." Thesis, Rouen, INSA, 2010. http://www.theses.fr/2010ISAM0010.

Full text
Abstract:
Dans le cadre de systèmes d’aide à la conduite, nous avons contribué aux approches de stéréovision pour l’extraction de contour, la mise en correspondance des images stéréoscopiques et la détection de véhicules. L’extraction de contour réalisée est basée sur le concept declivity line que nous avons proposé. La declivity line est construite en liant des déclivités selon leur position relative et similarité d’intensité. L’extraction de contour est obtenue en filtrant les declivity lines construites basées sur leurs caractéristiques. Les résultats expérimentaux montrent que la declivity lines méthode extrait plus de l’informations utiles comparées à l’opérateur déclivité qui les a filtrées. Des points de contour sont ensuite mis en correspondance en utilisant la programmation dynamique et les caractéristiques de declivity lines pour réduire le nombre de faux appariements. Dans notre méthode de mise en correspondance, la declivity lines contribue à la reconstruction détaillée de la scène 3D. Finalement, la caractéristique symétrie des véhicules sont exploitées comme critère pour la détection de véhicule. Pour ce faire, nous étendons le concept de carte de symétrie monoculaire à la stéréovision. En conséquence, en effectuant la détection de véhicule sur la carte de disparité, une carte de symétrie (axe; largeur; disparity) est construite au lieu d’une carte de symétrie (axe; largeur). Dans notre concept, des obstacles sont examinés à différentes profondeurs pour éviter la perturbation de la scène complexe dont le concept monoculaire souffre
In the framework of driving assistance systems, we contributed to stereo vision approaches for edge extraction, matching of stereoscopic pair of images and vehicles detection. Edge extraction is performed based on the concept of declivity line we introduced. Declivity line is constructed by connecting declivities according to their relative position and intensity similarity. Edge extraction is obtained by filtering constructed declivity lines based on their characteristics. Experimental results show that declivity line method extracts additional useful information compared to declivity operator which filtered them out. Edge points of declivity lines are then matched using dynamic programming, and characteristics of declivity line reduce the number of false matching. In our matching method, declivity line contributes to detailed reconstruction of 3D scene. Finally, symmetrical characteristic of vehicles are exploited as a criterion for their detection. To do so, we extend the monocular concept of symmetry map to stereo concept. Consequently, by performing vehicle detection on disparity map, a (axis; width; disparity) symmetry map is constructed instead of an (axis; width) symmetry map. In our stereo concept, obstacles are examined at different depths thus avoiding disturbance of complex scene from which monocular concept suffers
APA, Harvard, Vancouver, ISO, and other styles
40

Lalande, Alain. "Utilisation de la logique floue et de la programmation dynamique pour la détection automatique des contours cardiaques à partir d'images en ciné-IRM." Dijon, 1999. http://www.theses.fr/1999DIJOMUO5.

Full text
Abstract:
La détermination des paramètres globaux et régionaux de la fonction cardiaque nécessite la connaissance des contours du ventricule gauche. La ciné-IRM et plus particulièerement la séquence FLASH 2D segmentée en apnée nous permet d'acquérir des coupes peiet axe jointives du ventricule gauche à différentes phases du cycle cardiaque. Le caractère tomographique de l'IRM rend indispensable le développement de méthodes de contourage automatique. Le principal objectif de notre travail est de développer une méthode de détection automatique des contours du ventricule gauche, et d'en extraire la surface de la cavité cardiaque et l'épaisseur du myocarde. À partir des données obtenues en diastole et en systole, on calcule le volume de la cavité cardique, la fraction d'éjection et l'épaississement du myocarde. Notre méthode est basée sur la logique floue, la programmation dynamique et la transformée de Hough. Trois paramètres sont définis pour chaque pixel. Ces paramètres représentent les hypothèses suivantes : les points des contours cardiaques ont le même niveau de gris. Ils appartiennent à un contour et le déplacement d'un contour d'une coupe jointive à l'autre est limité. À partir de ces paramètres est défini le sous-ensemble flou des points des contours cardiaques. Le calcul du degré d'appartenance à ce ce sous-ensemble pour chaque pixel entraîne la création d'une matrice de degrés d'appartennce associée à l'image initiale. L'utilisation de la programmation dynamique avec recherche dans un graphe sur cette matrice permet la détection des contours du ventricule gauche. Concernant l'étude des volumes et de la fraction d'éjection sur des volontaires sains, les résultats obtenus avec notre méthode automatique sont concordants avec ceux obtenus dans la littérature. Sur une population composée de patients et de témoins saints, il y a une excellente corrélation entre notre méthode automatique et un tracé manuel des contours du ventricule gauche. Cependant notre méthode à tendance à surestimer l'épaisseur du myocarde.
APA, Harvard, Vancouver, ISO, and other styles
41

Abraham, Denis. "Conception d'un conformateur muni de trois lasers plans et de trois cameras C. C. D. : acquisition automatique de contours tridimensionnels de patients soumis à la radiothérapie en cancérologie." Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1990INPL021N.

Full text
Abstract:
Les traitements en cancérologie par radiothérapie requièrent la saisie des contours externes des patients soit a l'aide d'un conformateur électromécanique relativement lent et peu précis, soit avec un scanner dont le cout et le temps d'exploitation sont actuellement prohibitifs. L'objectif de cette étude est de concevoir un dispositif liant la précision, la rapidité et le confort d'utilisation a un faible cout d'examen, en vue de proposer aux malades des conditions optimales de traitements. Ce travail décrit une méthode originale fondée sur la vision active qui met en œuvre un capteur associant trois lasers plans a trois cameras C. C. D. . Sa conception a nécessité l'élaboration d'un système électronique de traitement du signal couple a un microordinateur, ainsi que le développement d'un logiciel spécialement adapte. Ce logiciel est réalisé en deux parties dont l'une gère le système électronique et l'autre est dédié à l'exploitation des informations. C'est l'association de ce logiciel, de l'électronique et des trois couples laser-cameras qui constitue le capteur intelligent. Le temps d'acquisition des images est de 40 millisecondes et leur exploitation ne nécessite qu'une dizaine de secondes avant de restituer un contour dont la définition est d'un millimètre. Cette étude a été concrétisée par la réalisation d'un prototype du premier conformateur sans contact; ses caractéristiques techniques font de lui un outil compétitif qui représente un progrès très appréciable. L'évaluation clinique de cet appareil destine à la radiothérapie anticancéreuse doit être effectuée dans plusieurs centres de lutte contre le cancer
APA, Harvard, Vancouver, ISO, and other styles
42

Pécréaux, Jacques. "Mesure du spectre de fluctuations de vésicules géantes par analyse de contours ; applications aux membranes passives et actives." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00006164.

Full text
Abstract:
Nous avons développé une nouvelle technique de reconnaissance de contours de vésicules lipidiques géantes en microscopie à contraste de phase permettant une analyse en temps réel avec une très bonne précision. Nous obtenons ainsi le spectre de fluctuation d'une vésicule et nous avons développé le formalisme nécessaire à une comparaison avec les théories développées sur des membranes planes. Nous avons appliqué notre technique à l'analyse de vésicules purement lipidiques et nous mesuré le spectre de fluctuations. Les modules de courbure déduits correspondent aux valeurs de la littérature. Cette technique nous a aussi permis d'étudier deux types de membranes hors équilibre : d'une part des liposomes contenant de la bactériorhodopsine où nos résultats ne s'interprètent pas avec la théorie actuelle des membranes actives ; notre technique a été aussi appliquée à des membranes en présence d'apport de lipides, et nous avons pu mettre en évidence l'apparition d'une tension négative.
APA, Harvard, Vancouver, ISO, and other styles
43

Ziou, Djemel. "La détection de contours dans des images à niveaux de gris : mise en œuvre et sélection de détecteurs." Vandoeuvre-les-Nancy, INPL, 1991. http://docnum.univ-lorraine.fr/public/INPL_T_1991_ZIOU_D.pdf.

Full text
Abstract:
Dans cette thèse nous nous intéressons particulièrement à la détection de contours dans des images à niveaux de gris. Son objectif principal est la définition d'un critère de sélection des détecteurs de contours et leurs paramètres les plus appropriés pour mettre en évidence un contour donné par un utilisateur. Nous proposons une étude bibliographique approfondie (synthèse, problématique, etc. . . ) et deux détecteurs de contours originaux dont l'un est issu des critères de Canny qui constituent un formalisme récent et reconnu mondialement. Nous présentons ensuite une étude de l'influence des attributs d'un contour et des propriétés mathématiques d'un détecteur sur ses performances. Enfin, nous décrivons le système de sélection de détecteurs de contours et le calcul automatique de leurs paramètres
APA, Harvard, Vancouver, ISO, and other styles
44

El, Alaoui Faris Moulay Driss. "Physique des membranes actives : Mesure de spectres de fluctuations." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00812019.

Full text
Abstract:
Les bicouches lipidiques sont souvent utilisées comme modèle simplifié des membranes biologiques. Leurs propriétés à l'équilibre sont actuellement bien comprises. Cependant, pour se rapprocher d'une modélisation réaliste des membranes cellulaires, il faut prendre en compte les aspects hors-équilibre de ce type de membrane. L'objectif du travail de recherche, que nous présentons dans ce manuscrit, s'inscrit dans cette direction. Nous avons utilisé, comme membranes modèles actives, des bicouches lipidiques, se présentant sous la forme de vésicules géantes (GUV), contenant la bactériorhodopsine. Cette protéine est une pompe à protons activée par la lumière. Pour caractériser l'effet de l'activité protéique sur les propriétés physiques de ces membranes, nous avons mesuré leurs spectres de fluctuations. Nous avons d'abord visualisé les vésicules géantes par microscopie à contraste de phase. Nous avons ensuite utilisé une méthode de détection et d'analyse des contours des vésicules pour mesurer leurs spectres de fluctuations. En conduisant une étude comparative entre les spectres acquis en activant la protéine, et ceux acquis dans des conditions d'équilibre, nous avons découvert que la présence de l'azide de sodium est nécessaire à l'émergence d'effets actifs mesurables par nos techniques expérimentales. Nous avons aussi montré qu'en présence d'1 mM d'azide de sodium, l'amplitude des fluctuations est amplifiée de manière active. Cette amplification est particulièrement marquée aux petits vecteurs d'onde. La comparaison de ces résultats aux prédictions théoriques montre que l'activité de la bactériorhodopsine induit une baisse de la tension membranaire.
APA, Harvard, Vancouver, ISO, and other styles
45

Nguyen, Van Dinh. "Exploitation de la détection de contours pour la compréhension de texte dans une scène visuelle." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS473.

Full text
Abstract:
L'intérêt porté à la détection de contours pour la compréhension de texte dans une scène visuelle a été croissant au cours des dernières années comme en témoignent un grand nombre d'applications telles que les systèmes de reconnaissance de plaque d'immatriculation de voiture, les systèmes de navigation, les voitures autonomes basées sur la reconnaissance des panneaux de signalisation, etc. Dans cette recherche, nous abordons les défis de la conception de systèmes de lecture de texte de scène automatique robustes et fiables. Deux étapes majeures du système, à savoir, la localisation de texte dans une scène et sa reconnaissance, ont été étudiées et de nouveaux algorithmes ont été développés pour y remédier. Nos travaux sont basés sur l'observation qu'indiquer des régions de texte de scène primaire qui ont forte probabilité d'être des textes est un aspect important dans la localisation et la reconnaissance de cette information. Ce facteur peut influencer à la fois la précision et l'efficacité des systèmes de détection et de reconnaissance. Inspirées par les succès des recherche de proposition d'objets dans la détection et la reconnaissance objet général, deux techniques de proposition de texte de scène ont été proposées, à savoir l'approche Text-Edge-Box (TEB) et l'approche Max-Pooling Text Proposal (MPT). Dans le TEB, les fonctionnalités bottom-up proposées, qui sont extraites des cartes binaires de contours de Canny, sont utilisées pour regrouper les contours connectés et leur attribuer un score distinct. Dans la technique MPT, une nouvelle solution de groupement est proposée, qui est inspiré de l'approche Max-Pooling. À la différence des techniques de regroupement existantes, cette solution ne repose sur aucune règle heuristique spécifique liée au texte ni sur aucun seuil pour fournir des décisions de regroupement. Basé sur ces résultats, nous avons conçu un système pour comprendre le texte dans une scène visuelle en intégrant des modèles a l'état de l'art en reconnaissance de texte, où une suppression des faux positifs et une reconnaissance de mot peut être traitée simultanément. De plus, nous avons développé un système assisté de recherche de texte dans une scène en construisant une interface web en complément du système de compréhension de texte. Le système peut être consulté via le lien: dinh.ubismart.org:27790. Des expériences sur diverses bases de données publiques montrent que les techniques proposées surpassent les méthodes les plus modernes de reconnaissance de textes sous différents cadres d'évaluation. Le système complet propose surpasse également d'autres systèmes complets de reconnaissance de texte et a été soumis à une compétition de lecture automatique dans laquelle il a montré sa performance et a atteint la cinquième position dans le classement (Dec-2017): http://rrc.cvc.uab.es/?ch=2&com =evaluation&task=4
Scene texts have been attracting increasing interest in recent years as witnessed by a large number of applications such as car licence plate recognition systems, navigation systems, self-driving cars based on traffic sign, and so on. In this research, we tackle challenges of designing robust and reliable automatic scene text reading systems. Two major steps of the system as a scene text localization and a scene text recognition have been studied and novel algorithms have been developed to address them. Our works are based on the observation that providing primary scene text regions which have high probability of being texts is very important for localizing and recognizing texts in scenes. This factor can influence both accuracy and efficiency of detection and recognition systems. Inspired by successes of object proposal researches in general object detection and recognition, two state-of-the-art scene text proposal techniques have been proposed, namely Text-Edge-Box (TEB) and Max-Pooling Text Proposal (MPT). In the TEB, proposed bottom-up features, which are extracted from binary Canny edge maps, are used to group edge connected components into proposals and score them. In the MPT technique, a novel grouping solution is proposed as inspired by the max-pooling idea. Different from existing grouping techniques, it does not rely on any text specific heuristic rules and thresholds for providing grouping decisions. Based on our proposed scene text proposal techniques, we designed an end-to-end scene text reading system by integrating proposals with state-of-the-art scene text recognition models, where a false positive proposals suppression and a word recognition can be processed concurrently. Furthermore, we developed an assisted scene text searching system by building a web-page user interface on top of the proposed end-to-end system. The system can be accessed by any smart device at the link: dinh.ubismart.org:27790. Experiments on various public scene text datasets show that the proposed scene text proposal techniques outperform other state-of-the-art scene text proposals under different evaluation frameworks. The designed end-to-end systems also outperforms other scene-text-proposal based end-to-end systems and are competitive to other systems as presented in the robust reading competition community. It achieves the fifth position in the champion list (Dec-2017): http://rrc.cvc.uab.es/?ch=2&com =evaluation&task=4
APA, Harvard, Vancouver, ISO, and other styles
46

Cerutti, Guillaume. "Segmentation et interprétation d'images naturelles pour l'identification de feuilles d'arbres sur smartphone." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22022/document.

Full text
Abstract:
Les espèces végétales, et en particulier les espèces d'arbres, forment un cadre de choix pour un processus de reconnaissance automatique basé sur l'analyse d'images. Les critères permettant de les identifier sont en effet le plus souvent des éléments morphologiques visuels, bien décrits et référencés par la botanique, qui laissent à penser qu'une reconnaissance par la forme est envisageable. Les feuilles constituent dans ce contexte les organes végétaux discriminants les plus faciles à appréhender, et sont de ce fait les plus communément employés pour ce problème qui connaît actuellement un véritable engouement. L'identification automatique pose toutefois un certain nombre de problèmes complexes, que ce soit dans le traitement des images ou dans la difficulté même de la classification en espèces, qui en font une application de pointe en reconnaissance de formes.Cette thèse place le problème de l'identification des espèces d'arbres à partir d'images de leurs feuilles dans le contexte d'une application pour smartphones destinée au grand public. Les images sur lesquelles nous travaillons sont donc potentiellement complexes et leur acquisition peu supervisée. Nous proposons alors des méthodes d'analyse d'images dédiées, permettant la segmentation et l'interprétation des feuilles d'arbres, en se basant sur une modélisation originale de leurs formes, et sur des approches basées modèles déformables. L'introduction de connaissances a priori sur la forme des objets améliore ainsi de façon significative la qualité et la robustesse de l'information extraite de l'image. Le traitement se déroulant sur l'appareil, nous avons développé ces algorithmes en prenant en compte les contraintes matérielles liées à leur utilisation.Nous introduisons également une description spécifique des formes des feuilles, inspirée par les caractéristiques déterminantes recensées dans les ouvrages botaniques. Ces différents descripteurs fournissent des informations de haut niveau qui sont fusionnées en fin de processus pour identifier les espèces, tout en permettant une interprétation sémantique intéressante dans le cadre de l'interaction avec un utilisateur néophyte. Les performances obtenues en termes de classification, sur près de 100 espèces d'arbres, se situent par ailleurs au niveau de l'état de l'art dans le domaine, et démontrent une robustesse particulière sur les images prises en environnement naturel. Enfin, nous avons intégré l'implémentation de notre système de reconnaissance dans l'application Folia pour iPhone, qui constitue une validation de nos approches et méthodes dans un cadre réel
Plant species, and especially tree species, constitute a well adapted target for an automatic recognition process based on image analysis. The criteria that make their identification possible are indeed often morphological visual elements, which are well described and referenced by botany. This leads to think that a recognition through shape is worth considering. Leaves stand out in this context as the most accessible discriminative plant organs, and are subsequently the most often used for this problem recently receiving a particular attention. Automatic identification however gives rise to a fair amount of complex problems, linked with the processing of images, or in the difficult nature of the species classification itself, which make it an advanced application for pattern recognition.This thesis considers the problem of tree species identification from leaf images within the framework of a smartphone application intended for a non-specialist audience. The images on which we expect to work are then potentially very complex scenes and their acquisition rather unsupervised. We consequently propose dedicated methods for image analysis, in order to segment and interpret tree leaves, using an original shape modelling and deformable templates. The introduction on prior knowledge on the shape of objects enhances significatively the quality and the robustness of the information we extract from the image. All processing being carried out on the mobile device, we developed those algorithms with concern towards the material constraints of their exploitation. We also introduce a very specific description of leaf shapes, inspired by the determining characteristics listed in botanical references. These different descriptors constitute independent sources of high-level information that are fused at the end of the process to identify species, while providing the user with a possible semantic interpretation. The classification performance demonstrated over approximately 100 tree species are competitive with state-of-the-art methods of the domain, and show a particular robustness to difficult natural background images. Finally, we integrated the implementation of our recognition system into the \textbf{Folia} application for iPhone, which constitutes a validation of our approaches and methods in a real-world use
APA, Harvard, Vancouver, ISO, and other styles
47

Boyer, Edmond. "Reconstruction de surfaces d'objets courbes en vision par ordinateur." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 1996. http://tel.archives-ouvertes.fr/tel-00584012.

Full text
Abstract:
De par les récents progrès de l'informatique dans le domaine de l'imagerie, il est dorénavant possible de manipuler des surfaces d'objets réels à partir des ordinateurs. Un des besoins qui en découle concerne l'acquisition de ces surfaces. Dans ce document, nous nous penchons sur le problème de la reconstruction de surfaces d'objets courbes à partir de séquences d'images. Les contours images de ce type d'objets, les contours occultants, constituent une riche source d'informations sur la géométrie de la surface de l'objet. Il est en particulier possible d'estimer les propriétés locales de la surface lorsqu'une séquence d'au moins trois contours est disponible. Nous présentons dans ce cadre une méthodologie de reconstruction de surfaces. Celle-ci permet de passer d'une séquence de contours occultants à une description de la partie de la surface observée correspondante, sous la forme de facettes triangulaires. Plusieurs aspects de la reconstruction liés aux contours occultants sont par ailleurs pris en compte pour améliorer les résultats: la correction des effets dûs au bruit présent dans l'ensemble du processus d'acquisition ainsi que la détection des parties non-visibles de la surface par les contours, les concavités par exemple. Les différentes étapes de la méthodologie sont illustrées tout au long du document par de nombreuses expérimentations sur des données réelles et synthétiques.
APA, Harvard, Vancouver, ISO, and other styles
48

Zemirli, Zouhir. "Synthèse vocale de textes arabes voyellés." Toulouse 3, 2004. http://www.theses.fr/2004TOU30262.

Full text
Abstract:
Nous nous intéressons à l’utilité et l’utilisabilité de la structure visuelle des textes, pour leur transposition à l’oral par des systèmes de synthèse de parole (TTS). Nous proposons la synoptique d’un système qui conduit à une représentation du texte interprétable par un TTS. Nous avons partiellement réalisé le module spécifique aux stratégies d’oralisation, afin de rendre articulables la part signifiante des textes, souvent oubliée. Des spécifications ont été précisées et partiellement intégrées par un partenaire industriel. Des hypothèses prédictives quant à l’impact sur la mémorisation/compréhension de deux stratégies issues de notre modèle d’oralisation par reformulation des textes écrits pour être lus silencieusement, ont été formulées et testées. Ce travail a montré que des fonctions cognitives étaient perdues. Des prototypes, exploitant la notion d’image de page, ont été imaginés à travers des interfaces dans lesquelles la multimodalité a pour rôle de combler cette lacune
The text to speech synthesis consists in creating speech by analysis of a text which is subjected to no restriction. The object of this thesis is to describe the modeling and the taking into account of knowledge in phonetic, phonological, morpho-lexical and syntactic necessary to the development of a complete system of voice synthesis starting from diacritized arab texts. The automatic generation of the prosodico-phonetics sequence required the development of several components. The morphosyntaxic labelling "TAGGAR" carries out grammatical labelling, a marking and a syntactic grouping and the automatic insertion of the pauses. Graphemes to phonemes conversion is ensured by using lexicons, syntactic grammars, morpho-orthographical and phonological rules. A multiplicative model of prediction of the duration of the phonemes is described and a model of generation of the prosodic contours based on the accents of the words and the syntactic group is presented
APA, Harvard, Vancouver, ISO, and other styles
49

Karabagli, Bilal. "Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-01018079.

Full text
Abstract:
Le terme "usinage à porte fermée", fréquemment employé par les PME de l'aéronautique et de l'automobile, désigne l'automatisation sécurisée du processus d'usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d'usinage, avant de lancer la phase d'usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l'opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l'outil d'usinage.
APA, Harvard, Vancouver, ISO, and other styles
50

Benjira, Mohammed Amine. "Classification automatique des diatomées." Thèse, 2019. http://depot-e.uqtr.ca/id/eprint/9407/1/eprint9407.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography