Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Détection de points de repère.

Thèses sur le sujet « Détection de points de repère »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Détection de points de repère ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Irrera, Paolo. « Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images ». Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0031/document.

Texte intégral
Résumé :
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
Styles APA, Harvard, Vancouver, ISO, etc.
2

Irrera, Paolo. « Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images ». Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0031.

Texte intégral
Résumé :
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
Styles APA, Harvard, Vancouver, ISO, etc.
3

Jacinto, Hector. « Positionnement automatique de points de repère anatomiques pour la plannification chirurgicale ». Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0077/document.

Texte intégral
Résumé :
Les chirurgiens orthopédistes utilisent actuellement des guides de coupes adaptés à chaque patient afin d’effectuer l’opération d’arthroplastie totale du genou. Notamment, l’intervention chirurgicale est préparée grâce à des outils de planification où le chirurgien peut manipuler des images virtuelles du patient, construites à partir d’une imagerie médicale préopératoire. Des points de repère anatomiques permettent d’effectuer plusieurs mesures sur la jambe virtuelle afin de contrôler le positionnement des guides de coupes personnalisés par rapport aux modèles 3-D des os du genou. Nous proposons une méthode multi-atlas pour le positionnement automatique des points anatomiques pré-définis sur les maillages surfaciques modélisant le fémur et le tibia du patient. Nous exploitons un groupe d’atlas (exemples expert) constitué de plusieurs maillages triangulaires pour lesquels les points anatomiques définis ont été placés par des experts. Nous transférons les points anatomiques d’un exemple expert vers le maillage patient à travers le calcul d’un recalage global initial avec l’algorithme Iterative Closest Point (ICP) où une contrainte de courbure est utilisée en tant que dimension supplémentaire de façon à améliorer la robustesse du recalage. Des recalages locaux rigides permettent d’affiner l’adaptation pour la projection des points anatomiques sur la surface du maillage patient. Après avoir traité le maillage patient avec le groupe d’atlas, nous générons une position définitive pour chaque point de repère anatomique en utilisant une sélection automatique du jeu des meilleurs points transférés. Nous avons développé un environnement informatique accessible via internet pour la construction des modèles 3-D des os du genou du patient. Notre méthode de positionnement automatique des points de repère anatomiques est mise en œuvre sur ce système. Nous comparons notre positionnement automatique avec le positionnement manuel par des opérateurs expérimentés ainsi qu’avec des résultats rapportés dans les travaux des publications scientifiques du domaine
Nowadays, orthopedic surgeons utilize patient-specific systems based on custom cutting guides for total knee arthroplasty. Particularly, the chirurgical operation is prepared by using planning tools where the surgeon can manipulate virtual images of the patient, built from pre-surgical medical images. Identified anatomical landmarks provide various measurements on the virtual lower limb allowing to control the positioning of the cutting guides relative to the 3-D models of the knee bones. We propose a multi-atlas method for the automatic positioning of the pre-defined landmarks on the surface of the models of the femur and the tibia of the patient. We exploit a group of atlases (expert examples) consisting of multiple triangular meshes for which the defined landmarks have been placed by experts. We transfer identified landmarks from an expert example to the patient mesh by computing an initial coarse global registration with an Iterative Closest Point (ICP) algorithm where a curvature constraint serves as a supplementary dimension in order to improve robustness. Adaptive local rigid registrations refine the fit for the projection of reference landmarks onto the surface of the patient mesh. After the patient mesh has been processed with the group of atlases, we compute a definite position for each landmark using an automatic selection of a set of best transferred landmarks. We developed a Web framework for the construction of the 3-D models of the bones of the patient. Our positioning method is implemented in this system. We compare our positioning method against the manual positioning of trained operators and against the results of published scientific works on the domain
Styles APA, Harvard, Vancouver, ISO, etc.
4

Loiseau-Witon, Nicolas. « Détection et description de points clés par apprentissage ». Electronic Thesis or Diss., Lyon, INSA, 2023. http://www.theses.fr/2023ISAL0101.

Texte intégral
Résumé :
Les hôpitaux génèrent de plus en plus d’images médicales en 3D. Ces volumes nécessitent un recalage automatique, en vue d’être analysés de manière systématique et à grande échelle. Les points clés sont utilisés pour réduire la durée et la mémoire nécessaires à ce recalage et peuvent être détectés et décrits à l’aide de différentes méthodes classiques, mais également à l’aide de réseaux neuronaux, comme cela a été démontré de nombreuses fois en 2D. Cette thèse présente les résultats et les discussions sur les méthodes de détection et de description de points clés à l’aide de réseaux neuronaux 3D. Deux types de réseaux ont été étudiés pour détecter et/ou décrire des points caractéristiques dans des images médicales 3D. Les premiers réseaux étudiés permettent de décrire les zones entourant directement les points clés, tandis que les seconds effectuent les deux étapes de détection et de description des points clés en une seule fois
Hospitals are increasingly generating 3D medical images that require automatic registration for systematic and large-scale analysis. Key points are used to reduce the time and memory required for this registration, and can be detected and described using various classical methods, as well as neural networks, as demonstrated numerous times in 2D. This thesis presents results and discussions on methods for detecting and describing key points using 3D neural networks. Two types of networks were studied to detect and/or describe characteristic points in 3D medical images. The first networks studied describe the areas directly surrounding key points, while the second type performs both detection and description of key points in a single step
Styles APA, Harvard, Vancouver, ISO, etc.
5

Mérigot, Quentin. « Détection de structure géométrique dans les nuages de points ». Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00443038.

Texte intégral
Résumé :
Cette thèse s'inscrit dans la problématique générale de l'inférence géométrique. Étant donné un objet qu'on ne connaît qu'à travers un échantillon fini, à partir de quelle qualité d'échantillonage peut-on estimer de manière fiable certaines de ses propriétés géométriques ou topologique? L'estimation de la topologie est maintenant un domaine assez mûr. La plupart des méthodes existantes sont fondées sur la notion de fonction distance. Nous utilisons cette approche pour estimer certaines notions de courbure dues à Federer, définies pour une classe assez générale d'objets non lisses. Nous introduisons une version approchée de ces courbures dont nous étudions la stabilité ainsi que calcul pratique dans le cas discret. Une version anisotrope de ces mesures de courbure permet en pratique d'estimer le lieu et la direction des arêtes vives d'une surface lisse par morceaux échantillonnée par un nuage de point. En chemin nous sommes amenés à étudier certaines propriétés de régularité de la fonction distance, comme le volume de l'axe médian. Un défaut des méthodes qui utilisent la fonction distance est leur extrême sensibilité aux points aberrants. Pour résoudre ce problème, nous sortons du cadre purement géométrique en remplaçant les compacts par des mesures de probabilité. Nous introduisons une notion de fonction distance à une mesure, robuste aux perturbations Wasserstein (et donc aux points aberrants) et qui partage certaines propriétés de régularité et de stabilité avec la fonction distance usuelle. Grâce à ces propriétés, il est possible d'étendre de nombreux théorèmes d'inférence géométrique à ce cadre.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Fraisier-Vannier, Ophélie. « Détection de points de vue sur les médias sociaux numériques ». Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30200.

Texte intégral
Résumé :
De nombreux domaines ont intérêt à étudier les points de vue exprimés en ligne, que ce soit à des fins de marketing, de cybersécurité ou de recherche avec l'essor des humanités numériques. Nous proposons dans ce manuscrit deux contributions au domaine de la fouille de points de vue, axées sur la difficulté à obtenir des données annotées de qualité sur les médias sociaux. Notre première contribution est un jeu de données volumineux et complexe de 22853 profils Twitter actifs durant la campagne présidentielle française de 2017. C'est l'un des rares jeux de données considérant plus de deux points de vue et, à notre connaissance, le premier avec un grand nombre de profils et le premier proposant des communautés politiques recouvrantes. Ce jeu de données peut être utilisé tel quel pour étudier les mécanismes de campagne sur Twitter ou pour évaluer des modèles de détection de points de vue ou des outils d'analyse de réseaux. Nous proposons ensuite deux modèles génériques semi-supervisés de détection de points de vue, utilisant une poignée de profils-graines, pour lesquels nous connaissons le point de vue, afin de catégoriser le reste des profils en exploitant différentes proximités inter-profils. En effet, les modèles actuels sont généralement fondés sur les spécificités de certaines plateformes sociales, ce qui ne permet pas l'intégration de la multitude de signaux disponibles. En construisant des proximités à partir de différents types d'éléments disponibles sur les médias sociaux, nous pouvons détecter des profils suffisamment proches pour supposer qu'ils partagent une position similaire sur un sujet donné, quelle que soit la plateforme. Notre premier modèle est un modèle ensembliste séquentiel propageant les points de vue grâce à un graphe multicouche représentant les proximités entre les profils. En utilisant des jeux de données provenant de deux plateformes, nous montrons qu'en combinant plusieurs types de proximité, nous pouvons correctement étiqueter 98% des profils. Notre deuxième modèle nous permet d'observer l'évolution des points de vue des profils pendant un événement, avec seulement un profil-graine par point de vue. Ce modèle confirme qu'une grande majorité de profils ne changent pas de position sur les médias sociaux, ou n'expriment pas leur revirement
Numerous domains have interests in studying the viewpoints expressed online, be it for marketing, cybersecurity, or research purposes with the rise of computational social sciences. We propose in this manuscript two contributions to the field of stance detection, focused around the difficulty of obtaining annotated data of quality on social medias. Our first contribution is a large and complex dataset of 22853 Twitter profiles active during the French presidential campaign of 2017. This is one of the rare datasets that considers a non-binary stance classification and, to our knowledge, the first one with a large number of profiles, and the first one proposing overlapping political communities. This dataset can be used as-is to study the campaign mechanisms on Twitter, or used to test stance detection models or network analysis tools. We then propose two semi-supervised generic stance detection models using a handful of seed profiles for which we know the stance to classify the rest of the profiles by exploiting various proximities. Indeed, current stance detection models are usually grounded on the specificities of some social platforms, which is unfortunate since it does not allow the integration of the multitude of available signals. By infering proximities from differents types of elements available on social medias, we can detect profiles close enough to assume they share a similar stance on a given subject. Our first model is a sequential ensemble algorithm which propagates stances thanks to a multi-layer graph representing proximities between profiles. Using datasets from two platforms, we show that, by combining several types of proximities, we can achieve excellent results. Our second model allows us to observe the evolution of profiles' stances during an event with as little as one seed profile by stance. This model confirms that a large majority of profiles do not change their stance on social medias, or do not express their change of heart
Styles APA, Harvard, Vancouver, ISO, etc.
7

Mille, Frédéric. « Systèmes de détection des interactions médicamenteuses : points faibles & ; propositions d'améliorations ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00354268.

Texte intégral
Résumé :
Depuis plus de 30 ans, l'informatique est utilisée dans le domaine médical. Son utilisation tend à se généraliser depuis qu'elle est présentée comme un moyen permettant de réduire l'iatrogénie. Cependant, on assiste depuis le début des années 2000 à une augmentation du nombre d'études tempérant l'enthousiasme que ces systèmes suscitaient à l'origine.
En effet, il apparaît que leur implantation impacte l'organisation du travail médical et que les recommandations réalisées par les systèmes d'aide à la décision-Clinical Decision Support Systems (CDSS) ne sont pas toujours cliniquement pertinentes. Les conséquences de ces modifications/anomalies vont du rejet du système par les utilisateurs à une diminution de la sécurité du patient. Les systèmes de détection des interactions font partie des premiers CDSS ayant été mis au point. Ils sont également le sujet de critiques relatives à la non-pertinence de leurs interventions.
Dans ce contexte, nous avons essayé de proposer des modifications algorithmiques pour ces systèmes ainsi que les connaissances nécessaires à leur fonctionnement, dans le but d'améliorer la pertinence clinique de leurs recommandations. L'objectif de ce travail est de proposer un algorithme et la base de connaissances nécessaire à son fonctionnement, pour améliorer la spécificité des systèmes de détection des IAM. Ce travail couvre aussi bien la construction de l'algorithme que la modélisation et l'acquisition des connaissances nécessaire à son fonctionnement.
La méthodologie que nous avons suivie, est triple. Dans un premier temps, nous avons effectué une analyse des alertes signalées par un système de détection des IAM, utilisé dans un hôpital parisien. L'objectif de cette étude était de mettre en évidence les raisons motivant les utilisateurs pour passer outre les alertes produites par le système. A partir de cette étude, nous avons pu proposer un ensemble de spécifications et un algorithme répondant à ces spécifications.
Dans un deuxième temps, nous avons procédé à la modélisation et à l'acquisition des connaissances relatives aux IAM. Cette deuxième étape fut réalisée en utilisant les techniques de l'ingénierie des connaissances et plus particulièrement les techniques de l'ingénierie documentaire. Le résultat pratique de cette deuxième étape est la base de connaissances sur les IAM et l'éditeur de fichiers XML ayant servi à l'encoder. Cet éditeur utilise le modèle que nous avons développé grâce à une application des techniques d'extraction des connaissances à partir des textes.
En dernier lieu, nous avons recherché, au travers d'une étude descriptive, s'il existe un lien entre les alertes (association médicamenteuse), le service où l'alerte est signalée et la réponse (acceptation/rejet) de l'utilisateur. Il apparaît que l'existence de ce lien est probable, ce qui ouvre la voie à l'adaptation des alertes (intrusives/non intrusives) en fonction de l'utilisateur.
Les résultats théoriques que nous avons obtenus, nous encouragent à poursuivre nos recherches dans ce domaine, pour mettre en application l'algorithme et la base de connaissances que nous avons développés. Nous sommes également motivés pour étendre notre champ de recherche dans le domaine du data-mining, afin de permettre aux systèmes informatisés de connaître « les méthodes de prescription des médecins ».
Styles APA, Harvard, Vancouver, ISO, etc.
8

Rousseau, Sylvain. « Détection de points d'intérêt par acquisition compressée dans une image multispectrale ». Phd thesis, Université de Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00968176.

Texte intégral
Résumé :
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyen de contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- et hyper-spectral. Les données sont alors directement compressées et l'objet est reconstruit lorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travailler directement avec les données compressées pour réaliser un traitement classique sur un objet de cette nature. Après avoir introduit une première approche qui utilise des outils riemanniens pour effectuer une détection de contours dans une image multispectrale, nous présentons les principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre les problèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'un d'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vont nous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuite à la détection de signatures dans une image multispectrale et plus particulièrement à un algorithme original du Guo et Osher reposant sur une minimisation $L_1$. Cet algorithme est généralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettre de réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduirons de nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant de bonnes qualités de mesures.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Mille, Frédéric. « Systèmes de détection des interactions médicamenteuses : points faibles et propositions d'améliorations ». Paris 6, 2008. http://www.theses.fr/2008PA066634.

Texte intégral
Résumé :
Les systèmes de détection des interactions médicamenteuses (IAM) sont utilisés dans le domaine médical pour réduire l’iatrogénie. Cependant, il apparaît que leur implantation impacte l’organisation du travail médical. Dans ce contexte, nous avons essayé de proposer des modifications de ces systèmes ainsi que les connaissances nécessaires à leur fonctionnement. La méthodologie que nous avons suivie, est triple : Premièrement, nous avons réalisé une analyse du fonctionnement d’un système. Deuxièmement nous avons réalisé une acquisition des connaissances relatives aux IAM en utilisant les techniques de l’ingénierie documentaire. En dernier lieu, nous avons recherché, au travers d’une étude descriptive, s’il existe un lien entre les alertes, le service où l’alerte est signalée et la réponse de l’utilisateur. Les résultats théoriques obtenus encouragent à poursuivre les recherches dans ce domaine, pour mettre en application l’algorithme et la base de connaissances développées. Ils incitent à étendre le champ de recherche dans le domaine du data-mining, afin de permettre aux systèmes informatisés de connaître « les méthodes de prescription des médecins ».
Styles APA, Harvard, Vancouver, ISO, etc.
10

Walter, Nicolas. « Détection de primitives par une approche discrète et non linéaire : application à la détection et la caractérisation de points d'intérêt dans les maillages 3D ». Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00808216.

Texte intégral
Résumé :
Ce manuscrit est dédié à la détection et la caractérisation de points d'intérêt dans les maillages. Nous montrons tout d'abord les limitations de la mesure de courbure sur des contours francs, mesure habituellement utilisée dans le domaine de l'analyse de maillages. Nous présentons ensuite une généralisation de l'opérateur SUSAN pour les maillages, nommé SUSAN-3D. La mesure de saillance proposée quantifie les variations locales de la surface et classe directement les points analysés en cinq catégories : saillant, crête, plat, vallée et creux. Les maillages considérés sont à variété uniforme avec ou sans bords et peuvent être réguliers ou irréguliers, denses ou non et bruités ou non. Nous étudions ensuite les performances de SUSAN-3D en les comparant à celles de deux opérateurs de courbure : l'opérateur de Meyer et l'opérateur de Stokely. Deux méthodes de comparaison des mesures de saillance et courbure sont proposées et utilisées sur deux types d'objets : des sphères et des cubes. Les sphères permettent l'étude de la précision sur des surfaces différentiables et les cubes sur deux types de contours non-différentiables : les arêtes et les coins. Nous montrons au travers de ces études les avantages de notre méthode qui sont une forte répétabilité de la mesure, une faible sensibilité au bruit et la capacité d'analyser les surfaces peu denses. Enfin, nous présentons une extension multi-échelle et une automatisation de la détermination des échelles d'analyse qui font de SUSAN-3D un opérateur générique et autonome d'analyse et de caractérisation pour les maillages
Styles APA, Harvard, Vancouver, ISO, etc.
11

Hamdoun, Omar. « Détection et ré-identification de piétons par points d'intérêt entre caméras disjointes ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00566417.

Texte intégral
Résumé :
Avec le développement de la vidéo-protection, le nombre de caméras déployées augmente rapidement. Pour exploiter efficacement ces vidéos, il est indispensable de concevoir des outils d'aide à la surveillance qui automatisent au moins partiellement leur analyse. Un des problèmes difficiles est le suivi de personnes dans un grand espace (métro, centre commercial, aéroport, etc.) couvert par un réseau de caméras sans recouvrement. Dans cette thèse nous proposons et expérimentons une nouvelle méthode pour la ré-identification de piétons entre caméras disjointes. Notre technique est fondée sur la détection et l'accumulation de points d'intérêt caractérisés par un descripteur local. D'abord, on propose puis évalue une méthode utilisant les points d'intérêts pour la modélisation de scène, puis la détection d'objets mobiles. Ensuite, la ré-identification des personnes se fait en collectant un ensemble de points d'intérêt durant une fenêtre temporelle, puis en cherchant pour chacun d'eux leur correspondant le plus similaire parmi tous les descripteurs enregistrés précédemment, et stockés dans un KD-tree. Enfin, nous proposons et testons des pistes d'amélioration, en particulier pour la sélection automatique des instants ou des points d'intérêt, afin d'obtenir pour chaque individu un ensemble de points qui soient à la fois les plus variés possibles, et les plus discriminants par rapport aux autres personnes. Les performances de ré-identification de notre algorithme, environ 95% d'identification correcte au premier rang parmi 40 personnes, dépassent l'état de l'art, ainsi que celles obtenues dans nos comparaisons avec d'autres descripteurs (histogramme de couleur, HOG, SIFT).
Styles APA, Harvard, Vancouver, ISO, etc.
12

Xiao, Wen. « Détection de changements à partir de nuages de points de cartographie mobile ». Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1125/document.

Texte intégral
Résumé :
Les systèmes de cartographie mobile sont de plus en plus utilisés pour la cartographie des scènes urbaines. La technologie de scan laser mobile (où le scanner est embarqué sur un véhicule) en particulier permet une cartographie précise de la voirie, la compréhension de la scène, la modélisation de façade, etc. Dans cette thèse, nous nous concentrons sur la détection de changement entre des nuages de points laser de cartographie mobile. Tout d'abord, nous étudions la détection des changements a partir de données RIEGL (scanner laser plan) pour la mise à jour de bases de données géographiques et l'identification d'objet temporaire. Nous présentons une méthode basée sur l'occupation de l'espace qui permet de surmonter les difficultés rencontrées par les méthodes classiques fondées sur la distance et qui ne sont pas robustes aux occultations et à l'échantillonnage anisotrope. Les zones occultées sont identifiées par la modélisation de l'état d'occupation de l'espace balayé par des faisceaux laser. Les écarts entre les points et les lignes de balayage sont interpolées en exploitant la géométrie du capteur dans laquelle la densité d'échantillonnage est isotrope. Malgré quelques limites dans le cas d'objets pénétrables comme des arbres ou des grilles, la méthode basée sur l'occupation est en mesure d'améliorer la méthode basée sur la distance point à triangle de façon significative. La méthode de détection de changement est ensuite appliquée à des données acquises par différents scanners laser et à différentes échelles temporelles afin de démontrer son large champs d'application. La géométrie d'acquisition est adaptée pour un scanner dynamique de type Velodyne. La méthode basée sur l'occupation permet alors la détection des objets en mouvement. Puisque la méthode détecte le changement en chaque point, les objets en mouvement sont détectés au niveau des points. Comme le scanner Velodyne scanne l'environnement de façon continue, les trajectoires des objets en mouvement peut être extraite. Un algorithme de détection et le suivi simultané est proposé afin de retrouver les trajectoires de piétons. Cela permet d'estimer avec précision la circulation des piétons des circulations douces dans les lieux publics. Les changements peuvent non seulement être détectés au niveau du point, mais aussi au niveau de l'objet. Ainsi nous avons pu étudier les changements entre des voitures stationnées dans les rues à différents moments de la journée afin d'en tirer des statistiques utiles aux gestionnaires du stationnement urbain. Dans ce cas, les voitures sont détectés en premier lieu, puis les voitures correspondantes sont comparées entre des passages à différents moments de la journée. Outre les changements de voitures, l'offre de stationnement et les types de voitures l'utilisant sont également des informations importantes pour la gestion du stationnement. Toutes ces informations sont extraites dans le cadre d'un apprentissage supervisé. En outre, une méthode de reconstruction de voiture sur la base d'un modèle déformable générique ajusté aux données est proposée afin de localiser précisément les voitures. Les paramètres du modèle sont également considérés comme caractéristiques de la voiture pour prendre de meilleures décisions. De plus, ces modèles géométriquement précis peuvent être utilisées à des fins de visualisation. Dans cette thèse, certains sujets liés à la détection des changements comme par exemple, suivi, la classification, et la modélisation sont étudiés et illustrés par des applications pratiques. Plus important encore, les méthodes de détection des changements sont appliquées à différentes géométries d'acquisition de données et à de multiples échelles temporelles et au travers de deux stratégies: “bottom-up” (en partant des points) et “top-down” (en partant des objets)
Mobile mapping systems are increasingly used for street environment mapping, especially mobile laser scanning technology enables precise street mapping, scene understanding, facade modelling, etc. In this research, the change detection from laser scanning point clouds is investigated. First of all, street environment change detection using RIEGL data is studied for the purpose of database updating and temporary object identification. An occupancy-based method is presented to overcome the challenges encountered by the conventional distance-based method, such as occlusion, anisotropic sampling. Occluded areas are identified by modelling the occupancy states within the laser scanning range. The gaps between points and scan lines are interpolated under the sensor reference framework, where the sampling density is isotropic. Even there are some conflicts on penetrable objects, e.g. trees, fences, the occupancy-based method is able to enhance the point-to-triangle distance-based method. The change detection method is also applied to data acquired by different laser scanners at different temporal-scales with the intention to have wider range of applications. The local sensor reference framework is adapted to Velodyne laser scanning geometry. The occupancy-based method is implemented to detection moving objects. Since the method detects the change of each point, moving objects are detect at point level. As the Velodyne scanner constantly scans the surroundings, the trajectories of moving objects can be detected. A simultaneous detection and tracking algorithm is proposed to recover the pedestrian trajectories in order to accurately estimate the traffic flow of pedestrian in public places. Changes can be detected not only at point level, but also at object level. The changes of cars parking on street sides at different times are detected to help regulate on-street car parking since the parking duration is limited. In this case, cars are detected in the first place, then they are compared with corresponding ones. Apart from car changes, parking positions and car types are also important information for parking management. All the processes are solved in a supervised learning framework. Furthermore, a model-based car reconstruction method is proposed to precisely locate cars. The model parameters are also treated as car features for better decision making. Moreover, the geometrically accurate models can be used for visualization purposes. Under the theme of change detection, related topics, e.g. tracking, classification, modelling, are also studied for the reason of practical applications. More importantly, the change detection methods are applied to different data acquisition geometries at multiple temporal-scales. Both bottom-up (point-based) and top-down (object-based) change detection strategies are investigated
Styles APA, Harvard, Vancouver, ISO, etc.
13

Elmi, Mohamed Abdillahi. « Détection des changements de points multiples et inférence du modèle autorégressif à seuil ». Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD005/document.

Texte intégral
Résumé :
Cette thèse est composée de deux parties: une première partie traite le problème de changement de régime et une deuxième partie concerne le processusautorégressif à seuil dont les innovations ne sont pas indépendantes. Toutefois, ces deux domaines de la statistique et des probabilités se rejoignent dans la littérature et donc dans mon projet de recherche. Dans la première partie, nous étudions le problème de changements derégime. Il existe plusieurs méthodes pour la détection de ruptures mais les principales méthodes sont : la méthode de moindres carrés pénalisés (PLS)et la méthode de derivée filtrée (FD) introduit par Basseville et Nikirov. D’autres méthodes existent telles que la méthode Bayésienne de changementde points. Nous avons validé la nouvelle méthode de dérivée filtrée et taux de fausses découvertes (FDqV) sur des données réelles (des données du vent sur des éoliennes et des données du battement du coeur). Bien naturellement, nous avons donné une extension de la méthode FDqV sur le cas des variables aléatoires faiblement dépendantes.Dans la deuxième partie, nous étudions le modèle autorégressif à seuil (en anglais Threshold Autoregessive Model (TAR)). Le TAR est étudié dans la littérature par plusieurs auteurs tels que Tong(1983), Petrucelli(1984, 1986), Chan(1993). Les applications du modèle TAR sont nombreuses par exemple en économie, en biologie, l'environnement, etc. Jusqu'à présent, le modèle TAR étudié concerne le cas où les innovations sont indépendantes. Dans ce projet, nous avons étudié le cas où les innovations sont non corrélées. Nous avons établi les comportements asymptotiques des estimateurs du modèle. Ces résultats concernent la convergence presque sûre, la convergence en loi et la convergence uniforme des paramètres
This thesis has two parts: the first part deals the change points problem and the second concerns the weak threshold autoregressive model (TAR); the errors are not correlated.In the first part, we treat the change point analysis. In the litterature, it exists two popular methods: The Penalized Least Square (PLS) and the Filtered Derivative introduced by Basseville end Nikirov.We give a new method of filtered derivative and false discovery rate (FDqV) on real data (the wind turbines and heartbeats series). Also, we studied an extension of FDqV method on weakly dependent random variables.In the second part, we spotlight the weak threshold autoregressive (TAR) model. The TAR model is studied by many authors such that Tong(1983), Petrucelli(1984, 1986). there exist many applications, for example in economics, biological and many others. The weak TAR model treated is the case where the innovations are not correlated
Styles APA, Harvard, Vancouver, ISO, etc.
14

Moradkhan, Romel. « Détection des points critiques d'une forme : application à la reconnaissance de caractères manuscrits ». Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090012.

Texte intégral
Résumé :
La représentation de formes bidimensionnelles au moyen de leurs contours est d'un grand intérêt car beaucoup d'objets, par exemple les caractères manuscrits ou imprimés, peuvent être reconnus à partir de leur contour. La détection des points les plus significatifs (critiques) d'un contour digitalisé continue à être un domaine important de recherche du fait de sa complexité et de ces promesses. La première partie de notre travail est consacrée aux méthodes de détection des points critiques des contours digitalisés. Nous proposons deux nouvelles méthodes: la première est basée sur la notion de Co angularité; la deuxième sur la notion d'axe de symétrie. Dans la deuxième partie nous traitons du problème de la reconnaissance de caractères manuscrits à partir de leur contour. Nous avons proposé un algorithme de reconnaissance hiérarchique basé sur l'appariement structurel flexible et continu
The représentation of two-dimensional patterns by their contours is of great importance since many patterns, such as hand-written or printed characters, can be recognized by their contours. Because of its complexity the détection of dominant points of digitalized contours continues to be an important area of research. The first part of our work covers dominant point détection methods of digitalized curves (contours). After a survey of existing techniques we propose two new and efficient methods: the first is based on the notion of "co-angularity"; the second on the notion of "axis of symmetry". In the second part we focus on the problem of hand-written character récognition. We have proposed a hierarchical algorithm based on ctural matching which is both flexible and continuous
Styles APA, Harvard, Vancouver, ISO, etc.
15

Rousseau, Sylvain. « Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée ». Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2269/document.

Texte intégral
Résumé :
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyende contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- ethyper-spectral. Les données sont alors directement compressées et l'objet est reconstruitlorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travaillerdirectement avec les données compressées pour réaliser un traitement classique sur un objetde cette nature. Après avoir introduit une première approche qui utilise des outils riemannienspour effectuer une détection de contours dans une image multispectrale, nous présentonsles principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre lesproblèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'und'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vontnous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuiteà la détection de signatures dans une image multispectrale et plus particulièrement à unalgorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme estgénéralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettrede réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduironsde nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant debonnes qualités de mesures
Multi- and hyper-spectral sensors generate a huge stream of data. A way around thisproblem is to use a compressive acquisition of the multi- and hyper-spectral object. Theobject is then reconstructed when needed. The next step is to avoid this reconstruction and towork directly with compressed data to achieve a conventional treatment on an object of thisnature. After introducing a first approach using Riemannian tools to perform edge detectionin multispectral image, we present the principles of the compressive sensing and algorithmsused to solve its problems. Then we devote an entire chapter to the detailed study of one ofthem, Bregman type algorithms which by their flexibility and efficiency will allow us to solvethe minimization encountered later. We then focuses on the detection of signatures in amultispectral image relying on an original algorithm of Guo and Osher based on minimizingL1. This algorithm is generalized in connection with the acquisition compressed. A secondgeneralization will help us to achieve the pattern detection in a multispectral image. Andfinally, we introduce new matrices of measures that greatly simplifies calculations whilemaintaining a good quality of measurements
Styles APA, Harvard, Vancouver, ISO, etc.
16

Ma, Qixiang. « Deep learning based segmentation and detection of aorta structures in CT images involving fully and weakly supervised learning ». Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS029.

Texte intégral
Résumé :
La réparation endovasculaire des anévrismes aortiques abdominaux (EVAR) et l’implantation valvulaire aortique transcathéter (TAVI) sont des interventions endovasculaires pour lesquelles l’analyse des images CT préopératoires est une étape préalable au planning et au guidage de navigation. Dans le cas de la procédure EVAR, les travaux se concentrent spécifiquement sur la question difficile de la segmentation de l’aorte dans l’imagerie CT acquise sans produit de contraste (NCCT), non encore résolue. Dans le cas de la procédure TAVI, ils abordent la détection des repères anatomiques permettant de prédire le risque de complications et de choisir la bioprothèse. Pour relever ces défis, nous proposons des méthodes automatiques basées sur l’apprentissage profond (DL). Un modèle entièrement supervisé basé sur la fusion de caractéristiques 2D-3D est d’abord proposé pour la segmentation vasculaire dans les NCCT. Un cadre faiblement supervisé basé sur des pseudo-labels gaussiens est ensuite envisagé pour réduire et faciliter l’annotation manuelle dans la phase d’apprentissage. Des méthodes hybrides faiblement et entièrement supervisées sont finalement proposées pour étendre la segmentation à des structures vasculaires plus complexes, au-delà de l’aorte abdominale. Pour la valve aortique dans les CT cardiaques, une méthode DL de détection en deux étapes des points de repère d’intérêt et entièrement supervisée est proposée. Les résultats obtenus contribuent à l’augmentation de l’image préopératoire et du modèle numérique du patient pour les interventions endovasculaires assistées par ordinateur
Endovascular aneurysm repair (EVAR) and transcatheter aortic valve implantation (TAVI) are endovascular interventions where preoperative CT image analysis is a prerequisite for planning and navigation guidance. In the case of EVAR procedures, the focus is specifically on the challenging issue of aortic segmentation in non-contrast-enhanced CT (NCCT) imaging, which remains unresolved. For TAVI procedures, attention is directed toward detecting anatomical landmarks to predict the risk of complications and select the bioprosthesis. To address these challenges, we propose automatic methods based on deep learning (DL). Firstly, a fully-supervised model based on 2D-3D features fusion is proposed for vascular segmentation in NCCTs. Subsequently, a weakly-supervised framework based on Gaussian pseudo labels is considered to reduce and facilitate manual annotation during the training phase. Finally, hybrid weakly- and fully-supervised methods are proposed to extend segmentation to more complex vascular structures beyond the abdominal aorta. When it comes to aortic valve in cardiac CT scans, a two-stage fully-supervised DL method is proposed for landmarks detection. The results contribute to enhancing preoperative imaging and the patient's digital model for computer-assisted endovascular interventions
Styles APA, Harvard, Vancouver, ISO, etc.
17

Cayla, Denise. « Errance et points de repère chez Wim Wenders : analyse de trois films : Alice dans les villes, Au fil du temps, l'Etat des choses ». Montpellier 3, 1988. http://www.theses.fr/1988MON30038.

Texte intégral
Résumé :
L'analyse de ces trois films repose sur la constatation que l'errance qui affecte les personnages prend sa source d'une part dans le refus non exprime d'un passe dont la nostalgie persiste, d'autre part dans l'attraction qu'exerce sur eux un ailleurs imaginaire, l'amerique. Entre ces deux poles que representent les termes allemands heimweh sehnsucht, l'errance prend la forme d'une quete d'identite. Le deplacement apparait comme la manifestation exterieure du devenir. Le cheminement des personnages est jalonne d'elements fixes : photos, maisons de l'enfance, cinemas qui constituent les reperes a partir desquels s'elabore progressivement la definition de chacun des personnages. En partie autobiographiques, ces films lient la quete existentielle des personnages face a un monde qui leur est etranger et celle de wim wenders en tant qu'allemand et cineaste. Chacun des films est analyse en fonction des elements qui jouent le role de reperes : la photo dans "alice dans les villes", le(s) cinema(s) dans "au fil du temps", les deux conceptions du cinema qui s'affrontent dans "l'etat des choses" (cinema des studios hollywoodiens, cinema d'auteur). Le passage par ces reperes permet la reconstruction de l'identite perdue. La rencontre avec l'autre et l'entree dans le temps deviennent alors possibles. Elles ont lieu dans "les ailes du desir".
Styles APA, Harvard, Vancouver, ISO, etc.
18

Chapel, Marie-Neige. « Détection d’objets en mouvement à l’aide d’une caméra mobile ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1156/document.

Texte intégral
Résumé :
La détection d'objets mobiles dans des flux vidéo est une étape essentielle pour de nombreux algorithmes de vision par ordinateur. Cette tâche se complexifie lorsque la caméra utilisée est en mouvement. En effet, l'environnement capté par ce type de caméra apparaît en mouvement et il devient plus difficile de distinguer les objets qui effectuent réellement un mouvement de ceux qui constituent la partie statique de la scène. Dans cette thèse, nous apportons des contributions au problème de détection d'objets mobiles dans le flux vidéo d'une caméra mobile. L'idée principale qui nous permet de distinguer les éléments mobiles de ceux qui sont statiques repose sur un calcul de distance dans l'espace 3D. Les positions 3D de caractéristiques extraites des images sont estimées par triangulation puis leurs mouvements 3D sont analysés pour réaliser un étiquetage éparse statique/mobile de ces points. Afin de rendre la détection robuste au bruit, l'analyse des mouvements 3D des caractéristiques est comparée à d'autres points précédemment estimés statiques. Une mesure de confiance, mise à jour au cours du temps, est utilisée pour déterminer l'étiquette à attribuer à chacun des points. Nos contributions ont été appliquées à des jeux de données virtuelles (issus du projet Previz 2) et réelles (reconnus dans la communauté [Och+14]) et les comparaisons ont été réalisées avec l'état de l'art. Les résultats obtenus montrent que la contrainte 3D proposée dans cette thèse, couplée à une analyse statistique et temporelle des mouvements, permet de détecter des éléments mobiles dans le flux vidéo d'une caméra en mouvement et ce même dans des cas complexes où les mouvements apparents de la scène ne sont pas uniformes
Moving objects detection in video streams is a commonly used technique in many computer vision algorithms. The detection becomes more complex when the camera is moving. The environment observed by this type of camera appeared moving and it is more difficult to distinguish the objects which are in movement from the others that composed the static part of the scene. In this thesis we propose contributions for the detection of moving objects in the video stream of a moving camera. The main idea to differenciate between moving and static objects based on 3D distances. 3D positions of feature points extracted from images are estimated by triangulation and then their 3D motions are analyzed in order to provide a sparse static/moving labeling. To provide a more robust detection, the analysis of the 3D motions is compared to those of feature points previously estimated static. A confidance value updated over time is used to decide on labels to attribute to each point.We make experiments on virtual (from the Previz project 1) and real datasets (known by the community [Och+14]) and we compare the results with the state of the art. The results show that our 3D constraint coupled with a statistical and temporal analysis of motions allow to detect moving elements in the video stream of a moving camera even in complex cases where apparent motions of the scene are not similars
Styles APA, Harvard, Vancouver, ISO, etc.
19

Henry, Caroline. « Détection de points brillants par corrélation complexe entre sous-vues d'une image RSO spatiale ». Toulouse, INPT, 2003. http://www.theses.fr/2003INPT050H.

Texte intégral
Résumé :
Les radars imageurs à synthèse d'ouverture (RSO) offrent des capacités d'observation de la Terre affranchies des aléas météorologiques et des conditions d'illumination solaire. En raison du caractère cohérent du rayonnement émis, l'image RSO est contaminée par un bruit spécifique (le speckle), à l'origine de variations radiométriques intempestives, préjudiciables aux thématiques de détection de cibles artificielles. Pour pallier à cette limitation, on propose une technique originale de détection basée sur l'exploitation conjointe de l'amplitude et de la phase de l'image RSO. Par analyse spectrale de ses sous-vues, on accède à des cartographies de points détectés, qui révèlent un contraste amplement accru entre cible et environnement. La méthode est validée, puis exploitées à des fins applicatives. L'utilisation de la diversité de polarisation s'avère améliorer encore la capacité de détection, et ouvre en outre la voie de l'identification des cibles.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Grunwald, Monique. « Détection des anomalies chromosomiques par cytométrie en flux et localisation des points de translocation ». Paris 6, 1986. http://www.theses.fr/1986PA066487.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Labeau, Olivier. « Détection et étude de nano-objets : nanocristaux de CdSe/ZnS et molécules uniques ». Bordeaux 1, 2005. http://www.theses.fr/2005BOR13004.

Texte intégral
Résumé :
Ce travail traite de la détection et de l'étude de nano-objets luminescents que sont les nanocristaux de semi-conducteur de CdSe/ZnS et les molécules aromatiques. Le mémoire est organisé en trois parties distinctes. La première décrit différentes méthodes de détection de nano-objets par des méthode optiques de champ lointain. L'accent est mis sur l'utilisation d'un dispositif de microscopie confocale de fluorescence fonctionnant aux très basses temlpératures. La seconde traite plus spécifiquement ed la spectroscopie des nanocristaux de CdSe/ZnS. Une étude complète ainsi qu'un modèle de l'évolution en foction de la température du déclin de la luminescence de ces nanocristaux à l'échelle individuelle sont détaillés. Des résultats concernant la spectroscopie d'excitation résonante et de fluorescence des nanocristaux de CdSe/ZnS sont aussi mentionnés. Enfin, dans une dernière partie, la détection de la charge d'un vortex d'Abrikosov est envisagée par la spectroscopie de molécules individuelles aromatiques fluorescentes aux très basses températures présentant un fort effet Stark linéaire. Ce travail met en évidence un phénomène supplémentaire, un déplacement régulier du spectre d'excitation avec la puissance excitatrice, observable pour des molécules situées au voisinage d'une interface métallique ou supraconductrice.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Bigorgne, Erwan. « Détection et caractérisation de points singuliers pour l' appariement et l' indexation d' images couleurs ». Paris 6, 2005. http://www.theses.fr/2005PA066270.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Rombourg, Romain. « Analyse, modélisation et détection de bruits pour scanners laser terrestres ». Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM064.

Texte intégral
Résumé :
Dans cette thèse, nous nous sommes concentrés sur plusieurs sujets liés à la détection du bruit dans les nuages de points générés par les scanners laser terrestres (TLS). Premièrement, les méthodes de projection pour calculer une image à partir d'un balayage TLS. Deuxièmement, la détection du bruit du ciel, c'est-à-dire le bruit produit lorsqu'une mesure d'un TLS à onde continue modulée en amplitude n'est effectuée que sur du rayonnement ambiant. Et enfin, la détection du bruit de points mixtes, c'est-à-dire les points acquis lorsque le TLS reçoit des signaux de retour de plusieurs surfaces différentes. Pour relever ces défis, nous avons d'abord analysé l'échantillonnage de l'espace du TLS et déduit des propriétés sur la densité locale de points en fonction de l'altitude, ce qui nous a permis de montrer les limites des techniques classiques de détection. Nous avons ensuite défini un cadre théorique pour analyser les méthodes de projection, fondements des méthodes de détection 2D. Ce cadre nous a permis de mettre en évidence deux propriétés fondamentales devant être satisfaites par une projection. En se basant sur ces propriétés, nous avons conçu un algorithme de projection les satisfaisant au mieux. Nous avons ensuite défini une quantification de la qualité d'une projection et comparé notre algorithme avec l'algorithme classique et montré que la méthode classique n'est pas adaptée. La projection proposée a quant à elle donné de très bons résultats. Comme le bruit du ciel n'a jamais été étudié dans de précédents travaux, nous l'avons formellement analysé pour construire des bases théoriques pour la détection du ciel. L'analyse nous a permis de montrer théoriquement et expérimentalement que la distribution de distance du bruit de ciel est indépendante des propriétés sous-jacentes du rayonnement ambiant. à partir de notre projection et des propriétés découvertes, nous avons conçu un détecteur de ciel et un détecteur de points mixtes. Les détecteurs ont été testés via une validation approfondie en conditions contrôlées. Les résultats ont montré que nos détecteurs combinés à notre projection sont capables de détecter correctement presque tous le bruit présenté avec peu de mauvaises détections pour le détecteur de ciel et une quantité raisonnable pour le détecteur de point mixte
In this thesis, we focused on several topics related to noise detection in point cloud generated by Terrestrial Laser Scanners (TLS). First, the projection methods to compute an image from a TLS scan. Second, the detection of sky noise, i.e. noise produced when a Amplitude Modulated Continuous Wave TLS measures range only from background radiation. And finally, the detection of mixed point noise, i.e. points acquired when the TLS was receiving return signals from several different surfaces. To tackle these challenges, we first analysed how the TLS samples space and deduced properties on how the local point cloud density evolves with respect to the elevation, this allowed us to show the limits of usual noise detection techniques and oriented our focus on 2D non density based detection techniques. We then defined a theoretical framework to analyse projection methods, unavoidable foundations for 2D detection methods. This framework allowed us to bring to light two fundamental properties that should be satisfied by a projection. Following these properties, we designed a projection algorithm that satisfied them as much as possible. We then defined a way to quantify projection quality and compared our proposed algorithm with the widely used classic algorithm and showed that the classic projection method is not adapted. Our proposed projection however showed very good results. Since the sky noise was never studied in previous works, we formally analysed it to build some theoretical foundations for sky detection. The analysis allowed us to show theoretically and experimentally that the range distribution of sky noise is independent of the underlying properties of the background radiation signal. From our projection and the discovered properties, we designed a sky detector and a mixed point detector. The detectors were tested via an extensive validation in controlled conditions. The results showed that our proposed detectors combined with the proposed projection are able to correctly detect almost all presented noise with few bad detection for the sky detectors and reasonable amount for the mixed point detector
Styles APA, Harvard, Vancouver, ISO, etc.
24

Narongpunt, Veerasak. « Détection par thermographie infrarouge de la chaleur cutanée provoquée par la stimulation des points de méridien utilisés en acupuncture chinoise ». Paris 13, 2005. http://www.theses.fr/2005PA132028.

Texte intégral
Résumé :
La thermographie infrarouge (TIR) permet d'observer temps réel et en continu sans contact les isothermes de la peau humaine, sans aucune intervention ni préparation particulière pouvant perturber l'état initial du patient. Un essai contrôlé randomisé sur 12 volontaires sains a été entrepris suivant un protocole expérimental in vivo et en simple aveugle d'un stimulus par pression digitale sur un point du corps humain. Nous avons utilisé une caméra thermique au détecteur micro-bolométrique pour visualiser un point très distant du point stimulé sur la surface cutanée ; tous deux situés sur les deux extrémités du corps n'observent aucun lien anatomique immédiat et connu. Après des simplifications scientifiquement justifiées et assortis d'un traitement d'images complémentaire en contraste entre deux points d'images thermiques d'une même expérience, ces résultats expérimentaux donneraient une crédibilité à la mesure de température sans contact d'un tissu vivant et surtout à l'application de la thermographie infrarouge dans le domaine médical du vivant en général.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Fu, Wenhao. « Visual servoing for mobile robots navigation with collision avoidance and field-of-view constraints ». Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0019/document.

Texte intégral
Résumé :
Cette thèse porte sur le problème de la navigation basée sur la vision pour les robots mobiles dans les environnements intérieurs. Plus récemment, de nombreux travaux ont été réalisés pour résoudre la navigation à l'aide d'un chemin visuel, à savoir la navigation basée sur l'apparence. Cependant, en utilisant ce schéma, le mouvement du robot est limité au chemin visuel d'entrainement. Le risque de collision pendant le processus de navigation peut faire écarter le robot de la trajectoire visuelle courante, pour laquelle les repères visuels peuvent être perdus. Dans l'état de nos connaissances, les travaux envisagent rarement l'évitement des collisions et la perte de repère dans le cadre de la navigation basée sur l'apparence. Nous présentons un cadre mobile de navigation pour le robot afin de renforcer la capacité de la méthode basée sur l'apparence, notamment en cas d'évitement de collision et de contraintes de champ de vision. Notre cadre introduit plusieurs contributions techniques. Tout d'abord, les contraintes de mouvement sont considérés dans la détection de repère visuel pour améliorer la performance de détection. Ensuite, nous modélisons l'obstacle en utilisant B-Spline. La représentation de B-Spline n'a pas de régions accidentées et peut générer un mouvement fluide pour la tâche d'évitement de collision. En outre, nous proposons une stratégie de contrôle basée sur la vision, qui peut gérer la perte complète de la cible. Enfin, nous utilisons l'image sphérique pour traiter le cas des projections d'ambiguité et d'infini dus à la projection en perspective. Les véritables expériences démontrent la faisabilité et l'efficacité de notre cadre et de nos méthodes
This thesis is concerned with the problem of vision-based navigation for mobile robots in indoor environments. Many works have been carried out to solve the navigation using a visual path, namely appearance-based navigation. However, using this scheme, the robot motion is limited to the trained visual path. The potential collision during the navigation process can make robot deviate from the current visual path, in which the visual landmarks can be lost in the current field of view. To the best of our knowledge, seldom works consider collision avoidance and landmark loss in the framework of appearance-based navigation. We outline a mobile robot navigation framework in order to enhance the capability of appearance-based method, especially in case of collision avoidance and field-of-view constraints. Our framework introduces several technical contributions. First of all, the motion constraints are considered into the visual landmark detection to improve the detection performance. Next then, we model the obstacle boundary using B-Spline. The B-Spline representation has no accidented regions and can generate a smooth motion for the collision avoidance task. Additionally, we propose a vision-based control strategy, which can deal with the complete target loss. Finally, we use spherical image to handle the case of ambiguity and infinity projections due to perspective projection. The real experiments demonstrate the feasability and the effectiveness of our framework and methods
Styles APA, Harvard, Vancouver, ISO, etc.
26

Girardeau-Montaut, Daniel. « Détection de changement sur des données géométriques tridimensionnelles ». Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001745.

Texte intégral
Résumé :
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Chapelle, Olivier. « Support Vector Machines : principes d'induction, Réglage automatique et connaissances à priori ». Paris 6, 2004. http://www.theses.fr/2004PA066524.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Richefeu, Julien. « Détection et analyse du mouvement sur système de vision à base de rétine numérique ». Phd thesis, Paris 6, 2006. http://pastel.archives-ouvertes.fr/pastel-00002557.

Texte intégral
Résumé :
La rétine numérique programmable est un imageur qui combine fonctions d'acquisition et de traitement de l'image au sein de chaque pixel. L'objectif de notre travail consiste à utiliser ce circuit dans un système de détection et d'analyse du mouvement en se conformant à ses capacités de calcul et de mémorisation limitées. Nous présentons d'abord trois méthodes de détection du mouvement adaptées à nos contraintes : un calcul de fond par une moyenne récursive classique ; un estimateur statistique, le filtre Σ-
Styles APA, Harvard, Vancouver, ISO, etc.
29

Calvet, Lilian. « Méthodes de reconstruction tridimensionnelle intégrant des points cycliques : application au suivi d’une caméra ». Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/11901/1/Calvet.pdf.

Texte intégral
Résumé :
Cette thèse traite de la reconstruction tridimensionnelle d’une scène rigide à partir d’une collection de photographies numériques, dites vues. Le problème traité est connu sous le nom du "calcul de la structure et du mouvement" (structure-and/from-motion) qui consiste à "expliquer" des trajectoires de points dits d’intérêt au sein de la collection de vues par un certain mouvement de l’appareil (dont sa trajectoire) et des caractéristiques géométriques tridimensionnelles de la scène. Dans ce travail, nous proposons les fondements théoriques pour étendre certaines méthodes de calcul de la structure et du mouvement afin d’intégrer comme données d’entrée, des points d’intérêt réels et des points d’intérêt complexes, et plus précisément des images de points cycliques. Pour tout plan projectif, les points cycliques forment une paire de points complexes conjugués qui, par leur invariance par les similitudes planes, munissent le plan projectif d’une structure euclidienne. Nous introduisons la notion de marqueurs cycliques qui sont des marqueurs plans permettant de calculer sans ambiguïté les images des points cycliques de leur plan de support dans toute vue. Une propriété de ces marqueurs, en plus d’être très "riches" en information euclidienne, est que leurs images peuvent être appariées même si les marqueurs sont disposés arbitrairement sur des plans parallèles, grâce à l’invariance des points cycliques. Nous montrons comment utiliser cette propriété dans le calcul projectif de la structure et du mouvement via une technique matricielle de réduction de rang, dite de factorisation, de la matrice des données correspondant aux images de points réels, complexes et/ou cycliques. Un sous-problème critique abordé dans le calcul de la structure et du mouvement est celui de l’auto-calibrage de l’appareil, problème consistant à transformer un calcul projectif en un calcul euclidien. Nous expliquons comment utiliser l’information euclidienne fournie par les images des points cycliques dans l’algorithme d’auto-calibrage opérant dans l’espace projectif dual et fondé sur des équations linéaires. L’ensemble de ces contributions est finalement utilisé pour une application de suivi automatique de caméra utilisant des marqueurs formés par des couronnes concentriques (appelés CCTags), où il s’agit de calculer le mouvement tridimensionnel de la caméra dans la scène à partir d’une séquence vidéo. Ce type d’application est généralement utilisé dans l’industrie du cinéma ou de la télévision afin de produire des effets spéciaux. Le suivi de caméra proposé dans ce travail a été conçu pour proposer le meilleur compromis possible entre flexibilité d’utilisation et précision des résultats obtenus.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Fhima, Mehdi. « Détection de ruptures et mouvement Brownien multifractionnaire ». Thesis, Clermont-Ferrand 2, 2011. http://www.theses.fr/2011CLF22197.

Texte intégral
Résumé :
Dans cette thèse, nous développons une nouvelle méthode de détection de ruptures "Off-line", appelée Dérivée Filtrée avec p-value, sur des paramètres d'une suite de variables aléatoires indépendantes, puis sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cette thèse est composée de trois articles. Dans un premier article paru dans Sequential Analysis nous posons les bases de la méthode Dérivée Filtrée avec p-value (FDpV) en l'appliquant à une suite de variables aléatoires indépendantes. La méthode a une complexité linéaire en temps et en mémoire. Elle est constituée de deux étapes. La première étape utilisant la méthode Dérivée Filtrée détecte les bons instants de ruptures, mais également certaines fausses alarmes. La deuxième étape attribue une p-value à chaque instant de rupture potentiel détecté à la première étape, et élimine les instants dont la p-value est inférieure à un certain seuil critique. Nous démontrons les propriétés asymptotiques nécessaires à la calibration de la méthode. L'efficacité de la méthode a été prouvé tant sur des données simulées que sur des données réelles. Ensuite, nous nous sommes attaqués à l'application de la méthode pour la détection de ruptures sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cela s'est fait en deux phases. La première phase a fait l'objet d'un article à paraitre dans ESAIM P&S où nous avons établi un Théorème Central Limite pour l'estimateur du paramètre de Hurst appelé Increment Ratio Statistic (IRS). Puis, nous avons proposé une version localisée de l'IRS et démontré un TCL local pour estimer la fonction de Hurst d'un mouvement Brownien multifractionnaire. Les preuves sont intuitives et se distinguent par leur simplicité. Elles s'appuient sur le théorème de Breuer-Major et une stratégie originale appelée "freezing of time". La deuxième phase repose sur un nouvel article soumis pour publication. Nous adaptons la méthode FDpV pour détecter des ruptures sur l'indice de Hurst d'un mouvement Brownien fractionnaire constant par morceaux. La statistique sous-jacent de l'algorithme FDpV est un nouvel estimateur de l'indice de Hurst, appelé Increment Zero-Crossing Statistic (IZCS) qui est une variante de l'IRS. La combinaison des méthodes FDpV + IZCS constitue une procédure efficace et rapide avec une complexité linéaire en temps et en mémoire
This Ph.D dissertation deals with "Off-line" detection of change points on parameters of time series of independent random variables, and in the Hurst parameter of multifrcational Brownian motion. It consists of three articles. In the first paper, published in Sequential Analysis, we set the cornerstones of the Filtered Derivative with p-Value method for the detection of change point on parameters of independent random variables. This method has linear time and memory complexities, with respect to the size of the series. It consists of two steps. The first step is based on Filtered Derivative method which detects the right change points as well as the false ones. We improve the Filtered Derivative method by adding a second step in which we compute the p-values associated to every single potential change point. Then we eliminate false alarms, i.e. the change points which have p-value smaller than a given critical level. We showed asymptotic properties needed for the calibration of the algorithm. The effectiveness of the method has been proved both on simulated data and on real data. Then we moved to the application of the method for the detection of change point on the Hurst parameter of multifractional Brownian motion. This was done in two phases. In the first phase, a paper is to be published in ESAIM P&S where we investigated the Central Limit Theorem of the Increment Ratio Statistic of a multifractional Brownian motion, leading to a CLT for the time varying Hurst index. The proofs are quite simple relying on Breuer-Major theorems and an original freezing of time strategy.The second phase relies on a new paper submitted for publication. We adapted the FDpV method to detect change points on the Hurst parameter of piecewise fractional Brownian motion. The underlying statistics of the FDpV technology is a new statistic estimator for Hurst index, so-called Increment Zero-Crossing Statistic (IZCS) which is a variation of IRS. Both FDpV and IZCS are methods with linear time and memory complexities, with respect to the size of the series
Styles APA, Harvard, Vancouver, ISO, etc.
31

Pham, The Anh. « Détection robuste de jonctions et points d'intérêt dans les images et indexation rapide de caractéristiques dans un espace de grande dimension ». Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4023/document.

Texte intégral
Résumé :
Les caractéristiques locales sont essentielles dans de nombreux domaines de l’analyse d’images comme la détection et la reconnaissance d’objets, la recherche d’images, etc. Ces dernières années, plusieurs détecteurs dits locaux ont été proposés pour extraire de telles caractéristiques. Ces détecteurs locaux fonctionnent généralement bien pour certaines applications, mais pas pour toutes. Prenons, par exemple, une application de recherche dans une large base d’images. Dans ce cas, un détecteur à base de caractéristiques binaires pourrait être préféré à un autre exploitant des valeurs réelles. En effet, la précision des résultats de recherche pourrait être moins bonne tout en restant raisonnable, mais probablement avec un temps de réponse beaucoup plus court. En général, les détecteurs locaux sont utilisés en combinaison avec une méthode d’indexation. En effet, une méthode d’indexation devient nécessaire dans le cas où les ensembles de points traités sont composés de milliards de points, où chaque point est représenté par un vecteur de caractéristiques de grande dimension
Local features are of central importance to deal with many different problems in image analysis and understanding including image registration, object detection and recognition, image retrieval, etc. Over the years, many local detectors have been presented to detect such features. Such a local detector usually works well for some particular applications but not all. Taking an application of image retrieval in large database as an example, an efficient method for detecting binary features should be preferred to other real-valued feature detection methods. The reason is easily seen: it is expected to have a reasonable precision of retrieval results but the time response must be as fast as possible. Generally, local features are used in combination with an indexing scheme. This is highly needed for the case where the dataset is composed of billions of data points, each of which is in a high-dimensional feature vector space
Styles APA, Harvard, Vancouver, ISO, etc.
32

Lamarfa, Houda. « Développement d'une méthode multi-échelle de traitement des nuages de points LiDAR mobile pour la détection de convergence des tunnels miniers souterrains ». Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34007.

Texte intégral
Résumé :
La sécurité dans les mines souterraines est l’une des principales préoccupations des entreprises d’exploitation minières. La surveillance des moindres changements ou déformations au niveau des tunnels et galeries miniers, notamment la convergence des tunnels (rétrécissement diamétral d’une section de tunnel), figure parmi les principales priorités de ces entreprises. Les techniques de surveillance de la convergence des tunnels miniers communément utilisées se basent essentiellement sur des mesures ponctuelles et limitées qui sont généralement longues et coûteuses. Les technologies LiDAR mobiles émergentes et prometteuses amènent des pistes de solutions qui permettent de gagner en efficacité et en sécurité. Cependant, la détection et la mesure précise de convergence des tunnels miniers au moyen de données LiDAR mobile demeurent problématiques en raison des enjeux suivants : la précision des nuages de points, l’irrégularité de la zone observée, la variabilité de la densité des scans et de leur prise de vue, la présence d’obstructions, la complexité de l’alignement parfait des nuages de points. La recherche visée dans ce mémoire de maîtrise s’inscrit dans le cadre du projet « MinEyes » et elle a pour objectif principal de détecter et de mesurer la convergence de tunnels miniers souterrains à partir de données LiDAR mobile. Pour ce faire, nous proposons une méthode multi-échelles de comparaison de nuages de points qui prend en considération les irrégularités de surface des tunnels miniers et qui permet une meilleure détection de leurs changements et une mesure plus précise de leur convergence. La méthode proposée se base sur une approche de comparaison modèle à modèle locale des nuages de points LiDAR mobile souterrain. Les résultats obtenus sont très prometteurs comparés à ceux d’autres méthodes de détection de changement dans les nuages de points LiDAR (ex. : méthodes C2C, C2M). Une analyse statistique des résultats a également permis de confirmer la robustesse de la méthode proposée surtout dans des zones rugueuses des tunnels miniers.
Security in underground mines is one of the main concerns of mining companies. Monitoring any changes or distortions in mining tunnels and galleries, including tunnel’s convergence, is one of the top priorities for those companies. Commonly used convergence monitoring techniques in underground tunnels are based on limited measurements that are usually very time-consuming and costly in terms of process. Emerging mobile LiDAR technologies offer alternative solutions that are far more efficient and lower in risk. However, the accurate measurements of convergence in mining tunnels using mobile LiDAR data remains challenging because of the following issues: limited precision of LiDAR point clouds, the roughness and irregularity of the studied surfaces in the tunnels, the irregularity of the scan density, the presence of occlusions and the complexities of reliable registration of point clouds. This research work is defined as a part of the ‘MinEyes project’ in collaboration with the company Pecktech which main objective is to detect and measure the convergence of underground mining tunnels from mobile LiDAR data. To do so, we propose a multi-scale point cloud comparison method that considers the surface irregularities of the mining tunnels and allows a better detection of their changes and a more precise measurement of their convergence. The proposed method is based on a local model-to-model comparison method of underground mobile LiDAR point clouds. The results obtained are very promising compared to other LiDAR point cloud comparison methods (e.g. C2C, C2M methods). A statistical analysis of the results also has confirmed the efficiency of the proposed method, especially in the rough areas of the mining tunnels.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ait, Fares Wassima. « Détection et suivi d'objets par vision fondés sur segmentation par contour actif basé région ». Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00932263.

Texte intégral
Résumé :
La segmentation et le suivi d'objets sont des domaines de recherche compétitif dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet du celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous proposons d'abord un critère global qui dépend des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-­‐disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-­‐disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode des contours actifs, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Oesau, Sven. « Modélisation géométrique de scènes intérieures à partir de nuage de points ». Thesis, Nice, 2015. http://www.theses.fr/2015NICE4034/document.

Texte intégral
Résumé :
La modélisation géométrique et la sémantisation de scènes intérieures à partir d'échantillon de points et un sujet de recherche qui prend de plus en plus d'importance. Cependant, le traitement d'un ensemble volumineux de données est rendu difficile d'une part par le nombre élevé d'objets parasitant la scène et d'autre part par divers défauts d'acquisitions comme par exemple des données manquantes ou un échantillonnage de la scène non isotrope. Cette thèse s'intéresse de près à de nouvelles méthodes permettant de modéliser géométriquement un nuage de point non structuré et d’y donner de la sémantique. Dans le chapitre 2, nous présentons deux méthodes permettant de transformer le nuage de points en un ensemble de formes. Nous proposons en premier lieu une méthode d'extraction de lignes qui détecte des segments à partir d'une coupe horizontale du nuage de point initiale. Puis nous introduisons une méthode par croissance de régions qui détecte et renforce progressivement des régularités parmi les formes planaires. Dans la première partie du chapitre 3, nous proposons une méthode basée sur de l'analyse statistique afin de séparer de la structure de la scène les objets la parasitant. Dans la seconde partie, nous présentons une méthode d'apprentissage supervisé permettant de classifier des objets en fonction d'un ensemble de formes planaires. Nous introduisons dans le chapitre 4 une méthode permettant de modéliser géométriquement le volume d'une pièce (sans meubles). Une formulation énergétique est utilisée afin de labelliser les régions d’une partition générée à partir de formes élémentaires comme étant intérieur ou extérieur de manière robuste au bruit et aux données
Geometric modeling and semantization of indoor scenes from sampled point data is an emerging research topic. Recent advances in acquisition technologies provide highly accurate laser scanners and low-cost handheld RGB-D cameras for real-time acquisition. However, the processing of large data sets is hampered by high amounts of clutter and various defects such as missing data, outliers and anisotropic sampling. This thesis investigates three novel methods for efficient geometric modeling and semantization from unstructured point data: Shape detection, classification and geometric modeling. Chapter 2 introduces two methods for abstracting the input point data with primitive shapes. First, we propose a line extraction method to detect wall segments from a horizontal cross-section of the input point cloud. Second, we introduce a region growing method that progressively detects and reinforces regularities of planar shapes. This method utilizes regularities common to man-made architecture, i.e. coplanarity, parallelism and orthogonality, to reduce complexity and improve data fitting in defect-laden data. Chapter 3 introduces a method based on statistical analysis for separating clutter from structure. We also contribute a supervised machine learning method for object classification based on sets of planar shapes. Chapter 4 introduces a method for 3D geometric modeling of indoor scenes. We first partition the space using primitive shapes detected from permanent structures. An energy formulation is then used to solve an inside/outside labeling of a space partitioning, the latter providing robustness to missing data and outliers
Styles APA, Harvard, Vancouver, ISO, etc.
35

Ait, Fares Wassima. « Détection et suivi d'objets par vision fondés sur segmentation par contour actif base région ». Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2143/.

Texte intégral
Résumé :
La segmentation et le suivi d'objets sont des domaines de recherche compétitifs dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet de celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous utilisons des critères qui dépendent des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode du contour actif, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées
Object segmentation and tracking is a challenging area of ongoing research in computer vision. One important application lies in robotics where the ability to accurately segment an object of interest from its background is crucial and particularly on images acquired onboard during robot motion. Object segmentation technique consists in separating the object region from the image background according to a pre-defined criterion. Object tracking is a process of determining the positions of moving objects in image sequences. Several techniques can be applied to ensure these operations. In this thesis, we are interested to segment and track objects in video sequences using active contour method due to its robustness and efficiency to segment and track non-rigid objects. Active contour method consists in making a curve converge from an initial position around the object to be detected towards this object boundary according to a pre-defined criterion. We employ criteria which depend on the image regions what may impose certain constraints on the characteristics of these regions as a homogeneity assumption. This assumption may not always be verified due to the heterogeneity often present in images. In order to cope with the heterogeneity that may appear either in the object of interest or in the image background in noisy images using an inadequate active contour initialization, we propose a technique that combines local and global statistics in order to compute the segmentation criterion. By using a radius with a fixed size, a half-disk is superposed on each point of the active contour to define the local extraction regions. However, when the heterogeneity appears on both the object of interest and the image background, we develop a new technique based on a flexible radius that defines two half-disks with two different radius values to extract the local information. The choice of the value of these two radii is determined by taking into consideration the object size as well as the distance separating the object of interest from its neighbors. Finally, to track a mobile object within a video sequence using the active contour method, we develop a hybrid object tracking approach based on region characteristics and on motion vector of interest points extracted on the object region. Using our approach, the initial active contour for each image will be adequately adjusted in a way that it will be as close as possible to the actual boundary of the object of interest so that the evolution of active contour based on characteristics of the region will not be trapped by false contours. Simulation results on synthetic and real images validate the effectiveness of the proposed approaches
Styles APA, Harvard, Vancouver, ISO, etc.
36

Almansa, Andrés. « Echantillonnage, interpolation et détection : applications en imagerie satellitaire ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2002. http://tel.archives-ouvertes.fr/tel-00665725.

Texte intégral
Résumé :
Cette thèse aborde quelques-uns des problèmes qui surviennent dans la conception d'un système complet de vision par ordinateur : de l'échantillonnage à la détection de structures et leur interprétation. La motivation principale pour traiter ces problèmes a été fournie par le CNES et la conception des satellites d'observation terrestre, ainsi que par les applications de photogrammétrie et vidéo-surveillance chez Cognitech, Inc. pendant les étapes finales de ce travail, mais les techniques développées sont d'une généralité suffisante pour présenter un intérêt dans d'autres systèmes de vision par ordinateur. Dans une première partie nous abordons une étude comparative des différents systèmes d'échantillonnage d'images sur un réseau régulier, soit carré soit hexagonal, à l'aide d'une mesure de résolution effective, qui permet de déterminer la quantité d'information utile fournie par chaque pixel du réseau, une fois que l'on a séparé les effets du bruit et du repliement spectral. Cette mesure de résolution est utilisée à son tour pour améliorer des techniques de zoom et de restauration basées sur la minimisation de la variation totale. Ensuite l'étude comparative est poursuivie en analysant dans quelle mesure chacun des systèmes permet d'éliminer les perturbations du réseau d'échantillonnage dues aux micro-vibrations du satellite pendant l'acquisition. Après une présentation des limites théoriques du problème, nous comparons les performances des méthodes de reconstruction existantes avec un nouvel algorithme, mieux adapté aux conditions d'échantillonnage du CNES. Dans une deuxième partie nous nous intéressons à l'interpolation de modèles d'élévation de terrain, dans deux cas particuliers: l'interpolation de lignes de niveau, et l'étude des zones dans lesquelles une méthode de corrélation à partir de paires stéréo ne fournit pas des informations fiables. Nous étudions les liens entre les méthodes classiques utilisées en sciences de la terre tels que Krigeage ou distances géodésiques, et la méthode AMLE, et nous proposons une extension de la théorie axiomatique de l'interpolation qui conduit à cette dernière. Enfin une évaluation expérimentale permet de conclure qu'une nouvelle combinaison du Krigeage avec l'AMLE fournit les meilleures interpolations pour les modèles de terrain. Enfin nous nous intéressons à la détection d'alignements et de leurs points de fuite dans une image, car ils peuvent être utilisés aussi bien pour la construction de modèles d'élévation urbains, que pour résoudre des problèmes de photogrammétrie et calibration de caméras. Notre approche est basée sur la théorie de la Gestalt, et son implémentation effective récemment proposée par Desolneux-Moisan-Morel à l'aide du principe de Helmholtz. Le résultat est un détecteur de points de fuite sans paramètres, qui n'utilise aucune information a priori sur l'image ou la caméra.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Lhéritier, Alix. « Méthodes non-paramétriques pour l'apprentissage et la détection de dissimilarité statistique multivariée ». Thesis, Nice, 2015. http://www.theses.fr/2015NICE4072/document.

Texte intégral
Résumé :
Cette thèse présente trois contributions en lien avec l'apprentissage et la détection de dissimilarité statistique multivariée, problématique d'importance primordiale pour de nombreuses méthodes d'apprentissage utilisées dans un nombre croissant de domaines. La première contribution introduit la notion de taille d'effet multivariée non-paramétrique, éclairant la nature de la dissimilarité détectée entre deux jeux de données, en deux étapes. La première consiste en une décomposition d'une mesure de dissimilarité (divergence de Jensen-Shannon) visant à la localiser dans l'espace ambiant, tandis que la seconde génère un résultat facilement interprétable en termes de grappes de points de forte discrépance et en proximité spatiale. La seconde contribution présente le premier test non-paramétrique d'homogénéité séquentiel, traitant les données issues de deux jeux une à une--au lieu de considérer ceux-ci- in extenso. Le test peut ainsi être arrêté dès qu'une évidence suffisamment forte est observée, offrant une flexibilité accrue tout en garantissant un contrôle del'erreur de type I. Sous certaines conditions, nous établissons aussi que le test a asymptotiquement une probabilité d'erreur de type II tendant vers zéro. La troisième contribution consiste en un test de détection de changement séquentiel basé sur deux fenêtres glissantes sur lesquelles un test d'homogénéité est effectué, avec des garanties sur l'erreur de type I. Notre test a une empreinte mémoire contrôlée et, contrairement à des méthodes de l'état de l'art qui ont aussi un contrôle sur l'erreur de type I, a une complexité en temps constante par observation, le rendant adapté aux flux de données
In this thesis, we study problems related to learning and detecting multivariate statistical dissimilarity, which are of paramount importance for many statistical learning methods nowadays used in an increasingly number of fields. This thesis makes three contributions related to these problems. The first contribution introduces a notion of multivariate nonparametric effect size shedding light on the nature of the dissimilarity detected between two datasets. Our two step method first decomposes a dissimilarity measure (Jensen-Shannon divergence) aiming at localizing the dissimilarity in the data embedding space, and then proceeds by aggregating points of high discrepancy and in spatial proximity into clusters. The second contribution presents the first sequential nonparametric two-sample test. That is, instead of being given two sets of observations of fixed size, observations can be treated one at a time and, when strongly enough evidence has been found, the test can be stopped, yielding a more flexible procedure while keeping guaranteed type I error control. Additionally, under certain conditions, when the number of observations tends to infinity, the test has a vanishing probability of type II error. The third contribution consists in a sequential change detection test based on two sliding windows on which a two-sample test is performed, with type I error guarantees. Our test has controlled memory footprint and, as opposed to state-of-the-art methods that also provide type I error control, has constant time complexity per observation, which makes our test suitable for streaming data
Styles APA, Harvard, Vancouver, ISO, etc.
38

Gales, Guillaume. « Mise en correspondance de pixels pour la stéréovision binoculaire par propagation d'appariements de points d'intérêt et sondage de régions ». Phd thesis, Toulouse 3, 2011. http://tel.archives-ouvertes.fr/tel-00622859.

Texte intégral
Résumé :
La mise en correspondance stéréoscopique est un des principaux problèmes de la vi- sion par ordinateur. Elle consiste à trouver dans deux images d'une même scène, prises à des positions différentes, les couples de pixels qui sont les projections d'un même point de la scène. Durant ces vingt dernières années, de nombreuses méthodes locales et globales ont été proposées pour résoudre ce problème. Plus récemment, grâce à un pro- tocole d'évaluation de référence dans la communauté, une catégorie de méthodes fondées sur les régions a montré des performances intéressantes dans le cadre de la stéréovision binoculaire dite " small-baseline " (dont les images sont prises à des positions proches). Une contribution de ce travail porte sur un type particulier de méthode locale appelé propagation de germes. La zone de recherche des correspondants est réduite aux voisinages d'appariements fiables appelés germes, en faisant l'hypothèse que, généralement, deux pixels voisins ont des correspondants proches. Cela permet de réduire les temps de calculs et d'éviter certaines ambiguïtés. Cependant, le succès de ce type de méthode est fortement dépendant du choix de ces germes. Dans ce mémoire, nous proposons une étude de l'étape de sélection des germes. Nous nous concentrons sur la mise en correspondance de points d'intérêt. Il s'agit de points de l'image ayant des caractéristiques intéressantes pour une application donnée. Dans notre cas, nous avons besoin de pixels qui peuvent être mis en correspondance de manière sûre. Nous comparons quatorze détecteurs bien connus associés à cinq mesures de corrélation. Certaines de ces mesures sont conçues pour être robustes à un des principaux problèmes de la mise en correspondance stéréoscopique : les ruptures de profondeur. En outre, cette étude donne des conseils sur la manière de choisir les paramètres des différentes méthodes afin de trouver les meilleurs germes possibles selon des critères donnés. Ensuite, ces germes sont utilisés avec deux approches de propagation et les résultats sont évalués. Une autre contribution porte sur une nouvelle approche de mise en correspondance sté- réoscopique dense fondée sur les régions. Différentes segmentations couleur sont utilisées. Ensuite, plusieurs instances d'un modèle de surface sont calculées pour les différentes ré- gions selon des disparités initiales tirées au sort. Pour chaque pixel, chaque instance donne une disparité qui est considérée comme un vote. Finalement, la disparité qui reçoit le plus de voix est sélectionnée comme disparité finale. Cette approche est relativement simple à implémenter et s'avère efficace en donnant des résultats compétitifs vis-à-vis de l'état de l'art.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Benmansour, Fethallah. « Méthode des chemins minimaux appliquée à l'imagerie médicale : Segmentation de structures tubulaires et de surfaces par anisotropie multi-échelle et par détection récursive de points clés ». Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090034.

Texte intégral
Résumé :
Dans cette thèse, nous avons utilisé et adapté la méthode des chemins minimaux pour la segmentation de structures tubulaires dans des images médicales, et pour la segmentation de surfaces fermées dans des images biomédicales. La méthode des chemins minimaux a été introduite pour minimiser globalement la fonctionnelle des contours actifs géodésiques. Dans un premier temps, nous revenons sur les modèles de contours actifs tout en présentant leurs variantes, et en discutant leurs avantages et inconvénients. Ensuite, nous nous attachons à détailler les aspects théoriques et numériques de la méthode des chemins minimaux dans les isotrope et anisotrope. Aussi, nous illustrons l'importance de la métrique et l'influence des paramètres sur le problème de raccourci. Dans un second temps, nous nous intéressons à la segmentation des structures tubulaires. Nous proposons un modèle de chemin minimal qui prend en compte l'épaisseur et la direction des artères. Pour construire une métrique anisotrope associée à ce modèle, nous introduisons une approche qui utilise une estimation des directions de l'artère. Dans un troisième temps, nous nous intéressons à l’extraction de surface. D'abord, nous introduisons une approche par propagation de front permettant de distribuer récursivement des point clés sur les objets d'intérêts. Ensuite, nous proposons une méthode pour extraire un patch de surface à partir d'un seul point, puis nous itérons cette méthode afin d'extraire une surface fermée. Finalement, nous proposons une autre approche globale qui utilise directement les interfaces englobant l'objet d'intérêt
In this thesis, we used and adapted the minimal path method to segment tubular structures in medical images, and to extract closed surfaces from biomedical images. The minimal path method has been introduced in order to minimize globally the geodesic active contour functional. In the first part of the manuscript, we recall the active contour models and their variants, and discuss their advantages and drawbacks. Then, we focus on the theoretical and numerical aspects of the minimal path method both in the classical isotropic case and the Riemannian anisotropic case. Also, we illustrate the importance of the metric and show how one can tune its parameters in order to overcome the shortcut issue. In the second part, we are interested in segmenting tubular structures. We propose a novel minimal path model that takes into account the vessel width and direction. We have chosen to exploit the tubular structure of the vessels one wants to extract to build an anisotropic metric giving higher speed on the center of the vessels and also when the minimal path tangent is coherent with the vessel’s direction. In the third part, the problem of surface extraction from 3D images is addressed. First, we introduce a front propagation approach to detect recursively keypoints on an object of interest. Then, we propose a method to extract a patch of surface from a single source point. In order to obtain a complete surface, this approach is iterated. Finally, we propose a global approach that takes benefit of the interfaces surrounding the object
Styles APA, Harvard, Vancouver, ISO, etc.
40

Guislain, Maximilien. « Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1219/document.

Texte intégral
Résumé :
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images
Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images
Styles APA, Harvard, Vancouver, ISO, etc.
41

El, Sayed Abdul Rahman. « Traitement des objets 3D et images par les méthodes numériques sur graphes ». Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH19/document.

Texte intégral
Résumé :
La détection de peau consiste à détecter les pixels correspondant à une peau humaine dans une image couleur. Les visages constituent une catégorie de stimulus importante par la richesse des informations qu’ils véhiculent car avant de reconnaître n’importe quelle personne il est indispensable de localiser et reconnaître son visage. La plupart des applications liées à la sécurité et à la biométrie reposent sur la détection de régions de peau telles que la détection de visages, le filtrage d'objets 3D pour adultes et la reconnaissance de gestes. En outre, la détection de la saillance des mailles 3D est une phase de prétraitement importante pour de nombreuses applications de vision par ordinateur. La segmentation d'objets 3D basée sur des régions saillantes a été largement utilisée dans de nombreuses applications de vision par ordinateur telles que la correspondance de formes 3D, les alignements d'objets, le lissage de nuages de points 3D, la recherche des images sur le web, l’indexation des images par le contenu, la segmentation de la vidéo et la détection et la reconnaissance de visages. La détection de peau est une tâche très difficile pour différentes raisons liées en général à la variabilité de la forme et la couleur à détecter (teintes différentes d’une personne à une autre, orientation et tailles quelconques, conditions d’éclairage) et surtout pour les images issues du web capturées sous différentes conditions de lumière. Il existe plusieurs approches connues pour la détection de peau : les approches basées sur la géométrie et l’extraction de traits caractéristiques, les approches basées sur le mouvement (la soustraction de l’arrière-plan (SAP), différence entre deux images consécutives, calcul du flot optique) et les approches basées sur la couleur. Dans cette thèse, nous proposons des méthodes d'optimisation numérique pour la détection de régions de couleurs de peaux et de régions saillantes sur des maillages 3D et des nuages de points 3D en utilisant un graphe pondéré. En se basant sur ces méthodes, nous proposons des approches de détection de visage 3D à l'aide de la programmation linéaire et de fouille de données (Data Mining). En outre, nous avons adapté nos méthodes proposées pour résoudre le problème de la simplification des nuages de points 3D et de la correspondance des objets 3D. En plus, nous montrons la robustesse et l’efficacité de nos méthodes proposées à travers de différents résultats expérimentaux réalisés. Enfin, nous montrons la stabilité et la robustesse de nos méthodes par rapport au bruit
Skin detection involves detecting pixels corresponding to human skin in a color image. The faces constitute a category of stimulus important by the wealth of information that they convey because before recognizing any person it is essential to locate and recognize his face. Most security and biometrics applications rely on the detection of skin regions such as face detection, 3D adult object filtering, and gesture recognition. In addition, saliency detection of 3D mesh is an important pretreatment phase for many computer vision applications. 3D segmentation based on salient regions has been widely used in many computer vision applications such as 3D shape matching, object alignments, 3D point-point smoothing, searching images on the web, image indexing by content, video segmentation and face detection and recognition. The detection of skin is a very difficult task for various reasons generally related to the variability of the shape and the color to be detected (different hues from one person to another, orientation and different sizes, lighting conditions) and especially for images from the web captured under different light conditions. There are several known approaches to skin detection: approaches based on geometry and feature extraction, motion-based approaches (background subtraction (SAP), difference between two consecutive images, optical flow calculation) and color-based approaches. In this thesis, we propose numerical optimization methods for the detection of skins color and salient regions on 3D meshes and 3D point clouds using a weighted graph. Based on these methods, we provide 3D face detection approaches using Linear Programming and Data Mining. In addition, we adapted our proposed methods to solve the problem of simplifying 3D point clouds and matching 3D objects. In addition, we show the robustness and efficiency of our proposed methods through different experimental results. Finally, we show the stability and robustness of our methods with respect to noise
Styles APA, Harvard, Vancouver, ISO, etc.
42

Primet, Maël. « Méthodes probabiliste pour le suivi de points et l'analyse d'images biologiques ». Phd thesis, Université René Descartes - Paris V, 2011. http://tel.archives-ouvertes.fr/tel-00669220.

Texte intégral
Résumé :
Nous nous intéressons dans cette thèse au problème du suivi d'objets, que nous abordons par des méthodes statistiques. La première contribution de cette thèse est la conception d'un algorithme de suivi de bactéries dans une séquence d'image et de reconstruction de leur lignage, travail ayant donné lieu à la réalisation d'une suite logicielle aujourd'hui utilisée dans un laboratoire de recherche en biologie. La deuxième contribution est une étude théorique du problème de la détection de trajectoires dans un nuage de points. Nous définissons un détecteur de trajectoires utilisant le cadre statistique des méthodes a contrario, qui ne requiert essentiellement aucun paramètre pour fonctionner. Ce détecteur fournit des résultats remarquables, et permet notamment de retrouver des trajectoires dans des séquences contenant un grand nombre de points de bruit, tout en conservant un taux de fausses détections de trajectoires très faible. Nous étudions ensuite plus spécifiquement le problème de l'affectation de nuages de points entre deux images, problème rencontré notamment pour la détection de trajectoires ou l'appariement d'images stéréographiques. Nous proposons d'abord un modèle théoriquement optimal pour l'affectation de points qui nous permet d'étudier les performances de plusieurs algorithmes classiques dans différentes conditions. Nous formulons ensuite un algorithme sans paramètre en utilisant le cadre a contrario, ce qui nous permet ensuite d'obtenir un nouvel algorithme de suivi de trajectoires.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Jacob, Christel. « Étude de l’effet structurant des éléments d’un jardin thérapeutique sur la navigation dans la maladie d’Alzheimer : apprentissage de trajet et acquisition des connaissances spatiales ». Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0378.

Texte intégral
Résumé :
L’originalité de cette recherche est de s’intéresser aux caractéristiques de l’environnement physique et à leur impact sur les capacités de navigation et de mémoire spatiale. Ce domaine jusqu’alors peu investigué, représente pourtant un enjeu sociétal pour l’autonomie et le bien-être de la personne. Des difficultés de navigation ont notamment été décrites dans le vieillissement normal et la maladie d’Alzheimer (MA) dès le stade débutant. Or, l’environnement physique peut soutenir les capacités/compétences spatiales des individus, ou au contraire les perturber. L’objectif de cette recherche est d’évaluer l’effet structurant des éléments d’un environnement réel riche en repères, le jardin thérapeutique « art, mémoire et vie » du CHRU de Nancy, sur l’apprentissage d’un trajet et l’acquisition des connaissances spatiales, chez une population de sujets atteints de MA. En effet l'organisation spatiale de ce jardin a été conçue pour contribuer entre autres, à atténuer les difficultés de ces personnes en termes de cognition spatiale.L’ensemble des éléments du jardin a été répertorié et intégré dans une classification inspirée des travaux de Lynch (1960) et Zeisel et Tyson (1999). Trente sujets à un stade léger à modéré de la MA et 30 sujets âgés sains appariés ont réalisé le protocole suivant : (1) un apprentissage de trajet (aller et retour), durant lequel leur description verbale du parcours était enregistrée ; (2) une série de tâches évaluant l’acquisition des connaissances spatiales ; (3) des tests cognitifs standards. Le discours a été retranscrit verbatim et soumis à une analyse de contenu. Les résultats montrent une capacité d’apprentissage de trajet résiduelle significative chez les sujets du groupe MA, tant à l’aller qu’au retour. La répétition du trajet et la richesse de l’environnement en termes de repère semblent avoir contribué à ce résultat. Les performances aux tâches expérimentales ont été croisées avec l’analyse du discours et avec les tests cognitifs standards. Les résultats mettent en évidence un rôle prépondérant de certaines caractéristiques des éléments de l’environnement, telles que la saillance et l’affordance, sur les performances d’apprentissage de trajet et de mémoire spatiale et ceci de manière encore plus marquée chez les sujets du groupe MA. L’effet structurant des éléments de l’environnement est discuté d'une part chez les sujets âgés sains au regard des processus cognitifs impliqués dans la navigation et l’acquisition des connaissances spatiales et d'autre part des processus préservés et dysfonctionnels au cours de la MA
The originality of this research is to focus on the characteristics of the physical environment and their impact on navigation and spatial memory capabilities. This field, until then little investigated, represents a societal stake for the autonomy and the well-being of the person. In particular, navigation difficulties have been described in normal aging and Alzheimer's disease (AD) in the early stage. However, the physical environment can support individuals' spatial abilities/skills, or, on the contrary, disrupt them.The aim of the present study is to assess the structuring effect of the elements of a real environment rich in landmarks, the “art, memory and life” healing garden of the CHRU of Nancy, on route learning, and on the acquisition of the spatial knowledge, in a population of subjects with AD. Indeed, the spatial organization of this garden has been designed to contribute, among other things, to alleviate the difficulties of these people in terms of spatial cognition.All the elements of the garden have been listed and integrated into a classification inspired by the works of Lynch (1960) and Zeisel and Tyson (1999). Thirty subjects with mild to moderate AD and 30 matched healthy subjects underwent the following protocol: (1) route learning (forward and return trips), during which the verbal description of the route was recorded; (2) a series of tasks assessing the acquisition of spatial knowledge of the garden as well as (3) standard cognitive tests. The speech was transcribed verbatim and subjected to a content analysis.The results show a significant residual route learning ability in the MA group, both on the forward and return trips. The repetition of the route and the richness of the environmental landmarks seem to have contributed to this result. Experimental task performances were cross-checked with discourse analysis and standard cognitive tests. The results highlight a preponderant role of certain characteristics of environmental elements, such as saliency and affordance, on the learning performances of route and spatial memory, and this even more markedly in the subjects of the MA group.The structuring effect of the elements of the environment is discussed on the one hand in healthy older subjects with regard to cognitive processes involved in the navigation and acquisition of spatial knowledge and on the other hand preserved and dysfunctional processes in the course of Alzheimer’s disease
Styles APA, Harvard, Vancouver, ISO, etc.
44

Destrez, Raphaël. « Recalage automatique de modèles 3D d'arcades dentaires à partir de photographies ». Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00994596.

Texte intégral
Résumé :
En orthodontie, le diagnostic et la planification d'un traitement reposent sur la connaissance de l'architecture dentaire du patient relevée, entre autre, par un moulage en plâtre. Aujourd'hui, des logiciels permettent de manipuler des modèles numériques des arcades dentaires obtenus après numérisation des moulages. Afin d'observer l'engrènement des dents, il est nécessaire de mettre en occlusion les deux arcades numérisées séparément. Cette étape est actuellement manuelle et l'objet de ces travaux de thèse est de proposer une chaîne robuste de traitements permettant un recalage automatique des deux arcades guidé par plusieurs photos "en bouche" du patient. L'approche proposée consiste à définir trois types de points singuliers et à mettre en place des méthodes robustes de détection automatique à la fois sur les modèles 3D et les images couleur s'appuyant sur la courbure et la texture. Une fois mis en correspondance, ces points homologues 2D/3D permettent d'estimer les matrices de projection puis la transformation rigide (6ddl) pour positionner au mieux la mandibule par rapport au maxillaire en minimisant les erreurs de reprojection dans plusieurs vues. Afin de s'affranchir du bruit de détection, les positions 2D et/ou 3D des points sont améliorées au cours du processus d'optimisation. De nombreux tests sur des données virtuelles et réelles valident l'approche choisie. L'occlusion finale obtenue par recalage automatique est proche de la référence de l'expert. Les résultats sont encourageants pour fournir une alternative automatique à intégrer dans un outil d'aide au diagnostic.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Mariadassou, Mahendra. « Robustesse des arbres phylogénétiques ». Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00472052.

Texte intégral
Résumé :
La théorie synthétique de l'évolution a largement diffusé dans tous les domaines de la biologie, notamment grâce aux arbres phylogénétiques. S'ils ont une utilité évidente en génomique comparative, ils n'en sont pas moins utilisés dans de nombreux autres domaines allant de l'étude de la biodiversité à l'épidémiologie en passant par les sciences forensiques. Les arbres phylogénétiques sont non seulement une charactérisation efficace mais aussi un outil puissant pour étudier l'évolution. Cependant, toute utilisation d'arbre dans une étude suppose que l'arbre ait été correctement estimé, tant au niveau de la topologie que des autres paramètres, alors que cette estimation est un problème statistique compliqué et encore très ouvert. On admet généralement qu'on ne peut faire de bonne estimation sans les quatre pré-requis que sont (1) le choix d'un ou plusieurs gènes pertinents pour la question étudiée, (2) une quantité suffisante de données pour s'assurer une bonne précision d'estimation, (3) une méthode de reconstruction efficace qui s'appuie sur une modélisation fine de l'évolution pour minimiser les biais de reconstruction, (4) un bon échantillonnage de taxons. Nous nous intéressons dans cette thèse à quatre thèmes étroitement liés à l'un ou l'autre de ces pré-requis. Dans la première partie, nous utilisons des inégalités de concentration pour étudier le lien entre précision d'estimation et quantité de données. Nous proposons ensuite une méthode basée sur des extensions de Edgeworth pour tester la congruence phylogénétique d'un nouveau gène avec ses prédécesseurs. Dans la deuxième partie, nous proposons deux méthodes, inspirées des analyses de sensibilités, pour détecter les sites et taxons aberrants. Ces points aberrants peuvent nuire à la robustesse des estimateurs et nous montrons sur des exemples comment quelques observations aberrantes seulement suffisent à drastiquement modifier les estimateurs. Nous discutons les implications de ces résultats et montrons comment augmenter la robustesse de l'estimateur de l'arbre en présence d'observations aberrantes.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Oukacine, Farid. « Nouvelle méthodologie analytique pour l'étude de l'activité antibactérienne des dendrimères greffés de la L-lysine par électrophorèse capillaire ». Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20089/document.

Texte intégral
Résumé :
Ces travaux de thèse ont permis de mettre en œuvre une méthode de criblage de l'activité antibactérienne des dendrimères greffés de la L-lysine (DGL) par électrophorèse capillaire (EC). Le principe de la méthode est basé sur le suivi du profil électrophorétique des bactéries avant et après leur rencontre avec une bande de composé cationique dont on souhaite cribler l'activité. La mise en œuvre de cette méthode a nécessité plusieurs étapes. Dans la première étape, une nouvelle méthodologie permettant la focalisation, la mobilisation et la quantification des bactéries par EC a été développée. Cette méthode a été appliquée pour la quantification de la flore totale dans des eaux naturelles. Dans la seconde étape, plusieurs revêtements neutres de capillaire ont été comparés pour l'analyse simultanée de composés polycationiques et polyanioniques. Dans la dernière partie, la méthodologie de criblage a été mise en œuvre pour l'étude de l'activité des DGL
In this work, a new analytical methodology has been implemented for the screening of antibacterial activity of dendrigraft poly-L-lysines (DGL) by capillary electrophoresis (CE). The principle of this methodology is based on the monitoring of the electrophoretic profile of bacteria before and after the meeting with a zone containing the cationic compound to be screened. The implementation of this methodology has required several steps. In a first experimental part, a new methodology has been developed for the focalization, mobilization and quantification of bacteria. This focusing mode has been applied for the quantification of bacteria in natural waters. In a second experimental part, several neutral capillary coatings were compared for the simultaneous CE analysis of polyanionic and polycationic compounds. In the last experimental part, the screening of antibacterial activity has been implemented on DGL
Styles APA, Harvard, Vancouver, ISO, etc.
47

Doré, Fanny. « Convergences de structures linéaires dans les images : modélisation stochastique et applications en imagerie médicale ». Phd thesis, Université René Descartes - Paris V, 2014. http://tel.archives-ouvertes.fr/tel-01062135.

Texte intégral
Résumé :
Cette thèse traite de la détection de zones de convergence dans une image, dans un cadre a contrario. C'est un travail théorique préliminaire qui explore différentes altérations du cadre a contrario. Elle a pour application dans le domaine médical la détection des lésions stellaires dans les mammographies, responsables de nombreux cancers du sein et qui se matérialisent par un centre intense vers lequel convergent les spicules, structures linéaires normalement présents dans le sein. Les lésions stellaires et distorsions architecturales ont suscité de nombreux travaux. La plupart des méthodes de détection sont basées sur l'extraction de caractéristiques locales de l'image (orientation du gradient, orientation des pixels, variance de l'histogramme de l'orientation...) puis utilisent une méthode de classification pour attribuer à chaque pixel une probabilité d'appartenir à une lésion stellaire. Ces méthodes nécessitent souvent l'utilisation de filtres en pré-traitement et en post-traitement afin de réduire le bruit, ou de seuiller les résultats finaux. La méthodologie a contrario offre un nouveau cadre pour la détection de structures dans les images. Elle s'appuie sur la définition d'un modèle de bruit, et sur une mesure de l'écart des observations à ce modèle. Le modèle porte sur des structures élémentaires et est souvent choisi "uniforme" : c'est-à-dire que les structures sont supposées suivre la loi uniforme et indépendantes. Or dans les mammographies on observe que les spicules ont une orientation privilégiée, et ne sont pas uniformément distribuées. Nous proposons l'utilisation de la méthode a contrario dans un cadre anisotrope pour mieux tenir compte de la distribution normale des spicules dans une mammographie. Les modèles anisotropes proposés modélisent le fait qu'une partie des structures linéaires est normalement convergentes vers un point commun. Ils portent soit sur les droites de l'image quand il s'agit de détecter les convergences globales, soit sur les segments quand on chercher les convergences locales dans une image. Concernant la détection des convergences locales, le cadre a contrario offre de nombreuses possibilités : sur le choix du nombre de fausses alarmes ou sur le choix du modèle de bruit. Ces choix sont détaillés sur des exemples synthétiques, sur des mammographies et sur des images naturelles. Les modèles a contrario que l'on étudie sont donnés sous la forme de mélanges paramétriques de deux termes : un terme uniforme et un terme "gaussien", modélisant le fait qu'une partie des structures est naturellement convergente. Pour ces différents types de modèles nous proposons d'estimer leurs paramètres. Le point de convergence globale est estimé par minimisation du nombre de fausses alarmes, et l'estimation des autres paramètres est faite par maximisation de la log-vraisemblance. Les modèles estimés sont ensuite testés en tant que modèles a contrario pour la détection des convergences et les résultats sont comparés à ceux que donnait le modèle uniforme.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Liu, Xiang. « Transistor silicium en couche mince à base de nano-particules de PbS : un efficace phototransistor pour la détection de lumière infrarouge ». Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S075/document.

Texte intégral
Résumé :
Le phototransistor est un nouveau type de photo-détecteur avec une structure MOSFET spéciale qui peut non seulement convertir la lumière absorbée en variation de courant, mais également auto-amplifier ce photo-courant. En particulier, avec des progrès continus dans la synthèse des points Quantum Dots (QDs), les caractères optiques et électriques uniques renforcent le coefficient d'absorption et la génération des trous d'électrons par des processus intégrés faciles. Dans cette thèse, on a synthétisé les PdS infrarouges PbS avec une large absorption infrarouge (IR) (600-1400 nm) et un rendement élevé pour être mélangés avec l'isolateur de porte SU8 des TFT à faible température de poly-silicium (LTPS). Grâce à l'utilisation de cet isolateur de porte photo-sensoriel hybride, ces LTPS TFT peuvent encore obtenir d'excellentes performances électriques telles qu'une mobilité suffisante (3.1 cm2 / Vs), des caractères TFT stables, un rapport marche / arrêt raisonnable (104 ~ 105) et une tension sous-seuil /Déc). De plus, en cas d'exposition à la lumière infrarouge incidente, la sensibilité élevée (1800 A/W) et la sensibilité non négligeable (13 A/W) se trouvent respectivement à 760 nm et 1300 nm. De plus, la photosensibilité atteint également jusqu'à 80 et le temps de réponse est d'environ 30 ms pendant un balayage du signal IR pulsé. Elle prend des mesures concrètes pour l'application générale du phototransistor IR
Phototransistor is a novel type of photodetector with special MOSFET structure which can not only convert absorbed light into variation of current but also self-amplify this photocurrent. Especially, with continual advances in quantum dots' (QDs) synthesis, the unique optical-electrical characters reinforce absorption coefficient and electron-hole's generation by easy integrated processes. In this thesis, the infrared PbS QDs with wide infrared (IR) absorption (600-1400 nm) and high efficiency were synthesized to be blended with SU8 gate insulator of Low-Temperature-Poly-Silicon (LTPS) TFTs. Through using this hybrid photo-sensing gate insulator, this LTPS TFTs can still obtain excellent electrical performance such as enough mobility (3.1 cm2/Vs), stable TFT's characters, reasonable on/off ratio (104~105) and subthreshold voltage (3.2 V/Dec). Moreover, under incident IR light's exposure, the high responsivity (1800 A/W) and not negligible responsivity (13 A/W) can be found at 760 nm and 1300 nm respectively. In addition, the photosensitivity also reaches up to 80 and the response time is approximately 30 ms during a pulsed IR signal's scanning. It takes concrete steps forward for the broad application of IR phototransistor
Styles APA, Harvard, Vancouver, ISO, etc.
49

Le, Van Linh. « Automatic landmarking for 2D biological images : image processing with and without deep learning methods ». Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0238.

Texte intégral
Résumé :
Les points de repère sont présentés dans les applications de différents domaines tels que le biomédical ou le biologique. C’est également l’un des types de données qui ont été utilisés dans différentes analyses, par exemple, ils ne sont pas seulement utilisés pour mesurer la forme de l’objet, mais également pour déterminer la similarité entre deux objets. En biologie, les repères sont utilisés pour analyser les variations inter-organismes. Cependant, l’offre de repères est très lourde et le plus souvent, ils sont fournis manuellement. Ces dernières années, plusieurs méthodes ont été proposées pour prédire automatiquement les points de repère, mais la dureté existe, car elles se sont concentrées sur des données spécifiques. Cette thèse porte sur la détermination automatique de points de repère sur des images biologiques, plus spécifiquement sur d’images 2D des coléoptères. Dans le cadre de nos recherches, nous avons collaboré avec des biologistes pour créer un ensemble de données comprenantles images de 293 coléoptères. Pour chaque coléoptère de cette donnée, 5 images corre-spondent à 5 parties prises en compte, par exemple tête, élytre, pronotum, mandibule gauche et droite. Avec chaque image, un ensemble de points de repère a été proposé manuellement par les biologistes. La première étape, nous avons apporté une méthode qui a été appliquée sur les ailes de mouche, à appliquer sur notre jeu de données dans le but de tester la pertinence des techniques de traitement d’image sur notre problème. Deuxièmement, nous avons développé une méthode en plusieurs étapes pour fournir automatiquement les points de repère sur les images. Ces deux premières étapes ont été effectuées sur les images de la mandibule qui sont considérées comme évidentes pour l’utilisation des méthodes de traitement d’images. Troisièmement, nous avons continué à considérer d’autres parties complexes restantes de coléoptères. En conséquence, nous avons utilisé l’aide de Deep Learning. Nous avons conçu un nouveau modèle de Convolutional Neural Network, nommé EB-Net, pour prédire les points de repère sur les images restantes. De plus, nous avons proposé une nouvelle procédurepour augmenter le nombre d’images dans notre jeu de données, ce qui est considéré comme notre limite à appliquer Deep Learning. Enfin, pour améliorer la qualité des coordonnées prédites, nous avons utilisé Transfer Learning, une autre technique de Deep Learning. Pour ce faire, nous avons formé EB-Net sur les points clés publics du visage. Ensuite, ils ont été transférés pour affiner les images de coléoptère. Les résultats obtenus ont été discutés avec les biologistes et ils ont confirmé que la qualité des repéres prédits est suffisamment bonne sur la plane statistique pour remplacer les repères manuels pour la plupart des analyses de morphométrie différentes
Landmarks are presented in the applications of different domains such as biomedical or biological. It is also one of the data types which have been usedin different analysis, for example, they are not only used for measuring the form of the object, but also for determining the similarity between two objects. In biology, landmarks are used to analyze the inter-organisms variations, however the supply of landmarks is very heavy and most often they are provided manually. In recent years, several methods have been proposed to automatically predict landmarks, but it is existing the hardness because these methods focused on the specific data. This thesis focuses on automatic determination of landmarks on biological images, more specifically on two-dimensional images of beetles. In our research, we have collaborated with biologists to build a dataset including the images of 293 beetles. For each beetle in this dataset, 5 images correspond to 5 parts have been taken into account, e.g., head, body, pronotum, left and right mandible. Along with each image, a set of landmarks has been manually proposed by biologists. First step, we have brought a method whichwas applied on fly wings, to apply on our dataset with the aim to test the suitability of image processing techniques on our problem. Secondly, we have developed a method consisting of several stages to automatically provide the landmarks on the images.These two first steps have been done on the mandible images which are considered as obvious to use the image processing methods. Thirdly, we have continued to consider other complex remaining parts of beetles. Accordingly, we have used the help of Deep Learning. We have designed a new model of Convolutional Neural Network, named EB-Net, to predict the landmarks on remaining images. In addition, we have proposed a new procedure to augment the number of images in our dataset, which is seen as our limitation to apply deep learning. Finally, to improve the quality of predicted coordinates, we have employed Transfer Learning, another technique of Deep Learning. In order to do that, we trained EB-Net on a public facial keypoints. Then, they were transferred to fine-tuning on beetle’s images. The obtained results have been discussed with biologists, and they have confirmed that the quality of predicted landmarks is statistically good enough to replace the manual landmarks for most of the different morphometry analysis
Styles APA, Harvard, Vancouver, ISO, etc.
50

Fond, Antoine. « Localisation par l'image en milieu urbain : application à la réalité augmentée ». Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0028/document.

Texte intégral
Résumé :
Dans cette thèse on aborde le problème de la localisation en milieux urbains. Inférer un positionnement précis en ville est important dans nombre d’applications comme la réalité augmentée ou la robotique mobile. Or les systèmes basés sur des capteurs inertiels (IMU) sont sujets à des dérives importantes et les données GPS peuvent souffrir d’un effet de vallée qui limite leur précision. Une solution naturelle est de s’appuyer le calcul de pose de caméra en vision par ordinateur. On remarque que les bâtiments sont les repères visuels principaux de l’humain mais aussi des objets d’intérêt pour les applications de réalité augmentée. On cherche donc à partir d’une seule image à calculer la pose de la caméra par rapport à une base de données de bâtiments références connus. On décompose le problème en deux parties : trouver les références visibles dans l’image courante (reconnaissance de lieux) et calculer la pose de la caméra par rapport à eux. Les approches classiques de ces deux sous-problèmes sont mises en difficultés dans les environnements urbains à cause des forts effets perspectives, des répétitions fréquentes et de la similarité visuelle entre façades. Si des approches spécifiques à ces environnements ont été développés qui exploitent la grande régularité structurelle de tels milieux, elles souffrent encore d’un certain nombre de limitations autant pour la détection et la reconnaissance de façades que pour le calcul de pose par recalage de modèle. La méthode originale développée dans cette thèse s’inscrit dans ces approches spécifiques et vise à dépasser ces limitations en terme d’efficacité et de robustesse aux occultations, aux changements de points de vue et d’illumination. Pour cela, l’idée principale est de profiter des progrès récents de l’apprentissage profond par réseaux de neurones convolutionnels pour extraire de l’information de haut-niveau sur laquelle on peut baser des modèles géométriques. Notre approche est donc mixte Bottom-Up/Top-Down et se décompose en trois étapes clés. Nous proposons tout d’abord une méthode d’estimation de la rotation de la pose de caméra. Les 3 points de fuite principaux des images en milieux urbains, dits points de fuite de Manhattan sont détectés grâce à un réseau de neurones convolutionnels (CNN) qui fait à la fois une estimation de ces points de fuite mais aussi une segmentation de l’image relativement à eux. Une second étape de raffinement utilise ces informations et les segments de l’image dans une formulation bayésienne pour estimer efficacement et plus précisément ces points. L’estimation de la rotation de la caméra permet de rectifier les images et ainsi s’affranchir des effets de perspectives pour la recherche de la translation. Dans une seconde contribution, nous visons ainsi à détecter les façades dans ces images rectifiées et à les reconnaître parmi une base de bâtiments connus afin d’estimer une translation grossière. Dans un soucis d’efficacité, on a proposé une série d’indices basés sur des caractéristiques spécifiques aux façades (répétitions, symétrie, sémantique) qui permettent de sélectionner rapidement des candidats façades potentiels. Ensuite ceux-ci sont classifiés en façade ou non selon un nouveau descripteur CNN contextuel. Enfin la mise en correspondance des façades détectées avec les références est opérée par un recherche au plus proche voisin relativement à une métrique apprise sur ces descripteurs [...]
This thesis addresses the problem of localization in urban areas. Inferring accurate positioning in the city is important in many applications such as augmented reality or mobile robotics. However, systems based on inertial sensors (IMUs) are subject to significant drifts and GPS data can suffer from a valley effect that limits their accuracy. A natural solution is to rely on the camera pose estimation in computer vision. We notice that buildings are the main visual landmarks of human beings but also objects of interest for augmented reality applications. We therefore aim to compute the camera pose relatively to a database of known reference buildings from a single image. The problem is twofold : find the visible references in the current image (place recognition) and compute the camera pose relatively to them. Conventional approaches to these two sub-problems are challenged in urban environments due to strong perspective effects, frequent repetitions and visual similarity between facades. While specific approaches to these environments have been developed that exploit the high structural regularity of such environments, they still suffer from a number of limitations in terms of detection and recognition of facades as well as pose computation through model registration. The original method developed in this thesis is part of these specific approaches and aims to overcome these limitations in terms of effectiveness and robustness to clutter and changes of viewpoints and illumination. For do so, the main idea is to take advantage of recent advances in deep learning by convolutional neural networks to extract high-level information on which geometric models can be based. Our approach is thus mixed Bottom- Up/Top-Down and is divided into three key stages. We first propose a method to estimate the rotation of the camera pose. The 3 main vanishing points of the image of urban environnement, known as Manhattan vanishing points, are detected by a convolutional neural network (CNN) that estimates both these vanishing points and the image segmentation relative to them. A second refinement step uses this information and image segmentation in a Bayesian model to estimate these points effectively and more accurately. By estimating the camera’s rotation, the images can be rectified and thus free from perspective effects to find the translation. In a second contribution, we aim to detect the facades in these rectified images to recognize them among a database of known buildings and estimate a rough translation. For the sake of efficiency, a series of cues based on facade specific characteristics (repetitions, symmetry, semantics) have been proposed to enable the fast selection of facade proposals. Then they are classified as facade or non-facade according to a new contextual CNN descriptor. Finally, the matching of the detected facades to the references is done by a nearest neighbor search using a metric learned on these descriptors. Eventually we propose a method to refine the estimation of the translation relying on the semantic segmentation inferred by a CNN for its robustness to changes of illumination ans small deformations. If we can already estimate a rough translation from these detected facades, we choose to refine this result by relying on the se- mantic segmentation of the image inferred from a CNN for its robustness to changes of illuminations and small deformations. Since the facade is identified in the previous step, we adopt a model-based approach by registration. Since the problems of registration and segmentation are linked, a Bayesian model is proposed which enables both problems to be jointly solved. This joint processing improves the results of registration and segmentation while remaining efficient in terms of computation time. These three parts have been validated on consistent community data sets. The results show that our approach is fast and more robust to changes in shooting conditions than previous methods
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie