Dissertationen zum Thema „Détection des points clés“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Détection des points clés.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Détection des points clés" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Loiseau-Witon, Nicolas. „Détection et description de points clés par apprentissage“. Electronic Thesis or Diss., Lyon, INSA, 2023. http://www.theses.fr/2023ISAL0101.

Der volle Inhalt der Quelle
Annotation:
Les hôpitaux génèrent de plus en plus d’images médicales en 3D. Ces volumes nécessitent un recalage automatique, en vue d’être analysés de manière systématique et à grande échelle. Les points clés sont utilisés pour réduire la durée et la mémoire nécessaires à ce recalage et peuvent être détectés et décrits à l’aide de différentes méthodes classiques, mais également à l’aide de réseaux neuronaux, comme cela a été démontré de nombreuses fois en 2D. Cette thèse présente les résultats et les discussions sur les méthodes de détection et de description de points clés à l’aide de réseaux neuronaux 3D. Deux types de réseaux ont été étudiés pour détecter et/ou décrire des points caractéristiques dans des images médicales 3D. Les premiers réseaux étudiés permettent de décrire les zones entourant directement les points clés, tandis que les seconds effectuent les deux étapes de détection et de description des points clés en une seule fois
Hospitals are increasingly generating 3D medical images that require automatic registration for systematic and large-scale analysis. Key points are used to reduce the time and memory required for this registration, and can be detected and described using various classical methods, as well as neural networks, as demonstrated numerous times in 2D. This thesis presents results and discussions on methods for detecting and describing key points using 3D neural networks. Two types of networks were studied to detect and/or describe characteristic points in 3D medical images. The first networks studied describe the areas directly surrounding key points, while the second type performs both detection and description of key points in a single step
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Benmansour, Fethallah. „Méthode des chemins minimaux appliquée à l'imagerie médicale : Segmentation de structures tubulaires et de surfaces par anisotropie multi-échelle et par détection récursive de points clés“. Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090034.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous avons utilisé et adapté la méthode des chemins minimaux pour la segmentation de structures tubulaires dans des images médicales, et pour la segmentation de surfaces fermées dans des images biomédicales. La méthode des chemins minimaux a été introduite pour minimiser globalement la fonctionnelle des contours actifs géodésiques. Dans un premier temps, nous revenons sur les modèles de contours actifs tout en présentant leurs variantes, et en discutant leurs avantages et inconvénients. Ensuite, nous nous attachons à détailler les aspects théoriques et numériques de la méthode des chemins minimaux dans les isotrope et anisotrope. Aussi, nous illustrons l'importance de la métrique et l'influence des paramètres sur le problème de raccourci. Dans un second temps, nous nous intéressons à la segmentation des structures tubulaires. Nous proposons un modèle de chemin minimal qui prend en compte l'épaisseur et la direction des artères. Pour construire une métrique anisotrope associée à ce modèle, nous introduisons une approche qui utilise une estimation des directions de l'artère. Dans un troisième temps, nous nous intéressons à l’extraction de surface. D'abord, nous introduisons une approche par propagation de front permettant de distribuer récursivement des point clés sur les objets d'intérêts. Ensuite, nous proposons une méthode pour extraire un patch de surface à partir d'un seul point, puis nous itérons cette méthode afin d'extraire une surface fermée. Finalement, nous proposons une autre approche globale qui utilise directement les interfaces englobant l'objet d'intérêt
In this thesis, we used and adapted the minimal path method to segment tubular structures in medical images, and to extract closed surfaces from biomedical images. The minimal path method has been introduced in order to minimize globally the geodesic active contour functional. In the first part of the manuscript, we recall the active contour models and their variants, and discuss their advantages and drawbacks. Then, we focus on the theoretical and numerical aspects of the minimal path method both in the classical isotropic case and the Riemannian anisotropic case. Also, we illustrate the importance of the metric and show how one can tune its parameters in order to overcome the shortcut issue. In the second part, we are interested in segmenting tubular structures. We propose a novel minimal path model that takes into account the vessel width and direction. We have chosen to exploit the tubular structure of the vessels one wants to extract to build an anisotropic metric giving higher speed on the center of the vessels and also when the minimal path tangent is coherent with the vessel’s direction. In the third part, the problem of surface extraction from 3D images is addressed. First, we introduce a front propagation approach to detect recursively keypoints on an object of interest. Then, we propose a method to extract a patch of surface from a single source point. In order to obtain a complete surface, this approach is iterated. Finally, we propose a global approach that takes benefit of the interfaces surrounding the object
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Le, Van Linh. „Automatic landmarking for 2D biological images : image processing with and without deep learning methods“. Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0238.

Der volle Inhalt der Quelle
Annotation:
Les points de repère sont présentés dans les applications de différents domaines tels que le biomédical ou le biologique. C’est également l’un des types de données qui ont été utilisés dans différentes analyses, par exemple, ils ne sont pas seulement utilisés pour mesurer la forme de l’objet, mais également pour déterminer la similarité entre deux objets. En biologie, les repères sont utilisés pour analyser les variations inter-organismes. Cependant, l’offre de repères est très lourde et le plus souvent, ils sont fournis manuellement. Ces dernières années, plusieurs méthodes ont été proposées pour prédire automatiquement les points de repère, mais la dureté existe, car elles se sont concentrées sur des données spécifiques. Cette thèse porte sur la détermination automatique de points de repère sur des images biologiques, plus spécifiquement sur d’images 2D des coléoptères. Dans le cadre de nos recherches, nous avons collaboré avec des biologistes pour créer un ensemble de données comprenantles images de 293 coléoptères. Pour chaque coléoptère de cette donnée, 5 images corre-spondent à 5 parties prises en compte, par exemple tête, élytre, pronotum, mandibule gauche et droite. Avec chaque image, un ensemble de points de repère a été proposé manuellement par les biologistes. La première étape, nous avons apporté une méthode qui a été appliquée sur les ailes de mouche, à appliquer sur notre jeu de données dans le but de tester la pertinence des techniques de traitement d’image sur notre problème. Deuxièmement, nous avons développé une méthode en plusieurs étapes pour fournir automatiquement les points de repère sur les images. Ces deux premières étapes ont été effectuées sur les images de la mandibule qui sont considérées comme évidentes pour l’utilisation des méthodes de traitement d’images. Troisièmement, nous avons continué à considérer d’autres parties complexes restantes de coléoptères. En conséquence, nous avons utilisé l’aide de Deep Learning. Nous avons conçu un nouveau modèle de Convolutional Neural Network, nommé EB-Net, pour prédire les points de repère sur les images restantes. De plus, nous avons proposé une nouvelle procédurepour augmenter le nombre d’images dans notre jeu de données, ce qui est considéré comme notre limite à appliquer Deep Learning. Enfin, pour améliorer la qualité des coordonnées prédites, nous avons utilisé Transfer Learning, une autre technique de Deep Learning. Pour ce faire, nous avons formé EB-Net sur les points clés publics du visage. Ensuite, ils ont été transférés pour affiner les images de coléoptère. Les résultats obtenus ont été discutés avec les biologistes et ils ont confirmé que la qualité des repéres prédits est suffisamment bonne sur la plane statistique pour remplacer les repères manuels pour la plupart des analyses de morphométrie différentes
Landmarks are presented in the applications of different domains such as biomedical or biological. It is also one of the data types which have been usedin different analysis, for example, they are not only used for measuring the form of the object, but also for determining the similarity between two objects. In biology, landmarks are used to analyze the inter-organisms variations, however the supply of landmarks is very heavy and most often they are provided manually. In recent years, several methods have been proposed to automatically predict landmarks, but it is existing the hardness because these methods focused on the specific data. This thesis focuses on automatic determination of landmarks on biological images, more specifically on two-dimensional images of beetles. In our research, we have collaborated with biologists to build a dataset including the images of 293 beetles. For each beetle in this dataset, 5 images correspond to 5 parts have been taken into account, e.g., head, body, pronotum, left and right mandible. Along with each image, a set of landmarks has been manually proposed by biologists. First step, we have brought a method whichwas applied on fly wings, to apply on our dataset with the aim to test the suitability of image processing techniques on our problem. Secondly, we have developed a method consisting of several stages to automatically provide the landmarks on the images.These two first steps have been done on the mandible images which are considered as obvious to use the image processing methods. Thirdly, we have continued to consider other complex remaining parts of beetles. Accordingly, we have used the help of Deep Learning. We have designed a new model of Convolutional Neural Network, named EB-Net, to predict the landmarks on remaining images. In addition, we have proposed a new procedure to augment the number of images in our dataset, which is seen as our limitation to apply deep learning. Finally, to improve the quality of predicted coordinates, we have employed Transfer Learning, another technique of Deep Learning. In order to do that, we trained EB-Net on a public facial keypoints. Then, they were transferred to fine-tuning on beetle’s images. The obtained results have been discussed with biologists, and they have confirmed that the quality of predicted landmarks is statistically good enough to replace the manual landmarks for most of the different morphometry analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ben, Ayed Yassine. „Détection de mots clés dans un flux de parole“. Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005753.

Der volle Inhalt der Quelle
Annotation:
La reconnaissance automatique de la parole suscite actuellement un grand intérêt. En particulier, la détection de mots clés qui constitue une branche importante de l'interaction homme-machine vu le besoin de communiquer avec nos machines d'une façon naturelle et directe en utilisant la parole spontanée. Cette technique consiste à détecter dans une phrase prononcée, les mots clés caractérisant l'application et de rejeter les mots hors-vocabulaire ainsi que les hésitations, les faux départs etc.
Le travail que nous présentons dans ce manuscrit s'inscrit dans le cadre de la détection de mots clés dans un flux de parole. Tout d'abord, nous proposons de nouveaux modèles ``poubelles'' fondés sur la modélisation des mots hors-vocabulaire. Puis nous introduisons la reconnaissance à base de boucle de phonèmes, dans laquelle nous appliquons différentes fonctions de récompense favorisant la reconnaissance des mots clés.
Ensuite nous proposons l'utilisation des mesures de confiance afin de pouvoir prendre la décision de rejeter ou d'accepter un mot clé hypothèse. Les différentes mesures de confiance proposées sont basées sur la probabilité d'observation acoustique locale. En premier lieu, nous utilisons les moyennes arithmétique, géométrique et harmonique comme mesures de confiance pour chaque mot clé. En second lieu, nous proposons de calculer la mesure de confiance en se basant sur la méthode à base de boucle de phonèmes.
Enfin nous présentons le problème de détection comme un problème de classification où chaque mot clé peut appartenir à deux classes différentes, à savoir ``correct'' et ``incorrect''. Cette classification est réalisée en utilisant des Support Vector Machines (SVM) qui constituent une nouvelle technique d'apprentissage statistique. Chaque mot clé reconnu est représenté par un vecteur caractéristique qui constitue l'entrée du classifieur SVM. Pour déterminer ce vecteur, nous utilisons la probabilité d'observation acoustique locale et nous introduisons ensuite la durée de chaque état. Afin d'améliorer les performances, nous proposons des approches hybrides combinant les modèles poubelles avec mesure de confiance et mesure de confiance avec SVM.
Pour tester les performances de l'ensemble de ces modèles nous utilisons la base de données française SPEECHDAT. L'évaluation de tous les résultats a été réalisée en se basant sur les courbes ROC et les courbes rappel/précision. Les meilleurs résultats ont été obtenus par les méthodes basées sur l'utilisation des SVM. Les méthodes hybrides nous ont permis aussi de réaliser de bonnes performances.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Razik, Joseph. „Mesures de confiance trame-synchrones et locales en reconnaissance automatique de la parole“. Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10072/document.

Der volle Inhalt der Quelle
Annotation:
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance. Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance grand vocabulaire en flux continu. Nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées. Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde. Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif
In automatic speech recognition, confidence measures aim at estimating the confidence we can give to a result (phone, word, sentence) provided by the speech recognition engine. In this thesis, we propose several confidence measures which are able to provide this estimation for applications using large vocabulary and on-the-fly recognition, as keyword indexation, broadcast news transcription, and live teaching class transcription for hard of hearing childs. We have defined two types of confidence measures. The first, based on likelihood ratio, are frame-synchronous measures which can be computed simultaneously with the recognition process of the sentence. The second ones are based on an estimation of the posterior probability limited to a local neighborhood of the considered word, and need only a short delay before being computed on the sub word graph extracted from the recognition process. These measures were assessed and compared to a state-of-the-art one, which is also based on posterior probability but which requires the recognition of the whole sentence. Two evaluations were performed on a real broadcast news corpus. The first one used the Equal Error Rate criterion in an automatic transcription task. The second evaluation was performed in a keyword spotting task. We achieved performance close to our reference measure with our local measures and a delay of less than one second. We also integrated one of our frame-synchronous measures in the decoding process of the recognition engine in order to improve the solution provided by the system and then to decrease the word error rate. We achieved to decrease the word error rate of around 1%
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Gadek, Guillaume. „Détection d'opinions, d'acteurs-clés et de communautés thématiques dans les médias sociaux“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR18/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux sociaux numériques ont pris une place prépondérante dans l'espace informationnel, et sont souvent utilisés pour la publicité, le suivi de réputation, la propagande et même la manipulation, que ce soit par des individus, des entreprises ou des états. Alors que la quantité d'information rend difficile son exploitation par des humains, le besoin reste entier d'analyser un réseau social numérique : il faut dégager des tendances à partir des messages postés dont notamment les opinions échangées, qualifier les comportements des utilisateurs, et identifier les structures sociales émergentes.Pour résoudre ce problème, nous proposons un système d'analyse en trois niveaux. Tout d'abord, l'analyse du message vise à en déterminer l'opinion. Ensuite, la caractérisation et l'évaluation des comptes utilisateurs est réalisée grâce à une étape de profilage comportemental et à l'étude de leur importance et de leur position dans des graphes sociaux, dans lesquels nous combinons les mesures topologiques d'importance des noeuds dans un graphe avec les statistiques d'engagement, par exemple en nombre d'abonnés. Enfin, le système procède à la détection et à l'évaluation de communautés d'utilisateurs, pour lesquelles nous introduisons des scores de cohésion thématique qui complètent les mesures topologiques classiques de qualité structurelle des communautés détectées. Nous appliquons ce système d'analyse sur deux corpus provenant de deux médias sociaux différents : le premier est constitué de messages publiés sur Twitter, représentant toutes les activités réalisées par 5 000 comptes liés entre eux sur une longue période. Le second provient d'un réseau social basé sur TOR, nommé Galaxy2. Nous évaluons la pertinence de notre système sur ces deux jeux de données, montrant la complémentarité des outils de caractérisation des comptes utilisateurs (influence, comportement, rôle) et des communautés de comptes (force d'interaction, cohésion thématique), qui enrichissent l'exploitation du graphe social par les éléments issus des contenus textuels échangés
Online Social Networks have taken a huge place in the informational space and are often used for advertising, e-reputation, propaganda, or even manipulation, either by individuals, companies or states. The amount of information makes difficult the human exploitation, while the need for social network analysis remains unsatisfied: trends must be extracted from the posted messages, the user behaviours must be characterised, and the social structure must be identified. To tackle this problem, we propose a system providing analysis tools on three levels. First, the message analysis aims to determine the opinions they bear. Then, the characterisation and evaluation of user accounts is performed thanks to the union of a behavioural profiling method, the study of node importance and position in social graphs and engagement and influence measures. Finally the step of user community detection and evaluation is accomplished. For this last challenge, we introduce thematic cohesion scores, completing the topological, graph-based measures for group quality. This system is then applied on two corpora, extracted from two different online social media. The first is constituted of messages published on Twitter, gathering every activity performed by a set of 5,000 accounts on a long period. The second stems from a ToR-based social network, named Galaxy2, and includes every public action performed on the platform during its uptime. We evaluate the relevance of our system on these two datasets, showing the complementarity of user account characterisation tools (influence, behaviour and role), and user account communities (interaction strength, thematic cohesion), enriching the social graph exploitation with textual content elements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Mérigot, Quentin. „Détection de structure géométrique dans les nuages de points“. Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00443038.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans la problématique générale de l'inférence géométrique. Étant donné un objet qu'on ne connaît qu'à travers un échantillon fini, à partir de quelle qualité d'échantillonage peut-on estimer de manière fiable certaines de ses propriétés géométriques ou topologique? L'estimation de la topologie est maintenant un domaine assez mûr. La plupart des méthodes existantes sont fondées sur la notion de fonction distance. Nous utilisons cette approche pour estimer certaines notions de courbure dues à Federer, définies pour une classe assez générale d'objets non lisses. Nous introduisons une version approchée de ces courbures dont nous étudions la stabilité ainsi que calcul pratique dans le cas discret. Une version anisotrope de ces mesures de courbure permet en pratique d'estimer le lieu et la direction des arêtes vives d'une surface lisse par morceaux échantillonnée par un nuage de point. En chemin nous sommes amenés à étudier certaines propriétés de régularité de la fonction distance, comme le volume de l'axe médian. Un défaut des méthodes qui utilisent la fonction distance est leur extrême sensibilité aux points aberrants. Pour résoudre ce problème, nous sortons du cadre purement géométrique en remplaçant les compacts par des mesures de probabilité. Nous introduisons une notion de fonction distance à une mesure, robuste aux perturbations Wasserstein (et donc aux points aberrants) et qui partage certaines propriétés de régularité et de stabilité avec la fonction distance usuelle. Grâce à ces propriétés, il est possible d'étendre de nombreux théorèmes d'inférence géométrique à ce cadre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Fraisier-Vannier, Ophélie. „Détection de points de vue sur les médias sociaux numériques“. Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30200.

Der volle Inhalt der Quelle
Annotation:
De nombreux domaines ont intérêt à étudier les points de vue exprimés en ligne, que ce soit à des fins de marketing, de cybersécurité ou de recherche avec l'essor des humanités numériques. Nous proposons dans ce manuscrit deux contributions au domaine de la fouille de points de vue, axées sur la difficulté à obtenir des données annotées de qualité sur les médias sociaux. Notre première contribution est un jeu de données volumineux et complexe de 22853 profils Twitter actifs durant la campagne présidentielle française de 2017. C'est l'un des rares jeux de données considérant plus de deux points de vue et, à notre connaissance, le premier avec un grand nombre de profils et le premier proposant des communautés politiques recouvrantes. Ce jeu de données peut être utilisé tel quel pour étudier les mécanismes de campagne sur Twitter ou pour évaluer des modèles de détection de points de vue ou des outils d'analyse de réseaux. Nous proposons ensuite deux modèles génériques semi-supervisés de détection de points de vue, utilisant une poignée de profils-graines, pour lesquels nous connaissons le point de vue, afin de catégoriser le reste des profils en exploitant différentes proximités inter-profils. En effet, les modèles actuels sont généralement fondés sur les spécificités de certaines plateformes sociales, ce qui ne permet pas l'intégration de la multitude de signaux disponibles. En construisant des proximités à partir de différents types d'éléments disponibles sur les médias sociaux, nous pouvons détecter des profils suffisamment proches pour supposer qu'ils partagent une position similaire sur un sujet donné, quelle que soit la plateforme. Notre premier modèle est un modèle ensembliste séquentiel propageant les points de vue grâce à un graphe multicouche représentant les proximités entre les profils. En utilisant des jeux de données provenant de deux plateformes, nous montrons qu'en combinant plusieurs types de proximité, nous pouvons correctement étiqueter 98% des profils. Notre deuxième modèle nous permet d'observer l'évolution des points de vue des profils pendant un événement, avec seulement un profil-graine par point de vue. Ce modèle confirme qu'une grande majorité de profils ne changent pas de position sur les médias sociaux, ou n'expriment pas leur revirement
Numerous domains have interests in studying the viewpoints expressed online, be it for marketing, cybersecurity, or research purposes with the rise of computational social sciences. We propose in this manuscript two contributions to the field of stance detection, focused around the difficulty of obtaining annotated data of quality on social medias. Our first contribution is a large and complex dataset of 22853 Twitter profiles active during the French presidential campaign of 2017. This is one of the rare datasets that considers a non-binary stance classification and, to our knowledge, the first one with a large number of profiles, and the first one proposing overlapping political communities. This dataset can be used as-is to study the campaign mechanisms on Twitter, or used to test stance detection models or network analysis tools. We then propose two semi-supervised generic stance detection models using a handful of seed profiles for which we know the stance to classify the rest of the profiles by exploiting various proximities. Indeed, current stance detection models are usually grounded on the specificities of some social platforms, which is unfortunate since it does not allow the integration of the multitude of available signals. By infering proximities from differents types of elements available on social medias, we can detect profiles close enough to assume they share a similar stance on a given subject. Our first model is a sequential ensemble algorithm which propagates stances thanks to a multi-layer graph representing proximities between profiles. Using datasets from two platforms, we show that, by combining several types of proximities, we can achieve excellent results. Our second model allows us to observe the evolution of profiles' stances during an event with as little as one seed profile by stance. This model confirms that a large majority of profiles do not change their stance on social medias, or do not express their change of heart
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Mille, Frédéric. „Systèmes de détection des interactions médicamenteuses : points faibles & propositions d'améliorations“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00354268.

Der volle Inhalt der Quelle
Annotation:
Depuis plus de 30 ans, l'informatique est utilisée dans le domaine médical. Son utilisation tend à se généraliser depuis qu'elle est présentée comme un moyen permettant de réduire l'iatrogénie. Cependant, on assiste depuis le début des années 2000 à une augmentation du nombre d'études tempérant l'enthousiasme que ces systèmes suscitaient à l'origine.
En effet, il apparaît que leur implantation impacte l'organisation du travail médical et que les recommandations réalisées par les systèmes d'aide à la décision-Clinical Decision Support Systems (CDSS) ne sont pas toujours cliniquement pertinentes. Les conséquences de ces modifications/anomalies vont du rejet du système par les utilisateurs à une diminution de la sécurité du patient. Les systèmes de détection des interactions font partie des premiers CDSS ayant été mis au point. Ils sont également le sujet de critiques relatives à la non-pertinence de leurs interventions.
Dans ce contexte, nous avons essayé de proposer des modifications algorithmiques pour ces systèmes ainsi que les connaissances nécessaires à leur fonctionnement, dans le but d'améliorer la pertinence clinique de leurs recommandations. L'objectif de ce travail est de proposer un algorithme et la base de connaissances nécessaire à son fonctionnement, pour améliorer la spécificité des systèmes de détection des IAM. Ce travail couvre aussi bien la construction de l'algorithme que la modélisation et l'acquisition des connaissances nécessaire à son fonctionnement.
La méthodologie que nous avons suivie, est triple. Dans un premier temps, nous avons effectué une analyse des alertes signalées par un système de détection des IAM, utilisé dans un hôpital parisien. L'objectif de cette étude était de mettre en évidence les raisons motivant les utilisateurs pour passer outre les alertes produites par le système. A partir de cette étude, nous avons pu proposer un ensemble de spécifications et un algorithme répondant à ces spécifications.
Dans un deuxième temps, nous avons procédé à la modélisation et à l'acquisition des connaissances relatives aux IAM. Cette deuxième étape fut réalisée en utilisant les techniques de l'ingénierie des connaissances et plus particulièrement les techniques de l'ingénierie documentaire. Le résultat pratique de cette deuxième étape est la base de connaissances sur les IAM et l'éditeur de fichiers XML ayant servi à l'encoder. Cet éditeur utilise le modèle que nous avons développé grâce à une application des techniques d'extraction des connaissances à partir des textes.
En dernier lieu, nous avons recherché, au travers d'une étude descriptive, s'il existe un lien entre les alertes (association médicamenteuse), le service où l'alerte est signalée et la réponse (acceptation/rejet) de l'utilisateur. Il apparaît que l'existence de ce lien est probable, ce qui ouvre la voie à l'adaptation des alertes (intrusives/non intrusives) en fonction de l'utilisateur.
Les résultats théoriques que nous avons obtenus, nous encouragent à poursuivre nos recherches dans ce domaine, pour mettre en application l'algorithme et la base de connaissances que nous avons développés. Nous sommes également motivés pour étendre notre champ de recherche dans le domaine du data-mining, afin de permettre aux systèmes informatisés de connaître « les méthodes de prescription des médecins ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Rousseau, Sylvain. „Détection de points d'intérêt par acquisition compressée dans une image multispectrale“. Phd thesis, Université de Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00968176.

Der volle Inhalt der Quelle
Annotation:
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyen de contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- et hyper-spectral. Les données sont alors directement compressées et l'objet est reconstruit lorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travailler directement avec les données compressées pour réaliser un traitement classique sur un objet de cette nature. Après avoir introduit une première approche qui utilise des outils riemanniens pour effectuer une détection de contours dans une image multispectrale, nous présentons les principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre les problèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'un d'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vont nous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuite à la détection de signatures dans une image multispectrale et plus particulièrement à un algorithme original du Guo et Osher reposant sur une minimisation $L_1$. Cet algorithme est généralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettre de réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduirons de nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant de bonnes qualités de mesures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Mille, Frédéric. „Systèmes de détection des interactions médicamenteuses : points faibles et propositions d'améliorations“. Paris 6, 2008. http://www.theses.fr/2008PA066634.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de détection des interactions médicamenteuses (IAM) sont utilisés dans le domaine médical pour réduire l’iatrogénie. Cependant, il apparaît que leur implantation impacte l’organisation du travail médical. Dans ce contexte, nous avons essayé de proposer des modifications de ces systèmes ainsi que les connaissances nécessaires à leur fonctionnement. La méthodologie que nous avons suivie, est triple : Premièrement, nous avons réalisé une analyse du fonctionnement d’un système. Deuxièmement nous avons réalisé une acquisition des connaissances relatives aux IAM en utilisant les techniques de l’ingénierie documentaire. En dernier lieu, nous avons recherché, au travers d’une étude descriptive, s’il existe un lien entre les alertes, le service où l’alerte est signalée et la réponse de l’utilisateur. Les résultats théoriques obtenus encouragent à poursuivre les recherches dans ce domaine, pour mettre en application l’algorithme et la base de connaissances développées. Ils incitent à étendre le champ de recherche dans le domaine du data-mining, afin de permettre aux systèmes informatisés de connaître « les méthodes de prescription des médecins ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Walter, Nicolas. „Détection de primitives par une approche discrète et non linéaire : application à la détection et la caractérisation de points d'intérêt dans les maillages 3D“. Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00808216.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit est dédié à la détection et la caractérisation de points d'intérêt dans les maillages. Nous montrons tout d'abord les limitations de la mesure de courbure sur des contours francs, mesure habituellement utilisée dans le domaine de l'analyse de maillages. Nous présentons ensuite une généralisation de l'opérateur SUSAN pour les maillages, nommé SUSAN-3D. La mesure de saillance proposée quantifie les variations locales de la surface et classe directement les points analysés en cinq catégories : saillant, crête, plat, vallée et creux. Les maillages considérés sont à variété uniforme avec ou sans bords et peuvent être réguliers ou irréguliers, denses ou non et bruités ou non. Nous étudions ensuite les performances de SUSAN-3D en les comparant à celles de deux opérateurs de courbure : l'opérateur de Meyer et l'opérateur de Stokely. Deux méthodes de comparaison des mesures de saillance et courbure sont proposées et utilisées sur deux types d'objets : des sphères et des cubes. Les sphères permettent l'étude de la précision sur des surfaces différentiables et les cubes sur deux types de contours non-différentiables : les arêtes et les coins. Nous montrons au travers de ces études les avantages de notre méthode qui sont une forte répétabilité de la mesure, une faible sensibilité au bruit et la capacité d'analyser les surfaces peu denses. Enfin, nous présentons une extension multi-échelle et une automatisation de la détermination des échelles d'analyse qui font de SUSAN-3D un opérateur générique et autonome d'analyse et de caractérisation pour les maillages
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Hamdoun, Omar. „Détection et ré-identification de piétons par points d'intérêt entre caméras disjointes“. Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00566417.

Der volle Inhalt der Quelle
Annotation:
Avec le développement de la vidéo-protection, le nombre de caméras déployées augmente rapidement. Pour exploiter efficacement ces vidéos, il est indispensable de concevoir des outils d'aide à la surveillance qui automatisent au moins partiellement leur analyse. Un des problèmes difficiles est le suivi de personnes dans un grand espace (métro, centre commercial, aéroport, etc.) couvert par un réseau de caméras sans recouvrement. Dans cette thèse nous proposons et expérimentons une nouvelle méthode pour la ré-identification de piétons entre caméras disjointes. Notre technique est fondée sur la détection et l'accumulation de points d'intérêt caractérisés par un descripteur local. D'abord, on propose puis évalue une méthode utilisant les points d'intérêts pour la modélisation de scène, puis la détection d'objets mobiles. Ensuite, la ré-identification des personnes se fait en collectant un ensemble de points d'intérêt durant une fenêtre temporelle, puis en cherchant pour chacun d'eux leur correspondant le plus similaire parmi tous les descripteurs enregistrés précédemment, et stockés dans un KD-tree. Enfin, nous proposons et testons des pistes d'amélioration, en particulier pour la sélection automatique des instants ou des points d'intérêt, afin d'obtenir pour chaque individu un ensemble de points qui soient à la fois les plus variés possibles, et les plus discriminants par rapport aux autres personnes. Les performances de ré-identification de notre algorithme, environ 95% d'identification correcte au premier rang parmi 40 personnes, dépassent l'état de l'art, ainsi que celles obtenues dans nos comparaisons avec d'autres descripteurs (histogramme de couleur, HOG, SIFT).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Xiao, Wen. „Détection de changements à partir de nuages de points de cartographie mobile“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1125/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de cartographie mobile sont de plus en plus utilisés pour la cartographie des scènes urbaines. La technologie de scan laser mobile (où le scanner est embarqué sur un véhicule) en particulier permet une cartographie précise de la voirie, la compréhension de la scène, la modélisation de façade, etc. Dans cette thèse, nous nous concentrons sur la détection de changement entre des nuages de points laser de cartographie mobile. Tout d'abord, nous étudions la détection des changements a partir de données RIEGL (scanner laser plan) pour la mise à jour de bases de données géographiques et l'identification d'objet temporaire. Nous présentons une méthode basée sur l'occupation de l'espace qui permet de surmonter les difficultés rencontrées par les méthodes classiques fondées sur la distance et qui ne sont pas robustes aux occultations et à l'échantillonnage anisotrope. Les zones occultées sont identifiées par la modélisation de l'état d'occupation de l'espace balayé par des faisceaux laser. Les écarts entre les points et les lignes de balayage sont interpolées en exploitant la géométrie du capteur dans laquelle la densité d'échantillonnage est isotrope. Malgré quelques limites dans le cas d'objets pénétrables comme des arbres ou des grilles, la méthode basée sur l'occupation est en mesure d'améliorer la méthode basée sur la distance point à triangle de façon significative. La méthode de détection de changement est ensuite appliquée à des données acquises par différents scanners laser et à différentes échelles temporelles afin de démontrer son large champs d'application. La géométrie d'acquisition est adaptée pour un scanner dynamique de type Velodyne. La méthode basée sur l'occupation permet alors la détection des objets en mouvement. Puisque la méthode détecte le changement en chaque point, les objets en mouvement sont détectés au niveau des points. Comme le scanner Velodyne scanne l'environnement de façon continue, les trajectoires des objets en mouvement peut être extraite. Un algorithme de détection et le suivi simultané est proposé afin de retrouver les trajectoires de piétons. Cela permet d'estimer avec précision la circulation des piétons des circulations douces dans les lieux publics. Les changements peuvent non seulement être détectés au niveau du point, mais aussi au niveau de l'objet. Ainsi nous avons pu étudier les changements entre des voitures stationnées dans les rues à différents moments de la journée afin d'en tirer des statistiques utiles aux gestionnaires du stationnement urbain. Dans ce cas, les voitures sont détectés en premier lieu, puis les voitures correspondantes sont comparées entre des passages à différents moments de la journée. Outre les changements de voitures, l'offre de stationnement et les types de voitures l'utilisant sont également des informations importantes pour la gestion du stationnement. Toutes ces informations sont extraites dans le cadre d'un apprentissage supervisé. En outre, une méthode de reconstruction de voiture sur la base d'un modèle déformable générique ajusté aux données est proposée afin de localiser précisément les voitures. Les paramètres du modèle sont également considérés comme caractéristiques de la voiture pour prendre de meilleures décisions. De plus, ces modèles géométriquement précis peuvent être utilisées à des fins de visualisation. Dans cette thèse, certains sujets liés à la détection des changements comme par exemple, suivi, la classification, et la modélisation sont étudiés et illustrés par des applications pratiques. Plus important encore, les méthodes de détection des changements sont appliquées à différentes géométries d'acquisition de données et à de multiples échelles temporelles et au travers de deux stratégies: “bottom-up” (en partant des points) et “top-down” (en partant des objets)
Mobile mapping systems are increasingly used for street environment mapping, especially mobile laser scanning technology enables precise street mapping, scene understanding, facade modelling, etc. In this research, the change detection from laser scanning point clouds is investigated. First of all, street environment change detection using RIEGL data is studied for the purpose of database updating and temporary object identification. An occupancy-based method is presented to overcome the challenges encountered by the conventional distance-based method, such as occlusion, anisotropic sampling. Occluded areas are identified by modelling the occupancy states within the laser scanning range. The gaps between points and scan lines are interpolated under the sensor reference framework, where the sampling density is isotropic. Even there are some conflicts on penetrable objects, e.g. trees, fences, the occupancy-based method is able to enhance the point-to-triangle distance-based method. The change detection method is also applied to data acquired by different laser scanners at different temporal-scales with the intention to have wider range of applications. The local sensor reference framework is adapted to Velodyne laser scanning geometry. The occupancy-based method is implemented to detection moving objects. Since the method detects the change of each point, moving objects are detect at point level. As the Velodyne scanner constantly scans the surroundings, the trajectories of moving objects can be detected. A simultaneous detection and tracking algorithm is proposed to recover the pedestrian trajectories in order to accurately estimate the traffic flow of pedestrian in public places. Changes can be detected not only at point level, but also at object level. The changes of cars parking on street sides at different times are detected to help regulate on-street car parking since the parking duration is limited. In this case, cars are detected in the first place, then they are compared with corresponding ones. Apart from car changes, parking positions and car types are also important information for parking management. All the processes are solved in a supervised learning framework. Furthermore, a model-based car reconstruction method is proposed to precisely locate cars. The model parameters are also treated as car features for better decision making. Moreover, the geometrically accurate models can be used for visualization purposes. Under the theme of change detection, related topics, e.g. tracking, classification, modelling, are also studied for the reason of practical applications. More importantly, the change detection methods are applied to different data acquisition geometries at multiple temporal-scales. Both bottom-up (point-based) and top-down (object-based) change detection strategies are investigated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Delchier, Nicolas. „Devenir des folates au cours de la transformation des végétaux verts : identification des points clés et des mécanismes“. Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00858359.

Der volle Inhalt der Quelle
Annotation:
Les folates sont des vitamines hydrosolubles, impliqués dans la limitation d'apparition de pathologiestelles que les anomalies de fermeture du tube neural. L'homme est dépendant de son alimentation pourcouvrir ses besoins en folates. Les légumes sont une des sources importantes de folates. Dans un mêmetemps, les légumes verts sont principalement consommés à partir de produits transformés, cuits,surgelés ou appertisés. Il est donc important de maitriser les paramètres de la transformation afin depréserver au mieux les teneurs finales en folates. L'objectif de ce travail a donc été d'identifier l'impactdu procédé de transformation (industriel et domestique) sur la perte en folates. Deux procédésindustriels ont été étudiés : la surgélation des épinards et l'appertisation des haricots verts, lestraitements domestiques ont consisté en la cuisson de légume dans de l'eau à ébullition ou à la vapeur.Les traitements thermiques (blanchiment et cuisson vapeur) n'induisent pas de diminutionssignificatives de la concentration en folates. En revanche, des pertes sont observées lorsque les légumessont en contact étroit avec l'eau. Cette étude a permis de mettre à jour deux mécanismes de perte, ladiffusion et la dégradation thermique. La diffusion des folates a été étudiée à l'échelle du laboratoire, lesconstantes de diffusion des folates ont été déterminées. La diffusion est largement influencée par lamatrice elle-même, plus que par la température ou le pH. La part de la dégradation thermique, etnotamment l'oxydation, ne peut être exclue au cours de la diffusion. C'est pourquoi des cinétiques dedégradation ont été réalisées à différentes température et différentes teneurs en oxygène, à partir depurées d'épinards et de haricots verts ainsi que sur des solutions modèles. L'oxygène joue un rôleimportant dans la dégradation chimique, notamment dans les solutions modèle. Les matrices végétalesconstituraient donc une barrière à l'oxydation des folates. Les folates sont globalement assez bienconservés au cours du procédé de transformation. Une des pistes de recherche qui prendrait un sens dansla continuité de ce travail serait l'étude de l'impact des procédés de transformation sur labioaccessibilité des folates
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Elmi, Mohamed Abdillahi. „Détection des changements de points multiples et inférence du modèle autorégressif à seuil“. Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD005/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est composée de deux parties: une première partie traite le problème de changement de régime et une deuxième partie concerne le processusautorégressif à seuil dont les innovations ne sont pas indépendantes. Toutefois, ces deux domaines de la statistique et des probabilités se rejoignent dans la littérature et donc dans mon projet de recherche. Dans la première partie, nous étudions le problème de changements derégime. Il existe plusieurs méthodes pour la détection de ruptures mais les principales méthodes sont : la méthode de moindres carrés pénalisés (PLS)et la méthode de derivée filtrée (FD) introduit par Basseville et Nikirov. D’autres méthodes existent telles que la méthode Bayésienne de changementde points. Nous avons validé la nouvelle méthode de dérivée filtrée et taux de fausses découvertes (FDqV) sur des données réelles (des données du vent sur des éoliennes et des données du battement du coeur). Bien naturellement, nous avons donné une extension de la méthode FDqV sur le cas des variables aléatoires faiblement dépendantes.Dans la deuxième partie, nous étudions le modèle autorégressif à seuil (en anglais Threshold Autoregessive Model (TAR)). Le TAR est étudié dans la littérature par plusieurs auteurs tels que Tong(1983), Petrucelli(1984, 1986), Chan(1993). Les applications du modèle TAR sont nombreuses par exemple en économie, en biologie, l'environnement, etc. Jusqu'à présent, le modèle TAR étudié concerne le cas où les innovations sont indépendantes. Dans ce projet, nous avons étudié le cas où les innovations sont non corrélées. Nous avons établi les comportements asymptotiques des estimateurs du modèle. Ces résultats concernent la convergence presque sûre, la convergence en loi et la convergence uniforme des paramètres
This thesis has two parts: the first part deals the change points problem and the second concerns the weak threshold autoregressive model (TAR); the errors are not correlated.In the first part, we treat the change point analysis. In the litterature, it exists two popular methods: The Penalized Least Square (PLS) and the Filtered Derivative introduced by Basseville end Nikirov.We give a new method of filtered derivative and false discovery rate (FDqV) on real data (the wind turbines and heartbeats series). Also, we studied an extension of FDqV method on weakly dependent random variables.In the second part, we spotlight the weak threshold autoregressive (TAR) model. The TAR model is studied by many authors such that Tong(1983), Petrucelli(1984, 1986). there exist many applications, for example in economics, biological and many others. The weak TAR model treated is the case where the innovations are not correlated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Moradkhan, Romel. „Détection des points critiques d'une forme : application à la reconnaissance de caractères manuscrits“. Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090012.

Der volle Inhalt der Quelle
Annotation:
La représentation de formes bidimensionnelles au moyen de leurs contours est d'un grand intérêt car beaucoup d'objets, par exemple les caractères manuscrits ou imprimés, peuvent être reconnus à partir de leur contour. La détection des points les plus significatifs (critiques) d'un contour digitalisé continue à être un domaine important de recherche du fait de sa complexité et de ces promesses. La première partie de notre travail est consacrée aux méthodes de détection des points critiques des contours digitalisés. Nous proposons deux nouvelles méthodes: la première est basée sur la notion de Co angularité; la deuxième sur la notion d'axe de symétrie. Dans la deuxième partie nous traitons du problème de la reconnaissance de caractères manuscrits à partir de leur contour. Nous avons proposé un algorithme de reconnaissance hiérarchique basé sur l'appariement structurel flexible et continu
The représentation of two-dimensional patterns by their contours is of great importance since many patterns, such as hand-written or printed characters, can be recognized by their contours. Because of its complexity the détection of dominant points of digitalized contours continues to be an important area of research. The first part of our work covers dominant point détection methods of digitalized curves (contours). After a survey of existing techniques we propose two new and efficient methods: the first is based on the notion of "co-angularity"; the second on the notion of "axis of symmetry". In the second part we focus on the problem of hand-written character récognition. We have proposed a hierarchical algorithm based on ctural matching which is both flexible and continuous
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Rousseau, Sylvain. „Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée“. Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2269/document.

Der volle Inhalt der Quelle
Annotation:
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyende contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- ethyper-spectral. Les données sont alors directement compressées et l'objet est reconstruitlorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travaillerdirectement avec les données compressées pour réaliser un traitement classique sur un objetde cette nature. Après avoir introduit une première approche qui utilise des outils riemannienspour effectuer une détection de contours dans une image multispectrale, nous présentonsles principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre lesproblèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'und'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vontnous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuiteà la détection de signatures dans une image multispectrale et plus particulièrement à unalgorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme estgénéralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettrede réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduironsde nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant debonnes qualités de mesures
Multi- and hyper-spectral sensors generate a huge stream of data. A way around thisproblem is to use a compressive acquisition of the multi- and hyper-spectral object. Theobject is then reconstructed when needed. The next step is to avoid this reconstruction and towork directly with compressed data to achieve a conventional treatment on an object of thisnature. After introducing a first approach using Riemannian tools to perform edge detectionin multispectral image, we present the principles of the compressive sensing and algorithmsused to solve its problems. Then we devote an entire chapter to the detailed study of one ofthem, Bregman type algorithms which by their flexibility and efficiency will allow us to solvethe minimization encountered later. We then focuses on the detection of signatures in amultispectral image relying on an original algorithm of Guo and Osher based on minimizingL1. This algorithm is generalized in connection with the acquisition compressed. A secondgeneralization will help us to achieve the pattern detection in a multispectral image. Andfinally, we introduce new matrices of measures that greatly simplifies calculations whilemaintaining a good quality of measurements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Henry, Caroline. „Détection de points brillants par corrélation complexe entre sous-vues d'une image RSO spatiale“. Toulouse, INPT, 2003. http://www.theses.fr/2003INPT050H.

Der volle Inhalt der Quelle
Annotation:
Les radars imageurs à synthèse d'ouverture (RSO) offrent des capacités d'observation de la Terre affranchies des aléas météorologiques et des conditions d'illumination solaire. En raison du caractère cohérent du rayonnement émis, l'image RSO est contaminée par un bruit spécifique (le speckle), à l'origine de variations radiométriques intempestives, préjudiciables aux thématiques de détection de cibles artificielles. Pour pallier à cette limitation, on propose une technique originale de détection basée sur l'exploitation conjointe de l'amplitude et de la phase de l'image RSO. Par analyse spectrale de ses sous-vues, on accède à des cartographies de points détectés, qui révèlent un contraste amplement accru entre cible et environnement. La méthode est validée, puis exploitées à des fins applicatives. L'utilisation de la diversité de polarisation s'avère améliorer encore la capacité de détection, et ouvre en outre la voie de l'identification des cibles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Grunwald, Monique. „Détection des anomalies chromosomiques par cytométrie en flux et localisation des points de translocation“. Paris 6, 1986. http://www.theses.fr/1986PA066487.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Chapel, Marie-Neige. „Détection d’objets en mouvement à l’aide d’une caméra mobile“. Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1156/document.

Der volle Inhalt der Quelle
Annotation:
La détection d'objets mobiles dans des flux vidéo est une étape essentielle pour de nombreux algorithmes de vision par ordinateur. Cette tâche se complexifie lorsque la caméra utilisée est en mouvement. En effet, l'environnement capté par ce type de caméra apparaît en mouvement et il devient plus difficile de distinguer les objets qui effectuent réellement un mouvement de ceux qui constituent la partie statique de la scène. Dans cette thèse, nous apportons des contributions au problème de détection d'objets mobiles dans le flux vidéo d'une caméra mobile. L'idée principale qui nous permet de distinguer les éléments mobiles de ceux qui sont statiques repose sur un calcul de distance dans l'espace 3D. Les positions 3D de caractéristiques extraites des images sont estimées par triangulation puis leurs mouvements 3D sont analysés pour réaliser un étiquetage éparse statique/mobile de ces points. Afin de rendre la détection robuste au bruit, l'analyse des mouvements 3D des caractéristiques est comparée à d'autres points précédemment estimés statiques. Une mesure de confiance, mise à jour au cours du temps, est utilisée pour déterminer l'étiquette à attribuer à chacun des points. Nos contributions ont été appliquées à des jeux de données virtuelles (issus du projet Previz 2) et réelles (reconnus dans la communauté [Och+14]) et les comparaisons ont été réalisées avec l'état de l'art. Les résultats obtenus montrent que la contrainte 3D proposée dans cette thèse, couplée à une analyse statistique et temporelle des mouvements, permet de détecter des éléments mobiles dans le flux vidéo d'une caméra en mouvement et ce même dans des cas complexes où les mouvements apparents de la scène ne sont pas uniformes
Moving objects detection in video streams is a commonly used technique in many computer vision algorithms. The detection becomes more complex when the camera is moving. The environment observed by this type of camera appeared moving and it is more difficult to distinguish the objects which are in movement from the others that composed the static part of the scene. In this thesis we propose contributions for the detection of moving objects in the video stream of a moving camera. The main idea to differenciate between moving and static objects based on 3D distances. 3D positions of feature points extracted from images are estimated by triangulation and then their 3D motions are analyzed in order to provide a sparse static/moving labeling. To provide a more robust detection, the analysis of the 3D motions is compared to those of feature points previously estimated static. A confidance value updated over time is used to decide on labels to attribute to each point.We make experiments on virtual (from the Previz project 1) and real datasets (known by the community [Och+14]) and we compare the results with the state of the art. The results show that our 3D constraint coupled with a statistical and temporal analysis of motions allow to detect moving elements in the video stream of a moving camera even in complex cases where apparent motions of the scene are not similars
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Deneuve, Emeline. „Three essays on key audit matters dissimilarity“. Electronic Thesis or Diss., Cergy-Pontoise, Ecole supérieure des sciences économiques et commerciales, 2023. http://www.theses.fr/2023ESEC0002.

Der volle Inhalt der Quelle
Annotation:
Ma thèse se compose de trois essais rapportés dans trois chapitres différents, chacun lié à une question de recherche différente sur la section des Key Audit Matters (KAMs, en français, points clés d’audit) dans les rapports d’audit. Les KAMs ont été mis en oeuvre afin d’accroître la valeur communicative des rapports d’audit et la confiance de ses utilisateurs dans le processus d’audit et les états financiers des sociétés (EY Reporting, 2015). Les KAMs reflètent les plus grands risques d’anomalies significatives rencontrés au cours du processus d’audit, sur la base du jugement professionnel des auditeurs (FRC, 2020). Leur mise en oeuvre représente le changement le plus important apporté au rapport d’audit au cours des 70 dernières années. (EY Reporting, 2015 ; FRC, 2020) Les KAMs ont été mis en oeuvre pour la première fois au Royaume-Uni en 2013. Pour obtenir la plus grande période d’échantillonnage possible, j’utilise des données collectées manuellement auprès de sociétés non financières cotées à la Bourse de Londres. Les KAMs représentent des informations qualitatives supplémentaires dans le rapport d’audit, où les auditeurs signalent un KAM par risque rencontré au cours du processus d’audit. Chaque KAM représente un risque d’audit et est composé de deux parties. Les auditeurs décrivent d’abord le risque reconnu comme un KAM, puis ils expliquent les procédures d’audit suivies pour traiter le risque identifié. Je définie ces deux parties comme les composants des KAMs suivants : la description du risque et la réponse et l’observation des auditeurs. Bien que les auditeurs soient encouragés à rédiger les KAMs avec leurs propres mots (FRC, 2013b), les critiques de cette nouvelle exigence de divulgation craignent que les KAMs ne soient passe-partout et normalisées (Citi Research, 2014 ; Gray, Turner, Coram et Mock, 2011 ; Mock et coll., 2013). Bien que plusieurs chercheurs examinent les conséquences de la réglementation des KAMs dans le monde entier, je pense que l’examen du contenu des KAMs fournit des informations plus granulaires sur le processus d’audit. Je développe des mesures de dissimilarité pour capturer des informations spécifiques dans les KAMs. Ces mesures reflètent les différences dans les termes rédigés par les auditeurs pour le même type de KAM. Ma Thèse contribue à la littérature des KAMs en fournissant une analyse granulaire du contenu des KAMs et en complétant les études examinant les caractéristiques textuelles des KAMs (par exemple, Burke, Hoitash, Hoitash et Xiao, 2022 ; Chen, Nelson, Wang et Yu, 2020 ; Gutierrez, Minutti-Meza, Tatum et Vulcheva, 2018 ; Lennox, Schmidt et Thompson, 2022)
My dissertation consists of three essays reported in three different Chapters, each related to a different research question about the Key Audit Matters (KAM) section in audit reports. KAM disclosures have been implemented to enhance the communicative value of audit reports and to increase users’ confidence in the audit process and the companies’ financial statements (EY Reporting, 2015). KAMs reflect the greatest risks of material misstatements encountered during the audit process based on auditors’ professional judgment (FRC, 2020). Their implementation represents the most significant change in the audit report for the past 70 years. KAMs have first been implemented in the United Kingdom (UK) in 2013. To get the largest sample period possible, I use hand-collected data from premium-listed non-financial firms on the London Stock Exchange (LSE). KAMs represent additional qualitative disclosures in the audit report, where auditors report one KAM per risk encountered during the audit process. Each KAM is related to a significant matter and is composed of two parts. Auditors first describe the risk encountered and then explain the audit procedures performed to address the risk identified. I define these two parts as the following two KAM components: the risk description and the auditors’ response and observation. Although auditors are encouraged to write KAMs in their own words (FRC, 2013b), critics of this new disclosure requirement fear that KAMs would be boilerplate and standardized (Citi Research, 2014; Gray, Turner, Coram, & Mock, 2011; Mock et al., 2013). Although several researchers examine the consequences of the KAM regulation worldwide, I believe that examining the content of KAMs provides more granular insights into the audit process. I develop measures of dissimilarity to capture specific information in KAMs. These measures reflect differences in words written by auditors for the same type of KAM. My Thesis contributes to the KAM literature by providing a granular analysis of the content of KAM disclosures and by complementing studies examining textual features of KAMs (e.g., Burke, Hoitash, Hoitash, & Xiao, 2022; Chen, Nelson, Wang, & Yu, 2020; Gutierrez, Minutti-Meza, Tatum, & Vulcheva, 2018; Lennox, Schmidt, & Thompson, 2022)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Labeau, Olivier. „Détection et étude de nano-objets : nanocristaux de CdSe/ZnS et molécules uniques“. Bordeaux 1, 2005. http://www.theses.fr/2005BOR13004.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite de la détection et de l'étude de nano-objets luminescents que sont les nanocristaux de semi-conducteur de CdSe/ZnS et les molécules aromatiques. Le mémoire est organisé en trois parties distinctes. La première décrit différentes méthodes de détection de nano-objets par des méthode optiques de champ lointain. L'accent est mis sur l'utilisation d'un dispositif de microscopie confocale de fluorescence fonctionnant aux très basses temlpératures. La seconde traite plus spécifiquement ed la spectroscopie des nanocristaux de CdSe/ZnS. Une étude complète ainsi qu'un modèle de l'évolution en foction de la température du déclin de la luminescence de ces nanocristaux à l'échelle individuelle sont détaillés. Des résultats concernant la spectroscopie d'excitation résonante et de fluorescence des nanocristaux de CdSe/ZnS sont aussi mentionnés. Enfin, dans une dernière partie, la détection de la charge d'un vortex d'Abrikosov est envisagée par la spectroscopie de molécules individuelles aromatiques fluorescentes aux très basses températures présentant un fort effet Stark linéaire. Ce travail met en évidence un phénomène supplémentaire, un déplacement régulier du spectre d'excitation avec la puissance excitatrice, observable pour des molécules situées au voisinage d'une interface métallique ou supraconductrice.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Bigorgne, Erwan. „Détection et caractérisation de points singuliers pour l' appariement et l' indexation d' images couleurs“. Paris 6, 2005. http://www.theses.fr/2005PA066270.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Rombourg, Romain. „Analyse, modélisation et détection de bruits pour scanners laser terrestres“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM064.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous sommes concentrés sur plusieurs sujets liés à la détection du bruit dans les nuages de points générés par les scanners laser terrestres (TLS). Premièrement, les méthodes de projection pour calculer une image à partir d'un balayage TLS. Deuxièmement, la détection du bruit du ciel, c'est-à-dire le bruit produit lorsqu'une mesure d'un TLS à onde continue modulée en amplitude n'est effectuée que sur du rayonnement ambiant. Et enfin, la détection du bruit de points mixtes, c'est-à-dire les points acquis lorsque le TLS reçoit des signaux de retour de plusieurs surfaces différentes. Pour relever ces défis, nous avons d'abord analysé l'échantillonnage de l'espace du TLS et déduit des propriétés sur la densité locale de points en fonction de l'altitude, ce qui nous a permis de montrer les limites des techniques classiques de détection. Nous avons ensuite défini un cadre théorique pour analyser les méthodes de projection, fondements des méthodes de détection 2D. Ce cadre nous a permis de mettre en évidence deux propriétés fondamentales devant être satisfaites par une projection. En se basant sur ces propriétés, nous avons conçu un algorithme de projection les satisfaisant au mieux. Nous avons ensuite défini une quantification de la qualité d'une projection et comparé notre algorithme avec l'algorithme classique et montré que la méthode classique n'est pas adaptée. La projection proposée a quant à elle donné de très bons résultats. Comme le bruit du ciel n'a jamais été étudié dans de précédents travaux, nous l'avons formellement analysé pour construire des bases théoriques pour la détection du ciel. L'analyse nous a permis de montrer théoriquement et expérimentalement que la distribution de distance du bruit de ciel est indépendante des propriétés sous-jacentes du rayonnement ambiant. à partir de notre projection et des propriétés découvertes, nous avons conçu un détecteur de ciel et un détecteur de points mixtes. Les détecteurs ont été testés via une validation approfondie en conditions contrôlées. Les résultats ont montré que nos détecteurs combinés à notre projection sont capables de détecter correctement presque tous le bruit présenté avec peu de mauvaises détections pour le détecteur de ciel et une quantité raisonnable pour le détecteur de point mixte
In this thesis, we focused on several topics related to noise detection in point cloud generated by Terrestrial Laser Scanners (TLS). First, the projection methods to compute an image from a TLS scan. Second, the detection of sky noise, i.e. noise produced when a Amplitude Modulated Continuous Wave TLS measures range only from background radiation. And finally, the detection of mixed point noise, i.e. points acquired when the TLS was receiving return signals from several different surfaces. To tackle these challenges, we first analysed how the TLS samples space and deduced properties on how the local point cloud density evolves with respect to the elevation, this allowed us to show the limits of usual noise detection techniques and oriented our focus on 2D non density based detection techniques. We then defined a theoretical framework to analyse projection methods, unavoidable foundations for 2D detection methods. This framework allowed us to bring to light two fundamental properties that should be satisfied by a projection. Following these properties, we designed a projection algorithm that satisfied them as much as possible. We then defined a way to quantify projection quality and compared our proposed algorithm with the widely used classic algorithm and showed that the classic projection method is not adapted. Our proposed projection however showed very good results. Since the sky noise was never studied in previous works, we formally analysed it to build some theoretical foundations for sky detection. The analysis allowed us to show theoretically and experimentally that the range distribution of sky noise is independent of the underlying properties of the background radiation signal. From our projection and the discovered properties, we designed a sky detector and a mixed point detector. The detectors were tested via an extensive validation in controlled conditions. The results showed that our proposed detectors combined with the proposed projection are able to correctly detect almost all presented noise with few bad detection for the sky detectors and reasonable amount for the mixed point detector
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Peillon, Stéphane. „Indexation vocale à vocabulaire illimité à base de décodage phonétique : application à la détection de clés vocales dans un flux de paroles“. Avignon, 2002. http://www.theses.fr/2002AVIG0128.

Der volle Inhalt der Quelle
Annotation:
Le stockage de données multimédia est aujourd'hui confronté au manque d'outils efficaces d'extraction et de tri de documents. Dans le cadre particulier de données vocales, nous proposons une technique d'indexation permettant de retrouver des documents sonores à partir de leur seul contenu. La pose d'index appropriés sur le médium permet de réduire considérablement l'information nécessaire a posteriori pour la phase de recherche d'une clé. Nous comparons deux modes d'indexation à base d'index phonétiques: l'un repose sur la meilleure séquence possible de phonèmes, l'autre sur des échelles d'hypothèses phonétiques produites sur une segmentation automatique a priori du corpus. Ce deuxième mode, désigné "treillis synchrone de phonèmes", offre de meilleures performances avec un faible surcoût de calcul, et conduit à un apprentissage réduit des paramètres du moteur de recherche. La technique présentée permet en outre la détection de clés vocales aussi bien dans un corpus vocal que textuel
Multimedia data storage is currently confronted with a lack of effective document extraction and sorting tools. In the specific context of voice data, we suggest an indexing technique which will enable speech documents to be retrieved by content only. Positioning relevant indexes on the medium enables the amount of information needed later for the key search phase to be greatly reduced. We compare two phonetic index-based indexing methods: one is based on the best possible sequence of phonemes, the other on scales of phonetic hypotheses produced on an automatic a priori segmentation of the corpus. This second mode, called "phoneme synchronized lattice" offers better performance with low additional computation cost, and requires less training for the search engine parameters. In addition, the technique presented in this document enables the detection of voice keywords in both speech and text corpora
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Narongpunt, Veerasak. „Détection par thermographie infrarouge de la chaleur cutanée provoquée par la stimulation des points de méridien utilisés en acupuncture chinoise“. Paris 13, 2005. http://www.theses.fr/2005PA132028.

Der volle Inhalt der Quelle
Annotation:
La thermographie infrarouge (TIR) permet d'observer temps réel et en continu sans contact les isothermes de la peau humaine, sans aucune intervention ni préparation particulière pouvant perturber l'état initial du patient. Un essai contrôlé randomisé sur 12 volontaires sains a été entrepris suivant un protocole expérimental in vivo et en simple aveugle d'un stimulus par pression digitale sur un point du corps humain. Nous avons utilisé une caméra thermique au détecteur micro-bolométrique pour visualiser un point très distant du point stimulé sur la surface cutanée ; tous deux situés sur les deux extrémités du corps n'observent aucun lien anatomique immédiat et connu. Après des simplifications scientifiquement justifiées et assortis d'un traitement d'images complémentaire en contraste entre deux points d'images thermiques d'une même expérience, ces résultats expérimentaux donneraient une crédibilité à la mesure de température sans contact d'un tissu vivant et surtout à l'application de la thermographie infrarouge dans le domaine médical du vivant en général.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Fu, Wenhao. „Visual servoing for mobile robots navigation with collision avoidance and field-of-view constraints“. Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0019/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur le problème de la navigation basée sur la vision pour les robots mobiles dans les environnements intérieurs. Plus récemment, de nombreux travaux ont été réalisés pour résoudre la navigation à l'aide d'un chemin visuel, à savoir la navigation basée sur l'apparence. Cependant, en utilisant ce schéma, le mouvement du robot est limité au chemin visuel d'entrainement. Le risque de collision pendant le processus de navigation peut faire écarter le robot de la trajectoire visuelle courante, pour laquelle les repères visuels peuvent être perdus. Dans l'état de nos connaissances, les travaux envisagent rarement l'évitement des collisions et la perte de repère dans le cadre de la navigation basée sur l'apparence. Nous présentons un cadre mobile de navigation pour le robot afin de renforcer la capacité de la méthode basée sur l'apparence, notamment en cas d'évitement de collision et de contraintes de champ de vision. Notre cadre introduit plusieurs contributions techniques. Tout d'abord, les contraintes de mouvement sont considérés dans la détection de repère visuel pour améliorer la performance de détection. Ensuite, nous modélisons l'obstacle en utilisant B-Spline. La représentation de B-Spline n'a pas de régions accidentées et peut générer un mouvement fluide pour la tâche d'évitement de collision. En outre, nous proposons une stratégie de contrôle basée sur la vision, qui peut gérer la perte complète de la cible. Enfin, nous utilisons l'image sphérique pour traiter le cas des projections d'ambiguité et d'infini dus à la projection en perspective. Les véritables expériences démontrent la faisabilité et l'efficacité de notre cadre et de nos méthodes
This thesis is concerned with the problem of vision-based navigation for mobile robots in indoor environments. Many works have been carried out to solve the navigation using a visual path, namely appearance-based navigation. However, using this scheme, the robot motion is limited to the trained visual path. The potential collision during the navigation process can make robot deviate from the current visual path, in which the visual landmarks can be lost in the current field of view. To the best of our knowledge, seldom works consider collision avoidance and landmark loss in the framework of appearance-based navigation. We outline a mobile robot navigation framework in order to enhance the capability of appearance-based method, especially in case of collision avoidance and field-of-view constraints. Our framework introduces several technical contributions. First of all, the motion constraints are considered into the visual landmark detection to improve the detection performance. Next then, we model the obstacle boundary using B-Spline. The B-Spline representation has no accidented regions and can generate a smooth motion for the collision avoidance task. Additionally, we propose a vision-based control strategy, which can deal with the complete target loss. Finally, we use spherical image to handle the case of ambiguity and infinity projections due to perspective projection. The real experiments demonstrate the feasability and the effectiveness of our framework and methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Girardeau-Montaut, Daniel. „Détection de changement sur des données géométriques tridimensionnelles“. Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001745.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Richefeu, Julien. „Détection et analyse du mouvement sur système de vision à base de rétine numérique“. Phd thesis, Paris 6, 2006. http://pastel.archives-ouvertes.fr/pastel-00002557.

Der volle Inhalt der Quelle
Annotation:
La rétine numérique programmable est un imageur qui combine fonctions d'acquisition et de traitement de l'image au sein de chaque pixel. L'objectif de notre travail consiste à utiliser ce circuit dans un système de détection et d'analyse du mouvement en se conformant à ses capacités de calcul et de mémorisation limitées. Nous présentons d'abord trois méthodes de détection du mouvement adaptées à nos contraintes : un calcul de fond par une moyenne récursive classique ; un estimateur statistique, le filtre Σ-
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Chapelle, Olivier. „Support Vector Machines : principes d'induction, Réglage automatique et connaissances à priori“. Paris 6, 2004. http://www.theses.fr/2004PA066524.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Dahl, Kathy. „Analyse des obstacles et des facilitateurs concernant la participation au travail de personnes présentant un trouble de la personnalité limite : points de vue de différents acteurs clés“. Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8913.

Der volle Inhalt der Quelle
Annotation:
Résumé : Problématique : Le trouble de la personnalité limite (TPL) est une condition psychiatrique touchant environ 1 % de la population et 20 % de la clientèle recevant des services en psychiatrie (Gunderson et Links, 2008). L’un des domaines du fonctionnement dans la vie quotidienne le plus touché chez cette population est le travail (Gunderson et al., 2011; Larivière et al., 2010; Zanarini et al., 2012). À notre connaissance, aucune étude n’a décrit de façon approfondie la participation au travail des personnes présentant un TPL. Objectif : L’objectif général de cette étude vise à identifier et à décrire les obstacles, les facilitateurs de même que les solutions possibles de la participation au travail des personnes présentant un TPL selon leur point de vue et celui de leurs intervenants. Méthodologie : Une étude de cas multiples a été utilisée (Yin, 2009). Neuf cas ont été étudiés selon trois contextes socioprofessionnels de la participation au travail : A. Réintégration (personne en invalidité), B. Retour (personne en absence maladie) et C. Maintien au travail. Pour chacun des contextes, trois dyades incluant une personne avec un TPL (âgée de 18 à 55 ans) et son intervenant soutenant la participation au travail ont été interviewées. Résultats: Les résultats qualitatifs (n = 18) ont démontré que la participation au travail des personnes présentant un TPL est influencée par des facteurs individuels (p. ex., la réaction face à la pression et aux relations de travail, la régulation émotionnelle) ainsi que des facteurs liés aux acteurs et procédures des systèmes de l’assurance, organisationnel et de la santé (p. ex., la collaboration et la communication entre les acteurs, l’alliance de travail entre les acteurs et la personne présentant un TPL, les mesures d’accommodement et de soutien naturel dans le milieu de travail). Conclusions et implication clinique : Cette étude met en lumière le défi important et spécifique que représente la participation au travail pour les personnes présentant un TPL. Elle implique des facteurs personnels et environnementaux qui doivent être considérés par tous les acteurs impliqués (les utilisateurs de services, les professionnels de la santé, les assureurs et les employeurs). Les programmes de réadaptation au travail actuels devraient être bonifiés et coordonnés adéquatement avec les thérapies spécialisées afin d’aborder de manière optimale les enjeux liés à la participation au travail des personnes présentant un TPL.
Abstract : Background: Borderline personality disorder (BPD) affects around 1% of the population and 20% of psychiatric service users (Gunderson & Links, 2008). Recent studies show that work participation is the most impaired occupational domain and should be prioritized in rehabilitation (Gunderson et al., 2011; Larivière et al., 2010; Zanarini et al., 2012). However, to our knowledge, no study has examined in depth the specific issues regarding work participation for people with BPD. Objective: The overall purpose of this study was to identify and describe barriers and facilitators as well as possible solutions for enabling work participation of individuals with a borderline personality disorder (BPD) from their perspective and the perspective of their service providers. Methods: Using a qualitative multiple case study design (Yin, 2009), three contexts of work participation were considered: 1) work (re) integration, 2) return to work (after a sick leave), and 3) job tenure. Within each context, three dyads including an individual with BPD (aged 18 to 55) and their service provider supporting work participation were met for individual interviews. Results: Qualitative results (n = 18) showed that individual factors (e.g., reaction towards pressure and relationships at work, regulation of emotions) and factors related to stakeholders and procedures from insurance, organizational and health systems (e.g., poor collaboration and communication between stakeholders, working alliance between individuals with BPD and stakeholders, work accommodations and natural support in the workplace) influenced work participation of individuals with BPD. Conclusions and implication for practice: This study highlights that work participation presents specific challenges for individuals with BPD, including several personal and environmental factors to be considered by all stakeholders (service users, health care professionals, insurers and employers). Current work rehabilitation programs need to be improved to address more optimally the work participation issues of individuals with BPD and be well coordinated with current specialized psychotherapies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Calvet, Lilian. „Méthodes de reconstruction tridimensionnelle intégrant des points cycliques : application au suivi d’une caméra“. Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/11901/1/Calvet.pdf.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de la reconstruction tridimensionnelle d’une scène rigide à partir d’une collection de photographies numériques, dites vues. Le problème traité est connu sous le nom du "calcul de la structure et du mouvement" (structure-and/from-motion) qui consiste à "expliquer" des trajectoires de points dits d’intérêt au sein de la collection de vues par un certain mouvement de l’appareil (dont sa trajectoire) et des caractéristiques géométriques tridimensionnelles de la scène. Dans ce travail, nous proposons les fondements théoriques pour étendre certaines méthodes de calcul de la structure et du mouvement afin d’intégrer comme données d’entrée, des points d’intérêt réels et des points d’intérêt complexes, et plus précisément des images de points cycliques. Pour tout plan projectif, les points cycliques forment une paire de points complexes conjugués qui, par leur invariance par les similitudes planes, munissent le plan projectif d’une structure euclidienne. Nous introduisons la notion de marqueurs cycliques qui sont des marqueurs plans permettant de calculer sans ambiguïté les images des points cycliques de leur plan de support dans toute vue. Une propriété de ces marqueurs, en plus d’être très "riches" en information euclidienne, est que leurs images peuvent être appariées même si les marqueurs sont disposés arbitrairement sur des plans parallèles, grâce à l’invariance des points cycliques. Nous montrons comment utiliser cette propriété dans le calcul projectif de la structure et du mouvement via une technique matricielle de réduction de rang, dite de factorisation, de la matrice des données correspondant aux images de points réels, complexes et/ou cycliques. Un sous-problème critique abordé dans le calcul de la structure et du mouvement est celui de l’auto-calibrage de l’appareil, problème consistant à transformer un calcul projectif en un calcul euclidien. Nous expliquons comment utiliser l’information euclidienne fournie par les images des points cycliques dans l’algorithme d’auto-calibrage opérant dans l’espace projectif dual et fondé sur des équations linéaires. L’ensemble de ces contributions est finalement utilisé pour une application de suivi automatique de caméra utilisant des marqueurs formés par des couronnes concentriques (appelés CCTags), où il s’agit de calculer le mouvement tridimensionnel de la caméra dans la scène à partir d’une séquence vidéo. Ce type d’application est généralement utilisé dans l’industrie du cinéma ou de la télévision afin de produire des effets spéciaux. Le suivi de caméra proposé dans ce travail a été conçu pour proposer le meilleur compromis possible entre flexibilité d’utilisation et précision des résultats obtenus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Fhima, Mehdi. „Détection de ruptures et mouvement Brownien multifractionnaire“. Thesis, Clermont-Ferrand 2, 2011. http://www.theses.fr/2011CLF22197.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous développons une nouvelle méthode de détection de ruptures "Off-line", appelée Dérivée Filtrée avec p-value, sur des paramètres d'une suite de variables aléatoires indépendantes, puis sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cette thèse est composée de trois articles. Dans un premier article paru dans Sequential Analysis nous posons les bases de la méthode Dérivée Filtrée avec p-value (FDpV) en l'appliquant à une suite de variables aléatoires indépendantes. La méthode a une complexité linéaire en temps et en mémoire. Elle est constituée de deux étapes. La première étape utilisant la méthode Dérivée Filtrée détecte les bons instants de ruptures, mais également certaines fausses alarmes. La deuxième étape attribue une p-value à chaque instant de rupture potentiel détecté à la première étape, et élimine les instants dont la p-value est inférieure à un certain seuil critique. Nous démontrons les propriétés asymptotiques nécessaires à la calibration de la méthode. L'efficacité de la méthode a été prouvé tant sur des données simulées que sur des données réelles. Ensuite, nous nous sommes attaqués à l'application de la méthode pour la détection de ruptures sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cela s'est fait en deux phases. La première phase a fait l'objet d'un article à paraitre dans ESAIM P&S où nous avons établi un Théorème Central Limite pour l'estimateur du paramètre de Hurst appelé Increment Ratio Statistic (IRS). Puis, nous avons proposé une version localisée de l'IRS et démontré un TCL local pour estimer la fonction de Hurst d'un mouvement Brownien multifractionnaire. Les preuves sont intuitives et se distinguent par leur simplicité. Elles s'appuient sur le théorème de Breuer-Major et une stratégie originale appelée "freezing of time". La deuxième phase repose sur un nouvel article soumis pour publication. Nous adaptons la méthode FDpV pour détecter des ruptures sur l'indice de Hurst d'un mouvement Brownien fractionnaire constant par morceaux. La statistique sous-jacent de l'algorithme FDpV est un nouvel estimateur de l'indice de Hurst, appelé Increment Zero-Crossing Statistic (IZCS) qui est une variante de l'IRS. La combinaison des méthodes FDpV + IZCS constitue une procédure efficace et rapide avec une complexité linéaire en temps et en mémoire
This Ph.D dissertation deals with "Off-line" detection of change points on parameters of time series of independent random variables, and in the Hurst parameter of multifrcational Brownian motion. It consists of three articles. In the first paper, published in Sequential Analysis, we set the cornerstones of the Filtered Derivative with p-Value method for the detection of change point on parameters of independent random variables. This method has linear time and memory complexities, with respect to the size of the series. It consists of two steps. The first step is based on Filtered Derivative method which detects the right change points as well as the false ones. We improve the Filtered Derivative method by adding a second step in which we compute the p-values associated to every single potential change point. Then we eliminate false alarms, i.e. the change points which have p-value smaller than a given critical level. We showed asymptotic properties needed for the calibration of the algorithm. The effectiveness of the method has been proved both on simulated data and on real data. Then we moved to the application of the method for the detection of change point on the Hurst parameter of multifractional Brownian motion. This was done in two phases. In the first phase, a paper is to be published in ESAIM P&S where we investigated the Central Limit Theorem of the Increment Ratio Statistic of a multifractional Brownian motion, leading to a CLT for the time varying Hurst index. The proofs are quite simple relying on Breuer-Major theorems and an original freezing of time strategy.The second phase relies on a new paper submitted for publication. We adapted the FDpV method to detect change points on the Hurst parameter of piecewise fractional Brownian motion. The underlying statistics of the FDpV technology is a new statistic estimator for Hurst index, so-called Increment Zero-Crossing Statistic (IZCS) which is a variation of IRS. Both FDpV and IZCS are methods with linear time and memory complexities, with respect to the size of the series
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Pham, The Anh. „Détection robuste de jonctions et points d'intérêt dans les images et indexation rapide de caractéristiques dans un espace de grande dimension“. Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4023/document.

Der volle Inhalt der Quelle
Annotation:
Les caractéristiques locales sont essentielles dans de nombreux domaines de l’analyse d’images comme la détection et la reconnaissance d’objets, la recherche d’images, etc. Ces dernières années, plusieurs détecteurs dits locaux ont été proposés pour extraire de telles caractéristiques. Ces détecteurs locaux fonctionnent généralement bien pour certaines applications, mais pas pour toutes. Prenons, par exemple, une application de recherche dans une large base d’images. Dans ce cas, un détecteur à base de caractéristiques binaires pourrait être préféré à un autre exploitant des valeurs réelles. En effet, la précision des résultats de recherche pourrait être moins bonne tout en restant raisonnable, mais probablement avec un temps de réponse beaucoup plus court. En général, les détecteurs locaux sont utilisés en combinaison avec une méthode d’indexation. En effet, une méthode d’indexation devient nécessaire dans le cas où les ensembles de points traités sont composés de milliards de points, où chaque point est représenté par un vecteur de caractéristiques de grande dimension
Local features are of central importance to deal with many different problems in image analysis and understanding including image registration, object detection and recognition, image retrieval, etc. Over the years, many local detectors have been presented to detect such features. Such a local detector usually works well for some particular applications but not all. Taking an application of image retrieval in large database as an example, an efficient method for detecting binary features should be preferred to other real-valued feature detection methods. The reason is easily seen: it is expected to have a reasonable precision of retrieval results but the time response must be as fast as possible. Generally, local features are used in combination with an indexing scheme. This is highly needed for the case where the dataset is composed of billions of data points, each of which is in a high-dimensional feature vector space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Lamarfa, Houda. „Développement d'une méthode multi-échelle de traitement des nuages de points LiDAR mobile pour la détection de convergence des tunnels miniers souterrains“. Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34007.

Der volle Inhalt der Quelle
Annotation:
La sécurité dans les mines souterraines est l’une des principales préoccupations des entreprises d’exploitation minières. La surveillance des moindres changements ou déformations au niveau des tunnels et galeries miniers, notamment la convergence des tunnels (rétrécissement diamétral d’une section de tunnel), figure parmi les principales priorités de ces entreprises. Les techniques de surveillance de la convergence des tunnels miniers communément utilisées se basent essentiellement sur des mesures ponctuelles et limitées qui sont généralement longues et coûteuses. Les technologies LiDAR mobiles émergentes et prometteuses amènent des pistes de solutions qui permettent de gagner en efficacité et en sécurité. Cependant, la détection et la mesure précise de convergence des tunnels miniers au moyen de données LiDAR mobile demeurent problématiques en raison des enjeux suivants : la précision des nuages de points, l’irrégularité de la zone observée, la variabilité de la densité des scans et de leur prise de vue, la présence d’obstructions, la complexité de l’alignement parfait des nuages de points. La recherche visée dans ce mémoire de maîtrise s’inscrit dans le cadre du projet « MinEyes » et elle a pour objectif principal de détecter et de mesurer la convergence de tunnels miniers souterrains à partir de données LiDAR mobile. Pour ce faire, nous proposons une méthode multi-échelles de comparaison de nuages de points qui prend en considération les irrégularités de surface des tunnels miniers et qui permet une meilleure détection de leurs changements et une mesure plus précise de leur convergence. La méthode proposée se base sur une approche de comparaison modèle à modèle locale des nuages de points LiDAR mobile souterrain. Les résultats obtenus sont très prometteurs comparés à ceux d’autres méthodes de détection de changement dans les nuages de points LiDAR (ex. : méthodes C2C, C2M). Une analyse statistique des résultats a également permis de confirmer la robustesse de la méthode proposée surtout dans des zones rugueuses des tunnels miniers.
Security in underground mines is one of the main concerns of mining companies. Monitoring any changes or distortions in mining tunnels and galleries, including tunnel’s convergence, is one of the top priorities for those companies. Commonly used convergence monitoring techniques in underground tunnels are based on limited measurements that are usually very time-consuming and costly in terms of process. Emerging mobile LiDAR technologies offer alternative solutions that are far more efficient and lower in risk. However, the accurate measurements of convergence in mining tunnels using mobile LiDAR data remains challenging because of the following issues: limited precision of LiDAR point clouds, the roughness and irregularity of the studied surfaces in the tunnels, the irregularity of the scan density, the presence of occlusions and the complexities of reliable registration of point clouds. This research work is defined as a part of the ‘MinEyes project’ in collaboration with the company Pecktech which main objective is to detect and measure the convergence of underground mining tunnels from mobile LiDAR data. To do so, we propose a multi-scale point cloud comparison method that considers the surface irregularities of the mining tunnels and allows a better detection of their changes and a more precise measurement of their convergence. The proposed method is based on a local model-to-model comparison method of underground mobile LiDAR point clouds. The results obtained are very promising compared to other LiDAR point cloud comparison methods (e.g. C2C, C2M methods). A statistical analysis of the results also has confirmed the efficiency of the proposed method, especially in the rough areas of the mining tunnels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Ait, Fares Wassima. „Détection et suivi d'objets par vision fondés sur segmentation par contour actif basé région“. Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00932263.

Der volle Inhalt der Quelle
Annotation:
La segmentation et le suivi d'objets sont des domaines de recherche compétitif dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet du celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous proposons d'abord un critère global qui dépend des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-­‐disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-­‐disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode des contours actifs, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Oesau, Sven. „Modélisation géométrique de scènes intérieures à partir de nuage de points“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4034/document.

Der volle Inhalt der Quelle
Annotation:
La modélisation géométrique et la sémantisation de scènes intérieures à partir d'échantillon de points et un sujet de recherche qui prend de plus en plus d'importance. Cependant, le traitement d'un ensemble volumineux de données est rendu difficile d'une part par le nombre élevé d'objets parasitant la scène et d'autre part par divers défauts d'acquisitions comme par exemple des données manquantes ou un échantillonnage de la scène non isotrope. Cette thèse s'intéresse de près à de nouvelles méthodes permettant de modéliser géométriquement un nuage de point non structuré et d’y donner de la sémantique. Dans le chapitre 2, nous présentons deux méthodes permettant de transformer le nuage de points en un ensemble de formes. Nous proposons en premier lieu une méthode d'extraction de lignes qui détecte des segments à partir d'une coupe horizontale du nuage de point initiale. Puis nous introduisons une méthode par croissance de régions qui détecte et renforce progressivement des régularités parmi les formes planaires. Dans la première partie du chapitre 3, nous proposons une méthode basée sur de l'analyse statistique afin de séparer de la structure de la scène les objets la parasitant. Dans la seconde partie, nous présentons une méthode d'apprentissage supervisé permettant de classifier des objets en fonction d'un ensemble de formes planaires. Nous introduisons dans le chapitre 4 une méthode permettant de modéliser géométriquement le volume d'une pièce (sans meubles). Une formulation énergétique est utilisée afin de labelliser les régions d’une partition générée à partir de formes élémentaires comme étant intérieur ou extérieur de manière robuste au bruit et aux données
Geometric modeling and semantization of indoor scenes from sampled point data is an emerging research topic. Recent advances in acquisition technologies provide highly accurate laser scanners and low-cost handheld RGB-D cameras for real-time acquisition. However, the processing of large data sets is hampered by high amounts of clutter and various defects such as missing data, outliers and anisotropic sampling. This thesis investigates three novel methods for efficient geometric modeling and semantization from unstructured point data: Shape detection, classification and geometric modeling. Chapter 2 introduces two methods for abstracting the input point data with primitive shapes. First, we propose a line extraction method to detect wall segments from a horizontal cross-section of the input point cloud. Second, we introduce a region growing method that progressively detects and reinforces regularities of planar shapes. This method utilizes regularities common to man-made architecture, i.e. coplanarity, parallelism and orthogonality, to reduce complexity and improve data fitting in defect-laden data. Chapter 3 introduces a method based on statistical analysis for separating clutter from structure. We also contribute a supervised machine learning method for object classification based on sets of planar shapes. Chapter 4 introduces a method for 3D geometric modeling of indoor scenes. We first partition the space using primitive shapes detected from permanent structures. An energy formulation is then used to solve an inside/outside labeling of a space partitioning, the latter providing robustness to missing data and outliers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Ait, Fares Wassima. „Détection et suivi d'objets par vision fondés sur segmentation par contour actif base région“. Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2143/.

Der volle Inhalt der Quelle
Annotation:
La segmentation et le suivi d'objets sont des domaines de recherche compétitifs dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet de celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous utilisons des critères qui dépendent des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode du contour actif, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées
Object segmentation and tracking is a challenging area of ongoing research in computer vision. One important application lies in robotics where the ability to accurately segment an object of interest from its background is crucial and particularly on images acquired onboard during robot motion. Object segmentation technique consists in separating the object region from the image background according to a pre-defined criterion. Object tracking is a process of determining the positions of moving objects in image sequences. Several techniques can be applied to ensure these operations. In this thesis, we are interested to segment and track objects in video sequences using active contour method due to its robustness and efficiency to segment and track non-rigid objects. Active contour method consists in making a curve converge from an initial position around the object to be detected towards this object boundary according to a pre-defined criterion. We employ criteria which depend on the image regions what may impose certain constraints on the characteristics of these regions as a homogeneity assumption. This assumption may not always be verified due to the heterogeneity often present in images. In order to cope with the heterogeneity that may appear either in the object of interest or in the image background in noisy images using an inadequate active contour initialization, we propose a technique that combines local and global statistics in order to compute the segmentation criterion. By using a radius with a fixed size, a half-disk is superposed on each point of the active contour to define the local extraction regions. However, when the heterogeneity appears on both the object of interest and the image background, we develop a new technique based on a flexible radius that defines two half-disks with two different radius values to extract the local information. The choice of the value of these two radii is determined by taking into consideration the object size as well as the distance separating the object of interest from its neighbors. Finally, to track a mobile object within a video sequence using the active contour method, we develop a hybrid object tracking approach based on region characteristics and on motion vector of interest points extracted on the object region. Using our approach, the initial active contour for each image will be adequately adjusted in a way that it will be as close as possible to the actual boundary of the object of interest so that the evolution of active contour based on characteristics of the region will not be trapped by false contours. Simulation results on synthetic and real images validate the effectiveness of the proposed approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Almansa, Andrés. „Echantillonnage, interpolation et détection : applications en imagerie satellitaire“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2002. http://tel.archives-ouvertes.fr/tel-00665725.

Der volle Inhalt der Quelle
Annotation:
Cette thèse aborde quelques-uns des problèmes qui surviennent dans la conception d'un système complet de vision par ordinateur : de l'échantillonnage à la détection de structures et leur interprétation. La motivation principale pour traiter ces problèmes a été fournie par le CNES et la conception des satellites d'observation terrestre, ainsi que par les applications de photogrammétrie et vidéo-surveillance chez Cognitech, Inc. pendant les étapes finales de ce travail, mais les techniques développées sont d'une généralité suffisante pour présenter un intérêt dans d'autres systèmes de vision par ordinateur. Dans une première partie nous abordons une étude comparative des différents systèmes d'échantillonnage d'images sur un réseau régulier, soit carré soit hexagonal, à l'aide d'une mesure de résolution effective, qui permet de déterminer la quantité d'information utile fournie par chaque pixel du réseau, une fois que l'on a séparé les effets du bruit et du repliement spectral. Cette mesure de résolution est utilisée à son tour pour améliorer des techniques de zoom et de restauration basées sur la minimisation de la variation totale. Ensuite l'étude comparative est poursuivie en analysant dans quelle mesure chacun des systèmes permet d'éliminer les perturbations du réseau d'échantillonnage dues aux micro-vibrations du satellite pendant l'acquisition. Après une présentation des limites théoriques du problème, nous comparons les performances des méthodes de reconstruction existantes avec un nouvel algorithme, mieux adapté aux conditions d'échantillonnage du CNES. Dans une deuxième partie nous nous intéressons à l'interpolation de modèles d'élévation de terrain, dans deux cas particuliers: l'interpolation de lignes de niveau, et l'étude des zones dans lesquelles une méthode de corrélation à partir de paires stéréo ne fournit pas des informations fiables. Nous étudions les liens entre les méthodes classiques utilisées en sciences de la terre tels que Krigeage ou distances géodésiques, et la méthode AMLE, et nous proposons une extension de la théorie axiomatique de l'interpolation qui conduit à cette dernière. Enfin une évaluation expérimentale permet de conclure qu'une nouvelle combinaison du Krigeage avec l'AMLE fournit les meilleures interpolations pour les modèles de terrain. Enfin nous nous intéressons à la détection d'alignements et de leurs points de fuite dans une image, car ils peuvent être utilisés aussi bien pour la construction de modèles d'élévation urbains, que pour résoudre des problèmes de photogrammétrie et calibration de caméras. Notre approche est basée sur la théorie de la Gestalt, et son implémentation effective récemment proposée par Desolneux-Moisan-Morel à l'aide du principe de Helmholtz. Le résultat est un détecteur de points de fuite sans paramètres, qui n'utilise aucune information a priori sur l'image ou la caméra.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Lhéritier, Alix. „Méthodes non-paramétriques pour l'apprentissage et la détection de dissimilarité statistique multivariée“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4072/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente trois contributions en lien avec l'apprentissage et la détection de dissimilarité statistique multivariée, problématique d'importance primordiale pour de nombreuses méthodes d'apprentissage utilisées dans un nombre croissant de domaines. La première contribution introduit la notion de taille d'effet multivariée non-paramétrique, éclairant la nature de la dissimilarité détectée entre deux jeux de données, en deux étapes. La première consiste en une décomposition d'une mesure de dissimilarité (divergence de Jensen-Shannon) visant à la localiser dans l'espace ambiant, tandis que la seconde génère un résultat facilement interprétable en termes de grappes de points de forte discrépance et en proximité spatiale. La seconde contribution présente le premier test non-paramétrique d'homogénéité séquentiel, traitant les données issues de deux jeux une à une--au lieu de considérer ceux-ci- in extenso. Le test peut ainsi être arrêté dès qu'une évidence suffisamment forte est observée, offrant une flexibilité accrue tout en garantissant un contrôle del'erreur de type I. Sous certaines conditions, nous établissons aussi que le test a asymptotiquement une probabilité d'erreur de type II tendant vers zéro. La troisième contribution consiste en un test de détection de changement séquentiel basé sur deux fenêtres glissantes sur lesquelles un test d'homogénéité est effectué, avec des garanties sur l'erreur de type I. Notre test a une empreinte mémoire contrôlée et, contrairement à des méthodes de l'état de l'art qui ont aussi un contrôle sur l'erreur de type I, a une complexité en temps constante par observation, le rendant adapté aux flux de données
In this thesis, we study problems related to learning and detecting multivariate statistical dissimilarity, which are of paramount importance for many statistical learning methods nowadays used in an increasingly number of fields. This thesis makes three contributions related to these problems. The first contribution introduces a notion of multivariate nonparametric effect size shedding light on the nature of the dissimilarity detected between two datasets. Our two step method first decomposes a dissimilarity measure (Jensen-Shannon divergence) aiming at localizing the dissimilarity in the data embedding space, and then proceeds by aggregating points of high discrepancy and in spatial proximity into clusters. The second contribution presents the first sequential nonparametric two-sample test. That is, instead of being given two sets of observations of fixed size, observations can be treated one at a time and, when strongly enough evidence has been found, the test can be stopped, yielding a more flexible procedure while keeping guaranteed type I error control. Additionally, under certain conditions, when the number of observations tends to infinity, the test has a vanishing probability of type II error. The third contribution consists in a sequential change detection test based on two sliding windows on which a two-sample test is performed, with type I error guarantees. Our test has controlled memory footprint and, as opposed to state-of-the-art methods that also provide type I error control, has constant time complexity per observation, which makes our test suitable for streaming data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Gales, Guillaume. „Mise en correspondance de pixels pour la stéréovision binoculaire par propagation d'appariements de points d'intérêt et sondage de régions“. Phd thesis, Toulouse 3, 2011. http://tel.archives-ouvertes.fr/tel-00622859.

Der volle Inhalt der Quelle
Annotation:
La mise en correspondance stéréoscopique est un des principaux problèmes de la vi- sion par ordinateur. Elle consiste à trouver dans deux images d'une même scène, prises à des positions différentes, les couples de pixels qui sont les projections d'un même point de la scène. Durant ces vingt dernières années, de nombreuses méthodes locales et globales ont été proposées pour résoudre ce problème. Plus récemment, grâce à un pro- tocole d'évaluation de référence dans la communauté, une catégorie de méthodes fondées sur les régions a montré des performances intéressantes dans le cadre de la stéréovision binoculaire dite " small-baseline " (dont les images sont prises à des positions proches). Une contribution de ce travail porte sur un type particulier de méthode locale appelé propagation de germes. La zone de recherche des correspondants est réduite aux voisinages d'appariements fiables appelés germes, en faisant l'hypothèse que, généralement, deux pixels voisins ont des correspondants proches. Cela permet de réduire les temps de calculs et d'éviter certaines ambiguïtés. Cependant, le succès de ce type de méthode est fortement dépendant du choix de ces germes. Dans ce mémoire, nous proposons une étude de l'étape de sélection des germes. Nous nous concentrons sur la mise en correspondance de points d'intérêt. Il s'agit de points de l'image ayant des caractéristiques intéressantes pour une application donnée. Dans notre cas, nous avons besoin de pixels qui peuvent être mis en correspondance de manière sûre. Nous comparons quatorze détecteurs bien connus associés à cinq mesures de corrélation. Certaines de ces mesures sont conçues pour être robustes à un des principaux problèmes de la mise en correspondance stéréoscopique : les ruptures de profondeur. En outre, cette étude donne des conseils sur la manière de choisir les paramètres des différentes méthodes afin de trouver les meilleurs germes possibles selon des critères donnés. Ensuite, ces germes sont utilisés avec deux approches de propagation et les résultats sont évalués. Une autre contribution porte sur une nouvelle approche de mise en correspondance sté- réoscopique dense fondée sur les régions. Différentes segmentations couleur sont utilisées. Ensuite, plusieurs instances d'un modèle de surface sont calculées pour les différentes ré- gions selon des disparités initiales tirées au sort. Pour chaque pixel, chaque instance donne une disparité qui est considérée comme un vote. Finalement, la disparité qui reçoit le plus de voix est sélectionnée comme disparité finale. Cette approche est relativement simple à implémenter et s'avère efficace en donnant des résultats compétitifs vis-à-vis de l'état de l'art.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Rovere, Martina. „Étude fonctionnelle de la famille des facteurs de transcription ERF-VIIs chez Medicago truncatula : régulateurs clés de l’adaptation au manque d’oxygène“. Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4037/document.

Der volle Inhalt der Quelle
Annotation:
Les légumineuses sont connues pour leurs capacités à établir une relation symbiotique avec des bactéries du sol fixatrices de l'azote atmosphérique. Cette interaction aboutit à la formation d'un nouvel organe au niveau des racines, la nodosité, au sein duquel le symbiote convertit l'azote atmosphérique (N2) en ammoniac, qui peut être directement consommé par les plantes. A l’intérieur de cette nodosité, la concentration en oxygène (O2) est maintenue à un très faible niveau car la réaction de réduction du N2 par l’enzyme bactérienne nitrogénase est inhibée par des traces d’oxygène. Un mécanisme de perception directe de l'O2 impliquant des membres de la famille des facteurs de transcription « Ethylene Responsive Factors » (ERFs) du groupe VII a récemment été découvert chez Arabidopsis thaliana. Ces facteurs de transcription (FT) possèdent une extrémité N-terminale caractéristique avec un résidu de cystéine à la seconde position. Dans des conditions normales d'O2, les FT sont conduit à la dégradation suivant une voie spécifique du protéasome. En condition de stress hypoxique, les TFs sont stabilisés et peuvent activer l’expression des gènes de réponse à l'hypoxie. Il a été démontré que la présence d’O2 et de NO était nécessaire pour déstabiliser ces protéines, et qu'une réduction de la disponibilité de l'un ou l'autre des gaz est suffisante pour protéger le résidu cystéine N-terminale de l'oxydation. L’objectif de cette thèse a été d'étudier le rôle de la famille ERF-VII dans la perception et l'adaptation au manque d'O2 chez M. truncatula. Des travaux ont aussi été menés pour déterminer l’importance du NO dans le fonctionnement en microoxie de la nodosité. Quatre gènes codant pour des facteurs de transcription de la famille ERF-VII ont été identifiés dans le génome de M. truncatula. La caractérisation de cette famille au niveau transcriptionnel a révélé que seul MtERF-B2.2 était induit par le stress hypoxique et au cours du développement des nodosités. Les trois autres, MtERF-B1.1, MtERF-B1.11 et MtERF-B2.3, sont constitutivement exprimés dans les feuilles, les racines et les nodosités. Pour étudier la stabilité de la protéine MtERF-B2.1, l’orthologue de RAP2.12 principal ERF-VII décrit dans la perception de l’O2 chez Arabidopsis, en fonction de la disponibilité de O2/NO, nous avons réalisé une protéine de fusion entre l’extrémité N-terminale de notre protéine et la protéine rapporteur luciférase. Les résultats obtenus sur des protoplastes d'Arabidopsis montrent l’implication la partie N-terminale de MtERF-B2.1 dans la régulation de la stabilité de la protéine, mais en contradiction avec les résultats obtenus en plantes composites de M. truncatula. La fonction de MtERF-B2.1 et MtERF-B2.11 a également été étudiée dans le cadre de la réponse au stress hypoxique et au cours du processus de nodulation en utilisant une stratégie d'interférence ARN. Des racines transgéniques dérégulées sur l’expression de MtERF-B2.1 et MtERF-B2.11 ont montré un défaut d’activation de plusieurs gènes de réponses à l'hypoxie tels que l’alcool déshydrogénase (ADH1) ou la pyruvate décarboxylase (PDC1). Ces racines transgéniques ARNi-MtERF-B2.1/B2.11 sont également affectées dans l'interaction symbiotique avec une réduction significative de la capacité de nodulation et de l'activité de fixation de l'azote dans les nodules matures. En conclusion, ces travaux révèlent que le mécanisme de détection d'O2 est médié par les ERF-VII dans les nodosités de M. truncatula et que ce mécanisme, associé aux cibles moléculaires régulées en aval, participe au développement de cet organe et au maintien de la capacité de fixatrice de celui-ci. De plus, les résultats indiquent que MtERF-B2.1/B2.11 sont des régulateurs positifs du métabolisme anaérobie et que les gènes associés au cycle hémoglobine-NO sont susceptibles d'activer d'autres voies de génération d'ATP
Legume crops are known for their capacities to establish a symbiotic relationship with nitrogen fixing soil bacteria. This mutualism culminates in the formation of a new plant organ, the root nodule, in which the symbiont converts atmospheric nitrogen (N2) into ammonia, which can be directly consumed by plants. In nodules, bacterial nitrogenase enzyme is inhibited by traces of oxygen (O2) so different mechanisms maintain this organ at low O2 level. At the same time, nodules need to maintain a high ATP level to support the nitrogenase activity, which is highly energy demanding. Thus, a balance between a tight protection from O2 and an efficient energy production, referred as the “O2 paradox” of N2-fixing legume nodules, has to be reached. In Arabidopsis thaliana, a direct oxygen sensing mechanism has recently been discovered involving members of the ethylene responsive factors (ERFs) group VII. These transcription factors (TFs) possess a characteristic N-terminal amino acid with a cysteine residue at the second position that, under normal O2 conditions, leads to protein degradation following a specific pathway called the N-end rule pathway. Furthermore, it was shown that both O2 and nitric oxide (NO) are required to destabilize the ERFs VII and that a reduction in the availability of either gas is sufficient to stabilize these proteins. Therefore, the goal of this thesis was to investigated the role of ERF-VII family in O2 sensing and adaptation to hypoxia in M. truncatula, model plant for legumes, and to understand how NO interacts with O2 in hypoxic signalization in the microoxic environment that characterizes the nodule. We identified four genes belonging to the ERF-VII TF family in the M. truncatula genome, which present a strong similarity with ERF-VII of Arabidopsis. The characterization of this family at the transcriptional level revealed that only MtERF-B2.2 is up-regulated by hypoxia stress and during nodule development. The three others, MtERF-B1.1, MtERF-B1.11 and MtERF-B2.3 are found constitutively expressed in leaves, roots and nodules. To investigated the protein stability of MtERF-B2.1, the closest orthologous to AtRAP2.12 described as O2-sensors in Arabidopsis, in function of O2/NO availability, we realized a fusion protein with the luciferase reporter protein. Our results on Arabidopsis protoplasts indicated that the N-terminal part of MtERF-B2.1 drives its O2-dependent degradation by the N-end rule pathway. The function of MtERF-B2.1 and MtERF-B2.11 was also investigated both in response to hypoxia stress and during the nodulation process using an RNA interference strategy. Silencing of MtERFB2.1 and MtERF-2.11 showed a significant lower activation of several core hypoxia-responsive genes such as ADH1, PDC1, nsHb1 and AlaAT. These double knock-down transgenic roots were also affected in symbiotic interaction with a significant reduction of the nodulation capacity and nitrogen fixation activity in mature nodules. Overall, the results reveal that O2 sensing mechanism is mediated by ERF-VIIs in M. truncatula roots and nodules and that this mechanism, together with downstream targets, is involved in the organ development and ability to efficiently fix nitrogen. Furthermore, results indicated that MtERF-B2.1/B2.11 are positive regulator of the anaerobic metabolism and the Hb-NO cycle– related genes likely in order to activate alternative ATP generation pathways
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Guislain, Maximilien. „Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D“. Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1219/document.

Der volle Inhalt der Quelle
Annotation:
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images
Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

El, Sayed Abdul Rahman. „Traitement des objets 3D et images par les méthodes numériques sur graphes“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH19/document.

Der volle Inhalt der Quelle
Annotation:
La détection de peau consiste à détecter les pixels correspondant à une peau humaine dans une image couleur. Les visages constituent une catégorie de stimulus importante par la richesse des informations qu’ils véhiculent car avant de reconnaître n’importe quelle personne il est indispensable de localiser et reconnaître son visage. La plupart des applications liées à la sécurité et à la biométrie reposent sur la détection de régions de peau telles que la détection de visages, le filtrage d'objets 3D pour adultes et la reconnaissance de gestes. En outre, la détection de la saillance des mailles 3D est une phase de prétraitement importante pour de nombreuses applications de vision par ordinateur. La segmentation d'objets 3D basée sur des régions saillantes a été largement utilisée dans de nombreuses applications de vision par ordinateur telles que la correspondance de formes 3D, les alignements d'objets, le lissage de nuages de points 3D, la recherche des images sur le web, l’indexation des images par le contenu, la segmentation de la vidéo et la détection et la reconnaissance de visages. La détection de peau est une tâche très difficile pour différentes raisons liées en général à la variabilité de la forme et la couleur à détecter (teintes différentes d’une personne à une autre, orientation et tailles quelconques, conditions d’éclairage) et surtout pour les images issues du web capturées sous différentes conditions de lumière. Il existe plusieurs approches connues pour la détection de peau : les approches basées sur la géométrie et l’extraction de traits caractéristiques, les approches basées sur le mouvement (la soustraction de l’arrière-plan (SAP), différence entre deux images consécutives, calcul du flot optique) et les approches basées sur la couleur. Dans cette thèse, nous proposons des méthodes d'optimisation numérique pour la détection de régions de couleurs de peaux et de régions saillantes sur des maillages 3D et des nuages de points 3D en utilisant un graphe pondéré. En se basant sur ces méthodes, nous proposons des approches de détection de visage 3D à l'aide de la programmation linéaire et de fouille de données (Data Mining). En outre, nous avons adapté nos méthodes proposées pour résoudre le problème de la simplification des nuages de points 3D et de la correspondance des objets 3D. En plus, nous montrons la robustesse et l’efficacité de nos méthodes proposées à travers de différents résultats expérimentaux réalisés. Enfin, nous montrons la stabilité et la robustesse de nos méthodes par rapport au bruit
Skin detection involves detecting pixels corresponding to human skin in a color image. The faces constitute a category of stimulus important by the wealth of information that they convey because before recognizing any person it is essential to locate and recognize his face. Most security and biometrics applications rely on the detection of skin regions such as face detection, 3D adult object filtering, and gesture recognition. In addition, saliency detection of 3D mesh is an important pretreatment phase for many computer vision applications. 3D segmentation based on salient regions has been widely used in many computer vision applications such as 3D shape matching, object alignments, 3D point-point smoothing, searching images on the web, image indexing by content, video segmentation and face detection and recognition. The detection of skin is a very difficult task for various reasons generally related to the variability of the shape and the color to be detected (different hues from one person to another, orientation and different sizes, lighting conditions) and especially for images from the web captured under different light conditions. There are several known approaches to skin detection: approaches based on geometry and feature extraction, motion-based approaches (background subtraction (SAP), difference between two consecutive images, optical flow calculation) and color-based approaches. In this thesis, we propose numerical optimization methods for the detection of skins color and salient regions on 3D meshes and 3D point clouds using a weighted graph. Based on these methods, we provide 3D face detection approaches using Linear Programming and Data Mining. In addition, we adapted our proposed methods to solve the problem of simplifying 3D point clouds and matching 3D objects. In addition, we show the robustness and efficiency of our proposed methods through different experimental results. Finally, we show the stability and robustness of our methods with respect to noise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Primet, Maël. „Méthodes probabiliste pour le suivi de points et l'analyse d'images biologiques“. Phd thesis, Université René Descartes - Paris V, 2011. http://tel.archives-ouvertes.fr/tel-00669220.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons dans cette thèse au problème du suivi d'objets, que nous abordons par des méthodes statistiques. La première contribution de cette thèse est la conception d'un algorithme de suivi de bactéries dans une séquence d'image et de reconstruction de leur lignage, travail ayant donné lieu à la réalisation d'une suite logicielle aujourd'hui utilisée dans un laboratoire de recherche en biologie. La deuxième contribution est une étude théorique du problème de la détection de trajectoires dans un nuage de points. Nous définissons un détecteur de trajectoires utilisant le cadre statistique des méthodes a contrario, qui ne requiert essentiellement aucun paramètre pour fonctionner. Ce détecteur fournit des résultats remarquables, et permet notamment de retrouver des trajectoires dans des séquences contenant un grand nombre de points de bruit, tout en conservant un taux de fausses détections de trajectoires très faible. Nous étudions ensuite plus spécifiquement le problème de l'affectation de nuages de points entre deux images, problème rencontré notamment pour la détection de trajectoires ou l'appariement d'images stéréographiques. Nous proposons d'abord un modèle théoriquement optimal pour l'affectation de points qui nous permet d'étudier les performances de plusieurs algorithmes classiques dans différentes conditions. Nous formulons ensuite un algorithme sans paramètre en utilisant le cadre a contrario, ce qui nous permet ensuite d'obtenir un nouvel algorithme de suivi de trajectoires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Irrera, Paolo. „Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images“. Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0031/document.

Der volle Inhalt der Quelle
Annotation:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Irrera, Paolo. „Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images“. Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0031.

Der volle Inhalt der Quelle
Annotation:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Paudel, Danda Pani. „Local and global methods for registering 2D image sets and 3D point clouds“. Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS077/document.

Der volle Inhalt der Quelle
Annotation:
Pas de résumé
In this thesis, we study the problem of registering 2D image sets and 3D point clouds under threedifferent acquisition set-ups. The first set-up assumes that the image sets are captured using 2Dcameras that are fully calibrated and coupled, or rigidly attached, with a 3D sensor. In this context,the point cloud from the 3D sensor is registered directly to the asynchronously acquired 2D images.In the second set-up, the 2D cameras are internally calibrated but uncoupled from the 3D sensor,allowing them to move independently with respect to each other. The registration for this set-up isperformed using a Structure-from-Motion reconstruction emanating from images and planar patchesrepresenting the point cloud. The proposed registration method is globally optimal and robust tooutliers. It is based on the theory Sum-of-Squares polynomials and a Branch-and-Bound algorithm.The third set-up consists of uncoupled and uncalibrated 2D cameras. The image sets from thesecameras are registered to the point cloud in a globally optimal manner using a Branch-and-Prunealgorithm. Our method is based on a Linear Matrix Inequality framework that establishes directrelationships between 2D image measurements and 3D scene voxels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Destrez, Raphaël. „Recalage automatique de modèles 3D d'arcades dentaires à partir de photographies“. Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00994596.

Der volle Inhalt der Quelle
Annotation:
En orthodontie, le diagnostic et la planification d'un traitement reposent sur la connaissance de l'architecture dentaire du patient relevée, entre autre, par un moulage en plâtre. Aujourd'hui, des logiciels permettent de manipuler des modèles numériques des arcades dentaires obtenus après numérisation des moulages. Afin d'observer l'engrènement des dents, il est nécessaire de mettre en occlusion les deux arcades numérisées séparément. Cette étape est actuellement manuelle et l'objet de ces travaux de thèse est de proposer une chaîne robuste de traitements permettant un recalage automatique des deux arcades guidé par plusieurs photos "en bouche" du patient. L'approche proposée consiste à définir trois types de points singuliers et à mettre en place des méthodes robustes de détection automatique à la fois sur les modèles 3D et les images couleur s'appuyant sur la courbure et la texture. Une fois mis en correspondance, ces points homologues 2D/3D permettent d'estimer les matrices de projection puis la transformation rigide (6ddl) pour positionner au mieux la mandibule par rapport au maxillaire en minimisant les erreurs de reprojection dans plusieurs vues. Afin de s'affranchir du bruit de détection, les positions 2D et/ou 3D des points sont améliorées au cours du processus d'optimisation. De nombreux tests sur des données virtuelles et réelles valident l'approche choisie. L'occlusion finale obtenue par recalage automatique est proche de la référence de l'expert. Les résultats sont encourageants pour fournir une alternative automatique à intégrer dans un outil d'aide au diagnostic.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie