Dissertations / Theses on the topic 'Caractéristique extraction'

To see the other types of publications on this topic, follow the link: Caractéristique extraction.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Caractéristique extraction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pacheco, Do Espirito Silva Caroline. "Feature extraction and selection for background modeling and foreground detection." Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS005/document.

Full text
Abstract:
Dans ce manuscrit de thèse, nous présentons un descripteur robuste pour la soustraction d’arrière-plan qui est capable de décrire la texture à partir d’une séquence d’images. Ce descripteur est moins sensible aux bruits et produit un histogramme court, tout en préservant la robustesse aux changements d’éclairage. Un autre descripteur pour la reconnaissance dynamique des textures est également proposé. Le descripteur permet d’extraire non seulement des informations de couleur, mais aussi des informations plus détaillées provenant des séquences vidéo. Enfin, nous présentons une approche de sélection de caractéristiques basée sur le principe d'apprentissage par ensemble qui est capable de sélectionner les caractéristiques appropriées pour chaque pixel afin de distinguer les objets de premier plan de l’arrière plan. En outre, notre proposition utilise un mécanisme pour mettre à jour l’importance relative de chaque caractéristique au cours du temps. De plus, une approche heuristique est utilisée pour réduire la complexité de la maintenance du modèle d’arrière-plan et aussi sa robustesse. Par contre, cette méthode nécessite un grand nombre de caractéristiques pour avoir une bonne précision. De plus, chaque classificateur de base apprend un ensemble de caractéristiques au lieu de chaque caractéristique individuellement. Pour compenser ces limitations, nous avons amélioré cette approche en proposant une nouvelle méthodologie pour sélectionner des caractéristiques basées sur le principe du « wagging ». Nous avons également adopté une approche basée sur le concept de « superpixel » au lieu de traiter chaque pixel individuellement. Cela augmente non seulement l’efficacité en termes de temps de calcul et de consommation de mémoire, mais aussi la qualité de la détection des objets mobiles
In this thesis, we present a robust descriptor for background subtraction which is able to describe texture from an image sequence. The descriptor is less sensitive to noisy pixels and produces a short histogram, while preserving robustness to illumination changes. Moreover, a descriptor for dynamic texture recognition is also proposed. This descriptor extracts not only color information, but also a more detailed information from video sequences. Finally, we present an ensemble for feature selection approach that is able to select suitable features for each pixel to distinguish the foreground objects from the background ones. Our proposal uses a mechanism to update the relative importance of each feature over time. For this purpose, a heuristic approach is used to reduce the complexity of the background model maintenance while maintaining the robustness of the background model. However, this method only reaches the highest accuracy when the number of features is huge. In addition, each base classifier learns a feature set instead of individual features. To overcome these limitations, we extended our previous approach by proposing a new methodology for selecting features based on wagging. We also adopted a superpixel-based approach instead of a pixel-level approach. This does not only increases the efficiency in terms of time and memory consumption, but also can improves the segmentation performance of moving objects
APA, Harvard, Vancouver, ISO, and other styles
2

Mokrane, Abdenour. "Représentation de collections de documents textuels : application à la caractéristique thématique." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00401651.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le contexte d'extraction de connaissances à partir de documents textuels, appelé Fouille de textes (FdT) ou Text Mining (TM). Ce mémoire s'articule autour des problématiques liées à la modélisation de documents et la représentation de connaissances textuelles. Il s'intéresse à des collections de documents qui abordent des thématiques différentes. Le mémoire s'attache à élaborer un modèle de représentation et un système permettant d'extraire automatiquement des informations sur les différentes thématiques abordées mais également des mécanismes offrant la possibilité d'avoir des aperçus sur les contenus. Il est montré que les approches basées sur les associations de termes sont adaptées à ce contexte. Cependant, ces approches souffrent de certaines lacunes liées au choix du modèle et de la connaissance à retenir. Pour l'élaboration du modèle de représentation, le choix porte sur l'extension de l'approche d'association de termes. A cet effet, la notion de contexte est étudiée et un nouveau critère appelé « partage de contextes » est défini. Via ce critère, il est possible de détecter des liens entre termes qui n'apparaîtraient pas autrement. L'objectif est de représenter le plus de connaissances possibles. Ces dernières sont exploitées pour une meilleure représentation du contenu et des informations enfouies dans les textes. Un système appelé IC-DOC est réalisé, ce dernier met en oeuvre le modèle de représentation dans un nouvel environnement d'extraction de connaissances à partir de documents textuels. Dans un contexte de veille scientifique, la proposition de ce type de systèmes devient indispensable pour extraire et visualiser de manière automatique l'information contenue dans les collections de documents textuels. L'originalité du système IC-DOC est de tirer profit du modèle de représentation proposé. Une série d'expérimentations et de validations sur divers jeux de données sont réalisées via le système IC-DOC. Deux applications sont considérées. La première s'intéresse à la caractérisation thématique et la seconde étend la première pour une cartographie visuelle de connaissances textuelles.
APA, Harvard, Vancouver, ISO, and other styles
3

Nguyen, Thanh Tuan. "Représentations efficaces des textures dynamiques." Electronic Thesis or Diss., Toulon, 2020. https://bu.univ-tln.fr/files/userfiles/file/intranet/travuniv/theses/sciences/2020/2020_Nguyen_ThanhTuan.pdf.

Full text
Abstract:
La représentation des textures dynamiques (TD), considérée comme une séquence de textures en mouvement, est un défi en analyse des vidéos dans des applications diverses de la vision par ordinateur. Cela est en partie causé par la désorientation des mouvements, les impacts négatifs des problèmes bien connus dans la capture des caractéristiques turbulentes: bruit, changements d'environnement, illumination, transformations de similarité, mise en échelles, etc. Dans le cadre de cette thèse, nous introduisons des solutions significatives afin de traiter les problèmes ci-dessus. Par conséquent, trois approches principales suivantes sont proposées pour le codage efficace des TDs : i) à partir de trajectoires denses extraites d'une vidéo donnée; ii) basé sur des réponses robustes extraites par des modèles de moment; iii) basé sur des résultats filtrés qui sont calculés par des variantes de noyaux de filtrage gaussien. En parallèle, nous proposons également plusieurs opérateurs discriminants pour capturer les caractéristiques spatio-temporelles des codages de TD ci-dessus. Pour une représentation TD basée sur des trajectoires denses, nous extrayons d'abord des trajectoires denses à partir d'une vidéo donnée. Les points de mouvement le long des trajectoires sont ensuite codés par notre opérateur xLVP, une extension des modèles vectoriels locaux (LVP) dans un contexte de codage complémentaire, afin de capturer des caractéristiques directionnelles basées sur une trajectoire dense pour la représentation efficace de TD. Pour la description TD basée sur des modèles de moment, motivée par un modèle d'images de moment, nous proposons un nouveau modèle de volumes de moment basé sur des informations statistiques des régions de support sphériques centrées sur un voxel. Deux de ces modèles sont ensuite pris en compte dans l'analyse vidéo pour mettre en évidence des images/volumes de moment. Afin d'encoder les images basées sur le moment, nous nous adressons à l'opérateur CLSP, une variante des modèles binaires locaux terminés (CLBP). De plus, notre opérateur xLDP, une extension des modèles de dérivés locaux (LDP) dans un contexte de codage complémentaire, est introduit pour capturer les caractéristiques spatio-temporelles basés sur les volumes des moments. Pour la représentation DT basée sur les filtrages Gaussiens, nous étudierons de nombreux types de filtrages dans l'étape de prétraitement d'une vidéo pour mettre en évidence des caractéristiques robustes. Après cette étape, les sorties sont codées par des variantes de LBP pour construire les descripteurs de TD. Plus concrètement, nous exploitons les noyaux gaussiens et des variantes de gradients gaussiens d'ordre élevé pour le filtrage. En particulier, nous introduisons un nouveau noyau de filtrage (DoDG) en tenant compte de la différence des gradients gaussiens, qui permet de mettre en évidence des composants robustes filtrés par DoDG pour construire des descripteurs efficaces en maintenant une petite dimensionalité. Parallèlement aux filtrages gaussiens, certains novels opérateurs sont introduits pour répondre à différents contextes du codage TD local: CAIP, une adaptation de CLBP pour résoudre le problème proche de zéro causé par des caractéristiques bipolaires; LRP, basé sur un concept de cube carré de voisins locaux; CHILOP, une formulation généralisée de CLBP. Les résultats de reconnaissance TD ont validé que nos propositions fonctionnent de manière significative par rapport à l'état de l'art. Certaines d'entre elles ont des performances très proches des approches d'apprentissage profond. De plus, nos descripteurs qui ont une dimensionalité très petite par rapport à celle des méthodes d'apprentissage profond sont appréciées pour les applications mobiles
Representation of dynamic textures (DTs), well-known as a sequence of moving textures, is a challenge in video analysis for various computer vision applications. It is partly due to disorientation of motions, the negative impacts of the well-known issues on capturing turbulent features: noise, changes of environment, illumination, similarity transformations, etc. In this work, we introduce significant solutions in order to deal with above problems. Accordingly, three streams of those are proposed for encoding DTs: i) based on dense trajectories extracted from a given video; ii) based on robust responses extracted by moment models; iii) based on filtered outcomes which are computed by variants of Gaussian-filtering kernels. In parallel, we also propose several discriminative descriptors to capture spatio-temporal features for above DT encodings. For DT representation based on dense trajectories, we firstly extract dense trajectories from a given video. Motion points along the paths of dense trajectories are then encoded by our xLVP operator, an important extension of Local Vector Patterns (LVP) in a completed encoding context, in order to capture directional dense-trajectory-based features for DT representation.For DT description based on moment models, motivated by the moment-image model, we propose a novel model of moment volumes based on statistical information of spherical supporting regions centered at a voxel. Two these models are then taken into account video analysis to point out moment-based images/volumes. In order to encode the moment-based images, we address CLSP operator, a variant of completed local binary patterns (CLBP). In the meanwhile, our xLDP, an important extension of Local Derivative Patterns (LDP) in a completed encoding context, is introduced to capture spatio-temporal features of the moment-volume-based outcomes. For DT representation based on the Gaussian-based filterings, we will investigate many kinds of filterings as pre-processing analysis of a video to point out its filtered outcomes. After that, these outputs are encoded by discriminative operators to structure DT descriptors correspondingly. More concretely, we exploit the Gaussian-based kernel and variants of high-order Gaussian gradients for the filtering analysis. Particularly, we introduce a novel filtering kernel (DoDG) in consideration of the difference of Gaussian gradients, which allows to point out robust DoDG-filtered components to construct prominent DoDG-based descriptors in small dimension. In parallel to the Gaussian-based filterings, some novel operators will be introduced to meet different contexts of the local DT encoding: CAIP, an adaptation of CLBP to fix the close-to-zero problem caused by separately bipolar features; LRP, based on a concept of a square cube of local neighbors sampled at a center voxel; CHILOP, a generalized formulation of CLBP to adequately investigate local relationships of hierarchical supporting regions. Experiments for DT recognition have validated that our proposals significantly perform in comparison with state of the art. Some of which have performance being very close to deep-learning approaches, expected as one of appreciated solutions for mobile applications due to their simplicity in computation and their DT descriptors in a small number of bins
APA, Harvard, Vancouver, ISO, and other styles
4

Nguyen, Huu-Tuan. "Contributions to facial feature extraction for face recognition." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT034/document.

Full text
Abstract:
La tâche la plus délicate d'un système de reconnaissance faciale est la phase d'extraction de caractéristiques significatives et discriminantes. Dans le cadre de cette thèse, nous nous sommes focalisés sur cette tâche avec comme objectif l'élaboration d'une représentation de visage robuste aux variations majeures suivantes: variations d'éclairage, de pose, de temps, images de qualité différentes (vidéosurveillance). Par ailleurs, nous avons travaillé également dans une optique de traitement temps réel. Tout d'abord, en tenant compte des caractéristiques d'orientation des traits principaux du visages (yeux, bouche), une nouvelle variante nommée ELBP de célèbre descripteur LBP a été proposée. Elle s'appuie sur les informations de micro-texture contenues dans une ellipse horizontale. Ensuite, le descripteur EPOEM est construit afin de tenir compte des informations d'orientation des contours. Puis un descripteur nommée PLPQMC qui intégre des informations obtenues par filtrage monogénique dans le descripteur LPQ est proposé. Enfin le descripteur LPOG intégrant des informations de gradient est présenté. Chacun des descripteurs proposés est testé sur les 3 bases d'images AR, FERET et SCface. Il en résulte que les descripteurs PLPQMC et LPOG sont les plus performants et conduisent à des taux de reconnaissance comparables voire supérieur à ceux des meilleurs méthodes de l'état de l'art
Centered around feature extraction, the core task of any Face recognition system, our objective is devising a robust facial representation against major challenges, such as variations of illumination, pose and time-lapse and low resolution probe images, to name a few. Besides, fast processing speed is another crucial criterion. Towards these ends, several methods have been proposed through out this thesis. Firstly, based on the orientation characteristics of the facial information and important features, like the eyes and mouth, a novel variant of LBP, referred as ELBP, is designed for encoding micro patterns with the usage of an horizontal ellipse sample. Secondly, ELBP is exploited to extract local features from oriented edge magnitudes images. By this, the Elliptical Patterns of Oriented Edge Magnitudes (EPOEM) description is built. Thirdly, we propose a novel feature extraction method so called Patch based Local Phase Quantization of Monogenic components (PLPQMC). Lastly, a robust facial representation namely Local Patterns of Gradients (LPOG) is developed to capture meaningful features directly from gradient images. Chiefs among these methods are PLPQMC and LPOG as they are per se illumination invariant and blur tolerant. Impressively, our methods, while offering comparable or almost higher results than that of existing systems, have low computational cost and are thus feasible to deploy in real life applications
APA, Harvard, Vancouver, ISO, and other styles
5

Vachier, Corinne. "Extraction de caractéristiques, segmentation d'image et morphologie mathématique." Phd thesis, École Nationale Supérieure des Mines de Paris, 1995. http://pastel.archives-ouvertes.fr/pastel-00004230.

Full text
Abstract:
Cette thèse se propose d'explorer de nouvelles méthodes morphologiques permettant d'extraire les caractéristiques des régions qui composent une image. Ces méthodes sont en- suite destinées à être appliquées au problème de la segmentation d'image. Nous présentons tout d'abord deux approches classiques du problème de l'extraction de caractéristiques : celles basées sur les granulométries (opérations de tamisage) et celles basées sur l' étude des extrema des images numériques, en consacrant une attention particulière à la notion de dynamique. La dynamique value les extrema d'une image selon le contraste des régions qu'ils marquent ; nous montrons qu'elle équivaut à une opération de tamisage en contraste et que son principe rejoint celui des granulométries. Nous nous concentrons ensuite sur une généralisation du principe de la dynamique. Nous basons notre approche sur les opérateurs morphologiques connexes. Ces opérateurs ont pour spécificité d'agir sur les images en fusionnant leurs zones plates. Lorsqu'on ap- plique des opérateurs connexes de plus en plus sélectifs, des régions de l'image disparais- sent progressivement. Le niveau pour lequel une région disparaît caractérise la région au sens du critère du filtrage (en forme, en taille, en contraste, en volume...). Ceci nous conduit à introduire une nouvelle classe de transformations morphologiques, les fonctions d'extinction, qui valuent les extrema des images numériques selon les caractéristiques des régions qu'ils marquent. Une particularité importante des fonctions d'extinction, mise en évidence par l'algorithme de calcul efficace que nous proposons, est de fournir une descrip- tion hiérarchique des régions de l'image. Ceci se traduit, dans le calcul algorithmique, par la construction d'un arbre de fusion des extrema de l'image. Les fonctions d'extinction peuvent être utilisées pour sélectionner les régions perti- nentes d'une image et sont donc de grand intérêt dans les applications de filtrage et surtout de segmentation d'image (pour extraire les marqueurs des régions avant le cal- cul de la ligne de partage des eaux). Ce dernier point fait l'objet d'une étude appro- fondie. Nous donnons de nombreux exemples permettant d'illustrer leur intérêt pour la segmentation d'images complexes. Les résultats obtenus par cette méthode sont com- parés à ceux déduits de méthodes de marquage plus traditionnelles. L'apport le plus significatif des fonctions d'extinction pour la segmentation d'image est de systématiser et de simplifier considérablement la mise au point des algorithmes. Notamment, elles perme- ttent de mettre en oeuvre des processus rapides de segmentation hi érarchique interactive.
APA, Harvard, Vancouver, ISO, and other styles
6

Auclair, Fortier Marie-Flavie. "Extraction de caractéristiques contours multispectraux, contours de texture et routes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0021/MQ56853.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hanifi, Majdoulayne. "Extraction de caractéristiques de texture pour la classification d'images satellites." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/675/.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre général du traitement des données multimédias. Nous avons plus particulièrement exploité les images satellitaires pour la mise en application de ces traitements. Nous nous sommes intéressés à l'extraction de variables et de caractéristiques texturelles ; nous avons proposé une nouvelle méthode de pré-traitement des textures afin d'améliorer l'extraction de ces attributs caractéristiques. L'augmentation de la résolution des satellites récents a, paradoxalement, perturbé les chercheurs lors des premières classifications sur des données à haute résolution. Les cartes très homogènes, obtenues jusqu'alors en moyenne résolution, devenaient très fragmentées et difficiles à utiliser avec les mêmes algorithmes de classification. Une façon de remédier à ce problème consiste à caractériser le pixel en cours de classification par des paramètres mesurant l'organisation spatiale des pixels de son voisinage. Il existe plusieurs approches à l'analyse de texture dans les images. Dans le cadre des images satellitaires, l'approche statistique semble être habituellement retenue, ainsi que les méthodes des matrices de cooccurrences et du corrélogramme, basées sur l'analyse statistique au deuxième ordre (au sens des probabilités sur des couples de pixels). Et ce sont les deux dernières méthodes sur lesquelles nous allons se baser pour en extraire l'information texturelle sous forme d'un vecteur. Ces matrices présentent des inconvénients, tels que la taille mémoire nécessaire et le temps de calcul des paramètres élevé. Pour contourner ce problème, nous avons cherché une méthode de réduction du nombre de niveaux de gris appelée codage de rang (permettant de passer, dans un premier temps de 256 niveaux à 9 niveaux de gris, puis ensuite pour améliorer la qualité de l'image, passer de 9 à 16 niveaux de gris), tout en conservant la structure et la texture de l'image. L'ensemble de cette thèse a donc permis de montrer que la méthode de codage est une meilleure façon pour compresser une image sans toutefois perdre de l'information texturelle. Il permet de réduire la taille des données, ce qui réduira le temps de calcul des caractéristiques
This thesis joins in the general frame of the multimedia data processing. We particularly exploited the satellite images for the application of these treatments. We were interested in the extraction of variables and texturelles characteristics; we proposed a new method of pre-treatment of textures to improve the extraction of these characteristic attributes. The increase of the resolution of the satellites disrupted, paradoxically, the researchers during the first classifications on high-resolution data. The very homogeneous maps, obtained until then on average resolution, became very split up and difficult to use with the same algorithms of classification. A way of remedying this problem consists in characterizing the pixel in the classification by parameters measuring the spatial organization of the pixels of its neighbourhood. There are several approaches in the analysis of texture in the images. Within the framework of the satellite images, the statistical approach seems to be usually retained, as well as the methods of the cooccurrence matrix and the corrélogramme, based on the statistical analysis in the second order (in the sense of the probability on couples of pixels). And they are the last two methods on which we are going to base to extract the texturelle information from it in the form of a vector. These matrices present some drawbacks, such as the required memory size and the high calculation time of the parameters. To by-pass this problem, we looked for a method of reduction of the number of grey levels called rank coding (allowing to pass, at first of 256 levels at 9 grey levels, and then to improve the quality of the image, passing to 16 grey levels, while keeping the structure and the texture of the image. This thesis allowed to show that the method of coding is a better way to compress an image without losing however of the texturelle information. It allows to reduce the size of the data, what will reduce the calculation time of the characteristics
APA, Harvard, Vancouver, ISO, and other styles
8

Zubiolo, Alexis. "Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4117/document.

Full text
Abstract:
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique
The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class
APA, Harvard, Vancouver, ISO, and other styles
9

Alioua, Nawal. "Extraction et analyse des caractéristiques faciales : application à l'hypovigilance chez le conducteur." Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0002/document.

Full text
Abstract:
L'étude des caractéristiques faciales a suscité l'intérêt croissant de la communauté scientifique et des industriels. En effet, ces caractéristiques véhiculent des informations non verbales qui jouent un rôle clé dans la communication entre les hommes. De plus, elles sont très utiles pour permettre une interaction entre l'homme et la machine. De ce fait, l'étude automatique des caractéristiques faciales constitue une tâche primordiale pour diverses applications telles que les interfaces homme-machine, la science du comportement, la pratique clinique et la surveillance de l'état du conducteur. Dans cette thèse, nous nous intéressons à la surveillance de l'état du conducteur à travers l'analyse de ses caractéristiques faciales. Cette problématique sollicite un intérêt universel causé par le nombre croissant des accidents routiers, dont une grande partie est provoquée par une dégradation de la vigilance du conducteur, connue sous le nom de l'hypovigilance. En effet, nous pouvons distinguer trois états d'hypovigilance. Le premier, et le plus critique, est la somnolence qui se manifeste par une incapacité à se maintenir éveillé et se caractérise par les périodes de micro-sommeil correspondant à des endormissements de 2 à 6 secondes. Le second est la fatigue qui se définit par la difficulté croissante à maintenir une tâche à terme et se caractérise par une augmentation du nombre de bâillements. Le troisième est l'inattention qui se produit lorsque l'attention est détournée de l'activité de conduite et se caractérise par le maintien de la pose de la tête en une direction autre que frontale. L'objectif de cette thèse est de concevoir des approches permettant de détecter l'hypovigilance chez le conducteur en analysant ses caractéristiques faciales. En premier lieu, nous avons proposé une approche dédiée à la détection de la somnolence à partir de l'identification des périodes de micro-sommeil à travers l'analyse des yeux. En second lieu, nous avons introduit une approche permettant de relever la fatigue à partir de l'analyse de la bouche afin de détecter les bâillements. Du fait qu'il n'existe aucune base de données publique dédiée à la détection de l'hypovigilance, nous avons acquis et annoté notre propre base de données représentant différents sujets simulant des états d'hypovigilance sous des conditions d'éclairage réelles afin d'évaluer les performances de ces deux approches. En troisième lieu, nous avons développé deux nouveaux estimateurs de la pose de la tête pour permettre à la fois de détecter l'inattention du conducteur et de déterminer son état, même quand ses caractéristiques faciales (yeux et bouche) ne peuvent être analysées suite à des positions non-frontales de la tête. Nous avons évalué ces deux estimateurs sur la base de données publique Pointing'04. Ensuite, nous avons acquis et annoté une base de données représentant la variation de la pose de la tête du conducteur pour valider nos estimateurs sous un environnement de conduite
Studying facial features has attracted increasing attention in both academic and industrial communities. Indeed, these features convey nonverbal information that plays a key role in humancommunication. Moreover, they are very useful to allow human-machine interactions. Therefore, the automatic study of facial features is an important task for various applications includingrobotics, human-machine interfaces, behavioral science, clinical practice and monitoring driver state. In this thesis, we focus our attention on monitoring driver state through its facial features analysis. This problematic solicits a universal interest caused by the increasing number of road accidents, principally induced by deterioration in the driver vigilance level, known as hypovigilance. Indeed, we can distinguish three hypovigilance states. The first and most critical one is drowsiness, which is manifested by an inability to keep awake and it is characterized by microsleep intervals of 2-6 seconds. The second one is fatigue, which is defined by the increasing difficulty of maintaining a task and it is characterized by an important number of yawns. The third and last one is the inattention that occurs when the attention is diverted from the driving activity and it is characterized by maintaining the head pose in a non-frontal direction.The aim of this thesis is to propose facial features based approaches allowing to identify driver hypovigilance. The first approach was proposed to detect drowsiness by identifying microsleepintervals through eye state analysis. The second one was developed to identify fatigue by detecting yawning through mouth analysis. Since no public hypovigilance database is available,we have acquired and annotated our own database representing different subjects simulating hypovigilance under real lighting conditions to evaluate the performance of these two approaches. Next, we have developed two driver head pose estimation approaches to detect its inattention and also to determine its vigilance level even if the facial features (eyes and mouth) cannot be analyzed because of non-frontal head positions. We evaluated these two estimators on the public database Pointing'04. Then, we have acquired and annotated a driver head pose database to evaluate our estimators in real driving conditions
APA, Harvard, Vancouver, ISO, and other styles
10

Amara, Mounir. "Segmentation de tracés manuscrits. Application à l'extraction de primitives." Rouen, 1998. http://www.theses.fr/1998ROUES001.

Full text
Abstract:
Ce travail expose la modélisation de courbes par des éléments de droites, cercles et côniques dans une même formulation grâce à un filtrage étendu de Kalman. L'application est la segmentation des tracés manuscrits par une succession de primitives géométriques. Pour l'ajustement, nous décrivons les différentes courbes par des équations cartésiennes. Ces équations sont soumises à une contrainte de normalisation de manière à obtenir une estimation précise et robuste des paramètres des primitives géométriques. Ces deux équations, écrites sous forme implicite, constituent le système d'observation. Leur linéarisation est effectuée par un développement de Taylor au premier ordre. L'équation d'état du système est fixée constante pour spécifier la description d'une seule forme. La formulation de l'estimation récursive des paramètres utilise un filtre étendu de Kalman qui minimise une erreur quadratique, la distance d'un point à une forme, pondérée par la covariance du bruit d'observation. Pour reconstruire un tracé manuscrit, nous définissons une stratégie de changement de modèles. Dans notre cas, leur détection est fondée soit sur des critères spatio-temporels, en utilisant la dynamique du tracé manuscrit, soit sur des critères purement géométriques. Nous appliquons notre méthodologie à la segmentation de tracés réels constitués de chiffres ou de lettres manuscrites. Nous montrons que les différentes méthodes que nous avons développées permettent de reconstruire en temps réel, de façon précise, robuste, complète et totalement autonome, un tracé manuscrit quelconque. Ces méthodes autorisent un codage des tracés manuscrits: une stratégie est mise en œuvre pour la sélection de la primitive la plus significative au sens d'un critère approprié Nous proposons une démarche qui tient compte du taux de réduction de données et de la précision de la description. Ces méthodes ont l'avantage de réduire considérablement la quantité d'information initiale tout en gardant la partie informative. Elles ont été appliquées sur des tracés manuscrits réels en vue de l'analyse de dessins ou d'écritures d'enfants de scolarité primaire.
APA, Harvard, Vancouver, ISO, and other styles
11

Osty, Guillaume. "Extraction de particularités sur données discrètes issues de numérisation 3D : partitionnement de grands nuages de points." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0003.

Full text
Abstract:
Les systèmes de numérisation 3D permettent l'acquisition, en un temps relativement court de la peau d'un objet sous forme de grands nuages de points. Quelle que soit son exploitation, il se pose le problème du traitement de cette grande quantité de données discrètes : rapidité de traitement, non structuration des données, perte de continuité,. . . Ainsi pour être directement exploitable en rétro-conception, métrologie ou encore copiage de forme, le nuage de points doit subir une opération de partitionnement divisant l'ensemble de points issus d'une numérisation 3D en sous-ensembles de points cohérents. Ce travail doctoral présente des méthodes et outils associés au partitionnement de grands nuages de points basés sur l'extraction à partir des données discrètes et bruitées des contours 3D caractéristiques de singularités géométriques. L'approche développée s'appuie sur une représentation par espace -voxels permettant d'identifier les points caractéristiques des contours et d'en assurer la continuité. Une fois les contours fermés, ils délimitent des sous-ensembles de points pouvant être traités indépendamment.
APA, Harvard, Vancouver, ISO, and other styles
12

Bizeau, Alexandre. "Segmentation et extraction de caractéristiques des vaisseaux sanguins cérébraux à l'aide de l'IRM." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10259.

Full text
Abstract:
Le couplage neuro-vasculaire est un domaine grandissant. Ce dernier étudie les effets de l’activité cérébrale sur le comportement du flux sanguin cérébral (cerebral blood flow, CBF) et sur le flux des vaisseaux sanguins. Avec l’aide de l’imagerie par résonance magnétique (IRM), il est possible d’obtenir des images comme les images pondérées par susceptibilité (susceptibility weighted imaging, SWI) pour voir les veines ou bien avec des images de temps de vol par angiographie (time-of-flight magnetic resonance angiography, TOF MRA) pour imager les artères. Ces images permettent d’avoir une représentation structurelle des vaisseaux dans le cerveau. Ce mémoire présente une méthode permettant la segmentation des vaisseaux sanguins à partir d’images structurelles afin d’en extraire les caractéristiques. En utilisant le masque de segmentation, il est possible de calculer le diamètre des vaisseaux ainsi que leur longueur. Avec l’aide de tels outils de segmentation automatique, nous avons conduit une étude permettant d’analyser le comportement des vaisseaux sanguins lors d’activités neuronales. Grâce à une stimulation visuelle, nous avons fait l’acquisition de deux images; la première dite au repos et la seconde avec stimulation. Nous avons pu comparer le diamètre dans chacune des images et ainsi obtenir la vasodilatation en millimètre, mais également en pourcentage, et cela pour chaque voxel. Nous avons également calculé la distance entre le site d’activation et un voxel pour observer l’amplitude de la vasodilatation en fonction de la distance. Tout ceci permet d’avoir une meilleure compréhension du système vasculaire du cerveau humain.
Abstract : The neurovascular coupling is a growing field; it studies the effects of cerebral activity on the behaviour of cerebral blood flow (CBF) and the blood vessels themselves. With the help of magnetic resonance imaging (MRI), it is possible to obtain images such as susceptibility weighted imaging (SWI) to see the veins or time-of-flight magnetic resonance angiography (TOF MRA) to visualize the arteries. These images allow having a structural representation of vessels in the brain. This thesis presents a method to segment blood vessels from structural images and extract their features. Using the segmentation mask, it is possible to calculate the diameter of the vessels as well as their length. With the help of such automatic segmentation tools, we conducted a study to analyze the behaviour of blood vessels during neuronal activities. Due to visual stimulation, we have acquired two images; one at rest and the other with stimulation. We compare the diameter in each of the images and obtain vasodilation in millimeters, but also as a percentage in each voxel. We also calculated the distance between the activation site and each voxel to see the magnitude of the vasodilation function of the distance. All this provides a better understanding of the vascular system of the human brain.
APA, Harvard, Vancouver, ISO, and other styles
13

Rousseau, Marie-Ève. "Détection de visages et extraction de caractéristiques faciales dans des images de scènes complexes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq33745.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Noorzadeh, Saman. "Extraction de l'ECG du foetus et de ses caractéristiques grâce à la multi-modalité." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT135/document.

Full text
Abstract:
La surveillance de la santé foetale permet aux cliniciens d’évaluer le bien-être du foetus,de faire une détection précoce des anomalies cardiaques foetales et de fournir les traitementsappropriés. Les développements technologies actuels visent à permettre la mesurede l’électrocardiogramme (ECG) foetal de façon non-invasive afin d’extraire non seulementle rythme cardiaque mais également la forme d’onde du signal. Cet objectif est rendudifficile par le faible rapport signal sur bruit des signaux mesurés sur l’abdomen maternel.Cette mesure est donc toujours un challenge auquel se confrontent beaucoup d’études quiproposent des solutions de traitement de signal basées sur la seule modalité ECG.Le but de cette thèse est d’utiliser la modélisation des processus Gaussiens pour améliorerl’extraction des signaux cardiaques foetaux, dans une base multi-modale. L’ECG est utiliséconjointement avec le signal Phonocardiogramme (PCG) qui peut apporter une informationcomplémentaire à l’ECG. Une méthode générale pour la modélisation des signauxquasi-périodiques est présentée avec l’application au débruitage de l’ECG et à l’extractionde l’ECG du foetus. Différents aspects de la multi-modalité (synchronisation, · · · ) proposéesont étudiées afin de détecter avec plus de robustesse les battements cardiaques foetaux.La méthode considère l’application sur les signaux ECG et PCG à travers deux aspects:l’aspect du traitement du signal et l’expérimental. La modélisation des processus Gaussien,avec le signal PCG pris comme la référence, est utilisée pour extraire des modèles flexibleset des estimations non linéaires de l’information. La méthode cherche également à faciliterla mise en oeuvre pratique en utilisant un codage 1-bit des signaux de référence.Le modèle proposé est validé sur des signaux synthétiques et également sur des donnéespréliminaires réelles qui ont été enregistrées afin d’amorcer la constitution d’une base dedonnées multi-modale synchronisée. Les premiers résultats montrent que la méthode permettraà terme aux cliniciens d’étudier les battements cardiaques ainsi que la morphologiede l’ECG. Ce dernier aspect était jusqu’à présent limité à l’analyse d’enregistrements ECGinvasifs prélevés pendant l’accouchement par le biais d’électrodes posées sur le scalp dufoetus
Fetal health must be carefully monitored during pregnancy to detect early fetal cardiac diseases, and provide appropriate treatment. Technological development allows a monitoring during pregnancy using the non-invasive fetal electrocardiogram (ECG). Noninvasive fetal ECG is a method not only to detect fetal heart rate, but also to analyze the morphology of fetal ECG, which is now limited to analysis of the invasive ECG during delivery. However, the noninvasive fetal ECG recorded from the mother's abdomen is contaminated with several noise sources among which the maternal ECG is the most prominent.In the present study, the problem of noninvasive fetal ECG extraction is tackled using multi-modality. Beside ECG signal, this approach benefits from the Phonocardiogram (PCG) signal as another signal modality, which can provide complementary information about the fetal ECG.A general method for quasi-periodic signal analysis and modeling is first described and its application to ECG denoising and fetal ECG extraction is explained. Considering the difficulties caused by the synchronization of the two modalities, the event detection in the quasi-periodic signals is also studied which can be specified to the detection of the R-peaks in the ECG signal.The method considers both clinical and signal processing aspects of the application on ECG and PCG signals. These signals are introduced and their characteristics are explained. Then, using PCG signal as the reference, the Gaussian process modeling is employed to provide the possibility of flexible models as nonlinear estimations. The method also tries to facilitate the practical implementation of the device by using the less possible number of channels and also by using only 1-bit reference signal.The method is tested on synthetic data and also on real data that is recorded to provide a synchronous multi-modal data set.Since a standard agreement for the acquisition of these modalities is not yet taken into much consideration, the factors which influence the signals in recording procedure are introduced and their difficulties and effects are investigated.The results show that the multi-modal approach is efficient in the detection of R-peaks and so in the extraction of fetal heart rate, and it also provides the results about the morphology of fetal ECG
APA, Harvard, Vancouver, ISO, and other styles
15

Bouyanzer, Hassane. "Extraction automatique de caractéristiques sur des images couleurs : application à la mesure de paramètres." Rouen, 1992. http://www.theses.fr/1992ROUES059.

Full text
Abstract:
Dans cet ouvrage, nous avons mis en œuvre des méthodes de segmentation des images monochromes puis trichromes. L'emploi de la couleur en segmentation est un sujet de recherche récent, qui suscite un grand intérêt. L'application développée dans ce mémoire concerne l'automatisation de la procédure de calcul de paramètres sur des montures de lunettes. L'originalité du travail consiste en l'introduction de deux algorithmes de classification probabiliste EM et SEM
APA, Harvard, Vancouver, ISO, and other styles
16

Quach, Kim Anh. "Extraction de caractéristiques de l’activité ambulatoire du patient par fusion d’informations de centrales inertielles." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10059.

Full text
Abstract:
Le vieillissement de la population pose aujourd'hui beaucoup de questions pour la prise en charge des personnes âgées afin qu'elles puissent vivre longtemps en autonomie. La quantification des activités quotidiennes joue un rôle important pour l'évaluation de la bonne santé et pour la détection précoce des signes de perte d'autonomie. Dans cette thèse, nous présentons nos travaux et les résultats que nous avons obtenus sur l'élaboration de données actimétriques en utilisant des centrales inertielles (accéléromètres, magnétomètres et gyroscopes tri-axes) portées par le sujet ou bien intégrées dans un smartphone. Nous abordons la détection des postures comme une étape vers le suivi des « activités de la vie quotidienne » (AVQ). Nous envisageons la personnalisation d'un référentiel d'activités propre au sujet pour améliorer les détections. Enfin nous proposons l'élaboration d'un index unique qui résume le niveau de réalisation des activités quotidiennes du sujet et permette ainsi d'évaluer la tendance globale de l'actimétrie du sujet. L'actimétrie embarquée présente un grand potentiel applicatif pour le marché des technologies pour le maintien à domicile des personnes âgées
The increase in the elderly population poses today many questions on the care of elderly so that they can live a long time in autonomy. The quantification of the daily activities plays a big role for the evaluation of the good health and the early detection of the signs of loss of autonomy. In this thesis, we present our work and the results which we obtained on the development of actimetric data by using kinematic sensors (accelerometers, magnetometers and gyroscopes tri-axes) carried by the subject or integrated in a smartphone. We approach the detection of the postures like a first stage towards the follow-up of the “Activities of Daily Living” (ADL). We then consider the personalization of a reference frame of activities suitable for the subject to improve detections. Finally we propose the development of a single index which summarizes the level of realization of the daily activities of the subject and thus makes it possible to evaluate the total trend of the actimetry of the subject. The actimetry has a great potential on the market of technologies for the maintenance to residence of the elderly
APA, Harvard, Vancouver, ISO, and other styles
17

Angoustures, Mark. "Extraction automatique de caractéristiques malveillantes et méthode de détection de malware dans un environnement réel." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1221.

Full text
Abstract:
Pour faire face au volume considérable de logiciels malveillants, les chercheurs en sécurité ont développé des outils dynamiques automatiques d’analyse de malware comme la Sandbox Cuckoo. Ces types d’analyse sont partiellement automatiques et nécessite l’intervention d’un expert humain en sécurité pour détecter et extraire les comportements suspicieux. Afin d’éviter ce travail fastidieux, nous proposons une méthodologie pour extraire automatiquement des comportements dangereux données par les Sandbox. Tout d’abord, nous générons des rapports d’activités provenant des malware depuis la Sandbox Cuckoo. Puis, nous regroupons les malware faisant partie d’une même famille grâce à l’algorithme Avclass. Cet algorithme agrège les labels de malware donnés par VirusTotal. Nous pondérons alors par la méthode TF-IDF les comportements les plus singuliers de chaque famille de malware obtenue précédemment. Enfin, nous agrégeons les familles de malware ayant des comportements similaires par la méthode LSA.De plus, nous détaillons une méthode pour détecter des malware à partir du même type de comportements trouvés précédemment. Comme cette détection est réalisée en environnement réel, nous avons développé des sondes capables de générer des traces de comportements de programmes en exécution de façon continue. A partir de ces traces obtenues, nous construisons un graphe qui représente l’arbre des programmes en exécution avec leurs comportements. Ce graphe est mis à jour de manière incrémentale du fait de la génération de nouvelles traces. Pour mesurer la dangerosité des programmes, nous exécutons l’algorithme PageRank thématique sur ce graphe dès que celui-ci est mis à jour. L’algorithme donne un classement de dangerosité des processus en fonction de leurs comportements suspicieux. Ces scores sont ensuite reportés sur une série temporelle pour visualiser l’évolution de ce score de dangerosité pour chaque programme. Pour finir, nous avons développé plusieurs indicateurs d’alertes de programmes dangereux en exécution sur le système
To cope with the large volume of malware, researchers have developed automatic dynamic tools for the analysis of malware like the Cuckoo sandbox. This analysis is partially automatic because it requires the intervention of a human expert in security to detect and extract suspicious behaviour. In order to avoid this tedious work, we propose a methodology to automatically extract dangerous behaviors. First of all, we generate activity reports from malware from the sandbox Cuckoo. Then, we group malware that are part of the same family using the Avclass algorithm. We then weight the the most singular behaviors of each malware family obtained previously. Finally, we aggregate malware families with similar behaviors by the LSA method.In addition, we detail a method to detect malware from the same type of behaviors found previously. Since this detection isperformed in real environment, we have developed probes capable of generating traces of program behaviours in continuous execution. From these traces obtained, we let’s build a graph that represents the tree of programs in execution with their behaviors. This graph is updated incrementally because the generation of new traces. To measure the dangerousness of programs, we execute the personalized PageRank algorithm on this graph as soon as it is updated. The algorithm gives a dangerousness ranking processes according to their suspicious behaviour. These scores are then reported on a time series to visualize the evolution of this dangerousness score for each program. Finally, we have developed several alert indicators of dangerous programs in execution on the system
APA, Harvard, Vancouver, ISO, and other styles
18

Angoustures, Mark. "Extraction automatique de caractéristiques malveillantes et méthode de détection de malware dans un environnement réel." Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1221.

Full text
Abstract:
Pour faire face au volume considérable de logiciels malveillants, les chercheurs en sécurité ont développé des outils dynamiques automatiques d’analyse de malware comme la Sandbox Cuckoo. Ces types d’analyse sont partiellement automatiques et nécessite l’intervention d’un expert humain en sécurité pour détecter et extraire les comportements suspicieux. Afin d’éviter ce travail fastidieux, nous proposons une méthodologie pour extraire automatiquement des comportements dangereux données par les Sandbox. Tout d’abord, nous générons des rapports d’activités provenant des malware depuis la Sandbox Cuckoo. Puis, nous regroupons les malware faisant partie d’une même famille grâce à l’algorithme Avclass. Cet algorithme agrège les labels de malware donnés par VirusTotal. Nous pondérons alors par la méthode TF-IDF les comportements les plus singuliers de chaque famille de malware obtenue précédemment. Enfin, nous agrégeons les familles de malware ayant des comportements similaires par la méthode LSA.De plus, nous détaillons une méthode pour détecter des malware à partir du même type de comportements trouvés précédemment. Comme cette détection est réalisée en environnement réel, nous avons développé des sondes capables de générer des traces de comportements de programmes en exécution de façon continue. A partir de ces traces obtenues, nous construisons un graphe qui représente l’arbre des programmes en exécution avec leurs comportements. Ce graphe est mis à jour de manière incrémentale du fait de la génération de nouvelles traces. Pour mesurer la dangerosité des programmes, nous exécutons l’algorithme PageRank thématique sur ce graphe dès que celui-ci est mis à jour. L’algorithme donne un classement de dangerosité des processus en fonction de leurs comportements suspicieux. Ces scores sont ensuite reportés sur une série temporelle pour visualiser l’évolution de ce score de dangerosité pour chaque programme. Pour finir, nous avons développé plusieurs indicateurs d’alertes de programmes dangereux en exécution sur le système
To cope with the large volume of malware, researchers have developed automatic dynamic tools for the analysis of malware like the Cuckoo sandbox. This analysis is partially automatic because it requires the intervention of a human expert in security to detect and extract suspicious behaviour. In order to avoid this tedious work, we propose a methodology to automatically extract dangerous behaviors. First of all, we generate activity reports from malware from the sandbox Cuckoo. Then, we group malware that are part of the same family using the Avclass algorithm. We then weight the the most singular behaviors of each malware family obtained previously. Finally, we aggregate malware families with similar behaviors by the LSA method.In addition, we detail a method to detect malware from the same type of behaviors found previously. Since this detection isperformed in real environment, we have developed probes capable of generating traces of program behaviours in continuous execution. From these traces obtained, we let’s build a graph that represents the tree of programs in execution with their behaviors. This graph is updated incrementally because the generation of new traces. To measure the dangerousness of programs, we execute the personalized PageRank algorithm on this graph as soon as it is updated. The algorithm gives a dangerousness ranking processes according to their suspicious behaviour. These scores are then reported on a time series to visualize the evolution of this dangerousness score for each program. Finally, we have developed several alert indicators of dangerous programs in execution on the system
APA, Harvard, Vancouver, ISO, and other styles
19

El, Ferchichi Sabra. "Sélection et extraction d'attributs pour les problèmes de classification." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10042/document.

Full text
Abstract:
Les progrès scientifiques réalisés ces dernières années ont produit des bases de données de plus en plus grandes et complexes. Ceci amène certains classificateurs à générer des règles de classification basées sur des attributs non pertinents, et dégrader ainsi la qualité de classification et la capacité de généralisation. Dans ce contexte, nous proposons une nouvelle méthode pour l’extraction d’attributs afin d’améliorer la qualité de la classification. Notre méthode consiste à effectuer une classification non supervisée des attributs afin de retrouver les groupements d’attributs similaires. Une nouvelle mesure de similarité à base d’analyse de tendance est alors conçue afin de retrouver les attributs similaires dans leur comportement. En effet, notre méthode cherche à réduire l’information redondante tout en identifiant les tendances similaires dans les vecteurs attributs tout au long de la base de données. Suite à la formation des clusters, une transformation linéaire sera appliquée sur les attributs dans chaque groupement pour obtenir un représentant unique. Afin de retrouver un centre optimal, nous proposons de maximiser l’Information Mutuelle (IM) comme mesure de dépendance entre les groupements d’attributs et leur centre recherché. Des expériences réalisées sur des bases de données réelles et artificielles montrent que notre méthode atteint de bonnes performances de classification en comparaison avec d’autres méthodes d’extraction d’attributs. Notre méthode a été également appliquée sur le diagnostic industriel d’un procédé chimique complexe Tennessee Eastman Process (TEP)
Scientific advances in recent years have produced databases increasingly large and complex. This brings some classifiers to generate classification rules based on irrelevant features, and thus degrade the quality of classification and generalization ability. In this context, we propose a new method for extracting features to improve the quality of classification. Our method performs a clustering of features to find groups of similar features. A new similarity measure based on trend analysis is then designed to find similarity between features in their behavior. Indeed, our method aims to reduce redundant information while identifying similar trends in features vectors throughout the database. Following the construction of clusters, a linear transformation is applied on each group to obtain a single representative. To find an optimal center, we propose to maximize the Mutual Information (IM) as a measure of dependency between groups of features and the desired center. Experiments on real and synthetic data show that our method achieved good classification performance in comparison with other methods of extracting features. Our method has also been applied to the industrial diagnosis of a complex chemical process Tennessee Eastman Process (TEP)
APA, Harvard, Vancouver, ISO, and other styles
20

Lozano, Vega Gildardo. "Image-based detection and classification of allergenic pollen." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS031/document.

Full text
Abstract:
Le traitement médical des allergies nécessite la caractérisation des pollens en suspension dans l’air. Toutefois, cette tâche requiert des temps d’analyse très longs lorsqu’elle est réalisée de manière manuelle. Une approche automatique améliorerait ainsi considérablement les applications potentielles du comptage de pollens. Les dernières techniques d’analyse d’images permettent la détection de caractéristiques discriminantes. C’est pourquoi nous proposons dans cette thèse un ensemble de caractéristiques pertinentes issues d’images pour la reconnaissance des principales classes de pollen allergènes. Le cœur de notre étude est l’évaluation de groupes de caractéristiques capables de décrire correctement les pollens en termes de forme, texture, taille et ouverture. Les caractéristiques sont extraites d’images acquises classiquement sous microscope, permettant la reproductibilité de la méthode. Une étape de sélection des caractéristiques est appliquée à chaque groupe pour évaluer sa pertinence.Concernant les apertures présentes sur certains pollens, une méthode adaptative de détection, localisation et comptage pour différentes classes de pollens avec des apparences variées est proposée. La description des apertures se base sur une stratégie de type Sac-de-Mots appliquée à des primitives issues des images. Une carte de confiance est construite à partir de la confiance donnée à la classification des régions de l’image échantillonnée. De cette carte sont extraites des caractéristiques propres aux apertures, permettant leur comptage. La méthode est conçue pour être étendue de façon modulable à de nouveaux types d’apertures en utilisant le même algorithme mais avec un classifieur spécifique.Les groupes de caractéristiques ont été testés individuellement et conjointement sur les classes de pollens les plus répandues en Allemagne. Nous avons montré leur efficacité lors d’une classification de type SVM, notamment en surpassant la variance intra-classe et la similarité inter-classe. Les résultats obtenus en utilisant conjointement tous les groupes de caractéristiques ont abouti à une précision de 98,2 %, comparable à l’état de l’art
The correct classification of airborne pollen is relevant for medical treatment of allergies, and the regular manual process is costly and time consuming. An automatic processing would increase considerably the potential of pollen counting. Modern computer vision techniques enable the detection of discriminant pollen characteristics. In this thesis, a set of relevant image-based features for the recognition of top allergenic pollen taxa is proposed and analyzed. The foundation of our proposal is the evaluation of groups of features that can properly describe pollen in terms of shape, texture, size and apertures. The features are extracted on typical brightfield microscope images that enable the easy reproducibility of the method. A process of feature selection is applied to each group for the determination of relevance.Regarding apertures, a flexible method for detection, localization and counting of apertures of different pollen taxa with varying appearances is proposed. Aperture description is based on primitive images following the Bag-of-Words strategy. A confidence map is built from the classification confidence of sampled regions. From this map, aperture features are extracted, which include the count of apertures. The method is designed to be extended modularly to new aperture types employing the same algorithm to build individual classifiers.The feature groups are tested individually and jointly on of the most allergenic pollen taxa in Germany. They demonstrated to overcome the intra-class variance and inter-class similarity in a SVM classification scheme. The global joint test led to accuracy of 98.2%, comparable to the state-of-the-art procedures
APA, Harvard, Vancouver, ISO, and other styles
21

Bodi, Geoffroy. "Débruitage, déconvolution et extraction de caractéristiques de signaux dans le domaine temporel pour imagerie biomédicale optique." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1588.

Full text
Abstract:
Un scanner permettant l'imagerie moléculaire est d'un grand intérêt pour l'industrie pharmaceutique dans le développement de nouveaux médicaments, notamment pour visualiser leur efficacité m-vivo (par exemple pour le cancer). Le groupe de recherche TomOptUS développe un scanner par tomographie optique diffuse par fluorescence pour imagerie moléculaire sur petit animal. Le but est de localiser en 3D les centres de fluorescence d'un traceur injecté dans l'animal. À cette fin, nous utilisons des mesures de signaux optiques de fluorescence obtenues par comptage de photons corrélé en temps (mesures dans le domaine temporel). On sait que les mesures contiennent de l'information sur les caractéristiques optiques du milieu, mais à ce jour, cette information n'est pas exploitée à son plein potentiel. Extraire cette information est essentiel en reconstruction tomographique. Le système d'instrumentation, comme tout système de mesure, celle-ci influe sur le signal optique à mesurer. Mathématiquement, les mesures optiques dans un milieu peuvent être décrites comme la convolution entre le signal d'intérêt et la fonction de réponse (ou fonction de transfert) du système de mesures optiques (IRF - instrument response function), le tout perturbé par du bruit. Les causes du bruit proviennent du système de détection, des conditions d'utilisation du système et des facteurs extérieurs. Il est indispensable d'éliminer les différents effets perturbateurs pour permettre l'extraction de caractéristiques de ces signaux. Ces caractéristiques dépendent des paramètres optiques du milieu diffusant. On distingue deux propriétés physiques, le coefficient d'absorption µ[indice inférieur a] et le coefficient de diffusion réduit µ'[indice inférieur s]. Un premier objectif du projet est de débruiter les mesures. À cette fin, un algorithme de débruitage par les ondelettes a été développé. Un second objectif est de concevoir un algorithme de déconvolution pour éliminer l'influence de l'IRF. La déconvolution est le raisonnement inverse de la convolution. Une solution est l'utilisation du filtre optimal de Wiener. Une fois cela réalisé, un troisième objectif consistait à implémenter un algorithme de régression non linéaire pour extraire les caractérisitiques optiques du milieu des courbes temporelles afin de caractériser le milieu. Pour cela, un modèle analytique de propagation de la lumière, le modèle développé par Patterson, Chance et Wilson, est comparé à nos mesures traitées. Par minimisation de l'erreur quadratique moyenne, il est ainsi possible de déterminer la valeur des paramètres optiques recherchés. Pour qualifier au mieux la méthode de déconvolution, la convolution itérative (IC- Itérative Convolution) ou reconvolution a également été implémentée. Actuellement, la reconvolution est la méthode la plus couramment utilisée en imagerie optique pour caractériser un milieu. Elle consiste à convoluer le modèle avec l'IRF du système pour obtenir un modèle représentatif des mesures optiques du système d'instrumentation. Enfin, un quatrième objectif consiste à étudier, à l'aide du même modèle, des changements du comportement du signal, lorsqu'on fait varier les paramètres µ[indice inférieur a], µ'[indice inférieur s]. Ceci permettra d'acquérir de nouvelles connaissances sur les vitesses de propagation dans le milieu et sur les temps d'arrivée des premiers photons.
APA, Harvard, Vancouver, ISO, and other styles
22

Bonnevay, Stéphane. "Extraction de caractéristiques de texture par codages des extrema de gris et traitement prétopologique des images." Lyon 1, 1997. http://www.theses.fr/1997LYO10276.

Full text
Abstract:
Le sujet de cette these s'inscrit dans le domaine de l'analyse des images a niveaux de gris. Ce rapport se divise en deux parties : dans la premiere partie, nous developpons une nouvelle approche destinee a caracteriser les textures a l'aide des extrema de gris. Ensuite, dans une deuxieme partie, nous sortons du cadre de l'analyse de texture pour aller vers un cadre plus general de modelisation : nous construisons de nouvelles structures mathematiques permettant des transformations d'images a l'aide d'une base de voisinages. La premiere partie est consacree a l'analyse de textures par codage des extrema de gris. Le codage consiste a affecter a chaque pixel de l'image une valeur codant une certaine information locale autour de ce pixel. L'analyse de texture est ensuite realisee a partir de ce codage. Nous proposons 5 codages differents : les deux premiers sont bases sur deux nouvelles definitions d'extrema, les deux suivants ne sont composes que de 9 codes representant des degres d'extremalite de pixels, tandis que le dernier code la position des maxima et minima de gris autour de chaque pixel. Nous montrons que ces codages sont de bons resumes de l'information texturelle. Les resultats de classification obtenus a l'aide des codages sont meilleurs et plus rapides que ceux obtenus directement a partir des images non codees. La deuxieme partie de cette these presente la construction d'espaces pretopologiques pour la manipulation des images a niveaux de gris. Ces espaces utilisent la notion de base de voisinages afin de creer de nouvelles transformations d'images basees sur une utilisation fine des extrema de gris. Ils permettent la construction de nouveaux operateurs mais aussi de retrouver tous les operateurs existants, en particulier ceux de la morphologie mathematique. Ce travail propose et ouvre de nouveaux axes de recherche en matiere de traitement et d'analyse d'images.
APA, Harvard, Vancouver, ISO, and other styles
23

Clémençon, Boris. "Extraction des lignes caractéristiques géométriques des surfaces paramétrées et application à la génération de maillages surfaciques." Troyes, 2008. http://www.theses.fr/2008TROY0004.

Full text
Abstract:
Un enjeu fondamental de la construction de maillages d’une surface analytique donnée est le respect de la géométrie sous-jacente. Ceci est réalisable en particulier en adaptant le maillage aux courbures surfaciques. Si ces dernières ne sont pas respectées, des ondulations parasites apparaissent dans les zones où la taille spécifiée des éléments est localement grande par rapport au rayon minimal de courbure : c’est le crénelage. L’approche classique pour réduire ce phénomène consiste à diminuer localement la taille des arêtes, au prix d’une forte augmentation du nombre d’éléments. Nous proposons d’adapter le maillage à la géométrie en plaçant les sommets et les arêtes le long des lignes de crête des surfaces. Ces lignes sont les maxima des courbures principales en valeur absolue le long de leur ligne de courbure associée. Nous présentons des méthodes permettant de caractériser et d’extraire les lignes de crête dans le cas d’une surface paramétrée. Nous abordons quelques singularités, comme les ombilics et les points extrémaux. Ces sommets et ces lignes forment un graphe représenté par un maillage d’arêtes. Des lignes polygonales simplifiées représentant des lignes de crête significatives sont extraites de ce graphe, puis interpolées et intégrées comme courbes internes dans le domaine des paramètres. Le maillage du domaine respectant ces lignes est généré et reporté sur la surface. Nous montrons sur des exemples que la prise en compte des lignes de crête permet de supprimer le crénelage sans augmenter le nombre d’éléments, et également de réduire l’écart entre la surface et le maillage
A major issue for meshing a given analytical surface is to guarantee the accuracy of the underlying geometry. This can be achieved in particular by adapting the mesh to the surface curvature. Without curvature adaptation, parasitic undulations appear in areas where the specified element size is locally large with respect to the minimum radius of curvature : this phenomenon is called aliasing. The classical approach to reduce this phenomenon is to locally decrease the edge size, at the cost of a greater number of elements. We propose to adapt the mesh to the geometry by locating the vertices and the edges along the ridges. These lines are the maxima of the principal curvatures in absolute value along their associated line of curvature. We present methods to characterize and extract the ridges in the case of a parametric surface. Singularities such as umbilics and extremal points are discussed. These vertices and discrete lines form a graph represented by a set of edges. Simplified polygonal lines representing significant ridges are extracted from this graph, interpolated and then integrated as internal curves in the parametric domain. The mesh of this parametric domain including these lines is generated and mapped onto the surface. Examples show that taking ridge lines into account avoids the aliasing without increasing the number of elements, and also reduces the gap between the surface and the mesh
APA, Harvard, Vancouver, ISO, and other styles
24

Richard, Jean-Michel. "Étude de l'orellanine, toxine de Cortinarius orellanus Fries : extraction, purification, détection, dosage, caractéristiques physico-chimiques, toxicité." Université Joseph Fourier (Grenoble), 1987. http://www.theses.fr/1987GRE18004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Apatean, Anca Ioana. "Contributions à la fusion des informations : application à la reconnaissance des obstacles dans les images visible et infrarouge." Phd thesis, INSA de Rouen, 2010. http://tel.archives-ouvertes.fr/tel-00621202.

Full text
Abstract:
Afin de poursuivre et d'améliorer la tâche de détection qui est en cours à l'INSA, nous nous sommes concentrés sur la fusion des informations visibles et infrarouges du point de vue de reconnaissance des obstacles, ainsi distinguer entre les véhicules, les piétons, les cyclistes et les obstacles de fond. Les systèmes bimodaux ont été proposées pour fusionner l'information à différents niveaux: des caractéristiques, des noyaux SVM, ou de scores SVM. Ils ont été pondérés selon l'importance relative des capteurs modalité pour assurer l'adaptation (fixe ou dynamique) du système aux conditions environnementales. Pour évaluer la pertinence des caractéristiques, différentes méthodes de sélection ont été testés par un PPV, qui fut plus tard remplacée par un SVM. Une opération de recherche de modèle, réalisée par 10 fois validation croisée, fournit le noyau optimisé pour SVM. Les résultats ont prouvé que tous les systèmes bimodaux VIS-IR sont meilleurs que leurs correspondants monomodaux.
APA, Harvard, Vancouver, ISO, and other styles
26

Cremer, Sandra. "Adapting iris feature extraction and matching to the local and global quality of iris image." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0026.

Full text
Abstract:
La reconnaissance d'iris est un des systèmes biométriques les plus fiables et les plus précis. Cependant sa robustesse aux dégradations des images d'entrées est limitée. Généralement les systèmes basés sur l'iris peuvent être décomposés en quatre étapes : segmentation, normalisation, extraction de caractéristiques et comparaison. Des dégradations de la qualité des images d'entrées peuvent avoir des répercussions sur chacune de ses étapes. Elles compliquent notamment la segmentation, ce qui peut engendrer des images normalisées contenant des distorsions ou des artefacts non détectés. De plus, la quantité d'information disponible pour la comparaison peut être réduite. Dans cette thèse, nous proposons des solutions pour améliorer la robustesse des étapes d'extraction de caractéristiques et de comparaison à la dégradation des images d'entrées. Nous travaillons avec deux algorithmes pour ces deux étapes, basés sur les convolutions avec des filtres de Gabor 2D, mais des processus de comparaison différents. L'objectif de la première partie de notre travail est de contrôler la qualité et la quantité d'information sélectionnée pour la comparaison dans les images d'iris normalisées. Dans ce but nous avons défini des mesures de qualité locale et globale qui mesurent la quantité d'occlusions et la richesse de la texture dans les images d'iris. Nous utilisons ces mesures pour déterminer la position et le nombre de régions à exploiter pour l'extraction. Dans une seconde partie de ce travail, nous étudions le lien entre la qualité des images et les performances de reconnaissance des deux algorithmes de reconnaissance décrits ci-dessus. Nous montrons que le second est plus robuste aux images dégradées contenant des artefacts, des distorsions ou une texture pauvre. Enfin, nous proposons un système complet pour la reconnaissance d'iris, qui combine l'utilisation de nos mesures de qualités locale et globale pour optimiser les performances des algorithmes d'extraction de caractéristiques et de comparaison
Iris recognition has become one of the most reliable and accurate biometric systems available. However its robustness to degradations of the input images is limited. Generally iris based systems can be cut into four steps : segmentation, normalization, feature extraction and matching. Degradations of the input image quality can have repercussions on all of these steps. For instance, they make the segmentation more difficult which can result in normalized iris images that contain distortion or undetected artefacts. Moreover the amount of information available for matching can be reduced. In this thesis we propose methods to improve the robustness of the feature extraction and matching steps to degraded input images. We work with two algorithms for these two steps. They are both based on convolution with 2D Gabor filters but use different techniques for matching. The first part of our work is aimed at controlling the quality and quantity of information selected in the normalized iris images for matching. To this end we defined local and global quality metrics that measure the amount of occlusion and the richness of texture in iris images. We use these measures to determine the position and the number of regions to exploit for feature extraction and matching. In the second part, we study the link between image quality and the performance of the two recognition algoritms just described. We show that the second one is more robust to degraded images that contain artefacts, distortion or a poor iris texture. Finally, we propose a complete system for iris recognition that combines the use of our local and global quality metrics to optimize recognition performance
APA, Harvard, Vancouver, ISO, and other styles
27

El, Omari Hafsa. "Extraction des paramètres des modèles du VDMOS à partir des caractéristiques en commutation : comparaison avec les approches classiques." Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0040/these.pdf.

Full text
Abstract:
Ce mémoire porte sur l'analyse et la caractérisation du comportement du transistor MOS de puissance. La première partie du mémoire rappelle la structure, le comportement et la modélisation du transistor MOS de puissance. Un modèle semi-empirique dit " à deux kp " a été choisi. La mise en œuvre des caractéristiques expérimentales de type statique I(V), dynamique C(V) ou en commutation est présentée. En particulier le rôle de la durée des impulsions des caractérisations quasi-statiques est étudiée. La seconde partie traite la caractérisation expérimentale et l'extraction classique des paramètres des modèles de type VDMOS basée sur les mesures I(V) et C(V). La confrontation entre simulation et expérience en régime de commutation sur charge RL est faite. La troisième partie traite de l'extraction des paramètres en se basant sur la commutation sur charge R-L dans une cellule de commutation. Les signaux temporels mesurés pendant les commutations du composant fournissent des informations utiles à l'extraction des paramètres. La procédure d'identification automatique est basée sur des méthodes d'optimisation avec un critère de comparaison entre des mesures et les simulations correspondantes. Ainsi nous avons pu confronter les résultats expérimentaux avec ceux obtenus par simulation en utilisant le simulateur PACTE développé au CEGELY. Les configurations les mieux adaptées à l'extraction des paramètres du transistor MOS de puissance, ont été évaluées. Les résultats obtenus montrent une équivalence par rapport aux méthodes classiques. L'intérêt de la méthode d'extraction en commutation que nous avons présentée réside dans une bien moins grande sensibilité aux bruits de mesure
The study is about the analysis and the characterization of the VDMOS. First part of the text recalls the structure, the behavior and the modeling of the VDMOS. A semi-behavioral model, "2KP-model", has been selected. Experimental characterizations have been done in I-V, C-V and switching mode of operation. The role of pulse duration has been studied for quasi-static I-V characterization. Second part describes classical characterization and parameter extraction techniques applied to VDMOS models. Comparisons between simulations and measurements in switching mode operation in an R-L circuit are achieved. Third part corresponds to parameter extraction of the VDMOS model based on R-L switching measurements. Transient measured signals in such conditions yield sufficient information for the parameter extraction. An automatic identification procedure, based on optimization of the difference between measurements and simulation, has been applied. So comparison between PACTE simulations and experiments has been done. The obtained results show equivalence with respect to classical method. The interest of the proposed method is a drastic reduction of measurement noise
APA, Harvard, Vancouver, ISO, and other styles
28

Charbuillet, Christophe. "Algorithmes évolutionnistes appliqués à l'extraction de caractéristiques pour la reconnaissance du locuteur." Paris 6, 2008. http://www.theses.fr/2008PA066564.

Full text
Abstract:
L'étape d'extraction de caractéristiques occupe une place fondamentale dans les systèmes de reconnaissance des formes. Ces travaux de thèse portent sur l’optimisation de ce module de traitement pour la tâche de reconnaissance du locuteur par Algorithmes Evolutionnistes (AEs). Nous avons évalué cette approche pour la tâche de segmentation et le regroupement du locuteur (SRL) ainsi que pour la tâche de vérification automatique du locuteur, dans le cadre des campagnes d'évaluation ESTER 2005 et Nist 2006. Les différentes études réalisées montrent que l'utilisation d'AE pour l'optimisation du module de codage permet d'améliorer les performances des systèmes. De plus ces travaux montrent qu'une amélioration significative des résultats est possible par l'utilisation de deux codeurs complémentaires. Nous avons, dans ce contexte, développé un algorithme évolutionniste permettant d'optimiser la complémentarité des extracteurs de caractéristiques.
APA, Harvard, Vancouver, ISO, and other styles
29

Faula, Yannick. "Extraction de caractéristiques sur des images acquises en contexte mobile : Application à la reconnaissance de défauts sur ouvrages d’art." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI077.

Full text
Abstract:
Le réseau ferroviaire français dispose d’une infrastructure de grande ampleur qui se compose de nombreux ouvrages d’art. Ces derniers subissent les dégradations du temps et du trafic et font donc l’objet d’une surveillance périodique pour détecter l’apparition de défauts. Aujourd’hui, cette inspection se fait en grande partie, visuellement par des opérateurs experts. Plusieurs entreprises testent de nouveaux vecteurs d’acquisition photo comme le drone, destinés à la surveillance des ouvrages de génie civil. Dans cette thèse, l’objectif principal est de développer un système capable de détecter, localiser et enregistrer d’éventuels défauts de l’ouvrage. Un grand défi est de détecter des défauts sous-pixels comme les fissures en temps réel pour améliorer l’acquisition. Pour cela, une analyse par seuillage local a été conçue pour traiter de grandes images. Cette analyse permet d’extraire des points d’intérêts (Points FLASH: Fast Local Analysis by threSHolding) où une ligne droite peut se faufiler. La mise en relation intelligente de ces points permet de détecter et localiser les fissures fines. Les résultats de détection de fissures de surfaces altérées issues d'images d'ouvrages d'art démontrent de meilleures performances en temps de calcul et robustesse que les algorithmes existants. En amont de l'étape de détection, il est nécessaire de s’assurer que les images acquises soient de bonne qualité pour réaliser le traitement. Une mauvaise mise au point ou un flou de bougé sont à bannir. Nous avons développé une méthode réutilisant les calculs de la détection en extrayant des mesures de Local Binary Patterns (LBP) afin de vérifier la qualité en temps réel. Enfin, pour réaliser une acquisition permettant une reconstruction photogrammétrique, les images doivent avoir un recouvrement suffisant. Notre algorithme, réutilisant les points d’intérêts de la détection, permet un appariement simple entre deux images sans passer par des algorithmes de type RANSAC. Notre méthode est invariante en rotation, translation et à une certaine plage de changements d’échelle. Après l’acquisition, sur les images de qualité optimale, il est possible d'employer des méthodes plus coûteuses en temps comme les réseaux de neurones à convolution. Ces derniers bien qu'incapables d’assurer une détection de fissures en temps réel peuvent être utilisés pour détecter certains types d’avaries. Cependant, le manque de données impose la constitution de notre propre jeu de données. A l'aide d'approches de classification indépendante (classifieurs SVM one-class), nous avons développé un système flexible capable d’évoluer dans le temps, de détecter puis de classifier les différents types de défauts. Aucun système de ce type n’apparaît dans la littérature. Les travaux réalisés sur l’extraction de caractéristiques sur des images pour la détection de défauts pourront être utiles dans d’autres applications telles que la navigation de véhicules intelligents ou le word-spotting
The french railway network has a huge infrastructure which is composed of many civil engineering structures. These suffer from degradation of time and traffic and they are subject to a periodic monitoring in order to detect appearance of defects. At the moment, this inspection is mainly done visually by monitoring operators. Several companies test new vectors of photo acquisition like the drone, designed for civil engineering monitoring. In this thesis, the main goal is to develop a system able to detect, localize and save potential defects of the infrastructure. A huge issue is to detect sub-pixel defects like cracks in real time for improving the acquisition. For this task, a local analysis by thresholding is designed for treating large images. This analysis can extract some points of interest (FLASH points: Fast Local Analysis by threSHolding) where a straight line can sneak in. The smart spatial relationship of these points allows to detect and localise fine cracks. The results of the crack detection on concrete degraded surfaces coming from images of infrastructure show better performances in time and robustness than the state-of-art algorithms. Before the detection step, we have to ensure the acquired images have a sufficient quality to make the process. A bad focus or a movement blur are prohibited. We developed a method reusing the preceding computations to assess the quality in real time by extracting Local Binary Pattern (LBP) values. Then, in order to make an acquisition for photogrammetric reconstruction, images have to get a sufficient overlapping. Our algorithm, reusing points of interest of the detection, can make a simple matching between two images without using algorithms as type RANSAC. Our method has invariance in rotation, translation and scale range. After the acquisition, with images with optimal quality, it is possible to exploit methods more expensive in time like convolution neural networks. These are not able to detect cracks in real time but can detect other kinds of damages. However, the lack of data requires the constitution of our database. With approaches of independent classification (classifier SVM one-class), we developed a dynamic system able to evolve in time, detect and then classify the different kinds of damages. No system like ours appears in the literature for the defect detection on civil engineering structure. The implemented works on feature extraction on images for damage detection will be used in other applications as smart vehicle navigation or word spotting
APA, Harvard, Vancouver, ISO, and other styles
30

Younes, Lara. "Reconstruction spatio-temporelle de la ville de Reims à partir de documents anciens." Thesis, Reims, 2014. http://www.theses.fr/2014REIMS020.

Full text
Abstract:
Ces travaux de thèse constituent la première étape d'une réflexion sur la conception d'un système participatif visant la reconstruction et la visualisation de l'espace urbain de la ville de Reims au cours du temps. Dans ces travaux, nous abordons les problèmes de reconnaissance, de reconstruction et géoréférencement spatio-temporel. Ce projet s'appuie sur l'exploitation des sources historiques iconographiques et contextuelles hétérogènes et éparses, dont une collection de cartes postales anciennes et le cadastre actuel géoréférencé.Dans l'objectif d'un travail participatif, il s'avère nécessaire de procurer une aide efficace à l'utilisateur lorsqu'il apporte de nouvelles connaissances dans le système. Une solution robuste doit être apportée en raison de multiples évolutions ou déformations du modèle urbain à travers le temps. Nous avons développé une solution répondant à ce besoin. Elle s'appuie sur des briques de traitement complémentaires, en interaction avec l'utilisateur et s'insère naturellement dans une approche incrémentale de reconstruction. Nous proposons une solution permettant d'extraire, de reconstruire en 3D et de visualiser des bâtiments multi-façades présents dans les cartes postales sans disposer des dimensions réelles des bâtiments. La construction du modèle repose sur l'identification de façades 2D. Elle est obtenue au travers de l'analyse du contenu de l'image. Cette phase d'identification permet de procéder à la reconstruction de modèles 3D, d'extraire des textures 2D associées à ces modèles ainsi que d'enrichir dynamiquement notre système. Les caractéristiques retrouvées dans les images infèrent une estimation sur leur datation, et l'alignement des modèles reconstruits avec le cadastre sur le géoréférencement des bâtiments. Le système ainsi construit constitue une amorce pour la conception d'un système d'information géographique participatif 3D+T permettant aux citoyens de Reims de s'approprier l'histoire de leur ville
This thesis is the first step toward the design of a Volunteered system for the reconstruction and visualization of urban space in the city of Reims through time. In this work, we address the problems of spatio-temporal recognition, reconstruction and georeferencing. This project relies on the use of heterogeneous and sparse iconographic and contextual historical data, particularly a collection of old postcards and the current cadastral map.With the aim of a Volunteered work, it is necessary to provide useful help to the user when bringing new knowledge into the system. A robust solution is required due to multiple changes of the urban model through time. We have developed a solution to meet those needs. This process fits in an incremental approach of reconstruction and will be completed by a user. We propose to extract, reconstruct and visualize 3D multi-façade buildings from old postcards with no knowledge on their real dimensions. The construction of the models is based on 2D façades identification. It can be obtained through image analysis. This identification allows the reconstruction of 3D models, the extraction of their associated 2D façades textures and the enhancement of the system. The features found in the images infer an estimate of their dating, and the alignment of the models with the cadastral map allows there georeferencing. The system thus constructed is a primer for the design of a Volunteered 3D+T GIS for Reims citizens to capture the history of their city
APA, Harvard, Vancouver, ISO, and other styles
31

Martinez, Jabier. "Exploration des variantes d'artefacts logiciels pour une analyse et une migration vers des lignes de produits." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066344/document.

Full text
Abstract:
Les lignes de produits logiciels (LdPs) permettent la dérivation d'une famille de produits basés sur une gestion de la variabilité. Les LdPs utilisent des configurations de caractéristiques afin de satisfaire les besoins de chaque client et, de même, permettre une réutilisation systématique en utilisant des assets réutilisables. L’approche capitalisant sur des variantes des produits existants est appelé une approche extractive pour l'adoption de LdPs. L’identification des caractéristiques est nécessaire pour analyser la variabilité d’un ensemble de variantes. Il est également nécessaire de localiser les éléments associés à ces caractéristiques. Les contraintes entre ces caractéristiques doivent être identifiées afin de garantir la sélection de configurations valides. Par ailleurs, il faut construire les assets réutilisables et synthétiser un modèle de caractéristiques. Cette thèse présente BUT4Reuse (Bottom-Up Technologies for Reuse), un framework unifié, générique et extensible pour l’adoption extractive de LdPs. Une attention particulière est accordée à des scénarios de développement dirigée par les modèles. Nous nous concentrons aussi sur l'analyse des techniques en proposant un benchmark pour la localisation de caractéristiques et une technique d’identification de familles de variantes. Nous présentons des paradigmes de visualisation pour accompagner les experts du domaine dans le nommage de caractéristiques et aider à la découverte de contraintes. Finalement, nous étudions l'exploitation des variantes pour l'analyse de la LdP après sa création. Nous présentons une approche pour trouver des variantes pertinentes guidée par des évaluations des utilisateurs finaux
Software Product Lines (SPLs) enable the derivation of a family of products based on variability management techniques. Inspired by the manufacturing industry, SPLs use feature configurations to satisfy different customer needs, along with reusable assets to allow systematic reuse. Capitalizing on existing variants by extracting the common and varying elements is referred to as extractive approaches for SPL adoption. Feature identification is needed to analyse the domain variability. Also, to identify the associated implementation elements of the features, their location is needed. In addition, feature constraints should be identified to guarantee that customers are not able to select invalid feature combinations. Then, the reusable assets associated to the features should be constructed. And finally, a comprehensive feature model need to be synthesized. This dissertation presents Bottom-Up Technologies for Reuse (BUT4Reuse), a unified, generic and extensible framework for mining software artefact variants. Special attention is paid to model-driven development scenarios. We also focus on benchmarks and in the analysis of variants, in particular, in benchmarking feature location techniques and in identifying families of variants in the wild for experimenting with feature identification techniques. We present visualisation paradigms to support domain experts on feature naming and to support on feature constraints discovery. Finally, we investigate and discuss the mining of artefact variants for SPL analysis once the SPL is already operational. Concretely, we present an approach to find relevant variants within the SPL configuration space guided by end user assessments
APA, Harvard, Vancouver, ISO, and other styles
32

Péroumal, Armelle. "Caractérisation des fruits et de la pulpe de six accessions de Mammea americana : Aptitude à la transformation des fruits et caractérisation des composés phénoliques de la pulpe." Thesis, Antilles-Guyane, 2014. http://www.theses.fr/2014AGUY0702/document.

Full text
Abstract:
Dans cette étude, nous nous sommes intéressés aux propriétés physiques et chimiques de six accessions de Mammea americana afin de pouvoir identifier les accessions les plus prometteuses pour la vente en frais ou la transformation. Nous avons également cherché à évaluer l’activité antioxydante de la pulpe, identifier et quantifier ses composés phénoliques et optimiser leur extraction à l’aide de la technique assistée par ultrasons.Nos résultats montrent que les accessions étudiées présentent des caractéristiques physiques, physico-chimiques et fonctionnelles significativement différentes. Pavé 11, Lézarde et Ti Jacques sont intéressants pour la vente en frais, en raison de leurs fruits sucrés avec une teneur élevée en caroténoïdes et composés phénoliques totaux. Sonson, Pavé 11 et Lézarde présentent une adaptabilité à la transformation. La composition polyphénolique de la pulpe déterminée par HPLC-DAD et UPLC-MS, a mis en évidence la présence d’acides phénoliques, de tanins condensés, de flavonols et flavanols dans nos échantillons. D’autre part, les tests d’activité antioxydante (DPPH et ORAC) révèlent que Ti jacques est l’extrait le plus actif. Un plan d’expérimentation a été mis en œuvre afin d’optimiser l’extraction des polyphénols à l’aide d’une technique d’extraction assistée par ultrasons. Les résultats montrent que l’extrait obtenu est riche en polyphénols et contient les mêmes teneurs en acides phénoliques et flavonols comparé à celui obtenu par la méthode conventionnelle. De plus, l’extrait obtenu à l’aide d’un solvant « vert » possède de bonnes propriétés organoleptiques
Our work focuses on the physical and chemical properties of six mamey apple cultivars in order to select elite cultivars suitable for food processing or as table fruit. The antioxidant activity of the fruit pulp, the identification and quantification of the polyphenols responsible for it, and ultrasound assisted extraction method were also investigated.According to our results, the postharvest routes for every cultivar could be different. Pavé 11, Lézarde and Ti Jacques were found to be good for consumption, giving sweeter fruits with high total phenolic and carotenoid contents. Sonson, pavé 11 and Lézarde had suitable characteristics for the manufacturing of mamey products. The polyphenolic composition of the pulp determined by HPLC-DAD and UPLC-MS showed the presence of phenolic acids, condensed tannins, flavonols and flavanols. The results of the antioxidant test (DPPH and ORAC) point out that the most antioxidant cultivar was Ti Jacques. The design and optimization of the ultrasound assisted extraction method has done for polyphenols extraction. The results showed that the polyphenols rich extract contains the same content of phenolic acids and flavonols in comparison to the conventional method. Additionally, the dry extract obtained with a “green” solvent, had good organoleptic properties
APA, Harvard, Vancouver, ISO, and other styles
33

Jauréguy, Maïté. "Étude de la diffraction par impulsions électromagnétiques très courtes d'objets en espace libre ou enfouis : modélisation numérique et extraction des paramètres caractéristiques." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0015.

Full text
Abstract:
Récemment, l'utilisation des impulsions Ultra Large Bande (ULB) s'est finalisée vers les applications liées à la détection et l'identification d'objets enfouis. De tels signaux présentent un ensemble de paramètres caractéristiques de la cible : haute résolution en distance, résonnances et phénomènes de dispersion. Notre travail a porté ç la fois sur la modélisation électromagnétique de la diffraction et sur l'extraction des paramètres caractéristiques. Nous avons développé une méthode de différences finies dans le domaine temporel (FDTD) qui permet de prendre en compte des objets de forme générale, éventuellement hétérogènes et pouvant être enterrés dans un milieu semi-infini, en l'adaptant au cas des impulsions ULB. Nous proposons une méthode originale d'initialisation du champ incident qui permet de s'affranchir de difficultés liées à la dispersion numérique et développons la possibilité de raffiner localement le maillage par puissances de deux. Nous avons pris en compte la dispersivité des matériaux. Enfin, nous avons assemblé les différents outils développés et calculé la réponse de cibles en espace libre ou enterrées. La seconde partie du travail porte sur la mise en évidence des caractéristqiues des cibles utilisables pour l'identification, via la méthode de Prony aux moindres carrés, qui extrait les pôles de résonance. Nous proposons une solution originale à la séparation des points diffractants et des résonances dans la réponse temporelle.
APA, Harvard, Vancouver, ISO, and other styles
34

Meziani, Mohamed Aymen. "Estimation paramétrique et non-paramétrique en utilisant une approche de régression quantile." Electronic Thesis or Diss., Paris Est, 2019. http://www.theses.fr/2019PESC0084.

Full text
Abstract:
Le quantile périodogramme développé par Li (2012) est une nouvelle approche qui fournit une information plus étendue et plus riche par rapport au périodogramme ordinaire. Cependant, il souffre d'instabilité de performance dans le cas de présence de plusieurs périodicités dominantes ou dans le cas de données bruitées. Cela est du à la fuite spectrale (Leakage) produite sous forme de piques supplémentaires. Afin de remédier à ce problème, une version régularisée du quantile périodogramme est proposée. Les propriétés asymptotiques du nouvel estimateur sont développées. De plus, des simulations approfondies sont effectuées pour montrer l’efficacité de l’estimation proposée en termes de détection de périodicités cachées sous différents types de bruit.Une première application de l'approche proposée a été conduite dans un cadre d'étude des signaux EEG (électroencéphalogramme). Les signaux EEG sont connus pour leurs non-stationnarité et non-linéarité. Le nouvel estimateur proposé a été utilisé ainsi que d'autre estimateurs spectraux comme étant des méthodes d'extraction de caractéristiques. Ces caractéristiques sont introduites par la suite à des classifieurs pour déterminer si le signal appartient à une des classes d'imagerie motrice.La deuxième application est un travail qui a été fait dans le cadre du projet Européen MEDOLUTION pour l'étude des signaux accéléromètres. Le quantile périodogramme régularisé ainsi que d'autre estimateurs spectraux ont été appliqués pour la classification des mouvements d'auto rééducation.Les résultats suggèrent que le quantile périodogramme régularisé est une méthode prometteuse et robuste pour détecter des périodicités cachées, spécialement dans les cas de non-stationnarité et non-linéarité des données, ainsi que pour améliorer les performances de classification dans le cadre des signaux EEG et des signaux accéléromètres
The quantile periodogram developed by Li(2012) is a new approach that provides an extended and richer breadth of information compared to the ordinary periodogram. However, it suffers from unstable performances where multiple peak frequencies are present because the spectral leak produces extra small spikes. To alleviate this issue, a regularised version of the quantile periodogram is proposed. The asymptotic properties of the new spectral estimator are developed and extensive simulations were performed to show the effectiveness of the proposed estimation in terms of detection of hidden periodicities under different types of noise.A first application of the proposed approach was conducted in a framework of EEG (electroencephalogram) signal study. EEG signals are known for their non-stationarity and non-linearity. The newly proposed estimator was used along with other spectral estimators as feature extraction methods. These features are subsequently fed to classifiers to determine if the signal belongs to one of the motor imagery classes.The second application is a work that has been done in the framework of the European MEDOLUTION project for the study of accelerometer signals. The regularised quantile periodogram as well as other spectral estimators were applied for the classification of self-rehabilitation movements.The results suggest that the regularised quantile periodogram is a promising and robust method for detecting hidden periodicities, especially in cases of non-stationarity and non-linearity of the data, as well as for improving classification performance in the context of EEG and accelerometer signals
APA, Harvard, Vancouver, ISO, and other styles
35

Caparos, Matthieu. "Analyse automatique des crises d'épilepsie du lobe temporal à partir des EEG de surface." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2006. http://tel.archives-ouvertes.fr/tel-00118993.

Full text
Abstract:
L'objectif de la thèse est le développement d'une méthode de caractérisation des crises d'épilepsie du lobe temporal à partir des EEG de surface et plus particulièrement de la zone épileptogène (ZE) à l'origine des crises.
Des travaux récents validés en stéréoélectroencéphalographie (SEEG) ont démontré une évolution des synchronisations entre structures cérébrales permettant une caractérisation de la dynamique des crises du lobe temporal.
L'originalité des travaux consiste à étendre les méthodes développées en SEEG, à l'étude des signaux EEG de surface. Du point de vue médical, ce travail s'inscrit dans le cadre de l'aide au diagnostic préchirugical.
Des méthodes de mesure de relation, telles que la cohérence, la Directed Transfer Function (DTF), la corrélation linéaire (r²) ou la corrélation non-linéaire (h²), ont été adaptées pour répondre à cette problématique. Différents critères, définis à partir d'indications cliniques, ont permis la mise en évidence des avantages du coefficient de corrélation non-linéaire dans l'étude de l'épilepsie par les EEG de surface.
L'exploitation de l'évolution du coefficient de corrélation non-linéaire est à la base de trois applications de traitement automatique du signal EEG :
– La première est la détermination de la latéralisation de la ZE au départ d'une crise. Cette information constitue l'étape préliminaire lors de la recherche de la localisation de la ZE.
– La recherche d'une signature épileptique constitue la seconde application. La signature est extraite par un algorithme de mise en correspondance et de mesure de similarités en intra-patients.
– Une classification des crises du lobe temporal constitue la troisième application. Elle est réalisée en extrayant un ensemble de caractéristiques des signatures trouvées par l'algorithme de l'étape 2.
La base de données qui contient quarante-trois patients et quatre-vingt-sept crises (deux crises par patient, trois pour l'un d'entre eux) garantit une certaine significativité statistique.
En ce qui concerne les résultats, un taux de bonne latéralisation de l'ordre de 88% est obtenu. Ce taux est très intéressant, car dans la littérature, il peut être quelques fois atteint, mais en exploitant des données multimodalités et avec des méthodes non-automatiques. A l'issue de la classification, 85% des crises mésiales ont été correctement classifiées ainsi que 58% des crises mésio-latérales.
APA, Harvard, Vancouver, ISO, and other styles
36

Hajri, Souhail. "Modélisation des surfaces rocheuses naturelles à partir d'une scannerisation laser 3D et extraction automatique de formes caractéristiques : applications aux spéléothèmes et surfaces géologiques." Grenoble, 2010. http://www.theses.fr/2010CHAMS039.

Full text
Abstract:
Ce travail concerne le traitement d'images 3D. On s'intéresse à l'automatisation des tâches d'extraction et de caractérisation des tommes de relief en milieu naturel à partir des nuages de points 3D acquis par l'outil laserscan. Après I structuration des données sous la forme de RTI: Réseaux Triangulaires irréguliers, un accent est mis sur la segmentation, pour la reconnaissance de tommes. L'intérêt est de décomposer le modèle RTI en régions homogènes possédant des caractéristiques communes correspondant à des objets géologiques significatifs. Cependant, les images traitées sont complexes (formes naturelles) et requièrent des connaissances a priori liées aux objets à segmenter. De ce fait, a été proposée une méthode de segmentation interactive basée sur les connaissances de l'opérateur. Le procédé consiste à marquer manuellement les régions d'intérêts dans le modèle afin d'extraire les formes géologiques souhaitées Cette approche s'appuie sur la méthode des lignes de partage des eaux (LPE). Une deuxième solution de segmentation plus automatisée et plus rapide est proposée. Ce type de solutions est focalisé sur deux objets dont on connait parfaitement les caractéristiques discriminantes: les discontinuités planes (plans de fracturation) et les stalagmites. Le procédé d'identification des discontinuités planes s'appuie sur l'algorithme de classification non supervisé DBSCAN et permet d'extraire automatiquement les paramètres liés à ces discontinuités: orientation, espacement, rugosité. . . La seconde approche (identification et caractérisation des stalagmites) est basée sur l'ajustement de la primitive géométrique ellipse
The research work presented in this dissertation concems 3d image processing. We are interested in the automation's tasks of the extraction and the characterization of reliefs fomms in the naturel environment from 3D point clouds acquired by LIDAR. Once thèse data are reconstructed as triangular meshes or TIN models (Triangular Irregular Networks), we are particularly interest in the 3D TIN model segmentation that is one of the essentiel stops of the pattern recognition process. The goal of segmentation is to décompose the TIN model into homogeneous régions with common characteristics that correspond to significant geological objects. However, the images to be processed are relatively complex (natural fomms), and thus req ui red a priori knowledge. Th us, we have initial ly proposed a method for interactive segmentation based on knowledge of the operator. The method involves manually marking the regions of interest in the models to extract the desired geological fomms. This approach is based on the watershed method. Later, a second segmentation solution, more automated is proposed. This solution is focused on two objects which we know perfectly its discriminating features: planar discontinuities and stalagmites. The identification and characterization process of planes discontinuities is based on the unsupervised clustering algorithm named DBSCAN which can automatically extract parameters related to the discontinuities of rock surfaces: orientation, spacing, roughness. . . The second approach, which aims the automatic identification and characterization, is based on ellipse fitting
APA, Harvard, Vancouver, ISO, and other styles
37

Loiselle, Stéphane. "Traitement bio-inspiré de la parole pour système de reconnaissance vocale." Thèse, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1952.

Full text
Abstract:
Cette thèse présente un traitement inspiré du fonctionnement du système auditif pour améliorer la reconnaissance vocale. Pour y parvenir, le signal de la parole est filtré par un banc de filtres et compressé pour en produire une représentation auditive. L'innovation de l'approche proposée se situe dans l'extraction des éléments acoustiques (formants, transitions et onsets ) à partir de la représentation obtenue. En effet, une combinaison de détecteurs composés de neurones à décharges permet de révéler la présence de ces éléments et génère ainsi une séquence d'événements pour caractériser le contenu du signal. Dans le but d'évaluer la performance du traitement présenté, la séquence d'événements est adaptée à un système de reconnaissance vocale conventionnel, pour une tâche de reconnaissance de chiffres isolés prononcés en anglais. Pour ces tests, la séquence d'événements agit alors comme une sélection de trames automatique pour la génération des observations (coefficients cepstraux). En comparant les résultats de la reconnaissance du prototype et du système de reconnaissance original, on remarque que les deux systèmes reconnaissent très bien les chiffres prononcés dans des conditions optimales et que le système original est légèrement plus performant. Par contre, la différence observée au niveau des taux de reconnaissance diminue lorsqu'une réverbération vient affecter les données à reconnaître et les performances de l'approche proposée parviennent à dépasser celles du système de référence. De plus, la sélection de trames automatique offre de meilleures performances dans des conditions bruitées. Enfin, l'approche proposée se base sur des caractéristiques dans le temps en fonction de la nature du signal, permet une sélection plus intelligente des données qui se traduit en une parcimonie temporelle, présente un potentiel fort intéressant pour la reconnaissance vocale sous conditions adverses et utilise une détection des caractéristiques qui peut être utilisée comme séquence d'impulsions compatible avec les réseaux de neurones à décharges.
APA, Harvard, Vancouver, ISO, and other styles
38

Martinez, Jabier. "Exploration des variantes d'artefacts logiciels pour une analyse et une migration vers des lignes de produits." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066344.

Full text
Abstract:
Les lignes de produits logiciels (LdPs) permettent la dérivation d'une famille de produits basés sur une gestion de la variabilité. Les LdPs utilisent des configurations de caractéristiques afin de satisfaire les besoins de chaque client et, de même, permettre une réutilisation systématique en utilisant des assets réutilisables. L’approche capitalisant sur des variantes des produits existants est appelé une approche extractive pour l'adoption de LdPs. L’identification des caractéristiques est nécessaire pour analyser la variabilité d’un ensemble de variantes. Il est également nécessaire de localiser les éléments associés à ces caractéristiques. Les contraintes entre ces caractéristiques doivent être identifiées afin de garantir la sélection de configurations valides. Par ailleurs, il faut construire les assets réutilisables et synthétiser un modèle de caractéristiques. Cette thèse présente BUT4Reuse (Bottom-Up Technologies for Reuse), un framework unifié, générique et extensible pour l’adoption extractive de LdPs. Une attention particulière est accordée à des scénarios de développement dirigée par les modèles. Nous nous concentrons aussi sur l'analyse des techniques en proposant un benchmark pour la localisation de caractéristiques et une technique d’identification de familles de variantes. Nous présentons des paradigmes de visualisation pour accompagner les experts du domaine dans le nommage de caractéristiques et aider à la découverte de contraintes. Finalement, nous étudions l'exploitation des variantes pour l'analyse de la LdP après sa création. Nous présentons une approche pour trouver des variantes pertinentes guidée par des évaluations des utilisateurs finaux
Software Product Lines (SPLs) enable the derivation of a family of products based on variability management techniques. Inspired by the manufacturing industry, SPLs use feature configurations to satisfy different customer needs, along with reusable assets to allow systematic reuse. Capitalizing on existing variants by extracting the common and varying elements is referred to as extractive approaches for SPL adoption. Feature identification is needed to analyse the domain variability. Also, to identify the associated implementation elements of the features, their location is needed. In addition, feature constraints should be identified to guarantee that customers are not able to select invalid feature combinations. Then, the reusable assets associated to the features should be constructed. And finally, a comprehensive feature model need to be synthesized. This dissertation presents Bottom-Up Technologies for Reuse (BUT4Reuse), a unified, generic and extensible framework for mining software artefact variants. Special attention is paid to model-driven development scenarios. We also focus on benchmarks and in the analysis of variants, in particular, in benchmarking feature location techniques and in identifying families of variants in the wild for experimenting with feature identification techniques. We present visualisation paradigms to support domain experts on feature naming and to support on feature constraints discovery. Finally, we investigate and discuss the mining of artefact variants for SPL analysis once the SPL is already operational. Concretely, we present an approach to find relevant variants within the SPL configuration space guided by end user assessments
APA, Harvard, Vancouver, ISO, and other styles
39

Nguyen, Thanh-Khoa. "Image segmentation and extraction based on pixel communities." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS035.

Full text
Abstract:
La segmentation d’images est devenue une tâche indispensable largement utilisée dans plusieurs applications de traitement d’images, notamment la détection d’objets, le suivi d’objets, l’assistance automatique à la conduite et les systèmes de contrôle du trafic, etc. La littérature regorge d’algorithmes permettant de réaliser des tâches de segmentation d’images. Ces méthodes peuvent être divisées en groupes principaux en fonction des approches sous-jacentes, telles que la segmentation d'images basée sur les régions, la classification basée sur les caractéristiques de l'image, les approches basées sur les graphes et la segmentation d'images basée sur les réseaux de neurones. Récemment, l'analyse de réseaux sociaux a proposé de nombreuses théories et méthodologies. En particulier, des techniques de segmentation d’images basées sur des algorithmes de détection de communautés ont été proposées et forment une famille d'approches visible dans la littérature. Dans cette thèse, nous proposons un nouveau cadre pour la segmentation d'images basée sur la détection de communautés. Si l'idée de base d'utiliser le domaine de l'analyse des réseaux sociaux dans la segmentation de l'image est tout à fait séduisante, la manière dont les algorithmes de détection de communautés peuvent être appliqués efficacement à la segmentation d'images est un sujet qui continue à interroger. L’apport de cette thèse est un effort pour construire de manière pertinente des meilleurs réseaux complexes en fonction de l'application, des méthodes utilisées pour la détection de communautés et pour proposer de nouvelles méthodes pour agréger les régions homogènes afin de produire de bonnes segmentations d’images.Par ailleurs, nous proposons également un système de recherche d’images par le contenu (content-based image retrieval) utilisant les mêmes caractéristiques que celles obtenues par les processus de segmentation d’images. Le moteur de recherche d'images proposé fonctionne pour des images de scènes naturelles et permet de rechercher les images les plus similaires à l'image requête. Ce moteur de recherche d’images par le contenu repose sur l’utilisation des régions extraites comme mots visuels dans le modèle Bag-of-Visual-Words. Ceci permet de valider la généricité de notre approche de segmentation d’images à partir de réseaux complexes et son utilisation dans plusieurs domaines d'applications liés au traitement d’images et de vision par ordinateur. Nos méthodes ont été testées sur plusieurs jeux de données et évaluées en utilisant différentes mesures classiques de la qualité d'une segmentation. Les méthodes proposées produisent des segmentations d'image dont la qualité est supérieure à l'état de l'art
Image segmentation has become an indispensable task that is widely employed in several image processing applications including object detection, object tracking, automatic driver assistance, and traffic control systems, etc. The literature abounds with algorithms for achieving image segmentation tasks. These methods can be divided into some main groups according to the underlying approaches, such as Region-based image segmentation, Feature-based clustering, Graph-based approaches and Artificial Neural Network-based image segmentation. Recently, complex networks have mushroomed both theories and applications as a trend of developments. Hence, image segmentation techniques based on community detection algorithms have been proposed and have become an interesting discipline in the literature. In this thesis, we propose a novel framework for community detection based image segmentation. The idea that brings social networks analysis domain into image segmentation quite satisfies with most authors and harmony in those researches. However, how community detection algorithms can be applied in image segmentation efficiently is a topic that has challenged researchers for decades. The contribution of this thesis is an effort to construct best complex networks for applying community detection and proposal novel agglomerate methods in order to aggregate homogeneous regions producing good image segmentation results. Besides, we also propose a content based image retrieval system using the same features than the ones obtained by the image segmentation processes. The proposed image search engine for real images can implement to search the closest similarity images with query image. This content based image retrieval relies on the incorporation of our extracted features into Bag-of-Visual-Words model. This is one of representative applications denoted that image segmentation benefits several image processing and computer visions applications. Our methods have been tested on several data sets and evaluated by many well-known segmentation evaluation metrics. The proposed methods produce efficient image segmentation results compared to the state of the art
APA, Harvard, Vancouver, ISO, and other styles
40

Moukadem, Ali. "Segmentation et classification des signaux non-stationnaires : application au traitement des sons cardiaque et à l'aide au diagnostic." Phd thesis, Université de Haute Alsace - Mulhouse, 2011. http://tel.archives-ouvertes.fr/tel-00713820.

Full text
Abstract:
Cette thèse dans le domaine du traitement des signaux non-stationnaires, appliqué aux bruits du cœur mesurés avec un stéthoscope numérique, vise à concevoir un outil automatisé et " intelligent ", permettant aux médecins de disposer d'une source d'information supplémentaire à celle du stéthoscope traditionnel. Une première étape dans l'analyse des signaux du cœur, consiste à localiser le premier et le deuxième son cardiaque (S1 et S2) afin de le segmenter en quatre parties : S1, systole, S2 et diastole. Plusieurs méthodes de localisation des sons cardiaques existent déjà dans la littérature. Une étude comparative entre les méthodes les plus pertinentes est réalisée et deux nouvelles méthodes basées sur la transformation temps-fréquence de Stockwell sont proposées. La première méthode, nommée SRBF, utilise des descripteurs issus du domaine temps-fréquence comme vecteur d'entré au réseau de neurones RBF qui génère l'enveloppe d'amplitude du signal cardiaque, la deuxième méthode, nommée SSE, calcule l'énergie de Shannon du spectre local obtenu par la transformée en S. Ensuite, une phase de détection des extrémités (onset, ending) est nécessaire. Une méthode d'extraction des signaux S1 et S2, basée sur la transformée en S optimisée, est discutée et comparée avec les différentes approches qui existent dans la littérature. Concernant la classification des signaux cardiaques, les méthodes décrites dans la littérature pour classifier S1 et S2, se basent sur des critères temporels (durée de systole et diastole) qui ne seront plus valables dans plusieurs cas pathologiques comme par exemple la tachycardie sévère. Un nouveau descripteur issu du domaine temps-fréquence est évalué et validé pour discriminer S1 de S2. Ensuite, une nouvelle méthode de génération des attributs, basée sur la décomposition modale empirique (EMD) est proposée.Des descripteurs non-linéaires sont également testés, dans le but de classifier des sons cardiaques normaux et sons pathologiques en présence des souffles systoliques. Des outils de traitement et de reconnaissance des signaux non-stationnaires basés sur des caractéristiques morphologique, temps-fréquences et non linéaire du signal, ont été explorés au cours de ce projet de thèse afin de proposer un module d'aide au diagnostic, qui ne nécessite pas d'information à priori sur le sujet traité, robuste vis à vis du bruit et applicable dans des conditions cliniques.
APA, Harvard, Vancouver, ISO, and other styles
41

Liang, Ke. "Oculométrie Numérique Economique : modèle d'apparence et apprentissage par variétés." Thesis, Paris, EPHE, 2015. http://www.theses.fr/2015EPHE3020/document.

Full text
Abstract:
L'oculométrie est un ensemble de techniques dédié à enregistrer et analyser les mouvements oculaires. Dans cette thèse, je présente l'étude, la conception et la mise en œuvre d'un système oculométrique numérique, non-intrusif permettant d'analyser les mouvements oculaires en temps réel avec une webcam à distance et sans lumière infra-rouge. Dans le cadre de la réalisation, le système oculométrique proposé se compose de quatre modules: l'extraction des caractéristiques, la détection et le suivi des yeux, l'analyse de la variété des mouvements des yeux à partir des images et l'estimation du regard par l'apprentissage. Nos contributions reposent sur le développement des méthodes autour de ces quatre modules: la première réalise une méthode hybride pour détecter et suivre les yeux en temps réel à partir des techniques du filtre particulaire, du modèle à formes actives et des cartes des yeux (EyeMap); la seconde réalise l'extraction des caractéristiques à partir de l'image des yeux en utilisant les techniques des motifs binaires locaux; la troisième méthode classifie les mouvements oculaires selon la variété générée par le Laplacian Eigenmaps et forme un ensemble de données d'apprentissage; enfin, la quatrième méthode calcul la position du regard à partir de cet ensemble d'apprentissage. Nous proposons également deux méthodes d'estimation:une méthode de la régression par le processus gaussien et un apprentissage semi-supervisé et une méthode de la catégorisation par la classification spectrale (spectral clustering). Il en résulte un système complet, générique et économique pour les applications diverses dans le domaine de l'oculométrie
Gaze tracker offers a powerful tool for diverse study fields, in particular eye movement analysis. In this thesis, we present a new appearance-based real-time gaze tracking system with only a remote webcam and without infra-red illumination. Our proposed gaze tracking model has four components: eye localization, eye feature extraction, eye manifold learning and gaze estimation. Our research focuses on the development of methods on each component of the system. Firstly, we propose a hybrid method to localize in real time the eye region in the frames captured by the webcam. The eye can be detected by Active Shape Model and EyeMap in the first frame where eye occurs. Then the eye can be tracked through a stochastic method, particle filter. Secondly, we employ the Center-Symmetric Local Binary Patterns for the detected eye region, which has been divided into blocs, in order to get the eye features. Thirdly, we introduce manifold learning technique, such as Laplacian Eigen-maps, to learn different eye movements by a set of eye images collected. This unsupervised learning helps to construct an automatic and correct calibration phase. In the end, as for the gaze estimation, we propose two models: a semi-supervised Gaussian Process Regression prediction model to estimate the coordinates of eye direction; and a prediction model by spectral clustering to classify different eye movements. Our system with 5-points calibration can not only reduce the run-time cost, but also estimate the gaze accurately. Our experimental results show that our gaze tracking model has less constraints from the hardware settings and it can be applied efficiently in different real-time applications
APA, Harvard, Vancouver, ISO, and other styles
42

Leveau, Valentin. "Représentations d'images basées sur un principe de voisins partagés pour la classification fine." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT257/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de la classification à « grain fin » qui est une tâche de classification particulière où les classes peuvent être visuellement distinguables seulement à partir de détails subtils et où le contexte agit souvent comme une source de bruit. Ce travail est principalement motivé par le besoin de concevoir des représentations d'images plus « fines » pour adresser de telles tâches de classification qui nécessitent un encodage d’informations discriminantes très fines et localisées. L'originalité principale de notre approche est d’intégrer dans une représentation globale de haute dimension une mesure de consistance géométrique locale entre l’image à représenter et les images d’une base de référence (que nous considérons comme un vocabulaire visuel possiblement constitué d’un grand nombre d’images). Ceci nous permet d’encoder dans une représentation vectorielle des motifs très localisés et géométriquement consistant avec l’image (contrairement aux méthodes de codage traditionnelles comme les Bag-of-Visual-Word, les vecteurs de Fisher ou les vecteurs VLAD). Plus en détails : Nous proposons dans un premier temps une approche de classification d'instances d'entités visuelles basée sur un classificateur par plus proches voisins qui agrège les similarités entre l'image requête et celles de la base d'apprentissage. Les similarités sont calculées avec prise en compte de la consistance géométrique locale entre les descripteurs locaux de la requête et ceux des images de la base d'apprentissage. Cette base pouvant être constituée de nombreux descripteurs locaux, nous proposons de passer notre méthode à l’échelle en utilisant des méthodes de recherche approximatives de plus proches voisins. Par la suite, nous avons mis au point un nouveau noyau de similarité entre des images basé sur les descripteurs locaux qu'elles partagent dans une base de référence. Nous avons nommé ce noyau Shared Nearest Neighbors Kernel (SNN Kernel), qui peut être utilisé comme n'importe quel autre noyau dans les machines à noyau. Nous avons dérivé, à partir de ce dernier, une représentation explicite globale des images à décrire. Cette représentation encode la similarité de l'image considérée avec les différentes régions visuelles des images de la base correspondant au vocabulaire visuel. Nous avons également rendu possible l'intégration de l'information de consistance géométrique dans nos représentations à l'aide de l'algorithme RANSAC amélioré que nous avons proposé dans notre contribution précédente. La classification des images se fait ensuite par un modèle linéaire appris sur ces représentations. Finalement, nous proposons, comme troisième contribution, une stratégie permettant de considérablement réduire, jusqu'à deux ordres de grandeur, la dimension de la représentation d'image sur-complète précédemment présentée tout en conservant une performance de classification compétitive aux méthodes de l’état de l’art. Nous avons validé nos approches en conduisant une série d’expérimentations sur plusieurs tâches de classification impliquant des objets rigides comme FlickrsLogos32 ou Vehicles29, mais aussi sur des tâches impliquant des concepts visuels plus finement discriminables comme la base FGVC-Aircrafts, Oxford-Flower102 ou CUB-Birds200. Nous avons aussi démontré des résultats significatifs sur des tâches de classification audio à grain fin comme la tâche d'identification d'espèce d'oiseau de LifeCLEF2015 en proposant une extension temporelle de notre représentation d'image. Finalement, nous avons montré que notre technique de réduction de dimension permet d’obtenir un vocabulaire visuel très interprétable composé des régions d'image les plus représentatives pour les concepts visuels représentés dans la base d’apprentissage
This thesis focuses on the issue of fine-grained classification which is a particular classification task where classes may be visually distinguishable only from subtle localized details and where background often acts as a source of noise. This work is mainly motivated by the need to devise finer image representations to address such fine-grained classification tasks by encoding enough localized discriminant information such as spatial arrangement of local features.To this aim, the main research line we investigate in this work relies on spatially localized similarities between images computed thanks to efficient approximate nearest neighbor search techniques and localized parametric geometry. The main originality of our approach is to embed such spatially consistent localized similarities into a high-dimensional global image representation that preserves the spatial arrangement of the fine-grained visual patterns (contrary to traditional encoding methods such as BoW, Fisher or VLAD Vectors). In a nutshell, this is done by considering all raw patches of the training set as a large visual vocabulary and by explicitly encoding their similarity to the query image. In more details:The first contribution proposed in this work is a classification scheme based on a spatially consistent k-nn classifier that relies on pooling similarity scores between local features of the query and those of the similar retrieved images in the vocabulary set. As this set can be composed of a lot of local descriptors, we propose to scale up our approach by using approximate k-nearest neighbors search methods. Then, the main contribution of this work is a new aggregation-based explicit embedding derived from a newly introduced match kernel based on shared nearest neighbors of localized feature vectors combined with local geometric constraints. The originality of this new similarity-based representation space is that it directly integrates spatially localized geometric information in the aggregation process.Finally, as a third contribution, we proposed a strategy to drastically reduce, by up to two orders of magnitude, the high-dimensionality of the previously introduced over-complete image representation while still providing competitive image classification performance.We validated our approaches by conducting a series of experiments on several classification tasks involving rigid objects such as FlickrsLogos32 or Vehicles29 but also on tasks involving finer visual knowledge such as FGVC-Aircrafts, Oxford-Flower102 or CUB-Birds200. We also demonstrated significant results on fine-grained audio classification tasks such as the LifeCLEF 2015 bird species identification challenge by proposing a temporal extension of our image representation. Finally, we notably showed that our dimensionality reduction technique used on top of our representation resulted in highly interpretable visual vocabulary composed of the most representative image regions for different visual concepts of the training base
APA, Harvard, Vancouver, ISO, and other styles
43

Pan, Xiaoxi. "Towards FDG-PET image characterization and classification : application to Alzheimer's disease computer-aided diagnosis." Thesis, Ecole centrale de Marseille, 2019. http://www.theses.fr/2019ECDM0008.

Full text
Abstract:
La maladie d’Alzheimer (MA) est la maladie neurodégénérative--incurable et irréversible pour le moment--la plus répandue chez les personnes âgées. On s’attend à ce qu’elle soit diagnostiquée à son stade précoce, Mild Cognitive Impairment (MCI), pour pouvoir intervenir et retarder son apparition. La tomographie par émission de positons au fluorodésoxyglucose (TEP-FDG) est considérée comme une modalité efficace pour diagnostiquer la MA et la phase précoce correspondante, car elle peut capturer les changements métaboliques dans le cerveau, indiquant ainsi des régions anormales. Cette thèse est consacrée à identifier et distinguer, sur des images TEP, les sujets atteints de MA de ceux qui sont sains. Ce travail vise également à prédire la conversion de MCI sous la modalité d’imagerie TEP-FDG. A cette fin, trois nouvelles méthodes indépendantes sont proposées.La première méthode est axée sur le développement de connectivités entre les régions anatomiques impliquées dans les images au TEP-FDG, qui sont rarement abordées dans les méthodes déjà publiées. Ces connectivités sont représentées par des similarités ou des mesures graphiques entre régions. Combinées ensuite aux propriétés de chaque région, ces caractéristiques sont intégrées dans un cadre de classification d’ensemble conçu pour résoudre les problèmes de diagnostic MA et de prédiction de conversion MCI.La seconde méthode étudie les caractéristiques permettant de caractériser les images au TEP-FDG à partir de gradients spatiaux, ce qui permet de lier les caractéristiques couramment utilisées, voxel ou régionales. Le gradient spatial est quantifié par un histogramme 2D d’orientation et exprimé sous forme multi-échelle. Les résultats sont obtenus en intégrant différentes échelles de gradients spatiaux dans différentes régions.La troisième méthode applique le Convolutional Neural Network (CNN) sur les trois axes des données 3D de TEP-FDG, proposant ainsi la principale architecture CNN à vues multiples. Une telle architecture peut faciliter les opérations de convolution, de la 3D à la 2D, tout en tenant compte des relations spatiales, qui bénéficient d’une nouvelle couche de cartographie. Ensuite, le traitement sur les trois axes sont combinées et prennent une décision conjointement.Les expériences menées sur des ensembles de données publics montrent que les trois méthodes proposées peuvent atteindre des performances significatives et, de surcroît, dépasser les approches les plus avancées
Alzheimer's disease (AD) is becoming the dominant type of neurodegenerative brain disease in elderly people, which is incurable and irreversible for now. It is expected to diagnose its early stage, Mild Cognitive Impairment (MCI), then interventions can be applied to delay the onset. Fluorodeoxyglucose positron emission tomography (FDG-PET) is considered as a significant and effective modality to diagnose AD and the corresponding early phase since it can capture metabolic changes in the brain thereby indicating abnormal regions. Therefore, this thesis is devoted to identify AD from Normal Control (NC) and predict MCI conversion under FDG-PET modality. For this purpose, three independent novel methods are proposed. The first method focuses on developing connectivities among anatomical regions involved in FDG-PET images which are rarely addressed in previous methods. Such connectivities are represented by either similarities or graph measures among regions. Then combined with each region's properties, these features are fed into a designed ensemble classification framework to tackle problems of AD diagnosis and MCI conversion prediction. The second method investigates features to characterize FDG-PET images from the view of spatial gradients, which can link the commonly used features, voxel-wise and region-wise features. The spatial gradient is quantified by a 2D histogram of orientation and expressed in a multiscale manner. The results are given by integrating different scales of spatial gradients within different regions. The third method applies Convolutional Neural Network (CNN) techniques to three views of FDG-PET data, thereby designing the main multiview CNN architecture. Such an architecture can facilitate convolutional operations, from 3D to 2D, and meanwhile consider spatial relations, which is benefited from a novel mapping layer with cuboid convolution kernels. Then three views are combined and make a decision jointly. Experiments conducted on public dataset show that the three proposed methods can achieve significant performance and moreover, outperform most state-of-the-art approaches
APA, Harvard, Vancouver, ISO, and other styles
44

Barakat, Mustapha. "Fault diagnostic to adaptive classification schemes based on signal processing and using neural networks." Le Havre, 2011. http://www.theses.fr/2011LEHA0023.

Full text
Abstract:
La détection et l'isolation des défauts industriels (FDI) est devenue de plus en plus importante en raison de l'augmentation de l'automatisation industrielle. L'augmentation significative des complexités des systèmes industriels au cours des dernières années a fait de la FDI une étape majeure de tous les processus industriels. Dans cette thèse, des techniques adaptatives et intelligentes basées sur les réseaux de neurones artificiels combinés avec des outils avancés de traitements du signal utilisés pour la détection et le diagnostic systèmatique des défauts dans les systèmes industriels ont été développés et appliqués. Les techniques proposées de classification en ligne consistent de trois différentes étapes : (1) modélisation du signal et extraction des caractéristiques, (2) classification des caractéristiques et (3) décision de sortie. Dans une première étape, notre approche est basée sur le fait que les défauts sont reflétés dans les caractéristiques extraites. Pour l'algorithme de classifiaction des caractéristiques, plusieurs techniques basées sur les réseaux de neurones ont été utilisées. Un arbre de décision binaire basé sur la classification par une Machine à Vecteurs Supportes (SVM) a été aussi appliqué. Cette technique choisit la caractéristique dynamique appropriée à chaque niveau (branche) et classifie cette caractéristique par un classifier binaire. Une autre technique de classification avancée est prévue. Cette technique est basée sur la cartographie (mapping) de l'algorithme des réseaux qui peut extraire des caractéristiques à partir de données historiques et nécessité une connaissance à priori sur le processus. L'importance de ce réseau réside dans sa capacité à garder les anciennes données de probabilités équitables au cours du processus de cartographie. Une troisième contribution porte sur la construction du réseau avec des noeuds qui peuvent activer dans des sous-espaces spécifiques des différentes classes. Le concept de cette dernière méthode est de diviser l'espace des défauts d'une manière hiérarchique en un nombre de plus petits sous-espaces selon les zones d'activation des paramètres groupés. Pour chaque type de défauts, dans un sous espace particulier un agent spécial de diagnostic est entrainé. Une sélection avancée des paramètres est intégrée dans cet algorithme pour améliorer la confidence de classification. Toutes les contributions sont appliquées pour la détection et le diagnostic des différents systèmes industriels dans les domaines de l'ingénierie mécanique ou chimique. Les performances de nos approches sont étudiées et comparées avec plusieurs méthodes existantes utilisant des réseaux de neurones et la précision de toutes les méthodologies est examinée et évaluée avec soin
Industrial Fault Detection and Isolation (FDI) become more essential in light of increased automation in industry. The signifiant increase of systemes and plants complexity during last decades made the FDI tasks appear as major steps in all industrial processes. In this thesis, adaptive intelligent tcehniques based on artificial neural networks combined with advanced signal processing methods for systematic detection and diagnosis of faults in industrial systemes are developed and put forward? The proposed on-line classification techniques consists of three main stages : (1) signal modeling and featured extraction, (2) feature classification and (3) output decision. In first stage, our approach is relied on the assumption that faults are reflected in the extracted features. For feature classification algorithm, several techniques bases on neural networks are proposed. A binary decision tree relied on multiclass Support Vector Machine (SVM) algorithm is put forward. The technique selects dynamic appropriate feature at each level (branch) and classify it in a binary classifier. Another advance classification technique is anticipated based on mapping algorithm network that can extract features from historical data and require prior knowledge about the process. The signifiance of this network focuses on its ability to reserve old data in equitable porpabilities during the mapping process. Each class of faults or disturbances will be represented by a particular surface at the end of the mapping process. Third contribution focuses on building network with nodes that can activate in specific subspaces of different classes. The concept behind this method is to divide the pattern space of faults, in a particular sub-space, a special diagnosis agent is trained. An advanced parameter selection is embedded in this algorithm for improving the confidence of classification diagnosis. All contributions are applied to the fault detection and diagnosis of various industrial systems in the domains of mechanical or chemical engineering. The performances of our approaches are studied and compared with several existing neural network methods and the accuracy of all methodologies is considered carefully and evaluated
APA, Harvard, Vancouver, ISO, and other styles
45

Christoff, Vesselinova Nicole. "Détection et caractérisation d'attributs géométriques sur les corps rocheux du système solaire." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0565/document.

Full text
Abstract:
L’un des défis de la science planétaire est la détermination de l’âge des surfaces des différents corps célestes du système solaire, pour comprendre leurs processus de formation et d’évolution. Une approche repose sur l’analyse de la densité et de la taille des cratères d’impact. En raison de l’énorme quantité de données à traiter, des approches automatiques ont été proposées pour détecter les cratères d’impact afin de faciliter ce processus de datation. Ils utilisent généralement les valeurs de couleur des images ou les valeurs d’altitude de "modèles numériques d’élévation" (DEM). Dans cette thèse, nous proposons une nouvelle approche pour détecter les bords des cratères. L’idée principale est de combiner l’analyse de la courbure avec une classification basée sur un réseau de neurones. Cette approche comporte deux étapes principales : premièrement, chaque sommet du maillage est étiqueté avec la valeur de la courbure minimale; deuxièmement, cette carte de courbure est injectée dans un réseau de neurones pour détecter automatiquement les formes d’intérêt. Les résultats montrent que la détection des formes est plus efficace en utilisant une carte en deux dimensions s’appuyant sur le calcul d’estimateurs différentiels discrets, plutôt qu’en utilisant la valeur de l’élévation en chaque sommet. Cette approche réduit significativement le nombre de faux négatifs par rapport aux approches précédentes basées uniquement sur une information topographique. La validation de la méthode est effectuée sur des DEM de Mars, acquis par un altimètre laser à bord de la sonde spatiale "Mars Global Surveyor" de la NASA et combinés avec une base de données de cratères identifiés manuellement
One of the challenges of planetary science is the age determination of the surfaces of the different celestial bodies in the solar system, to understand their formation and evolution processes. An approach relies on the analysis of the crater impact density and size. Due to the huge quantity of data to process, automatic approaches have been proposed for automatically detecting impact craters in order to facilitate this dating process. They generally use the color values from images or the elevation values from Digital Elevation Model (DEM). In this PhD thesis, we propose a new approach for detecting craters rims. The main idea is to combine curvature analysis with Neural Network based classification. This approach contains two main steps: first, each vertex of the mesh is labeled with the value of the minimal curvature; second, this curvature map is injected into a neural network to automatically detect the shapes of interest. The results show that detecting forms are more efficient using a two-dimensional map based on the computation of discrete differential estimators, than by the value of the elevation at each vertex. This approach significantly reduces the number of false negatives compared to previous approaches based on topographic information only. The validation of the method is performed on DEMs of Mars, acquired by a laser altimeter aboard NASA’s Mars Global Surveyor spacecraft and combined with a database of manually identified craters
APA, Harvard, Vancouver, ISO, and other styles
46

Commandeur, Frédéric. "Fusion d'images multimodales pour la caractérisation du cancer de la prostate." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S038/document.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de la caractérisation du cancer de la prostate à partir de données d'imagerie multimodale. L'objectif est d'identifier et de caractériser les tumeurs prostatiques à partir d'observation in-vivo, incluant imagerie par résonance magnétique multiparamétrique (IRMm), tomodensitométrie (TDM) et tomographie par émission de positons (TEP), avec une référence biologique sous forme de lames histologiques fournies par l'analyse anatomopathologique de la prostate après prostatectomie radicale. Nous proposons dans un premier temps deux méthodes de recalage afin de réaliser la mise en correspondance des données multimodales dans un référentiel spatial commun défini par l'IRM. Le premier algorithme s'attache à l'alignement des images TDM/TEP et IRM, en combinant information de contour et probabilité de présence de la prostate. Le second a pour objectif de recaler les images histologiques et IRM. En suivant le protocole de Stanford, la pièce de prostatectomie est découpée plus finement fournissant ainsi plus de lames histologiques qu'en routine clinique. Leur correspondance avec les coupes IRM est alors estimée à l'aide de l'information à priori de la découpe et de points saillants (SURF) extraits dans les deux modalités. Cette initialisation sert de base à un recalage affine puis non-rigide basé sur l'information mutuelle et des cartes de distance obtenues à partir des structures intraprostatiques. Dans un second temps, des caractéristiques structurelles (Haar, Gabor, etc) et fonctionnelles (Ktrans, Kep, SUV, TLG, etc) sont extraites en chaque voxel de la prostate à partir des images IRM et TEP. À ces vecteurs de caractéristiques sont associés les labels biologiques correspondant obtenus lors de l'analyse anatomopathologique. Parmi ces labels, nous disposons d'un score d'agressivité appelé score de Gleason et de scores immunohistochimiques quantifiant certains aspects biologiques des tissus, tels que l'hypoxie et la prolifération cellulaire. Finalement, ces couples (vecteurs de caractéristiques/informations biologiques) servent de données d'apprentissage à l’entraînement de classifieurs RF et SVM, utilisés par la suite pour caractériser les tumeurs à partir de nouvelles observations in-vivo. Dans ces travaux, nous réalisons une étude de faisabilité sur neuf patients
This thesis concerns the prostate cancer characterization based on multimodal imaging data. The purpose is to identify and characterize the tumors using in-vivo observations including mMRI and PET/CT, with a biological reference obtained from anatomopathological analysis of radical prostatectomy specimen providing histological slices. Firstly, we propose two registration methods to match the multimodal images in the the spatial reference defined by MRI. The first algorithm aims at aligning PET/CT images with MRI by combining contours information and presence probability of the prostate. The objective of the second is to register the histological slices with the MRI. Based on the Stanford protocol, a thinner cutting of the radical prostatectomy specimen is done providing more slices compared to clinical routine. The correspondance between histological and MRI slices is then estimated using a combination of the prior information of the slicing and salient points (SURF) extracted in both modalities. This initialization step allows for an affine and non-rigid registration based on mutual information and intraprostatic structures distance map. Secondly, structural (Haar, Garbor, etc) and functional (Ktrans, Kep, SUV, TLG, etc) descriptors are extracted for each prostate voxel over MRI and PET images. Corresponding biological labels obtained from the anatomopathological analysis are associated to the features vectors. The biological labels are composed by the Gleason score providing an information of aggressiveness and immunohistochemistry grades providing a quantification of biological process such as hypoxia and cell growth. Finally, these pairs (features vectors/biological information) are used as training data to build RF and SVM classifiers to characterize tumors from new in-vivo observations. In this work, we perform a feasibility study with nine patients
APA, Harvard, Vancouver, ISO, and other styles
47

Kodewitz, Andreas. "Méthodes pour l'analyse de grands volumes d'images appliquées à la détection précoce de la maladie d'Alzheimer par analyse de PDG-PET scans." Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00846689.

Full text
Abstract:
Dans cette thèse, nous explorons de nouvelles méthodes d'analyse d'images pour la détection précoce des changements métaboliques cérébraux causés par la maladie d'Alzheimer (MA). Nous introduisons deux apports méthodologiques que nous appliquons à un ensemble de données réelles. Le premier est basé sur l'apprentissage automatique pour créer une carte des informations de classification pertinente dans un ensemble d'images. Pour cela nous échantillonnons des blocs de voxels de l'image selon un algorithme de Monte-Carlo. La mise en oeuvre d'une classification basée sur ces patchs 3D a pour conséquence importante la réduction significative du volume de patchs à traiter, et l'extraction de caractéristiques dont l'importance est statistiquement quantifiable. Cette méthode s'applique à différentes caractéristiques de l'image et donc est adaptée à des types d'images très variés. La résolution des cartes produites par cette méthode peut être affinée à volonté et leur contenu informatif est cohérent avec les résultats antérieurs basés sur les statistiques sur les voxels obtenus dans la littérature. Le second apport méthodologique porte sur la conception d'un nouvel algorithme de décomposition de tenseur d'ordre important, adapté à notre application. Cet algorithme permet de réduire considérablement la consommation de mémoire et donc évite la surcharge de la mémoire. Il autorise la décomposition rapide de tenseurs, y compris ceux de dimensions très déséquilibrées. Nous appliquons cet algorithme en tant que méthode d'extraction de caractéristiques dans une situation où le clinicien doit diagnostiquer des stades MA précoce ou MCI (Mild Cognitive Impairment) en utilisant la TEP FDG seule. Les taux de classification obtenus sont souvent au-dessus des niveaux de l'état de l'art. Dans le cadre de ces tâches d'analyse d'images, nous présentons notre source de données, les scans de patients retenus et les pré-traitements réalisés. Les principaux aspects que nous voulons prendre en compte sont la nature volumétrique des données, l'information a priori disponible sur la localisation des changements métaboliques et comment l'identification des zones de changements métaboliques participe à la réduction de la quantité de données à analyser et d'extraire des caractéristiques discriminantes. Les méthodes présentées fournissent des informations précises sur la localisation de ces changements métaboliques. Les taux de classification allant jusqu'à 92,6% pour MA et 83,8% pour MCI. En outre, nous sommes capables de séparer les patients MCI stables des MCI patients évoluant vers la MA dans les 2 ans après l'acquisition du PET-scan avec un taux de classification de 84.7%. Ce sont des étapes importantes vers une détection fiable et précoce de la MA.
APA, Harvard, Vancouver, ISO, and other styles
48

Bai, Cong. "Analyse d'images pour une recherche d'images basée contenu dans le domaine transformé." Phd thesis, INSA de Rennes, 2013. http://tel.archives-ouvertes.fr/tel-00907290.

Full text
Abstract:
Cette thèse s'inscrit dans la recherche d'images basée sur leur contenu. La recherche opère sur des images eprésentéesdans un domaine transformé et où sont construits directement les vecteurs de caractéristiques ou indices. Deux types detransformations sont explorés : la transformée en cosinus discrète ou Discrete Cosine Transform (DCT) et la transforméen ondelettes discrète ou Discrete Wavelet Transform (DWT), utilisés dans les normes de compression JPEG et JPEG2000. Basés sur les propriétés des coefficients de la transformation, différents vecteurs de caractéristiquessont proposés. Ces vecteurs sont mis en oeuvre dans la reconnaissance de visages et de textures couleur.Dans le domaine DCT, sont proposés quatre types de vecteurs de caractéristiques dénommés "patterns" : Zigzag-Pattern,Sum-Pattern, Texture-Pattern et Color-Pattern. Le premier type est l'amélioration d'une approche existante. Les trois derniers intègrent la capacité de compactage des coefficients DCT, sachant que certains coefficients représentent une information de directionnalité. L'histogramme de ces vecteurs est retenu comme descripteur de l'image. Pour une réduction de la dimension du descripteur lors de la construction de l'histogramme il est défini, soit une adjacence sur des patterns proches puis leur fusion, soit une sélection des patterns les plus fréquents. Ces approches sont évaluées sur des bases de données d'images de visages ou de textures couramment utilisées. Dans le domaine DWT, deux types d'approches sont proposés. Dans le premier, un vecteur-couleur et un vecteur-texture multirésolution sont élaborés. Cette approche se classe dans le cadre d'une caractérisation séparée de la couleur et de la texture. La seconde approche se situe dans le contexte d'une caractérisation conjointe de la couleur et de la texture. Comme précédemment, l'histogramme des vecteurs est choisi comme descripteur en utilisant l'algorithme K-means pour construire l'histogramme à partir de deux méthodes. La première est le procédé classique de regroupement des vecteurs par partition. La seconde est un histogramme basé sur une représentation parcimonieuse dans laquelle la valeur des bins représente le poids total des vecteurs de base de la représentation.
APA, Harvard, Vancouver, ISO, and other styles
49

Bayle, Elodie. "Entre fusion et rivalité binoculaires : impact des caractéristiques des stimuli visuels lors de l’utilisation d’un système de réalité augmentée semi-transparent monoculaire." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG029.

Full text
Abstract:
Les visuels de casque monoculaires utilisés dans l'aéronautique augmentent la vision des pilotes et facilitent l'accès aux informations essentielles telles que la symbologie de vol. Ils sont plus légers et plus ajustables que leurs homologuesbinoculaires, peuvent s'intégrer dans n'importe quel aéronef et permettent de conserver l'information quelle que soit la direction de regard. Cependant, ils génèrent une perception particulière puisqu'une image virtuelle monoculaire se superpose à l'environnement réel binoculaire. Des informations différentes sont projetées à des régions correspondantes des deux yeux créant un conflit interoculaire. L'enjeu de cette thèse est d'évaluer l'impact des caractéristiques des stimuli sur les performances aux tâches réalisées via ce type de système afin d'en optimiser l'utilisation.Deux études psychophysiques et une étude écologique en simulateur de vol ont été réalisées. Toutes ont montré un bon confort à l'exposition. Les performances ont été évalués en fonction des caractéristiques du fond binoculaire, de l'affichage de l'image monoculaire et des caractéristiques d'évènements à détecter. Le choix de l'œil de présentation n'est pas anodin étant donné les différences entre les performances réalisées avec le monoculaire sur chacun des deux yeux. Nos résultats aux trois études montrent également que, comme pour deux images fusionnables ou dichoptiques, les performances sont dépendantes des stimulations visuelles. Ils suggèrent donc qu'il faille envisager une symbologie adaptative qui ne peux se résumer au changement de luminosité dont dispose actuellement les pilotes
Monocular augmented reality devices are used in the aeronautical field to enhance pilots' vision by providing access to essential information such as flight symbology. They are lighter and more adjustable than their binocular counterparts, can be integrated into any aircraft, and allow information to be retained regardless of gaze direction. However, they generate a particular perception since a monocular virtual image is superimposed on the real binocular environment. Different information is projected to corresponding regions of the two eyes creating an interocular conflict. The goal of this thesis is to evaluate the impact of the stimuli characteristics on the performance of tasks performed with this type of system to optimize its use. Two psychophysical studies and an ecological study in a flight simulator have been carried out. All of them showed a good comfort when exposed to interocular conflict. The performances were evaluated according to the characteristics of the binocular background, the display of the monocular image and the characteristics of events to be detected. The choice of the presenting eye is not insignificant given the differences between the performances achieved with the monocular on each of the two eyes. Our results from the three studies also show that, as with two fusible or two dichoptic images, performance is dependent on visual stimuli. They therefore suggest that an adaptive symbology should be considered, which cannot be summarized by the change in brightness currently available to pilots
APA, Harvard, Vancouver, ISO, and other styles
50

Gutierrez, Luis Felipe. "Extraction et caractéristiques des huiles de l'argousier (Hippophaë rhamnoides L.). Une étude des effets de la méthode de déshydratation des fruits sur le rendement d'extraction et la qualité des huiles." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24426/24426.pdf.

Full text
Abstract:
Les huiles d’argousier (Hippophaë rhamnoides L.) ont été reconnues depuis longtemps pour leurs propriétés nutraceutiques. Les effets du séchage à l’air et de la lyophilisation sur les rendements d’extraction et la qualité des huiles de graines et de la pulpe d’argousier (cv. Indian-Summer) ont été étudiés. Les extractions ont été effectuées en utilisant l’hexane. Les graines séchées à l’air et celles lyophilisées ont donné des rendements d’extraction semblables (∼12%p/p), tandis que des différences significatives ont été trouvées entre les rendements d’extraction des pulpes séchées à l’air et lyophilisées (35.9±0.8 contre 17.1±0.6%p/p). Les acides α-linolénique (37.2-39.6%), linoléique (32.4-34.2%) et oléique (13.1%) furent les principaux acides gras trouvés dans les extraits des graines, alors que les extraits des pulpes furent riches en acides palmitoléique (39.9%), palmitique (35.4%) et linoléique (10.6%). Le fractionnement des huiles brutes, fait par extraction en phase solide, a donné principalement des lipides neutres (93.9-95.8%). Les indices de peroxyde des huiles des graines et des pulpes furent d’environ 1.8 et entre 3.0 et 5.4 meq/kg, respectivement. Les profiles de fusion des huiles ont été caractérisé par calorimétrie différentielle à balayage.
Sea buckthorn (Hippophaë rhamnoides L.) seeds and pulp oils have been recognized for their nutraceutical properties. The effects of air-drying and freeze-drying on extraction yields and quality of oils from sea buckthorn (cv. Indian-Summer) seeds and pulp were studied. Oil extractions were carried out using hexane. Air-dried (ADS) and freeze-dried (FDS) seeds, gave a similar extraction yields (∼12%w/w), whereas those of air-dried (ADP) and freeze-dried (FDP) pulps were significantly different (35.9±0.8 vs. 17.1±0.6%w/w). Fatty acid analysis revealed that α-linolenic (37.2-39.6%), linoleic (32.4-34.2%) and oleic (13.1%) acids were the main fatty acids in seed oils, while pulp oils were rich in palmitoleic (39.9%), palmitic (35.4%) and linoleic (10.6%) acids. Lipid fractionation of crude oils, obtained by solid phase extraction, yielded mainly neutral lipids (93.9-95.8%). The peroxide values of seed and pulp oils were circa 1.8 and between 3.0-5.4 meq/kg respectively. The melting behavior of oils was characterized by differential scanning calorimetry.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography