Thèses sur le sujet « Mesure de similarité et multicritére »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Mesure de similarité et multicritére.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 19 meilleures thèses pour votre recherche sur le sujet « Mesure de similarité et multicritére ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Serrai, Walid. « Évaluation de performances de solutions pour la découverte et la composition des services web ». Electronic Thesis or Diss., Paris Est, 2020. http://www.theses.fr/2020PESC0032.

Texte intégral
Résumé :
Les systèmes logiciels accessibles via le web sont construits en utilisant des services web existants et distribués qui s'interagissent par envoi de messages. Le service web expose ses fonctionnalités à travers une interface décrite dans un format manipulable par ordinateur. Les autres systèmes interagissent, sans intervention humaine, avec le service web selon une procédure prescrite en utilisant les messages d’un protocole.Les services web peuvent être déployés sur des plateformes cloud. Ce type de déploiement occasionne un grand nombre de services à gérer au niveau de mêmes répertoires soulevant différents problèmes : Comment gérer efficacement ces services afin de faciliter leur découverte pour une éventuelle composition. En effet, étant donné un répertoire, comment définir une architecture voire une structure de données permettant d’optimiser la découverte des services, leur composition et leur gestion.La découverte de services consiste à trouver un ou plusieurs services satisfaisant les critères du client. La composition de services consiste quant à elle à trouver un nombre de services pouvant être exécutés selon un schéma et satisfaisant les contraintes du client. Comme le nombre de services augmente sans cesse, la demande pour la conception d’architectures permettant d’offrir non seulement un service de qualité mais aussi un temps de réponse rapide pour la découverte, la sélection et la composition, est de plus en plus intense. Ces architectures doivent de plus être facilement gérables et maintenables dans le temps. L’exploration de communautés et de structures d’index corrélée avec l’utilisation de mesures multi critères pourrait offrir une solution efficace à condition de bien choisir les structures de données, les types de mesures, et les techniques appropriés. Dans cette thèse, des solutions sont proposées pour la découverte, la sélection de services et leur composition de telle façon à optimiser la recherche en termes de temps de réponse et de pertinence des résultats. L’évaluation des performances des solutions proposées est conduite en utilisant des plateformes de simulations
Software systems accessible via the web are built using existing and distributed web services that interact by sending messages. The web service exposes its functionalities through an interface described in a computer-readable format. Other systems interact, without human intervention, with the web service according to a prescribed procedure using the messages of a protocol. Web services can be deployed on cloud platforms. This type of deployment causes a large number of services to be managed at the level of the same directories raising different problems: How to manage these services effectively to facilitate their discovery for a possible composition. Indeed, given a directory, how to define an architecture or even a data structure to optimize the discovery of services, their composition, and their management. Service discovery involves finding one or more services that meet the client’s criteria. The service composition consists of finding many services that can be executed according to a scheme and that satisfy the client’s constraints. As the number of services is constantly increasing, the demand for the design of architectures to provide not only quality service but also rapid responsetime for discovery, selection, and composition, is getting more intense. These architectures must also be easily manageable and maintainable over time. The exploration of communities and index structures correlated with the use of multi-criteria measures could offer an effective solution provided that the data structures, the types of measures, are chosen correctly, and the appropriate techniques. In this thesis, solutions are proposed for the discovery, the selection of services and their composition in such a way as to optimizethe search in terms of response time and the relevance of the results. The performance evaluation of the proposed solutions is carried out using simulation platforms
Styles APA, Harvard, Vancouver, ISO, etc.
2

Hussain, Syed Fawad. « Une Nouvelle Mesure de Co-Similarité : Applications aux Données Textuelles et Génomique ». Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00525366.

Texte intégral
Résumé :
La classification de données (ou apprentissage non-supervisé) vise à regrouper un ensemble d'observations sous la forme de classes homogènes et contrastées. Lorsque les données sont caractérisées par un grand nombre de variables, il devient nécessaire d'adapter les méthodes classiques, notamment au niveau des métriques, afin de maintenir des classes pertinentes ; ce phénomène est connu sous le nom de "malédiction de la dimension". Dans cette thèse, nous proposons une mesure de co-similarité basée sur la notion de co-occurrences d'ordre supérieur, directement extraites à partir des données. Dans le cas de l'analyse de texte, par exemple, les similarités entre documents sont calculées en prenant en compte les similarités entre mots, qui simultanément prennent en compte les similarités entre documents. Par cette approche " circulaire ", nous parvenons à mettre en correspondance des documents sans mots communs mais ayant juste des mots similaires. Cette approche s'effectue de manière purement numérique sans nécessiter de thesaurus externe. En outre, notre méthode peut également être étendue pour tirer parti de connaissances "a priori" afin de réaliser des tâches de catégorisation de textes : l'étiquette des documents est utilisée pour influencer les mesures de similarité entre les mots afin de classer de nouvelles données. Ainsi, le même cadre conceptuel, exprimable en terme de théorie des graphes, peut être utilisé à la fois pour les tâches de classification et de catégorisation en fonction de la quantité d'information initiale. Nos résultats montrent une amélioration significative de la précision, par rapport à l'état de l'art, à la fois pour le co-clustering et la catégorisation sur les jeux de données qui ont été testés.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Hussain, Syed Fawad. « Une nouvelle mesure de co-similarité : applications aux données textuelles et génomique ». Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM049.

Texte intégral
Résumé :
La classification de données (apprentissage non-supervisé) vise à regrouper un ensemble d'observations sous la forme de classes homogènes et contrastées. Lorsque les données sont caractérisées par un grands nombre de propriétés, il devient nécessaire d'adapter les méthodes classique, notamment au niveau des métriques, afin de maintenir des classes pertinentes; ce phénomène est connu sous le nom de "malédiction de la dimension". Dans cette thèse nous proposons une mesure de co-similarité basée sur la notion de co-occurrences d'ordre supérieur, directement extraites à partir des données. Dans le cas de l'analyse de texte, par exemple, les similarités entre documents sont calculées en prenant en compte les similarités entre mots, qui simultanément prennent en compte les similarités entre documents. Par cette approche circulaire, nous mettons en correspondance des documents sans mots communs mais juste des mots similaires. Cette approche s'effectue sans nécessiter de thesaurus externe. En outre, notre méthode peut également être étendu pour tirer partie de connaissances "a priori" pour réaliser des tâches de catégorisation de textes: l'étiquette des documents est utilisée pour influencer les mesures de similarité entre les mots afin de classer de nouvelles données. Ainsi, le même cadn conceptuel, exprimable en terme de la théorie des graphes, peut être utilisé à la fois pour les tâches de classification et de catégorisation en fonction de la quantité d'information initiale. Nos résultats montrent une amélioration significative de la précision, par rapport à l'état de l'art, pour le co-clustering et la catégorisation sur les jeux d données qui ont été testés
Clustering is the unsupervised classification of patterns (observations, data items, or feature vectors) into homogeneous and contrasted groups (clusters As datasets become larger and more varied, adaptations to existing algorithms are required to maintain the quality of cluster. Ln this regard, high¬dimensional data poses sorne problems for traditional clustering algorithms known as the curse of dimensionality. This thesis proposes a co-similarity based algorithm that is based on the concept of higher-order co-occurrences, which are extracted from the given data. Ln the case of text analysis, for example, document similarity is calculated based on word similarity, which in turn is calculated on the basis of document similarity. Using this iterative approach, we can bring similar documents closer together even if they do not share the same words but share similar words. This approach doesn't need externallinguistic resources like a thesaurus Furthermore this approach can also be extended to incorporate prior knowledge from a training dataset for the task of text categorization. Prior categor labels coming from data in the training set can be used to influence similarity measures between worlds to better classify incoming test dataset among the different categories. Thus, the same conceptual approach, that can be expressed in the framework of the graph theory, can be used for both clustering and categorization task depending on the amount of prior information available. Our results show significant increase in the accuracy with respect to the state of the art of both one-way and two-way clustering on the different datasets that were tested
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cayèré, Cécile. « Modélisation de trajectoires sémantiques et calcul de similarité intégrés à un ETL ». Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS042.

Texte intégral
Résumé :
Cette dernière décennie, nous avons pu constater une montée en popularité des applications mobiles basées sur la localisation des téléphones. Ces applications collectent des traces de mobilité qui retracent le déplacement des utilisateurs au cours du temps. Dans le projet régional DA3T, nous faisons l’hypothèse que l’analyse des traces de mobilité de touristes peut aider les aménageurs dans la gestion et la valorisation des territoires touristiques. L’objectif est de concevoir des méthodes et des outils d’aide à l’analyse de ces traces. Cette thèse s’intéresse au traitement des traces de mobilité et propose une plateforme modulaire permettant de créer et d’exécuter des chaînes de traitement sur ces données. Au fil des modules d’une chaîne de traitement, la trace de mobilité brute évolue en trajectoires sémantiques. Les contributions de cette thèse sont : (i) un modèle de trajectoire sémantique multi-niveau et multi-aspect et (ii) deux mesures calculant la similarité entre deux trajectoires sémantiques s’intéressant aux dimensions spatiales, temporelle et thématique. Notre modèle (i) est utilisé comme modèle de transition entre les modules d’une chaîne de traitement. Nous l’avons mis à l’épreuve en instanciant des trajectoires sémantiques issues de différents jeux de données de domaines variés. Nos deux mesures (ii) sont intégrées à notre plateforme comme modules de traitement. Ces mesures présentent des originalités : l’une est la combinaison de sous-mesures, chacune permettant d’évaluer la similarité des trajectoires sur les trois dimensions et selon trois niveaux de granularité différents, l’autre est la combinaison de deux sous-mesures bidimensionnelles centrées autour d’une dimension en particulier. Nous avons évalué nos deux mesures en les comparant à d’autres mesures et à l’avis de géographes
Over the last decade, we have seen a rise in popularity of mobile applications based on phone location. These applications collect mobility tracks which describe the movement of users overtime. In the DA3T regional project, we hypothesise that the analysis of tourists’ mobility tracks can help planners in the management and enhancement of tourist areas. The objective is to design methods and tools to help analyse these tracks. This thesis focuses on the processing of mobility tracks and proposes a modular platform for creating and executing processing chains on these data. Throughout the modules of a processing chain, the raw mobility track evolves into semantic trajectories. The contributions of this thesis are: (i) a multi-level and multi-aspect semantic trajectory model and (ii) two measures that compute the similarity between two semantic trajectories along spatial, temporal and thematic dimensions. Our model (i) is used as a transition model between modules of a processing chain. We tested it by instantiating semantic trajectories from different datasets of various domains. Our two measures (ii) are integrated in our platform as processing modules. These measures present originalities: one is the combination of sub-measures, each allowing to evaluate the similarity of trajectories on the three dimensions and according to three different levels of granularity, the other is the combination of two bidimensional sub-measures centred around a particular dimension. We evaluated our two measures by comparing them to other measures and to the opinion of geographers
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bernier, Michaël. « Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM ». Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6274.

Texte intégral
Résumé :
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Benabderrahmane, Sidahmed. « Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal ». Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00653169.

Texte intégral
Résumé :
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Rital, Soufiane. « Hypergraphe de Voisinage Spatiocolorimétrique. Application en traitement d'images : Détection decontours et du bruit ». Phd thesis, Université de Bourgogne, 2004. http://tel.archives-ouvertes.fr/tel-00011832.

Texte intégral
Résumé :
Dans ce document, nous nous intéressons à la modélisation de l'image par le biais de la théorie des hypergraphes. Notre contribution est essentiellement axée sur la détermination des propriétés issues de
cette théorie et sur l'analyse de leur adéquation avec des problématiques de l'image et particulièrement la détection de contours et la suppression de bruit.

Dans un premier temps, nous étudions la représentation par hypergraphes de voisinage spatiocolorimétrique de l'image. Trois représentations sont présentées incorporant des propriétés globales, locales, des mesures de similarité et des mesures de dissimilarité.

Ensuite, on utilise les propriétés des hypergraphes engendrées par la représentation afin de définir des modèles structurels de bruit et de contour. Ceci nous permet ainsi de déduire des algorithmes de suppression de bruit et d'extraction de contours sur des images
à niveaux de gris et couleur. Les performances des approches proposées sont comparées aux solutions classiquement utilisées.
Enfin, la représentation par hypergraphe de voisinage
spatiocolorimétrique s'est avérée efficace pour
le traitement des images bas niveaux.
Styles APA, Harvard, Vancouver, ISO, etc.
8

El, Khelifi Aymen. « Approche générique d’extraction automatique des événements et leur exploitation ». Thesis, Paris 4, 2012. http://www.theses.fr/2012PA040189.

Texte intégral
Résumé :
Dans le cadre de notre thèse, nous avons proposé une approche générique d’extraction automatique des événements et de leur exploitation. L’approche est organisée en quatre composantes indépendantes et réutilisables. Une première composante de prétraitement, où les textes sont nettoyés et segmentés. Au cours de la seconde étape, les événements sont extraits en sebasant sur notre algorithme AnnotEC qui dispose d’une complexité polynomiale et qui est associé à des cartes sémantiques et des ressources linguistiques dédiées. Nous avons mis en place deux nouvelles mesures de similarité SimCatégoreille et SimEvent pour regrouper les événementssimilaires dans le cadre de la troisième composante de clustering. Les annotations, ajoutées tout au long des trois premières étapes, sont exploitées au niveau de la dernière composante par le bais des fichiers de synthèse paramétrables par l’utilisateur.L’approche a été évaluée sur un corpus issu du Web 2.0. Nous avons comparé les résultats avec des méthodes d’apprentissage automatique et des méthodes linguistiques par compilation et nous avons obtenu de meilleurs résultats
In the framework of our thesis, we proposed a generic approach for the automatic extraction of events and their exploitation. This approach is divided into four independent and reusable components. The first component of pretreatment, in which texts are cleaned and segmented. During the second stage, events are extracted based on our algorithm AnnotEC which has polynomial complexity. AnnotEC is associated with semantic maps and dedicated linguistic resources. We have proposed two new similarity measures SimCatégoreille and SimEvent to group similar events using clustering algorithms.Annotations, added throughout the first three steps, are used at the last component by summarizing files configurable by users. The approach was evaluated on a corpus of Web 2.0, we compared the obtained results with machine learning methods and linguistic compiling methods and we got good results
Styles APA, Harvard, Vancouver, ISO, etc.
9

Mifdal, Jamila. « Application du transport optimal et des méthodes non locales dans la fusion d'images hyperspectrales et multispectrales ». Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS537.

Texte intégral
Résumé :
Le monde dans lequel nous vivons est observé par de nombreux satellites. En effet, grâce aux missions satellitaires, certaines zones de la Terre, à savoir les champs d’agriculture, le désert ainsi que les zones urbaines peuvent être surveillées efficacement. La surveillance de ces zones est faite grâce aux caméras embarquées à bord des satellites destinés aux missions d’observation de la Terre. En revanche, à cause des contraintes techniques et financières, le développement des capteurs d’imagerie haute résolution est assez limité. Ainsi, les méthodes consistant à fusionner des données multi-sources, permettent de contourner les limitations et produisent des images haute résolution. La problématique traitée dans la présente thèse est celle de la fusion d’images hyperspectrales et multispectrales. Une image hyperspectrale (HS) possède une haute résolution spectrale et une faible résolution spatiale, alors qu’une image multispectrale (MS) a une haute résolution spatiale et une faible résolution spectrale. Le but est donc de fusionner l’information pertinente contenue dans chacune des images afin de produire une image haute résolution. Le travail de thèse est composé en deux principales parties. Dans la première partie de la thèse, des outils de la théorie du transport optimal sont utilisés à savoir les distances de Wasserstein régularisées. Dans la deuxième partie de la thèse, le problème de fusion d'images hyperspectrales et multispectrales est présenté différemment. Ce dernier est modélisé comme la minimisation de quatre termes d'énergie dont un terme non local. Les expérimentations ont porté sur différents types d'images, et les résultats ont été évalués qualitativement et quantitativement. Les performances des deux modèles de fusion se comparent favorablement aux méthodes de fusion de l'état de l'art
The world we live in is constantly under observation. Many areas such as offshore zones, deserts, agricultural land and cities are monitored. This monitoring is done throughout remote sensing satellites or cameras mounted on aircrafts. However, because of many technological and financial constraints, the development of imaging sensors with high accuracy is limited. Therefore, solutions such as multi-sensor data fusion overcome the different limitations an produce images with high quality. This thesis is about hyperspectral and multispectral image fusion. A hyperspectral image (HS) has a high spectral resolution and a low spatial resolution, whereas a multispectral image (MS) has a high spatial resolution and a low spectral resolution. The goal is the combination of the relevant information contained in each image into one final high resolution one. In this dissertation various methods for dealing with hyperspectral and multispectral image fusion are presented. The first part of the thesis uses tools from the optimal transport theory namely the regularized Wasserstein distances. The fusion problem is thus modeled as the minimization of the sum of two regularized Wasserstein distances. In the second part of this thesis, the hyperspectral and the multispectral fusion problem is presented differently. The latter is modeled as the minimization of four energy terms including a non-local term. Experiments were conducted on multiple datasets and the fusion was assessed visually and quantitatively for both fusion techniques. The performance of both models compares favorably with the state-of-the-art methods
Styles APA, Harvard, Vancouver, ISO, etc.
10

Mazuel, Laurent. « Traitement de l'hétérogénéité sémantique dans les interactions humain-agent et agent-agent ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00413004.

Texte intégral
Résumé :
Le thème général de cette thèse est le traitement de l'hétérogénéité sémantique dans les interactions humain-agent et agent-agent. Plus précisément, nous étudions le cas où un agent informatique muni d'un modèle de représentation de ses connaissances doit traiter des demandes envoyées par d'autres interlocuteurs, qu'il s'agisse d'utilisateurs humains ou d'agents informatiques.
La plupart des approches segmentent ce traitement en fonction de l'émetteur de la demande (humain ou agent). Nous pensons au contraire qu'il est possible de proposer un modèle d'interaction commun aux deux situations. Ainsi, nous présentons d'abord un algorithme d'interprétation sémantique de la commande indépendant du type d'interaction (humain-agent ou agent-agent). Cet algorithme considère le rapport entre « ce qui est compris » de la commande et « ce qui est possible » pour la machine. Ce rapport intervient dans un système de sélection de réponses basé sur une mesure de degré de relation sémantique. Nous proposons ensuite une telle mesure, conçue pour prendre en compte plus d'informations que la plupart des mesures actuelles.
Nous étudions ensuite les implémentations que nous avons faites dans les cadres humain-agent et agent-agent. Pour l'implémentation humain-agent, l'une des spécificités est l'utilisation d'une langue naturelle, impliquant le besoin d'utiliser des outils de modélisation de la langue. Pour l'implémentation agent-agent, nous proposerons une adaptation de notre architecture, en s'appuyant sur des protocoles d'interactions entre agents.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Wang, Ilaine. « Syntactic Similarity Measures in Annotated Corpora for Language Learning : application to Korean Grammar ». Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100092/document.

Texte intégral
Résumé :
L'exploration de corpus à travers des requêtes fait aujourd'hui partie de la routine de nombreux chercheurs adoptant une approche empirique de la langue, mais aussi de non-spécialistes qui utilisent des moteurs de recherche ou des concordanciers dans le cadre de l'apprentissage d'une langue. Si les requêtes ainsi basées sur des mots-clés sont communes, les non-spécialistes semblent encore peu enclins à explorer des constructions syntaxiques. En effet, les requêtes syntaxiques requièrent souvent des connaissances spécifiques comme la maîtrise des expressions régulières, le langage de requête de l'outil utilisé, ou même simplement le jeu d'étiquettes morpho-syntaxiques du corpus étudié.Pour permettre aux apprenants de langue de se concentrer sur l'analyse des données langagières plutôt que sur la formulation de requêtes, nous proposons une méthodologie incluant un analyseur syntaxique et utilisant des mesures de similarité classiques pour comparer des séquences d'étiquettes syntaxiques ainsi obtenues de manière automatique
Using queries to explore corpora is today part of the routine of not only researchers of various fields with an empirical approach to discourse, but also of non-specialists who use search engines or concordancers for language learning purposes. If keyword-based queries are quite common, non-specialists still seem to be less likely to explore syntactic constructions. Indeed, syntax-based queries usually require the use of regular expressions with grammatical words combined with morphosyntactic tags, which imply that users master both the query language of the tool and the tagset of the annotated corpus. However, non-specialists like language learners might want to focus on the output rather than spend time and efforts on mastering a query language.To address this shortcoming, we propose a methodology including a syntactic parser and using common similarity measures to compare sequences of morphosyntactic tags automatically provided
Styles APA, Harvard, Vancouver, ISO, etc.
12

Belghith, Akram. « Indexation de spectres HSQC et d’images IRMf appliquée à la détection de bio-marqueurs ». Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD001/document.

Texte intégral
Résumé :
Les techniques d'acquisition des signaux médicaux sont en constante évolution et fournissent une quantité croissante de données hétérogènes qui doivent être analysées par le médecin. Dans ce contexte, des méthodes automatiques de traitement des signaux médicaux sont régulièrement proposées pour aider l'expert dans l'analyse qualitative et quantitative en facilitant leur interprétation. Ces méthodes doivent tenir compte de la physique de l'acquisition, de l'a priori que nous avons sur ces signaux et de la quantité de données à analyser pour une interprétation plus précise et plus fiable. Dans cette thèse, l'analyse des tissus biologique par spectroscopie RMN et la recherche des activités fonctionnelles cérébrales et leurs connectivités par IRMf sont explorées pour la recherche de nouveaux bio-marqueurs. Chaque information médicale sera caractérisée par un ensemble d'objets que nous cherchons à extraire, à aligner, et à coder. Le regroupement de ces objets par la mesure de leur similitude permettra leur classification et l'identification de bio-marqueurs. C'est ce schéma global d'indexation et de recherche par le contenu d'objets pour la détection des bio-marqueurs que nous proposons. Pour cela, nous nous sommes intéressés dans cette thèse à modéliser et intégrer les connaissances a priori que nous avons sur ces signaux biologiques permettant ainsi de proposer des méthodes appropriées à chaque étape d'indexation et à chaque type de signal
The medical signal acquisition techniques are constantly evolving in recent years and providing an increasing amount of data which should be then analyzed. In this context, automatic signal processing methods are regularly proposed to assist the expert in the qualitative and quantitative analysis of these images in order to facilitate their interpretation. These methods should take into account the physics of signal acquisition, the a priori we have on the signal formation and the amount of data to analyze for a more accurate and reliable interpretation. In this thesis, we focus on the two-dimensional 2D Heteronuclear Single Quantum Coherence HSQC spectra obtained by High-Resolution Magic Angle Spinning HR-MAS NMR for biological tissue analysis and the functional Magnetic Resonance Imaging fMRI images for functional brain activities analysis. Each processed medical information will be characterized by a set of objects that we seek to extract, align, and code. The clustering of these objects by measuring their similarity will allow their classification and then the identification of biomarkers. It is this global content-based object indexing and retrieval scheme that we propose. We are interested in this thesis to properly model and integrate the a priori knowledge we have on these biological signal allowing us to propose there after appropriate methods to each indexing step and each type of signal
Styles APA, Harvard, Vancouver, ISO, etc.
13

Scipioni, Angel. « Contribution à la théorie des ondelettes : application à la turbulence des plasmas de bord de Tokamak et à la mesure dimensionnelle de cibles ». Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10125.

Texte intégral
Résumé :
La nécessaire représentation en échelle du monde nous amène à expliquer pourquoi la théorie des ondelettes en constitue le formalisme le mieux adapté. Ses performances sont comparées à d'autres outils : la méthode des étendues normalisées (R/S) et la méthode par décomposition empirique modale (EMD).La grande diversité des bases analysantes de la théorie des ondelettes nous conduit à proposer une approche à caractère morphologique de l'analyse. L'exposé est organisé en trois parties.Le premier chapitre est dédié aux éléments constitutifs de la théorie des ondelettes. Un lien surprenant est établi entre la notion de récurrence et l'analyse en échelle (polynômes de Daubechies) via le triangle de Pascal. Une expression analytique générale des coefficients des filtres de Daubechies à partir des racines des polynômes est ensuite proposée.Le deuxième chapitre constitue le premier domaine d'application. Il concerne les plasmas de bord des réacteurs de fusion de type tokamak. Nous exposons comment, pour la première fois sur des signaux expérimentaux, le coefficient de Hurst a pu être mesuré à partir d'un estimateur des moindres carrés à ondelettes. Nous détaillons ensuite, à partir de processus de type mouvement brownien fractionnaire (fBm), la manière dont nous avons établi un modèle (de synthèse) original reproduisant parfaitement la statistique mixte fBm et fGn qui caractérise un plasma de bord. Enfin, nous explicitons les raisons nous ayant amené à constater l'absence de lien existant entre des valeurs élevées du coefficient d'Hurst et de supposées longues corrélations.Le troisième chapitre est relatif au second domaine d'application. Il a été l'occasion de mettre en évidence comment le bien-fondé d'une approche morphologique couplée à une analyse en échelle nous ont permis d'extraire l'information relative à la taille, dans un écho rétrodiffusé d'une cible immergée et insonifiée par une onde ultrasonore
The necessary scale-based representation of the world leads us to explain why the wavelet theory is the best suited formalism. Its performances are compared to other tools: R/S analysis and empirical modal decomposition method (EMD). The great diversity of analyzing bases of wavelet theory leads us to propose a morphological approach of the analysis. The study is organized into three parts. The first chapter is dedicated to the constituent elements of wavelet theory. Then we will show the surprising link existing between recurrence concept and scale analysis (Daubechies polynomials) by using Pascal's triangle. A general analytical expression of Daubechies' filter coefficients is then proposed from the polynomial roots. The second chapter is the first application domain. It involves edge plasmas of tokamak fusion reactors. We will describe how, for the first time on experimental signals, the Hurst coefficient has been measured by a wavelet-based estimator. We will detail from fbm-like processes (fractional Brownian motion), how we have established an original model perfectly reproducing fBm and fGn joint statistics that characterizes magnetized plasmas. Finally, we will point out the reasons that show the lack of link between high values of the Hurst coefficient and possible long correlations. The third chapter is dedicated to the second application domain which is relative to the backscattered echo analysis of an immersed target insonified by an ultrasonic plane wave. We will explain how a morphological approach associated to a scale analysis can extract the diameter information
Styles APA, Harvard, Vancouver, ISO, etc.
14

Belghith, Akram. « Indexation de spectres HSQC et d'images IRMf appliquée à la détection de bio-marqueurs ». Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00712070.

Texte intégral
Résumé :
Les techniques d'acquisition des signaux médicaux sont en constante évolution et fournissent une quantité croissante de données hétérogènes qui doivent être analysées par le médecin. Dans ce contexte, des méthodes automatiques de traitement des signaux médicaux sont régulièrement proposées pour aider l'expert dans l'analyse qualitative et quantitative en facilitant leur interprétation. Ces méthodes doivent tenir compte de la physique de l'acquisition, de l'a priori que nous avons sur ces signaux et de la quantité de données à analyser pour une interprétation plus précise et plus fiable. Dans cette thèse, l'analyse des tissus biologique par spectroscopie RMN et la recherche des activités fonctionnelles cérébrales et leurs connectivités par IRMf sont explorées pour la recherche de nouveaux bio-marqueurs. Chaque information médicale sera caractérisée par un ensemble d'objets que nous cherchons à extraire, à aligner, et à coder. Le regroupement de ces objets par la mesure de leur similitude permettra leur classification et l'identification de bio-marqueurs. C'est ce schéma global d'indexation et de recherche par le contenu d'objets pour la détection des bio-marqueurs que nous proposons. Pour cela, nous nous sommes intéressés dans cette thèse à modéliser et intégrer les connaissances a priori que nous avons sur ces signaux biologiques permettant ainsi de proposer des méthodes appropriées à chaque étape d'indexation et à chaque type de signal.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Philippeau, Jérémy. « Apprentissage de similarités pour l'aide à l'organisation de contenus audiovisuels ». Toulouse 3, 2009. http://thesesups.ups-tlse.fr/564/.

Texte intégral
Résumé :
Dans une optique d'adaptation aux nouveaux usages de consultation d'archives audiovisuelles, nous souhaitons aider un utilisateur issu du grand public à organiser des contenus audiovisuels, c'est-à-dire les classifier, les caractériser, les identifier ou les ordonner. Pour ce faire, nous proposons d'utiliser un vocabulaire autre que ce que l'on pourrait trouver dans une notice documentaire de l'Ina, afin de répondre à des envies qui ne sont pas facilement définissables avec des mots. Nous avons conçu pour cela une interface graphique qui s'appuie sur un formalisme de graphe dédié à l'expression d'une tâche organisationnelle. La similarité numérique est un bon outil au regard des éléments que nous manipulons, à savoir des objets informationnels présentés sur un écran d'ordinateur et des valeurs descriptives de " bas niveau " audio et vidéo extraites de manière automatique. Nous avons choisi de prédire la similarité entre ces éléments grâce à un modèle statistique. Parmi les nombreux modèles existants, la prédiction statistique basée sur la régression univariée et fondée
In the perspective of new usages in the field of the access to audiovisual archives, we have created a semi-automatic system that helps a user to organize audiovisual contents while performing tasks of classification, characterization, identification and ranking. To do so, we propose to use a new vocabulary, different from the one already available in INA documentary notices, to answer needs which can not be easily defined with words. We have conceived a graphical interface based on graph formalism designed to express an organisational task. The digital similarity is a good tool in respect with the handled elements which are informational objects shown on the computer screen and the automatically extracted audio and video low-level features. We have made the choice to estimate the similarity between those elements with a predictive process through a statistical model. Among the numerous existing models, the statistical prediction based on the univaried regression and on support vectors has been chosen. H)
Styles APA, Harvard, Vancouver, ISO, etc.
16

Escande, Paul. « Compression et inférence des opérateurs intégraux : applications à la restauration d’images dégradées par des flous variables ». Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0020/document.

Texte intégral
Résumé :
Le problème de restauration d'images dégradées par des flous variables connaît un attrait croissant et touche plusieurs domaines tels que l'astronomie, la vision par ordinateur et la microscopie à feuille de lumière où les images sont de taille un milliard de pixels. Les flous variables peuvent être modélisés par des opérateurs intégraux qui associent à une image nette u, une image floue Hu. Une fois discrétisé pour être appliqué sur des images de N pixels, l'opérateur H peut être vu comme une matrice de taille N x N. Pour les applications visées, la matrice est stockée en mémoire avec un exaoctet. On voit apparaître ici les difficultés liées à ce problème de restauration des images qui sont i) le stockage de ce grand volume de données, ii) les coûts de calculs prohibitifs des produits matrice-vecteur. Ce problème souffre du fléau de la dimension. D'autre part, dans beaucoup d'applications, l'opérateur de flou n'est pas ou que partialement connu. Il y a donc deux problèmes complémentaires mais étroitement liés qui sont l'approximation et l'estimation des opérateurs de flou. Cette thèse a consisté à développer des nouveaux modèles et méthodes numériques permettant de traiter ces problèmes
The restoration of images degraded by spatially varying blurs is a problem of increasing importance. It is encountered in many applications such as astronomy, computer vision and fluorescence microscopy where images can be of size one billion pixels. Variable blurs can be modelled by linear integral operators H that map a sharp image u to its blurred version Hu. After discretization of the image on a grid of N pixels, H can be viewed as a matrix of size N x N. For targeted applications, matrices is stored with using exabytes on the memory. This simple observation illustrates the difficulties associated to this problem: i) the storage of a huge amount of data, ii) the prohibitive computation costs of matrix-vector products. This problems suffers from the challenging curse of dimensionality. In addition, in many applications, the operator is usually unknown or only partially known. There are therefore two different problems, the approximation and the estimation of blurring operators. They are intricate and have to be addressed with a global overview. Most of the work of this thesis is dedicated to the development of new models and computational methods to address those issues
Styles APA, Harvard, Vancouver, ISO, etc.
17

Etienne, Laurent. « Motifs spatio-temporels de trajectoires d'objets mobiles, de l'extraction à la détection de comportements inhabituels : application au trafic maritime ». Phd thesis, Université de Bretagne occidentale - Brest, 2011. http://tel.archives-ouvertes.fr/tel-00667953.

Texte intégral
Résumé :
Les systèmes de géolocalisation permettent la surveillance en temps réel des déplacements d'objets mobiles. Aujourd'hui, les données produites par ces capteurs sont reçues et stockées dans des bases de données spatio-temporelles. Un processus de fouille de données appliqué sur ces bases de données spatio-temporelles permet d'extraire le comportement des objets mobiles (patrons spatio-temporels) et d'analyser en temps réel les trajectoires d'objets mobiles suivant un même itinéraire. En utilisant ces modèles, des situations inhabituelles peuvent être détectés. Cette thèse définit à la fois des patrons spatio-temporels ainsi que des outils de comparaison et de qualification de trajectoires en utilisant un indice de similarité basée sur des mesures spatiales et temporelles et la logique floue. Ces outils peuvent être utilisés pour faciliter la surveillance du trafic maritime.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Bouchard, Bruno. « La mesure de la similarité entre les points de vue de l'usager et de son agent artificiel à l'aide de la logique terminologique ». Thèse, 2003. http://constellation.uqac.ca/748/1/17771798.pdf.

Texte intégral
Résumé :
Les systèmes multi-agents actuels ne prennent pas en considération les problèmes de cohabitation entre un usager et son homologue agent virtuel agissant en son nom ?on behalf-, tels que l'intégration de l'utilisateur dans la même boucle de réalisation d'une tâche commune - usager dans la boucle - et les conflits terminologiques liés à l'utilisation de termes différents pour décrire leurs opinions (points de vue) à propos d'une situation de résolution d'un problème. La cohabitation usager-agent nécessite donc une compréhension mutuelle, ce qui signifie que les deux entités devront être aptes à comparer leurs points de vue respectifs avant la prise d'initiatives. Par conséquent, la question qui se pose est la suivante: dans quelle mesure les deux points de vue (utilisateur et agent) peuvent ou non se rapprocher? Ce travail de recherche vise à contribuer au processus général d'intégration d'un usager dans la boucle de réalisation d'une tâche conjointe. Il propose une approche de comparaison des points de vue dans un contexte de planification par initiatives mixtes. L'approche théorique proposée s'appuie sur la logique terminologique pour décrire les ontologies des points de vue de l'utilisateur et de l'agent. La méthode de comparaison des points de vue proposée dans ce mémoire permettra d'extraire une mesure de leur similarité, servant à prendre une décision sécuritaire. Ce mémoire se veut une première phase d'un projet de recherche beaucoup plus large, visant le développement d'une approche générique d'intégration des points de vue. Il doit donc être considéré comme un pas en avant vers la réalisation de ce projet d'envergure ainsi qu'une contribution au domaine de la coopération entre un usager et son agent artificiel.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Id-Oumohmed, Ahmed. « Intégration d'une nouvelle approche sémantique basée sur les caractéristiques visuelles des concepts dans un système de recherche d'images par contenu et par texte ». Thèse, 2005. http://hdl.handle.net/1866/16686.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie