Tesis sobre el tema "Annotation de modèles"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Annotation de modèles.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 41 mejores tesis para su investigación sobre el tema "Annotation de modèles".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Flutre, Timothée. "L' annotation des éléments transposables par la compréhension de leur diversification". Paris 7, 2010. http://www.theses.fr/2010PA077239.

Texto completo
Resumen
Les éléments transposables sont des fragments du génome possédant la particularité d'être mobiles. Ils ont un impact majeur sur la structure des génomes mais également sur l'expression des gènes avoisinants, notamment via des mécanismes épigénétiques. Cependant, mis à part certains organismes modèles pour lesquels nous disposons de séquences de référence, l'annotation des éléments transposables représente un goulot d'étranglement dans l'analyse des génomes séquences. J'ai donc comparé les programmes informatiques existants utilisés dans les approches d'annotation de novo des éléments transposables. Pour cela, j'ai mis au point un protocole de test sur les génomes de Drosophila melanogaster et Arabidopsis thaliana. Ceci m'a permis de proposer une approche de novo combinant plusieurs outils, capable ainsi de reconstruire automatiquement un grand nombre de séquences de référence. De plus, j'ai pu montrer que cette approche mettait en évidence les variations structurales au sein de familles bien connues, reflétant ainsi la diversification de ces familles au cours de leur évolution. J'ai implémenté cette approche dans une suite d'outils (REPET) rendant possible l'analyse des éléments transposables de nombreux génomes d,e plantes, insectes, champignons, etc. Ces travaux ont abouti à une feuille de route décrivant de manière pratique comment annoter le contenu en éléments transposables de tout génome nouvellement séquence. En perspective, je propose plusieurs pistes de recherche, notamment la simulation des données nécessaires à l'amélioration des algorithmes de détection, démarche complémentaire de la modélisation de la dynamique des éléments transposables
Transposable elements are DNA sequences that can move and duplicata within genomes. They hence have a major impact on genome structure but also on the expression of neighbouring genes, notably via epigenetiç mechanisms. However, except for some model organisms for which reference sequences are available, the annotation of transposable elements corresponds to a bottleneck in the analysis of genomic sequences. Therefore, I started by comparing existing computer programs used in de novo approaches of transposable element identification. In this aim, I designed a test protocol on the genomes of Drosophila melanogaster and Arabidopsis thaliana. As a result, I proposed a de novo approach combining several tools, thus enabling the automatic recovery of a great number of reference sequences. Moreover, I showed that our approach highlighted the structural variations present within well-known families, thus reflecting the diversification of such families during their evolution. This approach was implemented in a package (REPET) making possible the analysis of transposable elements in numerous genomes from plants, insects and fungi among others. This work lead to a roadmap describing, from a practical point of view, how to annotate the transposable element content of any newly sequenced genome. Finally, I propose several perspectives, notably the simulation of the data required for the improvement of the detection algorithms, a way complementary to the modeling of transposable element dynamics
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Barrat, Sabine. "Modèles graphiques probabilistes pour la reconnaissance de formes". Phd thesis, Université Nancy II, 2009. http://tel.archives-ouvertes.fr/tel-00530755.

Texto completo
Resumen
La croissance rapide d'Internet et de l'information multimédia a suscité un besoin en développement de techniques de recherche d'information multimédia, et en particulier de recherche d'images. On peut distinguer deux tendances. La première, appelée recherche d'images à base de texte, consiste à appliquer des techniques de recherche d'information textuelle à partir d'images annotées. Le texte constitue une caractéristique de haut-niveau, mais cette technique présente plusieurs inconvénients : elle nécessite un travail d'annotation fastidieux. De plus, les annotations peuvent être ambiguës car deux utilisateurs peuvent utiliser deux mots-clés différents pour décrire la même image. Par conséquent, plusieurs approches ont proposé d'utiliser l'ontologie Wordnet, afin de réduire ces ambiguïtés potentielles. La seconde approche, appelée recherche d'images par le contenu, est plus récente. Ces techniques de recherche d'images par le contenu sont basées sur des caractéristiques visuelles (couleur, texture ou forme), calculées automatiquement, et utilisent une mesure de similarité afin de retrouver des images. Cependant, les performances obtenues ne sont pas vraiment acceptables, excepté dans le cas de corpus spécialisés. De façon à améliorer la reconnaissance, une solution consiste à combiner différentes sources d'information : par exemple, différentes caractéristiques visuelles et/ou de l'information sémantique. Or, dans de nombreux problèmes de vision, on dispose rarement d'échantillons d'apprentissage entièrement annotés. Par contre, il est plus facile d'obtenir seulement un sous-ensemble de données annotées, car l'annotation d'un sous-ensemble est moins contraignante pour l'utilisateur. Dans cette direction, cette thèse traite des problèmes de modélisation, classification et annotation d'images. Nous présentons une méthode pour l'optimisation de la classification d'images naturelles, en utilisant une approche de classification d'images basée à la fois sur le contenu des images et le texte associé aux images, et en annotant automatiquement les images non annotées. De plus, nous proposons une méthode de reconnaissance de symboles, en combinant différentes caractéristiques visuelles. L'approche proposée est dérivée de la théorie des modèles graphiques probabilistes et dédiée aux deux tâches de classification d'images naturelles partiellement annotées, et d'annotation. Nous considérons une image comme partiellement annotée si son nombre de mots-clés est inférieur au maximum de mots-clés observés dans la vérité-terrain. Grâce à leur capacité à gérer les données manquantes et à représenter d'éventuelles relations entre mots-clés, les modèles graphiques probabilistes ont été proposés pour représenter des images partiellement annotées. Par conséquent, le modèle que nous proposons ne requiert pas que toutes les images soient annotées : quand une image est partiellement annotée, les mots-clés manquants sont considérés comme des données manquantes. De plus, notre modèle peut étendre automatiquement des annotations existantes à d'autres images partiellement annotées, sans intervention de l'utilisateur. L'incertitude autour de l'association entre un ensemble de mots-clés et une image est représentée par une distribution de probabilité jointe sur le vocabulaire des mots-clés et les caractéristiques visuelles extraites de nos bases d'images. Notre modèle est aussi utilisé pour reconnaître des symboles en combinant différents types de caractéristiques visuelles (caractéristiques discrètes et continues). De plus, de façon à résoudre le problème de dimensionnalité dû à la grande dimension des caractéristiques visuelles, nous avons adapté une méthode de sélection de variables. Enfin, nous avons proposé un modèle de recherche d'images permettant à l'utilisateur de formuler des requêtes sous forme de mots-clés et/ou d'images. Ce modèle intègre un processus de retour de pertinence. Les résultats expérimentaux, obtenus sur de grandes bases d'images complexes, généralistes ou spécialisées, montrent l'intérêt de notre approche. Enfin, notre méthode s'est montrée compétitive avec des modèles de l'état de l'art.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Morlot, Jean-Baptiste. "Annotation of the human genome through the unsupervised analysis of high-dimensional genomic data". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066641/document.

Texto completo
Resumen
Le corps humain compte plus de 200 types cellulaires différents possédant une copie identique du génome mais exprimant un ensemble différent de gènes. Le contrôle de l'expression des gènes est assuré par un ensemble de mécanismes de régulation agissant à différentes échelles de temps et d'espace. Plusieurs maladies ont pour cause un dérèglement de ce système, notablement les certains cancers, et de nombreuses applications thérapeutiques, comme la médecine régénérative, reposent sur la compréhension des mécanismes de la régulation géniques. Ce travail de thèse propose, dans une première partie, un algorithme d'annotation (GABI) pour identifier les motifs récurrents dans les données de séquençage haut-débit. La particularité de cet algorithme est de prendre en compte la variabilité observée dans les réplicats des expériences en optimisant le taux de faux positif et de faux négatif, augmentant significativement la fiabilité de l'annotation par rapport à l'état de l'art. L'annotation fournit une information simplifiée et robuste à partir d'un grand ensemble de données. Appliquée à une base de données sur l'activité des régulateurs dans l'hématopoieïse, nous proposons des résultats originaux, en accord avec de précédentes études. La deuxième partie de ce travail s'intéresse à l'organisation 3D du génome, intimement lié à l'expression génique. Elle est accessible grâce à des algorithmes de reconstruction 3D à partir de données de contact entre chromosomes. Nous proposons des améliorations à l'algorithme le plus performant du domaine actuellement, ShRec3D, en permettant d'ajuster la reconstruction en fonction des besoins de l'utilisateur
The human body has more than 200 different cell types each containing an identical copy of the genome but expressing a different set of genes. The control of gene expression is ensured by a set of regulatory mechanisms acting at different scales of time and space. Several diseases are caused by a disturbance of this system, notably some cancers, and many therapeutic applications, such as regenerative medicine, rely on understanding the mechanisms of gene regulation. This thesis proposes, in a first part, an annotation algorithm (GABI) to identify recurrent patterns in the high-throughput sequencing data. The particularity of this algorithm is to take into account the variability observed in experimental replicates by optimizing the rate of false positive and false negative, increasing significantly the annotation reliability compared to the state of the art. The annotation provides simplified and robust information from a large dataset. Applied to a database of regulators activity in hematopoiesis, we propose original results, in agreement with previous studies. The second part of this work focuses on the 3D organization of the genome, intimately linked to gene expression. This structure is now accessible thanks to 3D reconstruction algorithm from contact data between chromosomes. We offer improvements to the currently most efficient algorithm of the domain, ShRec3D, allowing to adjust the reconstruction according to the user needs
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ayllón-Benítez, Aarón. "Development of new computational methods for a synthetic gene set annotation". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0305.

Texto completo
Resumen
Les avancées dans l'analyse de l'expression différentielle de gènes ont suscité un vif intérêt pour l'étude d'ensembles de gènes présentant une similarité d'expression au cours d'une même condition expérimentale. Les approches classiques pour interpréter l'information biologique reposent sur l'utilisation de méthodes statistiques. Cependant, ces méthodes se focalisent sur les gènes les plus connus tout en générant des informations redondantes qui peuvent être éliminées en prenant en compte la structure des ressources de connaissances qui fournissent l'annotation. Au cours de cette thèse, nous avons exploré différentes méthodes permettant l'annotation d'ensembles de gènes.Premièrement, nous présentons les solutions visuelles développées pour faciliter l'interprétation des résultats d'annota-tion d'un ou plusieurs ensembles de gènes. Dans ce travail, nous avons développé un prototype de visualisation, appelé MOTVIS, qui explore l'annotation d'une collection d'ensembles des gènes. MOTVIS utilise ainsi une combinaison de deux vues inter-connectées : une arborescence qui fournit un aperçu global des données mais aussi des informations détaillées sur les ensembles de gènes, et une visualisation qui permet de se concentrer sur les termes d'annotation d'intérêt. La combinaison de ces deux visualisations a l'avantage de faciliter la compréhension des résultats biologiques lorsque des données complexes sont représentées.Deuxièmement, nous abordons les limitations des approches d'enrichissement statistique en proposant une méthode originale qui analyse l'impact d'utiliser différentes mesures de similarité sémantique pour annoter les ensembles de gènes. Pour évaluer l'impact de chaque mesure, nous avons considéré deux critères comme étant pertinents pour évaluer une annotation synthétique de qualité d'un ensemble de gènes : (i) le nombre de termes d'annotation doit être réduit considérablement tout en gardant un niveau suffisant de détail, et (ii) le nombre de gènes décrits par les termes sélectionnés doit être maximisé. Ainsi, neuf mesures de similarité sémantique ont été analysées pour trouver le meilleur compromis possible entre réduire le nombre de termes et maintenir un niveau suffisant de détails fournis par les termes choisis. Tout en utilisant la Gene Ontology (GO) pour annoter les ensembles de gènes, nous avons obtenu de meilleurs résultats pour les mesures de similarité sémantique basées sur les nœuds qui utilisent les attributs des termes, par rapport aux mesures basées sur les arêtes qui utilisent les relations qui connectent les termes. Enfin, nous avons développé GSAn, un serveur web basé sur les développements précédents et dédié à l'annotation d'un ensemble de gènes a priori. GSAn intègre MOTVIS comme outil de visualisation pour présenter conjointement les termes représentatifs et les gènes de l'ensemble étudié. Nous avons comparé GSAn avec des outils d'enrichissement et avons montré que les résultats de GSAn constituent un bon compromis pour maximiser la couverture de gènes tout en minimisant le nombre de termes.Le dernier point exploré est une étape visant à étudier la faisabilité d'intégrer d'autres ressources dans GSAn. Nous avons ainsi intégré deux ressources, l'une décrivant les maladies humaines avec Disease Ontology (DO) et l'autre les voies métaboliques avec Reactome. Le but était de fournir de l'information supplémentaire aux utilisateurs finaux de GSAn. Nous avons évalué l'impact de l'ajout de ces ressources dans GSAn lors de l'analyse d’ensembles de gènes. L'intégration a amélioré les résultats en couvrant d'avantage de gènes sans pour autant affecter de manière significative le nombre de termes impliqués. Ensuite, les termes GO ont été mis en correspondance avec les termes DO et Reactome, a priori et a posteriori des calculs effectués par GSAn. Nous avons montré qu'un processus de mise en correspondance appliqué a priori permettait d'obtenir un plus grand nombre d'inter-relations entre les deux ressources
The revolution in new sequencing technologies, by strongly improving the production of omics data, is greatly leading to new understandings of the relations between genotype and phenotype. To interpret and analyze data grouped according to a phenotype of interest, methods based on statistical enrichment became a standard in biology. However, these methods synthesize the biological information by a priori selecting the over-represented terms and focus on the most studied genes that may represent a limited coverage of annotated genes within a gene set. During this thesis, we explored different methods for annotating gene sets. In this frame, we developed three studies allowing the annotation of gene sets and thus improving the understanding of their biological context.First, visualization approaches were applied to represent annotation results provided by enrichment analysis for a gene set or a repertoire of gene sets. In this work, a visualization prototype called MOTVIS (MOdular Term VISualization) has been developed to provide an interactive representation of a repertoire of gene sets combining two visual metaphors: a treemap view that provides an overview and also displays detailed information about gene sets, and an indented tree view that can be used to focus on the annotation terms of interest. MOTVIS has the advantage to solve the limitations of each visual metaphor when used individually. This illustrates the interest of using different visual metaphors to facilitate the comprehension of biological results by representing complex data.Secondly, to address the issues of enrichment analysis, a new method for analyzing the impact of using different semantic similarity measures on gene set annotation was proposed. To evaluate the impact of each measure, two relevant criteria were considered for characterizing a "good" synthetic gene set annotation: (i) the number of annotation terms has to be drastically reduced while maintaining a sufficient level of details, and (ii) the number of genes described by the selected terms should be as large as possible. Thus, nine semantic similarity measures were analyzed to identify the best possible compromise between both criteria while maintaining a sufficient level of details. Using GO to annotate the gene sets, we observed better results with node-based measures that use the terms’ characteristics than with edge-based measures that use the relations terms. The annotation of the gene sets achieved with the node-based measures did not exhibit major differences regardless of the characteristics of the terms used. Then, we developed GSAn (Gene Set Annotation), a novel gene set annotation web server that uses semantic similarity measures to synthesize a priori GO annotation terms. GSAn contains the interactive visualization MOTVIS, dedicated to visualize the representative terms of gene set annotations. Compared to enrichment analysis tools, GSAn has shown excellent results in terms of maximizing the gene coverage while minimizing the number of terms.At last, the third work consisted in enriching the annotation results provided by GSAn. Since the knowledge described in GO may not be sufficient for interpreting gene sets, other biological information, such as pathways and diseases, may be useful to provide a wider biological context. Thus, two additional knowledge resources, being Reactome and Disease Ontology (DO), were integrated within GSAn. In practice, GO terms were mapped to terms of Reactome and DO, before and after applying the GSAn method. The integration of these resources improved the results in terms of gene coverage without affecting significantly the number of involved terms. Two strategies were applied to find mappings (generated or extracted from the web) between each new resource and GO. We have shown that a mapping process before computing the GSAn method allowed to obtain a larger number of inter-relations between the two knowledge resources
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Liu, Hui. "Intégration des approches ontologiques et d'ingénierie dirigée par les modèles pour la résolution de problèmes d'interopérabilité". Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00662511.

Texto completo
Resumen
Quand des entreprises collaborent entre elles pour atteindre leurs objectifs métiers, des problèmes d'interopérabilité seront rencontrés. Afin de résoudre ces problèmes, nous étudions les domaines suivants : les processus métier collaboratifs, MDA, SOA, ESB et l'ontologie. Nous proposons alors un cadre intégrant ces cinq domaines pour les solutions TI (technologies de l''information) aux problèmes d'interopérabilité. Pour construire ce cadre, nous proposons une Méthode Basée sur des Processus pour l'Interopérabilité d'Entreprise (MBPIE), qui utilise des processus collaboratifs pour représenter des exigences de collaboration. MBPIE transforme des processus collaboratifs en plusieurs processus d'interopérabilité exécutables par des transformations de modèles. En MBPIE, l'ontologie est utilisée pour annoter les processus collaboratifs. Pendant la transformation des processus, de nouvelles informations ontologiques sont ajoutées dans les processus pour les rendre exécutables. Nous avons conçu un bus de services sémantiques Basé sur l'Ontologie et Dirigé par des Buts (BODB) pour supporter l'exécution des processus d'interopérabilité. Ce bus est basé sur un mécanisme symétrique pour l'invocation de services sémantiques. Ce mécanisme utilise l'extension de SOAP (Simple Object Access Protocol) qui est composée de trois parties : le format des messages BODB, le module BODB et le modèle de traitement BODB. Ce mécanisme a trois propriétés de transparence (emplacement, sémantique et technique) qui sont essentielles à l'exécution des processus d'interopérabilité. Ensemble, MBPIE et le bus constituent une approche fédérée pour résoudre les problèmes d'interopérabilité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Savonnet, Marinette. "Systèmes d'Information Scientifique : des modèles conceptuels aux annotations sémantiques Application au domaine de l'archéologie et des sciences du vivant". Habilitation à diriger des recherches, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00917782.

Texto completo
Resumen
Les Systèmes d'Information Scientifique (SIS) sont des Systèmes d'Information (SI) dont le but est de produire de la connaissance et non pas de gérer ou contrôler une activité de production de biens ou de services comme les SI d'entreprise. Les SIS se caractérisent par des domaines de recherche fortement collaboratifs impliquant des équipes pluridisciplinaires et le plus souvent géographiquement éloignées, ils manipulent des données aux structures très variables dans le temps qui vont au-delà de la simple hétérogénéité : nuages de points issus de scanner 3D, modèles numériques de terrain, cartographie, publications, données issues de spectromètre de masse ou de technique de thermoluminescence, données attributaires en très grand volume, etc. Ainsi, contrairement aux bases de données d'entreprise qui sont modélisées avec des structures établies par l'activité qu'elles supportent, les données scientifiques ne peuvent pas se contenter de schémas de données pré-definis puisque la structure des données évolue rapidement de concert avec l'évolution de la connaissance. La gestion de données scientifiques nécessite une architecture de SIS ayant un niveau d'extensibilité plus élevé que dans un SI d'entreprise. Afin de supporter l'extensibilité tout en contrôlant la qualité des données mais aussi l'interopérabilité, nous proposons une architecture de SIS reposant sur : - des données référentielles fortement structurées, identifiables lors de la phase d'analyse et amenées à évoluer rarement ; - des données complémentaires multi-modèles (matricielles, cartographiques, nuages de points 3D, documentaires, etc.). Pour établir les liens entre les données complémentaires et les données référentielles, nous avons utilisé un unique paradigme, l'annotation sémantique. Nous avons proposé un modèle formel d'annotation à base ontologique pour construire des annotations sémantiques dont la cohérence et la consistance peuvent être contrôlées par une ontologie et des règles. Dans ce cadre, les annotations offrent ainsi une contextualisation des données qui permet de vérifier leur cohérence, par rapport à la connaissance du domaine. Nous avons dressé les grandes lignes d'une sémantique du processus d'annotation par analogie avec la sémantique des langages de programmation. Nous avons validé notre proposition, à travers deux collaborations pluridisciplinaires : - le projet ANR CARE (Corpus Architecturae Religiosae Europeae - IV-X saec. ANR-07- CORP-011) dans le domaine de l'archéologie. Son objectif était de développer un corpus numérique de documents multimédia sur l'évolution des monuments religieux du IVe au XIe siècle (http://care.tge-adonis.fr). Un assistant d'annotation a été développé pour assurer la qualité des annotations par rapport à la connaissance représentée dans l'ontologie. Ce projet a donné lieu au développement d'une extension sémantique pour MediaWiki ; - le projet eClims dans le domaine de la protéomique clinique. eClims est un composant clinique d'un LIMS (Laboratory Information Management System) développé pour la plate-forme de protéomique CLIPP. eClims met en oeuvre un outil d'intégration basé sur le couplage entre des modèles représentant les sources et le système protéomique, et des ontologies utilisées comme médiatrices entre ces derniers. Les différents contrôles que nous mettons en place garantissent la validité des domaines de valeurs, la complétude, la consistance des données et leur cohérence. Le stockage des annotations est assuré par une Base de Données orientées colonnes associée à une Base de Données relationnelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Silveira, Mastella Laura. "Exploitation sémantique des modèles d'ingénierie : application à la modélisation des réservoirs pétroliers". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00005770.

Texto completo
Resumen
Ce travail propose des solutions innovantes en vue de l'exploitation des modèles d'ingénierie hétérogènes. Il prend pour exemple le domaine de la prospection pétrolière. Les stratégies de prospection sont élaborées à partir de représentations tridimensionnelles du sous-sol appelées modèles géologiques. Ceux-ci reposent sur un grand nombre de données hétérogènes générées au fur et à mesure de la conduite de l'exploration par des activités telles que la prospection séismique, les forages, l'interprétation des logs de puits. A fin d'optimisation, les utilisateurs finaux souhaitent, pouvoir retrouver et réutiliser à tout moment les données et les interprétations attachés aux différents modèles successivement générés. Les approches d' intégration des connaissances susceptibles d'être mises en œuvre pour résoudre ce défi, doivent être dissociées aussi bien des sources et des formats de données que des outils logiciels en constante évolution. Pour cela, nous proposons d'utiliser l'annotation sémantique, technique courante du Web sémantique permettant d'associer la connaissance à des ressources au moyen d' "étiquettes sémantiques". La sémantique ainsi explicitée est définie par un certain nombre d' ontologies de domaine, qui, selon la définition classique, correspondent à autant "de spécifications formelles de la conceptualisation" des domaines considérés. En vue d'intégrer les modèles d'ingénierie considérés, nous proposons une architecture, qui permet de relier des concepts appartenant respectivement à des ontologies locales et à une ontologie globale. Les utilisateurs peuvent ainsi avoir une vision globale, intégrée et partagée de chacun des domaines impliqués dans chaîne de modélisation géologique. Un prototype a été développé qui concerne la première étape de la chaîne de modélisation (interprétation séismique). Les expérimentations réalisées prouvent que, grâce à l'approche proposée, les experts peuvent, en utilisant le vocabulaire de leur domaine d'expertise, formuler des questions et obtenir des réponses appropriées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Tayari, Meftah Imen. "Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00838803.

Texto completo
Resumen
Notre travail s'inscrit dans le domaine de l'affective computing et plus précisément la modélisation, détection et annotation des émotions. L'objectif est d'étudier, d'identifier et de modéliser les émotions afin d'assurer l'échange entre applications multimodales. Notre contribution s'axe donc sur trois points. En premier lieu, nous présentons une nouvelle vision de la modélisation des états émotionnels basée sur un modèle générique pour la représentation et l'échange des émotions entre applications multimodales. Il s'agit d'un modèle de représentation hiérarchique composé de trois couches distinctes : la couche psychologique, la couche de calcul formel et la couche langage. Ce modèle permet la représentation d'une infinité d'émotions et la modélisation aussi bien des émotions de base comme la colère, la tristesse et la peur que les émotions complexes comme les émotions simulées et masquées. Le second point de notre contribution est axé sur une approche monomodale de reconnaissance des émotions fondée sur l'analyse des signaux physiologiques. L'algorithme de reconnaissance des émotions s'appuie à la fois sur l'application des techniques de traitement du signal, sur une classification par plus proche voisins et également sur notre modèle multidimensionnel de représentation des émotions. Notre troisième contribution porte sur une approche multimodale de reconnaissance des émotions. Cette approche de traitement des données conduit à une génération d'information de meilleure qualité et plus fiable que celle obtenue à partir d'une seule modalité. Les résultats expérimentaux montrent une amélioration significative des taux de reconnaissance des huit émotions par rapport aux résultats obtenus avec l'approche monomodale. Enfin nous avons intégré notre travail dans une application de détection de la dépression des personnes âgées dans un habitat intelligent. Nous avons utilisé les signaux physiologiques recueillis à partir de différents capteurs installés dans l'habitat pour estimer l'état affectif de la personne concernée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Hacid, Kahina. "Handling domain knowledge in system design models. An ontology based approach". Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20157/7/HACID_kahina.pdf.

Texto completo
Resumen
Complex systems models are designed in heterogeneous domains and this heterogeneity is rarely considered explicitly when describing and validating processes. Moreover, these systems usually involve several domain experts and several design models corresponding to different analyses (views) of the same system. However, no explicit information regarding the characteristics neither of the domain nor of the performed system analyses is given. In our thesis, we propose a general framework offering first, the formalization of domain knowledge using ontologies and second, the capability to strengthen design models by making explicit references to the domain knowledgeformalized in these ontology. This framework also provides resources for making explicit the features of an analysis by formalizing them within models qualified as ‘’points of view ‘’. We have set up two deployments of our approach: a Model Driven Engineering (MDE) based deployment and a formal methods one based on proof and refinement. This general framework has been validated on several no trivial case studies issued from system engineering.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Riviere, Peter. "Génération automatique d’obligations de preuves paramétrée par des théories de domaine dans Event-B : Le cadre de travail EB4EB". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP052.

Texto completo
Resumen
De nos jours, nous sommes entourés de systèmes critiques complexes tels que les microprocesseurs, les trains, les appareils intelligents, les robots, les avions, etc. Ces systèmes sont extrêmement complexes et critiques en termes de sûreté, et doivent donc être vérifiés et validés. L'utilisation de méthodes formelles à états s'est avérée efficace pour concevoir des systèmes complexes. Event-B a joué un rôle clé dans le développement de tels systèmes. Event-B est une méthode formelle de conception de systèmes à états avec une approche correcte par construction, qui met l'accent sur la preuve et le raffinement. Event-B facilite la vérification de propriétés telles que la préservation des invariants, la convergence et le raffinement en générant des obligations de preuve et en permettant de les décharger.Certaines propriétés additionnelles du système, telles que l'absence d'inter-blocage, l'atteignabilité ou encore la vivacité, doivent être explicitement encodées et vérifiées par le concepteur, ou formalisées à l'aide d'une autre méthode formelle. Une telle approche pénalise la réutilisabilité des modèles et des techniques, et peut introduire des erreurs, en particulier dans les systèmes complexes.Pour pallier cela, nous avons introduit un "framework" réflexif EB4EB, formalisé au sein de Event-B. Dans ce cadre, chacun des concepts d'Event-B est formalisé comme un objet de première classe en utilisant la logique du premier ordre (FOL) et la théorie des ensembles. EB4EB permet la manipulation et l'analyse de modèles Event-B, et permet la définition d'extensions afin de réaliser des analyses supplémentaires non intrusives sur des modèles, telles que la validation de propriétés temporelles, l'analyse de la couverture d'un invariant, ou encore l'absence de blocage. Ce framework est réalisé grâce aux théories d'Event-B, qui étendent le langage d'Event-B avec des éléments définis dans des théories, et aussi en formalisant de nouvelles obligations de preuves, qui ne sont pas présentes initialement dans Event-B.De plus, la sémantique opérationnelle d'Event-B (basée sur les traces) a été formalisée, de même qu'un cadre qui sert à garantir la correction des théorèmes définis, y compris les opérateurs et les obligations de preuve. Enfin, le cadre proposé et ses extensions ont été validés dans de multiples études de cas, notamment l'horloge de Lamport, le problème du lecteur/rédacteur, l'algorithme de Peterson, les distributeurs automatiques de billets (DAB), les véhicules autonomes, etc
Nowadays, we are surrounded by complex critical systems such as microprocessors, railways, home appliances, robots, aeroplanes, and so on. These systems are extremely complex and are safety-critical, and they must be verified and validated. The use of state-based formal methods has proven to be effective in designing complex systems. Event-B has played a key role in the development of such systems. Event-B is a formal system design method that is state-based and correct-by-construction, with a focus on proof and refinement. Event-B facilitates verification of properties such as invariant preservation, convergence, and refinement by generating and discharging proof obligations.Additional properties for system verification, such as deadlock-freeness, reachability, and liveness, must be explicitly defined and verified by the designer or formalised using another formal method. Such an approach reduces re-usability and may introduce errors, particularly in complex systems.To tackle these challenges, we introduced the reflexive EB4EB framework in Event-B. In this framework, each Event-B concept is formalised as a first-class object using First Order Logic (FOL) and set theory. This framework allows for the manipulation and analysis of Event-B models, with extensions for additional, non-intrusive analyses such as temporal properties, weak invariants, deadlock freeness, and so on. This is accomplished through Event-B Theories, which extend the Event-B language with the theory's defined elements, and also by formalising and articulating new proof obligations that are not present in traditional Event-B. Furthermore, Event-B's operational semantics (based on traces) have been formalised, along with a framework for guaranteeing the soundness of the defined theorems, including operators and proof obligations. Finally, the proposed framework and its extensions have been validated across multiple case studies, including Lamport's clock case study, read/write processes, the Peterson algorithm, Automated Teller Machine (ATM), autonomous vehicles, and so on
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Liao, Yongxin. "Annotations sémantiques pour l'interopérabilité des systèmes dans un environnement PLM". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00904822.

Texto completo
Resumen
Pour demeurer compétitives, de plus en plus d'entreprises sont amenées à collaborer dans le cadre des entreprises étendues ou des réseaux d'entreprises. Ce type d'organisation nécessite l'interconnexion d'une multitude de systèmes d'entreprises, hétérogènes que ce soit par les fonctions qu'ils assurent ou par leurs conceptions (modèles, architectures, ...). Typiquement, ceci renvoie au concept de l'interopérabilité, définie par la capacité des systèmes ou des organisations à fournir ou à accepter des services et à utiliser ces services pour opérer efficacement ensemble. L'échange de l'information et le partage des connaissances (interopérabilité technique) entre les différents systèmes d'information sont désormais des atouts majeurs pour favoriser l'activité collaborative de création de valeur. Le développement de nouvelles technologies et la mise en place de standards a contribué à résoudre (partiellement au moins) ce problème d'interopérabilité technique. Cependant, ce n'est pas suffisant pour garantir l'interopérabilité à un niveau conceptuel : c'est-à-dire garantir que les modèles issus d'une ingénierie peuvent être partagés et compris par rapport à une sémantique commune, et utilisés par les différents systèmes d'entreprise pour réaliser une mission globale. L'approche de gestion du cycle de vie du produit (PLM) est considérée comme une solution essentielle pour faciliter le partage de modèles relatifs à des produits fabriqués. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de modèles, la plupart d'entre eux n'intègrent pas une gestion cohérente des connaissances formalisées dans ces modèles spécifiques à chaque métier. L'hétérogénéité tant syntaxique que sémantique de ces modèles est souvent source d'une interprétation erronée des spécifications produites par chaque environnement de modélisation. L'objectif de cette thèse est ainsi de proposer une méthode, une formalisation et des outils pour prendre en compte, tout au long du cycle de vie d'un produit, l'ensemble des connaissances tacites et explicites sous la forme d'annotations sémantiques formelles qui peuvent favoriser la compréhension partagée ainsi qu'une vérification de cohérence des modèles produits, dans un contexte PLM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Tetley, Romain. "Analyse mixte de protéines basée sur la séquence et la structure - applications à l'annotation fonctionnelle". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4111/document.

Texto completo
Resumen
Dans cette thèse, l'emphase est mise sur la réconciliation de l'analyse de structure et de séquence pour les protéines. L'analyse de séquence brille lorsqu'il s'agit de comparer des protéines présentant une forte identité de séquence (≤ 30\%) mais laisse à désirer pour identifier des homologues lointains. L'analyse de structure est une alternative intéressante. Cependant, les méthodes de résolution de structures sont coûteuses et complexes - lorsque toutefois elles produisent des résultats. Ces observations rendent évident la nécessité de développer des méthodes hybrides, exploitant l'information extraite des structures disponibles pour l'injecter dans des modèles de séquence. Cette thèse produit quatre contributions principales dans ce domaine. Premièrement, nous présentons une nouvelle distance structurale, le RMSDcomb, basée sur des patterns de conservation structurale locale, les motifs structuraux. Deuxièmement, nous avons développé une méthode pour identifier des motifs structuraux entre deux structures exploitant un bootstrap dépendant de filtrations. Notre approche n'est pas un compétiteur direct des aligneurs flexibles mais permet plutôt de produire des analyses multi-échelles de similarités structurales. Troisièmement, nous exploitons les méthodes suscitées pour construire des modèles de Markov cachés hybrides biaisés vers des régions mieux conservées structurellement. Nous utilisons un tel modèle pour caractériser les protéines de fusion virales de classe II, une tâche particulièrement ardue du fait de leur faible identité de séquence et leur conservation structurale moyenne. Ce faisant, nous parvenons à trouver un certain nombre d'homologues distants connues des protéines virales, notamment chez la Drosophile. Enfin, en formalisant un sous-problème rencontré lors de la comparaison de filtrations, nous présentons un nouveau problème théorique - le D-family matching - sur lequel nous démontrons des résultats algorithmiques variés. Nous montrons - d'une façon analogue à la comparaison de régions de deux conformations d'une protéine - comment exploiter ce modèle théorique pour comparer deux clusterings d'un même jeu de données
In this thesis, the focus is set on reconciling the realms of structure and sequence for protein analysis. Sequence analysis tools shine when faced with proteins presenting high sequence identity (≤ 30\%), but are lack - luster when it comes to remote homolog detection. Structural analysis tools present an interesting alternative, but solving structures - when at all possible- is a tedious and expensive process. These observations make the need for hybrid methods - which inject information obtained from available structures in a sequence model - quite clear. This thesis makes four main contributions toward this goal. First we present a novel structural measure, the RMSDcomb, based on local structural conservation patterns - the so called structural motifs. Second, we developed a method to identify structural motifs between two structures using a bootstrap method which relies on filtrations. Our approach is not a direct competitor to flexible aligners but can provide useful to perform a multiscale analysis of structural similarities. Third, we build upon the previous methods to design hybrid Hidden Markov Models which are biased towards regions of increased structural conservation between sets of proteins. We test this tool on the class II fusion viral proteins - particularly challenging because of their low sequence identity and mild structural homology. We find that we are able to recover known remote homologs of the viral proteins in the Drosophila and other organisms. Finally, formalizing a sub - problem encountered when comparing filtrations, we present a new theoretical problem - the D-family matching - on which we present various algorithmic results. We show - in a manner that is analogous to comparing parts of two protein conformations - how it is possible to compare two clusterings of the same data set using such a theoretical model
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Chevalier, Max. "Usagers & Recherche d'Information". Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00573946.

Texto completo
Resumen
La recherche d'information est confrontée à une variété de plus en plus importante tant en termes d'usagers, de tâches à remplir, d'outils.... Face à cette hétérogénéité de nombreux travaux, s'attachent à améliorer la recherche d'information par le biais d'approches adaptatives, de systèmes de recommandation... Mes travaux s'inscrivent dans ce cadre et apportent un éclairage essentiellement porté sur l'usager et ses activités et plus particulièrement sur la recherche d'information. Les résultats correspondent à 3 angles d'investigation nous permettant d'aborder cette problématique de l'hétérogénéité en Recherche d'Information.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Bocquet, Aurélien. "Infrastructure logicielle multi-modèles pour l'accès à des services en mobilité". Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10132/document.

Texto completo
Resumen
Les intergiciels sont aujourd'hui incontournables lorsqu'il s'agit de développer des applications réparties. Chaque conception requiert des outils adaptés et performants. De plus, leur contexte de déploiement nécessite des mécanismes particuliers afin de s'y adapter. Pour cela, les intergiciels proposent des modèles de programmation et de communication différents, fournissant des moyens de communication efficaces dans certaines situations. En mobilité, l'interopérabilité devient inévitable, et le contexte varie. Cette thèse traite des impératifs d'un intergiciel en mobilité. Nous proposons ainsi une approche multi-modèles, basée sur les travaux actuels dans ce domaine, et présentant des concepts novateurs. Cette approche se compose d'un modèle de programmation générique et d'une combinaison de modèles de communication. Des politiques d'adaptation définissent les règles de combinaison des modèles en fonction d'observations du contexte, et des mécanismes d'adaptation dynamique permettent de prendre en compte en temps réelle contexte, et de reconfigurer le système pendant son exécution. Nous avons validé notre approche au travers d'une application concrète aux problèmes engendrés par l'utilisation d'un proxy Internet à bord des trains: le développement d'un greffon multi-modèles a illustré et justifié notre approche, et l'évaluation de ce greffon a montré les bénéfices de celle-ci face aux changements de contexte. Nous avons également conçu et développé notre infrastructure logicielle multi-modèles, proposant tous les concepts cités, et permettant ainsi de profiter des bénéfices de notre approche multi-modèles
The middlewares are nowadays unavoidable when developing dlstributed applications. Every design needs adapted and efficient· tools. ln addition, their context of deployment needs special mechanisms in order to adapt to it. To do so, the middlewares offer different programming and communication models, supplying efficient ways to communicate in some situations. ln mobility, interoperability becomes unavoidable, and the context changes. This thesis deals with the requirements of a middleware in mobility. We thus propose a multi-model approach, based on the current works in this domain, and presenting innovative concepts. This approach is composed by a generic programming model and by a combination of communication models. Adaptation policies define the rules of combination of models, regarding context observations and dynamic adaptation mechanisms allow to handle the context in realtime, and to reconfigure the system when it is running. Our approach has been validated through a concrete application to problems caused by the use of an embedded Intemet proxy in trains: the design and development of a mufti-model graft iIIustrated and justified our approach, and the evaluation of this graft demonstrated the benefits of this approach via-a-vis the changes of context. We also designed and developed our multi-model software infrastructure, proposing ail these concepts, and thus allowing to benefit from our multi-model approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Feng, Haifeng. "Etudes des liens entre couleurs et émotions à partir des annotations spontanées". Paris 6, 2011. http://www.theses.fr/2011PA066627.

Texto completo
Resumen
Cette thèse a pour objectif l'identification et la caractérisation de relations entre couleurs et émotions sur une base constituée d'images annotées. Plus précisément nous nous intéressons à la découverte automatique de relations entre trois concepts : les « couleurs objectives » données par le contenu chromatique des images, les « couleurs subjectives » présentes dans des étiquettes fournies lors de l'annotation spontanée des images, et les « émotions » également exprimées par le biais d'étiquettes associées spontanément aux images. Pour réaliser cette étude, nous construisons un corpus d'expérimentation basé sur le site web FlickR. Cette interface de gestion et partage d'images en ligne s'appuie sur un service d'indexation basé sur le « social tagging », qui permet aux créateurs des images d'étiqueter leurs ressources en leur laissant le libre choix des étiquettes. Nous avons collecté environ 22000 images annotées à la fois par des étiquettes chromatiques et émotionnelles, c'est-à-dire pour lesquelles les contenus chromatique et émotionnel ont été jugés importants par les utilisateurs. Dans un premier temps, nous étudions les relations entre les couleurs objectives et les émotions, en utilisant un algorithme d'arbre de décision. Ensuite, nous caractérisons les émotions à partir de couleurs subjectives, à nouveau à l'aide d'un algorithme d'arbre de décision, afin de pouvoir comparer les résultats avec ceux de l'étude précédente. De plus, pour approfondir cette dernière caractérisation nous utilisons une approche par règles d'association. Enfin, pour compléter ces deux études nous analysons les relations entre couleurs objectives et couleurs subjectives. Les caractérisations des 3 concepts sont établies sur diverses représentations chromatiques, incluant un codage objectif classique, un codage subjectif, et un niveau intermédiaire constitué d'un codage objectif interprété. Pour ce dernier, nous avons proposé, construit et analysé un dictionnaire visuel basé, non sur des hyperplans frontières discriminants entre couleurs, mais sur des points de référence représentatifs de chaque couleur. En ce qui concerne la caractérisation des émotions, notre approche révèle non seulement que les couleurs subjectives permettent de retrouver des relations connues dans la littérature psychologique (p. Ex. Entre noir et peur), mais aussi des relations moins attendues, par exemple entre rose et surprise. Si on se limite à un objectif de prédiction des émotions, qui reste difficile dans tous les cas, les codages subjectif et objectif interprété donnent des résultats similaires. Ceci signifie que tous deux sont également importants - d'un point de vue applicatif - pour la détection des émotions dans les images à partir des couleurs. Toutefois, d'un point de vue analytique, le codage subjectif semble plus proche des émotions ; en effet, il est défavorisé dans les expérimentations réalisées : d'une part la méthode de prédiction utilisée est plus favorable au codage objectif (codage numérique vs binaire), d'autre part, celui-ci est plus riche (contenant en effet toutes les couleurs vs une ou deux couleurs évoquées). Les relations entre les couleurs objectives et subjectives sont plus fortes que celles entre couleurs et émotions, ce qui semble attendu puisque ces relations sont plus immédiates. Les résultats expérimentaux montrent toutefois que l'identification des couleurs subjectives, ou couleurs saillantes, reste un problème difficile, indiquant que les annotations choisies spontanément ne sont pas en relation simple avec la couleur dominante des images ni des combinaisons des proportions des couleurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Albatal, Rami. "Annotation automatique d'images à base de Phrases Visuelles". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM038.

Texto completo
Resumen
"Ce travail de thèse a pour objectif de proposer un modèle général d'annotation automatique d'images pour la recherche d'information. La recherche d'information sur les documents images nécessite des représentations abstraites symboliques des images (termes, concepts) afin de satisfaire les besoins d'information des utilisateurs. Si de nombreux travaux ont pour objectif de définir un processus d'apprentissage automatique sur des descripteurs visuels extraits des régions d'images, les questions liées aux choix et aux regroupements des régions descriptives et représentatives des différentes classes d'objets sont peu étudiées. Les variations visuelles des objets d'une classe donnée posent de sérieux problèmes pour l'annotation par classes d'objets. Ces variations sont causées par plusieurs facteurs : changements d'échelle, rotation et changements de luminosité, en sus de la variabilité de forme et de couleur propre à chaque type d'objet. Notre travail vise aussi à minimiser l'impact négatif de ce phénomène. Dans ce travail, le passage du signal au sens se fonde sur une représentation intermédiaire appelée "Phrases Visuelles" qui représentent des ensembles de régions d'intérêt regroupées selon un critère topologique prédéfini. Un processus d'apprentissage permet de détecter les relations entre les Phrases Visuelles et les classes d'objets. Ce modèle d'annotation a fait l'objet de nombreuses évaluations sur le corpus VOC2009. Les résultats obtenus montrent l'impact significatif du mode de regroupement des régions d'intérêt, et qu'un regroupement prenant en compte les relations spatiales entre ces régions donne des meilleurs résultats en terme de précision moyenne. "
This thesis aims to propose a general model for automatic image annotation in the context of image retrieval. Seeking images requires abstract symbolic representations of theit semantic content (words, concepts. . . ) to satisfy the users information needs. While many studies have aimed to define a machine learning process of visual descriptors extracted from image regions, issues related to choices and grouping of descriptive and discriminative regions of different object classes are less studied. Visual variations of obects of a class cause serious problems for annotating images by object classes. These variations are caused by several factors: changes in scale, rotation and chages in brightness, in addition to variations of shapes and colors proper to any given object. Our work also aims to minimize the negative impact of this phenomenon. In this work, the passage from visual signal to its meaning is defined based on an intermediate representation called "Visual Phrases". These Phrases represent sets of regions of interest grouped according to a predetermined topological criterion. A learning process can detect relationships between Visual Phrases and object classes. Several evaluations of this approach have been conducted on the VOC2009 corpus. The results show the significant imact of the mode of grouping of regions of interest, and that a grouping based on spatial relationships among these regions gives the best results in terms of average precision
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Albatal, Rami. "Annotation automatique d'images à base de Phrases Visuelles". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00520474.

Texto completo
Resumen
Ce travail de thèse a pour objectif de proposer un modèle général d'annotation automatique d'images pour la recherche d'information.La recherche d'information sur les documents images nécessite des représentations abstraites symboliques des images (termes, concepts) afin de satisfaire les besoins d'information des utilisateurs. Si de nombreux travaux ont pour objectif de définir un processus d'apprentissage automatique sur des descripteurs visuels extraits des régions d'images, les questions liées aux choix et aux regroupements des régions descriptives et représentatives des différentes classes d'objets sont peu étudiées. Les variations visuelles des objets d'une classe donnée posent de sérieux problèmes pour l'annotation par classes d'objets. Ces variations sont causées par plusieurs facteurs : changements d'échelle, rotation et changements de luminosité, en sus de la variabilité de forme et de couleur propre à chaque type d'objet. Notre travail vise aussi à minimiser l'impact négatif de ce phénomène. Dans ce travail, le passage du signal au sens se fonde sur une représentation intermédiaire appelée "Phrases Visuelles" qui représentent des ensembles de régions d'intérêt regroupées selon un critère topologique prédéfini. Un processus d'apprentissage permet de détecter les relations entre les Phrases Visuelles et les classes d'objets. Ce modèle d'annotation a fait l'objet de nombreuses évaluations sur le corpus VOC2009. Les résultats obtenus montrent l'impact significatif du mode de regroupement des régions d'intérêt, et qu'un regroupement prenant en compte les relations spatiales entre ces régions donne des meilleurs résultats en terme de précision moyenne.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Descorps-Declere, Stéphane. "Modélisation du processus d'annotation par une architecture blackboard". Paris 6, 2006. http://www.theses.fr/2006PA066165.

Texto completo
Resumen
Devant la multiplication des projets de séquençage de génomes complets, il est aujourd’hui essentiel de disposer d’outils informatiques performants capables d'aider l’utilisateur biologiste vers un meilleur usage des méthodes d’analyses. Ceci s’avère particulièrement important en raison des très nombreuses méthodes d’analyse disponibles ainsi que des grandes quantités de données concernées. Ce travail vise à apporter une contribution à cette problématique, par l’élaboration d’un modèle bio-informatique adapté à l’annotation de génomes complets. Avec l’étude de l’état de l’art, nous avons dégagé l’existence de deux approches différentes pour modéliser le processus d'annotation. Cette constatation nous a permis, dans un premier temps, de re-formaliser la démarche d’annotation de séquences génomiques. Puis, dans un second temps, de proposer une nouvelle architecture logicielle adéquate afin de traiter la question ainsi reformulée : l’architecture blackboard
Because of the huge increase in sequencing projects of complete genomes, it is essential today to have powerful computer softwares able to help biologists towards a better use of analysis methods. This is particularly important because there exists many methods of analysis as well as a great amount of data. In order to solve this issue, we propose in this thesis to develop of a new bioinformatic model suitable for the annotation of complete genomes. From studying the "state of the art", we concluded that we could approach the modelisation of the annotation process of two different ways. This enabled us to propose a new model based on this analysis. We then decided to re-formalize the annotation process; it gave us the opportunity to propose an adequate software architecture in order to handle the process thus reformulated. The thesis is then a double contribution : it is both a modelisation of the annotation process, and a technical proposal based on a blackboard architecture
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Liao, Yongxin. "Annotations sémantiques pour l'intéropérabilité des systèmes dans un environnement PLM". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0135/document.

Texto completo
Resumen
Dans l'industrie l'approche de gestion du cycle de vie du produit (PLM) a été considérée comme une solution essentielle pour améliorer la compétitivité des produits. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de systèmes, la plupart d' entre eux n'intègrent pas l'ensemble des systèmes. Enfin, ils ne fournissent pas une intégration cohérente de l'ensemble du système d'information. Il en résulte une sorte de « tour de Babel », où chaque application est considérée comme une île au milieu de l'océan de l'information, gérée par de nombreuses parties prenantes dans une entreprise, ou même dans un réseau d'entreprises. L'hétérogénéité des parties prenantes augmente le problème d'interopérabilité. L'objectif de cette thèse est de traiter la question de l'interopérabilité sémantique, en proposant une méthode d'annotation sémantique formelle pour favoriser la compréhension mutuelle de la sémantique de l'information partagée et échangée dans un environnement PLM
In manufacturing enterprises the Product Lifecycle Management (PLM) approach has been considered as an essential solution for improving the product competitive ability. It aims at providing a shared platform that brings together different enterprise systems at each stage of a product life cycle in or across enterprises. Although the main software companies are making efforts to create tools for offering a complete and integrated set of systems, most of them have not implemented all of the systems. Finally, they do not provide a coherent integration of the entire information system. This results in a kind of "tower of Babel", where each application is considered as an island in the middle of the ocean of information, managed by many stakeholders in an enterprise, or even in a network of enterprises. The different peculiarities of those stakeholders are then over increasing the issue of interoperability. The objective of this thesis is to deal with the issue of semantic interoperability, by proposing a formal semantic annotation method to support the mutual understanding of the semantics inside the shared and exchanged information in a PLM environment
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Dessaigne, Nicolas. "Le modèle DOAN (DOcument ANnotation Model) : modélisation de l'information complexe appliquée à la plateforme Arisem Kaliwatch Server". Phd thesis, Université de Nantes, 2005. http://tel.archives-ouvertes.fr/tel-00465962.

Texto completo
Resumen
Nous présentons dans cette thèse le modèle DOAN (DOcument ANnotation Model), destiné à répondre aux besoins de modélisation de la société Arisem. Arisem est éditeur de logiciels dans le domaine de la gestion des connaissances. La plateforme que l'entreprise propose s'inscrit dans le cycle collecte / analyse / diffusion de l'information. À partir de données de nature hétérogène et d'origines diverses (ex. : Internet, intranet, base de données), elle procède à différentes analyses (ex. : classement automatique, extraction de concepts émergents), afin de fournir des informations synthétiques et utiles à l'utilisateur. Partant de cette problématique, nous avons identifié trois besoins principaux pour le modèle : expressivité, flexibilité et performances. Dans le cadre de cette thèse, nous avons développé un modèle basé sur le paradigme d'agrégation de facettes, qui permet aux concepteurs de décrire des données complexes, hétérogènes et évolutives. Au-delà de la simple notion de document, il rend possible la représentation d'objets métiers, comme par exemple des annotations ou des arbres de catégorisation. Complété par un système de types riches et par la capacité d'exprimer des contraintes entre facettes, ce modèle nous permet de répondre aux besoins d'expressivité et de flexibilité. Nous proposons d'autre part un algorithme permettant de traduire les éléments du modèle DOAN en une implémentation relationnelle. Une fois le modèle instancié, les accès en modification sont contrôlés à l'aide de procédures stockées afin de garantir la consistance des données. Les accès en consultations sont en revanche effectués directement à l'aide de requêtes SQL. Les concepteurs peuvent ainsi faire des requêtes à la fois complexes et performantes, tirant parti au maximum des possibilités du système de gestion de bases de données. Cette approche permet une montée en charge importante et répond aux besoins de performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Ugarte, Ari. "Combining machine learning and evolution for the annotation of metagenomics data". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066732/document.

Texto completo
Resumen
La métagénomique sert à étudier les communautés microbiennes en analysant de l’ADN extrait directement d’échantillons pris dans la nature, elle permet également d’établir un catalogue très étendu des gènes présents dans les communautés microbiennes. Ce catalogue doit être comparé contre les gènes déjà référencés dans les bases des données afin de retrouver des séquences similaires et ainsi déterminer la fonction des séquences qui le composent. Au cours de cette thèse, nous avons développé MetaCLADE, une nouvelle méthodologie qui améliore la détection des domaines protéiques déjà référencés pour des séquences issues des données métagénomiques et métatranscriptomiques. Pour le développement de MetaCLADE, nous avons modifié un système d’annotations de domaines protéiques qui a été développé au sein du Laboratoire de Biologie Computationnelle et Quantitative appelé CLADE (CLoser sequences for Annotations Directed by Evolution) [17]. En général les méthodes pour l’annotation de domaines protéiques caractérisent les domaines connus avec des modèles probabilistes. Ces modèles probabilistes, appelés Sequence Consensus Models (SCMs) sont construits à partir d’un alignement des séquences homologues appartenant à différents clades phylogénétiques et ils représentent le consensus à chaque position de l’alignement. Cependant, quand les séquences qui forment l’ensemble des homologues sont très divergentes, les signaux des SCMs deviennent trop faibles pour être identifiés et donc l’annotation échoue. Afin de résoudre ce problème d’annotation de domaines très divergents, nous avons utilisé une approche fondée sur l’observation que beaucoup de contraintes fonctionnelles et structurelles d’une protéine ne sont pas globalement conservées parmi toutes les espèces, mais elles peuvent être conservées localement dans des clades. L’approche consiste donc à élargir le catalogue de modèles probabilistes en créant de nouveaux modèles qui mettent l’accent sur les caractéristiques propres à chaque clade. MetaCLADE, un outil conçu dans l’objectif d’annoter avec précision des séquences issues des expériences métagénomiques et métatranscriptomiques utilise cette libraire afin de trouver des correspondances entre les modèles et une base de données de séquences métagénomiques ou métatranscriptomiques. En suite, il se sert d’une étape pré-calculée pour le filtrage des séquences qui permet de déterminer la probabilité qu’une prédiction soit considérée vraie. Cette étape pré-calculée est un processus d’apprentissage qui prend en compte la fragmentation de séquences métagénomiques pour les classer.Nous avons montré que l’approche multi source en combinaison avec une stratégie de méta apprentissage prenant en compte la fragmentation atteint une très haute performance
Metagenomics is used to study microbial communities by the analyze of DNA extracted directly from environmental samples. It allows to establish a catalog very extended of genes present in the microbial communities. This catalog must be compared against the genes already referenced in the databases in order to find similar sequences and thus determine their function. In the course of this thesis, we have developed MetaCLADE, a new methodology that improves the detection of protein domains already referenced for metagenomic and metatranscriptomic sequences. For the development of MetaCLADE, we modified an annotation system of protein domains that has been developed within the Laboratory of Computational and Quantitative Biology clade called (closer sequences for Annotations Directed by Evolution) [17]. In general, the methods for the annotation of protein domains characterize protein domains with probabilistic models. These probabilistic models, called sequence consensus models (SCMs) are built from the alignment of homolog sequences belonging to different phylogenetic clades and they represent the consensus at each position of the alignment. However, when the sequences that form the homolog set are very divergent, the signals of the SCMs become too weak to be identified and therefore the annotation fails. In order to solve this problem of annotation of very divergent domains, we used an approach based on the observation that many of the functional and structural constraints in a protein are not broadly conserved among all species, but they can be found locally in the clades. The approach is therefore to expand the catalog of probabilistic models by creating new models that focus on the specific characteristics of each clade. MetaCLADE, a tool designed with the objective of annotate with precision sequences coming from metagenomics and metatranscriptomics studies uses this library in order to find matches between the models and a database of metagenomic or metatranscriptomic sequences. Then, it uses a pre-computed step for the filtering of the sequences which determine the probability that a prediction is a true hit. This pre-calculated step is a learning process that takes into account the fragmentation of metagenomic sequences to classify them. We have shown that the approach multi source in combination with a strategy of meta-learning taking into account the fragmentation outperforms current methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Ugarte, Ari. "Combining machine learning and evolution for the annotation of metagenomics data". Electronic Thesis or Diss., Paris 6, 2016. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2016PA066732.pdf.

Texto completo
Resumen
La métagénomique sert à étudier les communautés microbiennes en analysant de l’ADN extrait directement d’échantillons pris dans la nature, elle permet également d’établir un catalogue très étendu des gènes présents dans les communautés microbiennes. Ce catalogue doit être comparé contre les gènes déjà référencés dans les bases des données afin de retrouver des séquences similaires et ainsi déterminer la fonction des séquences qui le composent. Au cours de cette thèse, nous avons développé MetaCLADE, une nouvelle méthodologie qui améliore la détection des domaines protéiques déjà référencés pour des séquences issues des données métagénomiques et métatranscriptomiques. Pour le développement de MetaCLADE, nous avons modifié un système d’annotations de domaines protéiques qui a été développé au sein du Laboratoire de Biologie Computationnelle et Quantitative appelé CLADE (CLoser sequences for Annotations Directed by Evolution) [17]. En général les méthodes pour l’annotation de domaines protéiques caractérisent les domaines connus avec des modèles probabilistes. Ces modèles probabilistes, appelés Sequence Consensus Models (SCMs) sont construits à partir d’un alignement des séquences homologues appartenant à différents clades phylogénétiques et ils représentent le consensus à chaque position de l’alignement. Cependant, quand les séquences qui forment l’ensemble des homologues sont très divergentes, les signaux des SCMs deviennent trop faibles pour être identifiés et donc l’annotation échoue. Afin de résoudre ce problème d’annotation de domaines très divergents, nous avons utilisé une approche fondée sur l’observation que beaucoup de contraintes fonctionnelles et structurelles d’une protéine ne sont pas globalement conservées parmi toutes les espèces, mais elles peuvent être conservées localement dans des clades. L’approche consiste donc à élargir le catalogue de modèles probabilistes en créant de nouveaux modèles qui mettent l’accent sur les caractéristiques propres à chaque clade. MetaCLADE, un outil conçu dans l’objectif d’annoter avec précision des séquences issues des expériences métagénomiques et métatranscriptomiques utilise cette libraire afin de trouver des correspondances entre les modèles et une base de données de séquences métagénomiques ou métatranscriptomiques. En suite, il se sert d’une étape pré-calculée pour le filtrage des séquences qui permet de déterminer la probabilité qu’une prédiction soit considérée vraie. Cette étape pré-calculée est un processus d’apprentissage qui prend en compte la fragmentation de séquences métagénomiques pour les classer.Nous avons montré que l’approche multi source en combinaison avec une stratégie de méta apprentissage prenant en compte la fragmentation atteint une très haute performance
Metagenomics is used to study microbial communities by the analyze of DNA extracted directly from environmental samples. It allows to establish a catalog very extended of genes present in the microbial communities. This catalog must be compared against the genes already referenced in the databases in order to find similar sequences and thus determine their function. In the course of this thesis, we have developed MetaCLADE, a new methodology that improves the detection of protein domains already referenced for metagenomic and metatranscriptomic sequences. For the development of MetaCLADE, we modified an annotation system of protein domains that has been developed within the Laboratory of Computational and Quantitative Biology clade called (closer sequences for Annotations Directed by Evolution) [17]. In general, the methods for the annotation of protein domains characterize protein domains with probabilistic models. These probabilistic models, called sequence consensus models (SCMs) are built from the alignment of homolog sequences belonging to different phylogenetic clades and they represent the consensus at each position of the alignment. However, when the sequences that form the homolog set are very divergent, the signals of the SCMs become too weak to be identified and therefore the annotation fails. In order to solve this problem of annotation of very divergent domains, we used an approach based on the observation that many of the functional and structural constraints in a protein are not broadly conserved among all species, but they can be found locally in the clades. The approach is therefore to expand the catalog of probabilistic models by creating new models that focus on the specific characteristics of each clade. MetaCLADE, a tool designed with the objective of annotate with precision sequences coming from metagenomics and metatranscriptomics studies uses this library in order to find matches between the models and a database of metagenomic or metatranscriptomic sequences. Then, it uses a pre-computed step for the filtering of the sequences which determine the probability that a prediction is a true hit. This pre-calculated step is a learning process that takes into account the fragmentation of metagenomic sequences to classify them. We have shown that the approach multi source in combination with a strategy of meta-learning taking into account the fragmentation outperforms current methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Cleynen, Alice. "Approches statistiques en segmentation : application à la ré-annotation de génome". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00913851.

Texto completo
Resumen
Nous proposons de modéliser les données issues des technologies de séquençage du transcriptome (RNA-Seq) à l'aide de la loi binomiale négative, et nous construisons des modèles de segmentation adaptés à leur étude à différentes échelles biologiques, dans le contexte où ces technologies sont devenues un outil précieux pour l'annotation de génome, l'analyse de l'expression des gènes, et la détection de nouveaux transcrits. Nous développons un algorithme de segmentation rapide pour analyser des séries à l'échelle du chromosome, et nous proposons deux méthodes pour l'estimation du nombre de segments, directement lié au nombre de gènes exprimés dans la cellule, qu'ils soient précédemment annotés ou détectés à cette même occasion. L'objectif d'annotation précise des gènes, et plus particulièrement de comparaison des sites de début et fin de transcription entre individus, nous amène naturellement à nous intéresser à la comparaison des localisations de ruptures dans des séries indépendantes. Nous construisons ainsi dans un cadre de segmentation bayésienne des outils de réponse à nos questions pour lesquels nous sommes capable de fournir des mesures d'incertitude. Nous illustrons nos modèles, tous implémentés dans des packages R, sur des données RNA-Seq provenant d'expériences sur la levure, et montrons par exemple que les frontières des introns sont conservées entre conditions tandis que les débuts et fin de transcriptions sont soumis à l'épissage différentiel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Texto completo
Resumen
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Liao, Yongxin. "Annotations sémantiques pour l'intéropérabilité des systèmes dans un environnement PLM". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0135.

Texto completo
Resumen
Dans l'industrie l'approche de gestion du cycle de vie du produit (PLM) a été considérée comme une solution essentielle pour améliorer la compétitivité des produits. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de systèmes, la plupart d' entre eux n'intègrent pas l'ensemble des systèmes. Enfin, ils ne fournissent pas une intégration cohérente de l'ensemble du système d'information. Il en résulte une sorte de « tour de Babel », où chaque application est considérée comme une île au milieu de l'océan de l'information, gérée par de nombreuses parties prenantes dans une entreprise, ou même dans un réseau d'entreprises. L'hétérogénéité des parties prenantes augmente le problème d'interopérabilité. L'objectif de cette thèse est de traiter la question de l'interopérabilité sémantique, en proposant une méthode d'annotation sémantique formelle pour favoriser la compréhension mutuelle de la sémantique de l'information partagée et échangée dans un environnement PLM
In manufacturing enterprises the Product Lifecycle Management (PLM) approach has been considered as an essential solution for improving the product competitive ability. It aims at providing a shared platform that brings together different enterprise systems at each stage of a product life cycle in or across enterprises. Although the main software companies are making efforts to create tools for offering a complete and integrated set of systems, most of them have not implemented all of the systems. Finally, they do not provide a coherent integration of the entire information system. This results in a kind of "tower of Babel", where each application is considered as an island in the middle of the ocean of information, managed by many stakeholders in an enterprise, or even in a network of enterprises. The different peculiarities of those stakeholders are then over increasing the issue of interoperability. The objective of this thesis is to deal with the issue of semantic interoperability, by proposing a formal semantic annotation method to support the mutual understanding of the semantics inside the shared and exchanged information in a PLM environment
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Cormier, Alexandre. "Le modèle algue brune pour l'analyse fonctionnelle et évolutive du déterminisme sexuel". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066646/document.

Texto completo
Resumen
Les mécanismes de détermination génétique du sexe, qui requièrent la présence de régions chromosomiques non recombinantes ou bien de chromosomes sexuels, ont émergé de manière indépendante et répétée au sein de plusieurs lignées d'eucaryotes. La plupart des connaissances acquises dans ce domaine portent sur un nombre limité de groupes d'eucaryotes. La disponibilité d'une espèce modèle pour le groupe des algues brunes, Ectocarpus siliculosus, dont le génome a été séquencé, permet de disposer des outils nécessaires pour étudier ces mécanismes au sein d'une lignée phylogénétiquement éloignée des modèles classiquement étudiés. L'un des premiers défis a été d'identifier les chromosomes sexuels dans le génome d'E. siliculosus et de réaliser l'analyse comparative de ces structures. Par la suite, l'analyse de l'expression des gènes entre individus mâles et femelles à différents stades du cycle de vie a permis d'identifier les gènes différentiellement exprimés, de caractériser leurs fonctions et d'analyser leur évolution moléculaire. Les nombreuses données générées afin de réaliser ces différentes analyses ont permis de proposer une nouvelle version de l'assemblage du génome et de l'annotation structurale et fonctionnelle de l'ensemble des gènes codants et non-codants d'E. siliculosus. Ces différents travaux ont permis d'apporter une importante contribution sur les connaissances dans le domaine de l'analyse fonctionnelle et évolutive du déterminisme sexuel chez les algues brunes ainsi qu'une importante actualisation des ressources génomiques du modèle Ectocarpus
Genetically determined sex determination mechanisms, which are controlled by non-recombinant chromosome regions or sex chromosomes, have emerged independently and repeatedly across several eukaryotic lineages. Most of the knowledge acquired in this area has been obtained for a limited number of eukaryotic groups. The availability of a model organism for the brown algae, Ectocarpus, whose genome has been sequenced, allows the development of tools to study these mechanisms in a lineage that is phylogenetically distant from classically studied models. One of the first challenges was to identify the sex chromosomes in Ectocarpus and to carry out a comparative analysis of these genomic structures. Analysis of gene expression in males and females at different stages of the life cycle then allowed the identification of differentially expressed genes. The functions and molecular evolution of these sex-biased genes was then studied. The large amount of data generated during the course of these analyses allowed the establishment of a new version of the genome assembly and refined structural and functional annotation of both coding and non-coding genes in Ectocarpus. This work helped made a significant contribution to knowledge in the field of functional and evolutionary analysis of sex determination in brown algae and a significantly updated the genomic resources available for the model organism Ectocarpus
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Mitran, Mădălina. "Annotation d'images via leur contexte spatio-temporel et les métadonnées du Web". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2399/.

Texto completo
Resumen
En Recherche d'Information (RI), les documents sont classiquement indexés en fonction de leur contenu, qu'il soit textuel ou multimédia. Les moteurs de recherche s'appuyant sur ces index sont aujourd'hui des outils performants, répandus et indispensables. Ils visent à fournir des réponses pertinentes selon le besoin de l'utilisateur, sous forme de textes, images, sons, vidéos, etc. Nos travaux de thèse s'inscrivent dans le contexte des documents de type image. Plus précisément, nous nous sommes intéressés aux systèmes d'annotation automatique d'images qui permettent d'associer automatiquement des mots-clés à des images afin de pouvoir ensuite les rechercher par requête textuelle. Ce type d'annotation cherche à combler les lacunes des approches d'annotation manuelle et semi-automatique. Celles-ci ne sont plus envisageables dans le contexte actuel qui permet à chacun de prendre de nombreuses photos à faible coût (en lien avec la démocratisation des appareils photo numériques et l'intégration de capteurs numériques dans les téléphones mobiles). Parmi les différents types de collections d'images existantes (par exemple, médicales, satellitaires) dans le cadre de cette thèse nous nous sommes intéressés aux collections d'images de type paysage (c. -à-d. Des images qui illustrent des points d'intérêt touristiques) pour lesquelles nous avons identifié des défis, tels que l'identification des nouveaux descripteurs pour les décrire et de nouveaux modèles pour fusionner ces derniers, l'identification des sources d'information pertinentes et le passage à l'échelle. Nos contributions portent sur trois principaux volets. En premier lieu, nous nous sommes attachés à exploiter différents descripteurs qui peuvent influencer la description des images de type paysage : le descripteur de spatialisation (caractérisé par la latitude et la longitude des images), le descripteur de temporalité (caractérisé par la date et l'heure de la prise de vue) et le descripteur de thématique (caractérisé par les tags issus des plate formes de partage d'images). Ensuite, nous avons proposé des approches pour modéliser ces descripteurs au regard de statistiques de tags liées à leur fréquence et rareté et sur des similarités spatiale et temporelle. Deuxièmement, nous avons proposé un nouveau processus d'annotation d'images qui vise à identifier les mots-clés qui décrivent le mieux les images-requêtes données en entrée d'un système d'annotation par un utilisateur. Pour ce faire, pour chaque image-requête nous avons mis en œuvre des filtres spatial, temporel et spatio-temporel afin d'identifier les images similaires ainsi que leurs tags associés. Ensuite, nous avons fédéré les différents descripteurs dans un modèle probabiliste afin de déterminer les termes qui décrivent le mieux chaque image-requête. Enfin, le fait que les contributions présentées ci-dessus s'appuient uniquement sur des informations issues des plateformes de partage d'images (c. -à-d. Des informations subjectives) a suscité la question suivante : les informations issues du Web peuvent-elles fournir des termes objectifs pour enrichir les descriptions initiales des images. À cet effet, nous avons proposé une approche basée sur les techniques d'expansion de requêtes du domaine de la RI. Elle porte essentiellement sur l'étude de l'impact des différents algorithmes d'expansion, ainsi que sur l'agrégation des résultats fournis par le meilleur algorithme et les résultats fournis par le processus d'annotation d'images. Vu qu'il n'existe pas de cadre d'évaluation standard d'annotation automatique d'images, plus particulièrement adapté aux collections d'images de type paysage, nous avons proposé des cadres d'évaluation appropriés afin de valider nos contributions. En particulier, les différentes approches proposées sont évaluées au regard de la modélisation des descripteur de spatialisation, de temporalité et de thématique. De plus, nous avons validé le processus d'annotation d'images, et nous avons montré qu'il surpasse en qualité deux approches d'annotation d'images de la littérature. Nous avons comparé également l'approche d'enrichissement avec le processus d'annotation d'image pour souligner son efficacité et l'apport des informations issues du Web. Ces expérimentations ont nécessité le prototypage du logiciel AnnoTaGT, qui offre aux utilisateurs un cadre technique pour l'annotation automatique d'images
The documents processed by Information Retrieval (IR) systems are typically indexed according to their contents: Text or multimedia. Search engines based on these indexes aim to provide relevant answers to users' needs in the form of texts, images, sounds, videos, and so on. Our work is related to "image" documents. We are specifically interested in automatic image annotation systems that automatically associate keywords to images. Keywords are subsequently used for search purposes via textual queries. The automatic image annotation task intends to overcome the issues of manual and semi-automatic annotation tasks, as they are no longer feasible in nowadays' context (i. E. , the development of digital technologies and the advent of devices, such as smartphones, allowing anyone to take images with a minimal cost). Among the different types of existing image collections (e. G. , medical, satellite) in our work we are interested in landscape image collections for which we identified the following challenges: What are the most discriminant features for this type of images ? How to model and how to merge these features ? What are the sources of information that should be considered ? How to manage scalability issues ? The proposed contribution is threefold. First, we use different factors that influence the description of landscape images: The spatial factor (i. E. , latitude and longitude of images), the temporal factor (i. E. , the time when the images were taken), and the thematic factor (i. E. , tags crowdsourced and contributed to image sharing platforms). We propose various techniques to model these factors based on tag frequency, as well as spatial and temporal similarities. The choice of these factors is based on the following assumptions: A tag is all the more relevant for a query-image as it is associated with images located in its close geographical area ; A tag is all the more relevant for a query-image as it is associated with images captured close in time to it ; sourcing concept). Second, we introduce a new image annotation process that recommends the terms that best describe a given query-image provided by a user. For each query-image we rely on spatial, temporal, and spatio-temporal filters to identify similar images along with their tags. Then, the different factors are merged through a probabilistic model to boost the terms best describing each query-image. Third, the contributions presented above are only based on information extracted from image photo sharing platforms (i. E. , subjective information). This raised the following research question: Can the information extracted from the Web provide objective terms useful to enrich the initial description of images? We tackle this question by introducing an approach relying on query expansion techniques developed in IR. As there is no standard evaluation protocol for the automatic image annotation task tailored to landscape images, we designed various evaluation protocols to validate our contributions. We first evaluated the approaches defined to model the spatial, temporal, and thematic factors. Then, we validated the annotation image process and we showed that it yields significant improvement over two state-of-the-art baselines. Finally, we assessed the effectiveness of tag expansion through Web sources and showed its contribution to the image annotation process. These experiments are complemented by the image annotation prototype AnnoTaGT, which provides users with an operational framework for automatic image annotation
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Er, Ngurah Agus Sanjaya. "Techniques avancées pour l'extraction d'information par l'exemple". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0060.

Texto completo
Resumen
La recherche d’information sur le Web requiert généralement la création d’une requête à partir d’un ensemble de mots-clés et de la soumettre à un moteur de recherche. Le résultat de la recherche, qui est une liste de pages Web, est trié en fonction de la pertinence de chaque page par rapport aux mots clés donnés. Cette méthode classique nécessite de l’utilisateur une connaissance relativement bonne du domaine de l’information ciblée afin de trouver les bons mots-clés. Étant donné une même requête, i.e. liste de mots-clés, les pages renvoyées par le moteur de recherche seraient classées différemment selon l’utilisateur. Sous un autre angle, la recherche d’informations trés précises telles qu’un pays et sa capitale obligerait, sans doute, l’utilisateur à parcourir tous les documents retournées et à lire chaque contenu manuellement. Cela prend non seulement du temps, mais exige également beaucoup d’efforts. Nous abordons dans cette thèse une méthode alternative de recherche d’informations, c’est-à-dire en donnant des exemples parmi les informations recherchées. Tout d’abord, nous essayons d’améliorer la précision de la recherche des méthodes existantes en étendant syntaxiquement les exemples donnés. Ensuite, nous utilisons le paradigme de découverte de la vérité pour classer les résultats renvoyés. Enfin, nous étudions la possibilité d’élargir les exemples sémantiquement en annotant (ou étiquetant) chaque groupe d’éléments des exemples
Searching for information on the Web is generally achieved by constructing a query from a set of keywords and firing it to a search engine. This traditional method requires the user to have a relatively good knowledge of the domain of the targeted information to come up with the correct keywords. The search results, in the form of Web pages, are ranked based on the relevancy of each Web page to the given keywords. For the same set of keywords, the Web pages returned by the search engine would be ranked differently depending on the user. Moreover, finding specific information such as a country and its capital city would require the user to browse through all the documents and reading its content manually. This is not only time consuming but also requires a great deal of effort. We address in this thesis an alternative method of searching for information, i.e. by giving examples of the information in question. First, we try to improve the accuracy of the search by example systems by expanding the given examples syntactically. Next, we use truth discovery paradigm to rank the returned query results. Finally, we investigate the possibility of expanding the examples semantically through labelling each group of elements of the examples
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Bocquet, Aurelien. "Infrastructure logicielle multi-modèles pour l'accès à des servcies en mobilité". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00357495.

Texto completo
Resumen
Les intergiciels sont aujourd'hui incontournables lorsqu'il s'agit de développer des applications réparties. Des simples Web Services aux architectures n-tiers, d'une unique communication client / serveur à un réseau dynamique pair-à-pair, chaque conception requiert des outils adaptés et performants. En complément de chaque utilisation spécifique des intergiciels, leur contexte de déploiement nécessite des mécanismes particuliers afin de s'adapter au mieux à la situation.

Face à ces besoins, les intergiciels proposent des modèles de programmation et de communication différents, fournissant des moyens de communication efficaces dans certaines situations.

La mobilité introduit une problématique supplémentaire pour ces intergiciels. D'une part l'interopérabilité devient inévitable ; le nombre de composants répartis susceptibles d'être utilisés en mobilité est immense, et les composants peuvent être développés avec différents intergiciels. D'autre part le contexte varie, et avec lui les conditions et capacités de communication évoluent.

Nous traitons dans cette thèse des impératifs actuels d'un intergiciel en mobilité. Nous proposons pour cela une approche multi-modèles, basée sur les travaux actuels dans ce domaine, et présentant des concepts novateurs.

Cette approche se compose d'un modèle de programmation générique, proposant différents types de communications synchrones, asynchrones, et basées sur des patrons de conception. Elle se compose également d'une combinaison de modèles de communication, assurant l'interopérabilité avec les intergiciels standards, et offrant des possibilités de communications enrichies, capables de s'adapter aux changements de contextes.
Des politiques d'adaptation définissent les règles de combinaison des modèles en fonction d'observations du contexte, afin de se comporter au mieux face à ses évolutions.
Des mécanismes d'adaptation dynamique permettent à notre approche de proposer une prise en compte en temps réel des changements de contexte, et permettent également de reconfigurer le système pendant son exécution afin de répondre à des besoins de déploiement.

Nous avons validé notre approche au travers d'une application concrète aux problèmes engendrés par l'utilisation d'un proxy Internet à bord des trains : le développement d'un greffon multi-modèles a illustré et justifié notre approche, et l'évaluation de ce greffon a montré les bénéfices de celle-ci face aux changements de contexte.
Pour implémenter entièrement notre approche et proposer ainsi un intergiciel multi-modèles, nous avons conçu et développé notre infrastructure logicielle multi-modèles, proposant tous les concepts de l'approche. Une première version "statique" puis une version finale offrant les mécanismes d'adaptation dynamique ont été implémentées et permettent ainsi de profiter des bénéfices de notre approche multi-modèles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Cormier, Alexandre. "Le modèle algue brune pour l'analyse fonctionnelle et évolutive du déterminisme sexuel". Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066646.pdf.

Texto completo
Resumen
Les mécanismes de détermination génétique du sexe, qui requièrent la présence de régions chromosomiques non recombinantes ou bien de chromosomes sexuels, ont émergé de manière indépendante et répétée au sein de plusieurs lignées d'eucaryotes. La plupart des connaissances acquises dans ce domaine portent sur un nombre limité de groupes d'eucaryotes. La disponibilité d'une espèce modèle pour le groupe des algues brunes, Ectocarpus siliculosus, dont le génome a été séquencé, permet de disposer des outils nécessaires pour étudier ces mécanismes au sein d'une lignée phylogénétiquement éloignée des modèles classiquement étudiés. L'un des premiers défis a été d'identifier les chromosomes sexuels dans le génome d'E. siliculosus et de réaliser l'analyse comparative de ces structures. Par la suite, l'analyse de l'expression des gènes entre individus mâles et femelles à différents stades du cycle de vie a permis d'identifier les gènes différentiellement exprimés, de caractériser leurs fonctions et d'analyser leur évolution moléculaire. Les nombreuses données générées afin de réaliser ces différentes analyses ont permis de proposer une nouvelle version de l'assemblage du génome et de l'annotation structurale et fonctionnelle de l'ensemble des gènes codants et non-codants d'E. siliculosus. Ces différents travaux ont permis d'apporter une importante contribution sur les connaissances dans le domaine de l'analyse fonctionnelle et évolutive du déterminisme sexuel chez les algues brunes ainsi qu'une importante actualisation des ressources génomiques du modèle Ectocarpus
Genetically determined sex determination mechanisms, which are controlled by non-recombinant chromosome regions or sex chromosomes, have emerged independently and repeatedly across several eukaryotic lineages. Most of the knowledge acquired in this area has been obtained for a limited number of eukaryotic groups. The availability of a model organism for the brown algae, Ectocarpus, whose genome has been sequenced, allows the development of tools to study these mechanisms in a lineage that is phylogenetically distant from classically studied models. One of the first challenges was to identify the sex chromosomes in Ectocarpus and to carry out a comparative analysis of these genomic structures. Analysis of gene expression in males and females at different stages of the life cycle then allowed the identification of differentially expressed genes. The functions and molecular evolution of these sex-biased genes was then studied. The large amount of data generated during the course of these analyses allowed the establishment of a new version of the genome assembly and refined structural and functional annotation of both coding and non-coding genes in Ectocarpus. This work helped made a significant contribution to knowledge in the field of functional and evolutionary analysis of sex determination in brown algae and a significantly updated the genomic resources available for the model organism Ectocarpus
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Tirilly, Pierre. "Traitement automatique des langues pour l'indexation d'images". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00516422.

Texto completo
Resumen
Bien que s'inscrivant dans un cadre global de recherche d'information (RI) classique, l'indexation d'image ne tire que peu parti des nombreux travaux existants en RI textuelle et en traitement automatique des langues (TAL). Nous identifions deux niveaux auxquels de tels travaux peuvent s'intégrer aux systèmes d'indexation d'images. Le premier niveau est celui de la description du contenu visuel des images. Pour y intégrer des techniques de TAL, nous adoptons la description des images par mots visuels proposée par Sivic et Zisserman. Cette représentation soulève deux problématiques similaires aux problématiques classiques de la RI textuelle~: le choix des termes d'indexation les plus pertinents pour décrire les documents et la prise en compte des relations entre ces termes. Pour répondre à la première de ces problématiques nous proposons une étude des stop-lists et des pondérations dans le cadre de l'indexation d'images. Cette étude montre que, contrairement au cas des textes, il n'existe pas de pondération optimale pour tous types de requêtes, et que la pondération doit être choisie en fonction de la requête. Pour la seconde, nous utilisons des modèles de langues, outil classique du TAL que nous adaptons au cas des images, pour dépasser l'hypothèse d'indépendance des termes dans un cadre de classification d'images. Nos expérimentations montrent que prendre en compte des relations géométriques entre mots visuels permet d'améliorer les performances des systèmes. Le second niveau étudié est l'indexation sémantique des images : il est possible d'utiliser des méthodes de TAL sur des textes accompagnant les images pour obtenir des descriptions textuelles de celles-ci. Dans un premier temps, nous montrons que les descripteurs classiques d'images ne permettent pas d'obtenir des systèmes d'annotation d'images efficaces. Puis nous proposons une méthode d'annotation qui contourne cet écueil en se basant sur des descripteurs textuels et visuels de haut-niveau~: nous extrayons des textes des entités nommées, que nous mettons en relation avec des concepts visuels détectés dans les images afin d'annoter celles-ci. Nous validons notre approche sur un corpus réel et de grande taille composé d'articles de presse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Tirilly, Pierre. "Traitement automatique des langues pour l'indexation d'images". Phd thesis, Rennes 1, 2010. http://www.theses.fr/2010REN1S045.

Texto completo
Resumen
Nous nous intéressons, dans cette thèse, à l'usage du traitement automatique des langues (TAL) dans les systèmes d'indexation d'images. Au niveau de la description du contenu visuel des images, nous nous appuyons sur la description des images sous forme de mots visuels, qui pose des problématiques similaires à celles de l'indexation textuelle. Nous utilisons des méthodes de TAL (pondérations et stop-lists) afin de déterminer les mots visuels pertinents, puis nous utilisons les modèles de langues pour prendre en compte certaines relations géométriques entre mots visuels. Au niveau de la description du contenu sémantique des images, nous proposons une méthode d'annotation d'images basée sur l'extraction d'entités nommées pertinentes dans des textes accompagnant les images à annoter
In this thesis, we propose to integrate natural language processing (NLP) techniques in image indexing systems. We first address the issue of describing the visual content of images. We rely on the visual word-based image description, which raises problems that are well known in the text indexing field. First, we study various NLP methods (weighting schemes and stop-lists) to automatically determine which visual words are relevant to describe the images. Then we use language models to take account of some geometrical relations between the visual words. We also address the issue of describing the semantic content of images: we propose an image annotation scheme that relies on extracting relevant named entities from texts coming with the images to annotate
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Guillaumin, Matthieu. "Données multimodales pour l'analyse d'image". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM048.

Texto completo
Resumen
La présente thèse s'intéresse à l'utilisation de méta-données textuelles pour l'analyse d'image. Nous cherchons à utiliser ces informations additionelles comme supervision faible pour l'apprentissage de modèles de reconnaissance visuelle. Nous avons observé un récent et grandissant intérêt pour les méthodes capables d'exploiter ce type de données car celles-ci peuvent potentiellement supprimer le besoin d'annotations manuelles, qui sont coûteuses en temps et en ressources. Nous concentrons nos efforts sur deux types de données visuelles associées à des informations textuelles. Tout d'abord, nous utilisons des images de dépêches qui sont accompagnées de légendes descriptives pour s'attaquer à plusieurs problèmes liés à la reconnaissance de visages. Parmi ces problèmes, la vérification de visages est la tâche consistant à décider si deux images représentent la même personne, et le nommage de visages cherche à associer les visages d'une base de données à leur noms corrects. Ensuite, nous explorons des modèles pour prédire automatiquement les labels pertinents pour des images, un problème connu sous le nom d'annotation automatique d'image. Ces modèles peuvent aussi être utilisés pour effectuer des recherches d'images à partir de mots-clés. Nous étudions enfin un scénario d'apprentissage multimodal semi-supervisé pour la catégorisation d'image. Dans ce cadre de travail, les labels sont supposés présents pour les données d'apprentissage, qu'elles soient manuellement annotées ou non, et absentes des données de test. Nos travaux se basent sur l'observation que la plupart de ces problèmes peuvent être résolus si des mesures de similarité parfaitement adaptées sont utilisées. Nous proposons donc de nouvelles approches qui combinent apprentissage de distance, modèles par plus proches voisins et méthodes par graphes pour apprendre, à partir de données visuelles et textuelles, des similarités visuelles spécifiques à chaque problème. Dans le cas des visages, nos similarités se concentrent sur l'identité des individus tandis que, pour les images, elles concernent des concepts sémantiques plus généraux. Expérimentalement, nos approches obtiennent des performances à l'état de l'art sur plusieurs bases de données complexes. Pour les deux types de données considérés, nous montrons clairement que l'apprentissage bénéficie de l'information textuelle supplémentaire résultant en l'amélioration de la performance des systèmes de reconnaissance visuelle
This dissertation delves into the use of textual metadata for image understanding. We seek to exploit this additional textual information as weak supervision to improve the learning of recognition models. There is a recent and growing interest for methods that exploit such data because they can potentially alleviate the need for manual annotation, which is a costly and time-consuming process. We focus on two types of visual data with associated textual information. First, we exploit news images that come with descriptive captions to address several face related tasks, including face verification, which is the task of deciding whether two images depict the same individual, and face naming, the problem of associating faces in a data set to their correct names. Second, we consider data consisting of images with user tags. We explore models for automatically predicting tags for new images, i. E. Image auto-annotation, which can also used for keyword-based image search. We also study a multimodal semi-supervised learning scenario for image categorisation. In this setting, the tags are assumed to be present in both labelled and unlabelled training data, while they are absent from the test data. Our work builds on the observation that most of these tasks can be solved if perfectly adequate similarity measures are used. We therefore introduce novel approaches that involve metric learning, nearest neighbour models and graph-based methods to learn, from the visual and textual data, task-specific similarities. For faces, our similarities focus on the identities of the individuals while, for images, they address more general semantic visual concepts. Experimentally, our approaches achieve state-of-the-art results on several standard and challenging data sets. On both types of data, we clearly show that learning using additional textual information improves the performance of visual recognition systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Guillaumin, Matthieu. "Données multimodales pour l'analyse d'image". Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00522278/en/.

Texto completo
Resumen
La présente thèse s'intéresse à l'utilisation de méta-données textuelles pour l'analyse d'image. Nous cherchons à utiliser ces informations additionelles comme supervision faible pour l'apprentissage de modèles de reconnaissance visuelle. Nous avons observé un récent et grandissant intérêt pour les méthodes capables d'exploiter ce type de données car celles-ci peuvent potentiellement supprimer le besoin d'annotations manuelles, qui sont coûteuses en temps et en ressources. Nous concentrons nos efforts sur deux types de données visuelles associées à des informations textuelles. Tout d'abord, nous utilisons des images de dépêches qui sont accompagnées de légendes descriptives pour s'attaquer à plusieurs problèmes liés à la reconnaissance de visages. Parmi ces problèmes, la vérification de visages est la tâche consistant à décider si deux images représentent la même personne, et le nommage de visages cherche à associer les visages d'une base de données à leur noms corrects. Ensuite, nous explorons des modèles pour prédire automatiquement les labels pertinents pour des images, un problème connu sous le nom d'annotation automatique d'image. Ces modèles peuvent aussi être utilisés pour effectuer des recherches d'images à partir de mots-clés. Nous étudions enfin un scénario d'apprentissage multimodal semi-supervisé pour la catégorisation d'image. Dans ce cadre de travail, les labels sont supposés présents pour les données d'apprentissage, qu'elles soient manuellement annotées ou non, et absentes des données de test. Nos travaux se basent sur l'observation que la plupart de ces problèmes peuvent être résolus si des mesures de similarité parfaitement adaptées sont utilisées. Nous proposons donc de nouvelles approches qui combinent apprentissage de distance, modèles par plus proches voisins et méthodes par graphes pour apprendre, à partir de données visuelles et textuelles, des similarités visuelles spécifiques à chaque problème. Dans le cas des visages, nos similarités se concentrent sur l'identité des individus tandis que, pour les images, elles concernent des concepts sémantiques plus généraux. Expérimentalement, nos approches obtiennent des performances à l'état de l'art sur plusieurs bases de données complexes. Pour les deux types de données considérés, nous montrons clairement que l'apprentissage bénéficie de l'information textuelle supplémentaire résultant en l'amélioration de la performance des systèmes de reconnaissance visuelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Daoust, François. "Modélisation informatique de structures dynamiques de segments textuels pour l'analyse de corpus". Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00870410.

Texto completo
Resumen
L'objectif de la thèse est de proposer un modèle informatique pour représenter, construire et exploiterdes structures textuelles. Le modèle proposé s'appuie sur une représentation du texte sous la forme d'unplan lexique/occurrences augmenté de systèmes d'annotations lexicales et contextuelles, modèle dontune implantation a été réalisée dans le logiciel SATO dont on présente les fonctionnalités etl'organisation interne. La présentation d'un certain nombre de travaux rendent compte dudéveloppement et de l'utilisation du logiciel dans divers contextes.La prise en charge formelle des structures textuelles et discursives trouve un allié dans le langage debalisage XML et dans les propositions de la Text Encoding Initiative (TEI). Formellement, lesstructures construites sur les segments textuels correspondent à des graphes. Dans le contexte d'uneanalyse textuelle en élaboration, ces graphes sont multiples et partiellement déployés. La résolution deces graphes, au sens du rattachement des noeuds à des segments textuels ou à des noeuds d'autresgraphes, est un processus dynamique qui peut être soutenu par divers mécanismes informatiques. Desexemples tirés de la linguistique textuelle servent à illustrer les principes de l'annotation structurelle.Des considérations prospectives sur une implantation informatique d'un système de gestion del'annotation structurelle sont aussi exposées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Dubuisson, Duplessis Guillaume. "Modèle de comportement communicatif conventionnel pour un agent en interaction avec des humains : Approche par jeux de dialogue". Phd thesis, INSA de Rouen, 2014. http://tel.archives-ouvertes.fr/tel-01017542.

Texto completo
Resumen
Cette thèse a pour objectif l'amélioration des capacités communicatives des agents logiciels en interaction avec des humains. Dans ce but, nous proposons une méthodologie basée sur l'étude d'un corpus d'interactions Homme-Homme orientées vers la réalisation d'une tâche. Nous proposons un cadre qui s'appuie sur les jeux de dialogue afin de modéliser des motifs dialogiques observés. Nous illustrons la spécification de tels jeux depuis des motifs extraits en appliquant l'ensemble des étapes de noter méthodologie à un corpus. Les jeux spécifiés sont validés en montrant qu'ils décrivent de façon appropriée les motifs apparaissant dans le corpus de référence. Enfin, nous montrons l'intérêt interprétatif et génératif de notre modèle pour le fondement du comportement communicatif conventionnel d'un agent interagissant avec un humain. Nous implémentons ce modèle dans le module Dogma, exploitable par un agent dans un dialogue impliquant deux interlocuteurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Thuilier, Juliette. "Contraintes préférentielles et ordre des mots en français". Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00781228.

Texto completo
Resumen
Cette thèse propose une approche expérimentale de la linguistique à travers l'étude de la notion de contrainte préférentielle et son application à deux phénomènes d'ordre en français : la position de l'adjectif épithète ainsi que l'ordre relatif des deux compléments sous-catégorisés par le verbe et apparaissant en position postverbale. Les contraintes préférentielles sont définies comme des contraintes qui n'affectent pas la grammaticalité mais l'acceptabilité des phrases. Nous émettons l'hypothèse selon laquelle ces contraintes constituent des propriétés spécifiques à la langue dont il faut rendre compte dans le champ de la linguistique. Sur le plan méthodologique, l'étude de ces contraintes est rendue problématique par leur nature : étant donné qu'elles n'agissent pas sur la grammaticalité des phrases, elles échappent aux méthodes traditionnelles de la syntaxe (introspection et jugement de grammaticalité). Il est donc nécessaire de définir des outils permettant leur description et leur analyse. Les méthodes envisagées sont l'analyse statistique de données de corpus, inspirée des travaux de Bresnan et al. (2007) et de Bresnan & Ford (2010), et, dans une moindre mesure, l'expérimentation psycholinguistique. En ce qui concerne la position de l'adjectif, nous testons la plupart des contraintes rencontrées dans la littérature et nous proposons une analyse statistique de données extraites du corpus French Treebank. Nous montrons notamment l'importance de l'item adjectival ainsi que de l'item nominal avec lequel il se combine. Certaines contraintes syntaxiques concernant la configuration du syntagme adjectival et du syntagme nominal jouent également un rôle dans le choix de la position. Le travail concernant l'ordre relatif des compléments du verbe est mené sur un échantillon de phrases extraites de deux corpus journalistiques (French Treebank et Est-Républicain) et de deux corpus d'oral (ESTER et C-ORAL-ROM). Nous montrons l'importante influence du poids des constituants dans le choix de l'ordre : l'ordre court avant long, caractéristique d'une langue SVO comme le français, est respecté dans plus de 86% des cas. Nous mettons également à jour le rôle fondamental du lemme verbal associé à sa classe sémantique, annotée à partir du dictionnaire de Dubois & Dubois-Charlier (1997). Enfin, en nous appuyant sur l'analyse des données de corpus ainsi que sur deux questionnaires d'élicitation de jugement d'acceptabilité, il semble que ni caractère animé, ni l'opposition 'donné/nouveau' (Prince, 1981) n'ait une influence sur l'ordre des compléments, ce qui semble aller à l'encontre d'observations faites dans d'autres langues comme l'anglais ou l'allemand.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Mille, Dominique. "Modèles et outils logiciels pour l'annotation sémantiquede documentspédagogiques". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00011468.

Texto completo
Resumen
Cette thèse s'intéresse aux annotations produites par des apprenants sur des documents électroniques. Les annotations sont utiles tant pour mémoriser une démarche de compréhension que pour retrouver facilement des informations. Nous remarquons que l'annotation électronique est peu pratiquée en raison des inconforts de lecture et d'annotation. De plus les annotations sont porteuses d'une sémantique implicite, perdue lors des réutilisations, comme par exemple des liens entre couleur et objectif de l'annotation. Dans ce contexte, notre objectif est de proposer des formalismes et des outils efficaces pour l'annotation électronique de ressources pédagogiques par des apprenants. Cette efficacité signifie que les dispositifs doivent être adaptés aux niveaux logiciel et matériel, qu'ils anticipent les réutilisations pour éviter l'impression systématique des documents, et qu'ils offrent les avantages d'un traitement informatisé. Elle signifie également que les annotations doivent être conservées dans leur intégralité : il est donc nécessaire d'expliciter leur sémantique tant au niveau d'une représentation formelle qu'au niveau d'un annoteur.
Plus précisément, notre travail comporte une proposition de représentation formelle de l'annotation, que nous implantons et testons lors d'expérimentations écologiques. En résultat, nous produisons une spécification d'annoteur efficace basé sur les métaphores du papier et de la trousse : le lecteur conserve ses habitudes papier lors de la lecture et de la création et il bénéficie des avantages d'un traitement informatisé pour la valuation, la recherche et le partage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Azouaou, Faical. "Modèles et outils d'annotations pour une mémoire personnelle de l'enseignant". Phd thesis, 2006. http://tel.archives-ouvertes.fr/tel-00118602.

Texto completo
Resumen
Dans le cadre des recherches sur les environnements informatiques pour l'apprentissage humain, cette thèse vise à définir et proposer à l'enseignant une mémoire informatisée comme outil de gestion de connaissances personnelles. Cette mémoire est construite a partir des annotations de l'enseignant sur les documents pédagogiques.
La mémoire résultante étend les capacités cognitives de l'enseignant en l'assistant dans la gestion de ses connaissances personnelles, nécessaires à la réalisation de ses activités de manière non intrusive.
La prise en compte des particularités de l'activité d'enseignement (connaissances impliquées, contexte de l'activité...) dans les modèles de la mémoire permet d'obtenir une mémoire qui est en même temps dédiée a l'activité d'enseignement et s'adapte au contexte de cette activité.
Deux versions de l'outil sont développées : une version mobile et une version web (implémentée par l'entreprise Pentila) intégrable dans un ENT.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Gerin, P. "Modèles de simulation pour la validation logicielle et l'exploration d'architectures des systèmes multiprocesseurs sur puce". Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00558777.

Texto completo
Resumen
Les systèmes sur puces actuels mettent à profit des architectures multiprocesseurs (MPSoC) afin de répondre aux exigences en termes de performances et de consommation. Cette dominance du logiciel nous contraint à débuter la validation et l'intégration avec le matériel dès les premières étapes des flots de conception. Les principales contributions de cette thèse sont (1) la proposition d'une méthodologie de conception de plateformes de simulation basée sur l'exécution native du logiciel, (2) une technique d'instrumentation permettant l'annotation du logiciel s'exécutant sur cette plateforme de simulation. Les plateformes de simulation ainsi développées permettent l'exécution de la quasi totalité du logiciel final (y compris le système d'exploitation) sur des modèles réalistes de l'architecture matérielle du système. Associées à la technique d'instrumentation, ces plateformes permettent de prendre en compte de manière précise des grandeurs physiques telles que le temps liées à l'exécution du logiciel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Rouane, Khalid. "Théorie et pratique de la construction humaine supervisée du sens". Thèse, 2004. http://hdl.handle.net/1866/14565.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía