Dissertations / Theses on the topic 'Intégration de données de peptidomique'

To see the other types of publications on this topic, follow the link: Intégration de données de peptidomique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intégration de données de peptidomique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Suwareh, Ousmane. "Modélisation de la pepsinolyse in vitro en conditions gastriques et inférence de réseaux de filiation de peptides à partir de données de peptidomique." Electronic Thesis or Diss., Rennes, Agrocampus Ouest, 2022. https://tel.archives-ouvertes.fr/tel-04059711.

Full text
Abstract:
Pour faire face aux enjeux démographiques actuels, aux « maladies de civilisation » et à la possible raréfaction des ressources alimentaires, il est impératif d’optimiser l’utilisation effective des aliments et d’adapter leur conception aux besoins spécifiques des différentes populations. Cela demande d’accroître notre compréhension des différentes étapes de la digestion. En particulier, en raison du rôle majeur des protéines dans notre alimentation, leur devenir au cours de la digestion est au coeur des préoccupations. Or, les lois probabilistes qui régissent l’action de la pepsine, première protéase à agir dans le tractus gastro-intestinal, ne sont pas encore clairement identifiées.Dans une première approche s’appuyant sur des données de peptidomique, nous démontrons que l’hydrolyse parla pepsine d’une liaison peptidique dépend de la nature des résidus d’acides aminés dans son large voisinage, mais aussi de variables physicochimiques et de structure décrivant son environnement. Nous proposons dans un second temps, tenant compte de l’environnement physicochimique à l’échelle de séquences peptidiques, un modèle non-paramétrique de l’hydrolyse de ces séquences par la pepsine et un algorithme d’estimation de type Expectation-Maximisation, offrant des perspectives de valorisation des données de peptidomique. Dans cette approche dynamique, nous intégrons les réseaux de filiation des peptides dans la procédure d’estimation, ce qui conduit à un modèle plus parcimonieux et plus pertinent au regard des interprétations biologiques
Addressing the current demographic challenges, “civilization diseases” and the possible depletion of food resources, require optimization of food utilization and adapting their conception to the specific needs of each target population. This requires a better understanding of the different stages of the digestion process. In particular, how proteins are hydrolyzed is a major issue, due to their crucial role in human nutrition. However, the probabilistic laws governing the action of pepsin, the first protease to act in the gastrointestinal tract, are still unclear.In a first approach based on peptidomic data, we demonstrate that the hydrolysis by pepsin of a peptidebond depends on the nature of the amino acid residues in its large neighborhood, but also on physicochemical and structural variables describing its environment. In a second step, and considering the physicochemical environment at the peptide level, we propose a nonparametric model of the hydrolysis by pepsin of these peptides, and an Expectation-Maximization type estimation algorithm, offering novel perspectives for the valorization of peptidomic data. In this dynamic approach, we integrate the peptide kinship network into the estimation procedure, which leads to a more parsimonious model that is also more relevant regarding biological interpretations
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Béchec Antony. "Gestion, analyse et intégration des données transcriptomiques." Rennes 1, 2007. http://www.theses.fr/2007REN1S051.

Full text
Abstract:
Dans le cadre de l'étude des mécanismes moléculaires impliqués dans les processus biologiques liés aux pathologies, la transcriptomique permet d’étudier l’expression de plusieurs milliers de gènes en une seule expérience. Les standards internationaux permettent actuellement de gérer la grande quantité de données générées par cette technologie et de nombreux algorithmes permettent le traitement et l’analyse des données d’expression. Le grand défi d’aujourd’hui réside dans l’interprétation des données, notamment par l’intégration de connaissances biologiques supplémentaires permettant la création d’un contexte d’étude aidant à la compréhension des mécanismes biologiques. Afin de répondre aux besoins liés à l’exploitation de ces données transcriptomiques, un environnement complet et évolutif a été développé, M@IA (Micro@rray Integrated Application), permettant de gérer les expériences de puces à ADN mais également traiter et analyser les données d’expression. Une méthode de biologie intégrative combinant de multiples sources de données a été conçue pour exploiter des listes de gènes différentiellement exprimés par l’interprétation de réseaux de gènes représentés sous forme de graphes d’interaction. Egalement, une méthode de méta-analyse de données d’expression de gènes issues de la bibliographie a permis de sélectionner et combiner des études similaires associées à la progression tumorale du foie. En conclusion, ces travaux s’intègrent totalement à l’actuel développement de la biologie intégrative, indispensable à la résolution des mécanismes physiopathologiques
Aiming at a better understanding of diseases, transcriptomic approaches allow the analysis of several thousands of genes in a single experiment. To date, international standard initiatives have allowed the utilization of large quantity of data generated using transcriptomic approaches by the whole scientific community, and a large number of algorithms are available to process and analyze the data sets. However, the major challenge remaining to tackle is now to provide biological interpretations to these large sets of data. In particular, their integration with additional biological knowledge would certainly lead to an improved understanding of complex biological mechanisms. In my thesis work, I have developed a novel and evolutive environment for the management and analysis of transcriptomic data. Micro@rray Integrated Application (M@IA) allows for management, processing and analysis of large scale expression data sets. In addition, I elaborated a computational method to combine multiple data sources and represent differentially expressed gene networks as interaction graphs. Finally, I used a meta-analysis of gene expression data extracted from the literature to select and combine similar studies associated with the progression of liver cancer. In conclusion, this work provides a novel tool and original analytical methodologies thus contributing to the emerging field of integrative biology and indispensable for a better understanding of complex pathophysiological processes
APA, Harvard, Vancouver, ISO, and other styles
3

Saïs, Fatiha. "Intégration sémantique de données guidée par une ontologie." Paris 11, 2007. http://www.theses.fr/2007PA112300.

Full text
Abstract:
Dans cette thèse, nous traitons du problème d'intégration sémantique de données. L’objectif est de pouvoir combiner des sources de données autonomes et hétérogènes. Pour y parvenir, toutes les données doivent être représentées selon un même schéma et selon une sémantique unifiée. Cette thèse est articulée en deux parties relativement indépendantes. La première présente une méthode automatique et flexible de réconciliation de données avec une ontologie dans le cas où les données sont représentées dans des tableaux. Pour représenter le résultat de la réconciliation, nous avons défini le format SML dont l’originalité est de permettre de représenter tous les appariements trouvés mais également les informations imparfaitement identifiées. La seconde partie présente deux méthodes de réconciliation de références décrites relativement à un même schéma. Il s’agit de décider si des descriptions différentes se réfèrent à la même entité du monde réel. La première méthode, nommée L2R, est logique. La sémantique des données et du schéma y est traduite par un ensemble de règles de (non) réconciliation permettant d’inférer des décisions de (non) réconciliation certaines. La seconde, nommée N2R, est numérique. Dans cette méthode, la sémantique du schéma est traduite par une mesure de similarité informée utilisée pour calculer la similarité des paires de références. Ce calcul est exprimé dans un système d’équations non linéaire résolu par une méthode itérative. Ces méthodes obtiennent des résultats satisfaisants sur des données réelles, ce qui montre la faisabilité d’approches complètement automatiques et guidées uniquement par une ontologie pour ces deux problèmes de réconciliation
This thesis deals with semantic data integration guided by an ontology. Data integration aims at combining autonomous and heterogonous data sources. To this end, all the data should be represented according to the same schema and according to a unified semantics. This thesis is divided into two parts. In the first one, we present an automatic and flexible method for data reconciliation with an ontology. We consider the case where data are represented in tables. The reconciliation result is represented in the SML format which we have defined. Its originality stems from the fact that it allows representing all the established mappings but also information that is imperfectly identified. In the second part, we present two methods of reference reconciliation. This problem consists in deciding whether different data descriptions refer to the same real world entity. We have considered this problem when data is described according to the same schema. The first method, called L2R, is logical: it translates the schema and the data semantics into a set of logical rules which allow inferring correct decisions both of reconciliation and no reconciliation. The second method, called N2R, is numerical. It translates the schema semantics into an informed similarity measure used by a numerical computation of the similarity of the reference pairs. This computation is expressed in a non linear equation system solved by using an iterative method. Our experiments on real datasets demonstrated the robustness and the feasibility of our approaches. The solutions that we bring to the two problems of reconciliation are completely automatic and guided only by an ontology
APA, Harvard, Vancouver, ISO, and other styles
4

Delanaux, Rémy. "Intégration de données liées respectueuse de la confidentialité." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1303.

Full text
Abstract:
La confidentialité des données personnelles est un souci majeur et un problème peu étudié pour la publication de données dans le Web des données ouvertes (ou LOD cloud, pour Linked Open Data cloud) . Ce nuage formé par le LOD est un réseau d'ensembles de données interconnectés et accessibles publiquement sous la forme de graphes de données modélisés dans le format RDF, et interrogés via des requêtes écrites dans le langage SPARQL. Ce cadre très standardisé est très utilisé de nos jours par des organismes publics et des entreprises. Mais certains acteurs notamment du secteur privé sont toujours réticents à la publication de leurs données, découragés par des soucis potentiels de confidentialité. Pour pallier cela, nous présentons et développons un cadre formel déclaratif pour la publication de données liées respectant la confidentialité, dans lequel les contraintes de confidentialité et d'utilité des données sont spécifiées sous forme de politiques (des ensembles de requêtes SPARQL). Cette approche est indépendante des données et du graphe considéré, et consiste en l'analyse statique d'une politique de confidentialité et d'une politique d'utilité pour déterminer des séquences d'opérations d'anonymization à appliquer à n'importe quel graphe RDF pour satisfaire les politiques fournies. Nous démontrons la sûreté de nos algorithmes et leur efficacité en terme de performance via une étude expérimentale. Un autre aspect à prendre en compte est qu'un nouveau graphe publié dans le nuage LOD est évidemment exposé à des failles de confidentialité car il peut être relié à des données déjà publiées dans d'autres données liées. Dans le second volet de cette thèse, nous nous concentrons donc sur le problème de construction d'anonymisations *sûres* d'un graphe RDF garantissant que relier le graphe anonymisé à un graphe externe quelconque ne causera pas de brèche de confidentialité. En prenant un ensemble de requêtes de confidentialité en entrée, nous étudions le problème de sûreté indépendamment des données du graphe, et la construction d'une séquence d'opérations d'anonymisation permettant d'assurer cette sûreté. Nous détaillons des conditions suffisantes sous lesquelles une instance d'anonymisation est sûre pour une certaine politique de confidentialité fournie. Par ailleurs, nous montrons que nos algorithmes sont robustes même en présence de liens de type sameAs (liens d'égalité entre entités en RDF), qu'ils soient explicites ou inférés par de la connaissance externe. Enfin, nous évaluons l'impact de cette contribution assurant la sûreté de données en la testant sur divers graphes. Nous étudions notamment la performance de cette solution et la perte d'utilité causée par nos algorithmes sur des données RDF réelles comme synthétiques. Nous étudions d'abord les diverses mesures d'utilité existantes et nous en choisissons afin de comparer le graphe original et son pendant anonymisé. Nous définissons également une méthode pour générer de nouvelles politiques de confidentialité à partir d'une politique de référence, via des modifications incrémentales. Nous étudions le comportement de notre contribution sur 4 graphes judicieusement choisis et nous montrons que notre approche est efficace avec un temps très faible même sur de gros graphes (plusieurs millions de triplets). Cette approche est graduelle : le plus spécifique est la politique de confidentialité, le plus faible est son impact sur les données. Pour conclure, nous montrons via différentes métriques structurelles (adaptées aux graphes) que nos algorithmes ne sont que peu destructeurs, et cela même quand les politiques de confidentialité couvrent une grosse partie du graphe
Individual privacy is a major and largely unexplored concern when publishing new datasets in the context of Linked Open Data (LOD). The LOD cloud forms a network of interconnected and publicly accessible datasets in the form of graph databases modeled using the RDF format and queried using the SPARQL language. This heavily standardized context is nowadays extensively used by academics, public institutions and some private organizations to make their data available. Yet, some industrial and private actors may be discouraged by potential privacy issues. To this end, we introduce and develop a declarative framework for privacy-preserving Linked Data publishing in which privacy and utility constraints are specified as policies, that is sets of SPARQL queries. Our approach is data-independent and only inspects the privacy and utility policies in order to determine the sequence of anonymization operations applicable to any graph instance for satisfying the policies. We prove the soundness of our algorithms and gauge their performance through experimental analysis. Another aspect to take into account is that a new dataset published to the LOD cloud is indeed exposed to privacy breaches due to the possible linkage to objects already existing in the other LOD datasets. In the second part of this thesis, we thus focus on the problem of building safe anonymizations of an RDF graph to guarantee that linking the anonymized graph with any external RDF graph will not cause privacy breaches. Given a set of privacy queries as input, we study the data-independent safety problem and the sequence of anonymization operations necessary to enforce it. We provide sufficient conditions under which an anonymization instance is safe given a set of privacy queries. Additionally, we show that our algorithms are robust in the presence of sameAs links that can be explicit or inferred by additional knowledge. To conclude, we evaluate the impact of this safety-preserving solution on given input graphs through experiments. We focus on the performance and the utility loss of this anonymization framework on both real-world and artificial data. We first discuss and select utility measures to compare the original graph to its anonymized counterpart, then define a method to generate new privacy policies from a reference one by inserting incremental modifications. We study the behavior of the framework on four carefully selected RDF graphs. We show that our anonymization technique is effective with reasonable runtime on quite large graphs (several million triples) and is gradual: the more specific the privacy policy is, the lesser its impact is. Finally, using structural graph-based metrics, we show that our algorithms are not very destructive even when privacy policies cover a large part of the graph. By designing a simple and efficient way to ensure privacy and utility in plausible usages of RDF graphs, this new approach suggests many extensions and in the long run more work on privacy-preserving data publishing in the context of Linked Open Data
APA, Harvard, Vancouver, ISO, and other styles
5

Megdiche, Bousarsar Imen. "Intégration holistique et entreposage automatique des données ouvertes." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30214/document.

Full text
Abstract:
Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations
Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations
APA, Harvard, Vancouver, ISO, and other styles
6

Grison, Thierry. "Intégration de schémas de bases de données entité-association." Dijon, 1994. http://www.theses.fr/1994DIJOS005.

Full text
Abstract:
L'essor des fédérations de bases de données a réactualisé les besoins en méthodes d'intégration de schémas. Nous proposons une nouvelle approche pour le traitement des correspondances inter-schémas, approche fondée sur les idées de partition et de règles de déduction. Par ailleurs pour faciliter la détection des correspondances nous avons pensé enrichir, par des définitions, les schémas à intégrer en donnant la possibilité aux utilisateurs de décrire la sémantique de leurs concepts. Nous développons enfin une nouvelle méthode d'intégration de schémas dont l'objectif est de tirer un profit maximum des informations présentes dans les schémas (dont les définitions de concepts) et de minimiser le nombre nécessaire de comparaisons de concepts
APA, Harvard, Vancouver, ISO, and other styles
7

Hamdoun, Khalfallah Sana. "Construction d'entrepôts de données par intégration de sources hétérogènes." Paris 13, 2006. http://www.theses.fr/2006PA132039.

Full text
Abstract:
Les données nécessaires à des fins décisionnelles sont de plus en plus complexes. Elles ont des formats hétérogènes et proviennent de sources distribuées. Elles peuvent être classées en trois catégories : les données structurées, les données semi-structurées et les données non-structurées. Dans cette thèse, nous nous sommes intéressés au domaine d’intégration de données dans le but de construction d’entrepôts dont les sources sont totalement hétérogènes et appartenant aux différentes catégories. Nous proposons un cadre formel qui se base sur la définition d’un environnement d’intégration. Un ensemble de ²liens d’intégration² entre les composants des sources est ainsi défini : une relation d’équivalence et une relation d’ordre strict. Ces liens sont définis indépendamment de toute modélisation des sources de données. Ces dernières peuvent alors être hétérogènes et de catégories différentes. Notre approche a donné naissance au prototype (HDI for DW). Elle est composée de cinq étapes allant de la définition des composants de l’entrepôt jusqu’à la génération des scripts SQL et XQuery de création des vues de ce dernier. Un ensemble de schémas multidimensionnels sous forme de faits et de dimensions est proposé. Mots clés Intégration de données, bases et entrepôt de données, données hétérogènes, données complexes, liens d’intégration, relationnel-étendu, XML, SQL, XQuery
This work describes the construction of a data warehouse by the integration of heterogeneous data. These latter could be structured, semi-structured or unstructured. We propose a theoretical approach based on an integration environment definition. This environment is formed by data sources and inter-schema relationships between these sources ( equivalence and strict order relations). Our approach is composed of five steps allowing data warehouse component choice, global schema generation and construction of data warehouse views. Multidimensional schemas are also proposed. All the stages proposed in this work are implemented by the use of a functional prototype (using SQL and Xquery). Keywords Data Integration, data warehouses, heterogeneous data, inter-schema relationships, Relational, Object-relational, XML, SQL, Xquery
APA, Harvard, Vancouver, ISO, and other styles
8

Lemoine, Frédéric. "Intégration, interrogation et analyse de données de génomique comparative." Paris 11, 2008. http://www.theses.fr/2008PA112180.

Full text
Abstract:
Nos travaux s’inscrivent dans le projet ANR « Microbiogenomics ». Ce projet a pour but la construction d'un entrepôt de données de génomes bactériens. Cet entrepôt doit rassembler de nombreuses données actuellement dispersées, dans le but d'améliorer l'annotation des génomes bactériens. Au sein de ce projet, nos travaux comportent plusieurs volets. La première problématique porte principalement sur l'extraction et le traitement de données biologiques. Nous nous sommes intéressés plus particulièrement à la conservation de l’ordre des gènes des génomes procaryotes au cours de l’évolution. Pour cela, nous avons mis au point une chaîne de traitements visant à détecter les régions dont l’ordre est conservé. Nous avons ensuite étudié l’évolution relative des protéines codées par les gènes dont l’ordre est conservé par rapport aux autres protéines. Ces données ont été mises à disposition à travers l’outil de visualisation SynteView (http://www. Synteview. U-psud. Fr). Pour élargir l'analyse de ces données de conservation de l'ordre des gènes, il est nécessaire de les croiser avec d'autres types de données comme par exemple de voie métabolique. Ces données, souvent dispersées et hétérogènes sont difficiles à interroger. C’est pourquoi dans un second temps, nous nous sommes concentrés sur la conception et l'interrogation de l'entrepôt. Nous avons conçu une architecture et des algorithmes dans le but d’interroger l’entrepôt, en gardant les points de vue donnés par les sources. Ces algorithmes ont été implémentés dans GenoQuery (http://www. Lri. Fr/~lemoine/GenoQuery), un module de requête prototype adapté à l'interrogation d'un entrepôt de données génomiques
Our work takes place within the « Microbiogenomics » project. Microbiogenomics aims at building a genomic prokaryotic data warehouse. This data warehouse gathers numerous data currently dispersed, in order to improve functional annotation of bacterial genomes. Within this project, our work contains several facets. The first one focuses mainly on the analyses of biological data. We are particularly interested in the conservation of gene order during the evolution of prokaryotic genomes. To do so, we designed a computational pipeline aiming at detecting the areas whose gene order is conserved. We then studied the relative evolution of the proteins coded by genes that are located in conserved areas, in comparison with the other proteins. This data were made available through the SynteView synteny visualization tool (http://www. Synteview. U-psud. Fr). Moreover, to broaden the analysis of these data, we need to cross them with other kinds of data, such as pathway data. These data, often dispersed and heterogeneous, are difficult to query. That is why, in a second step, we were interested in querying the Microbiogenomics data warehouse. We designed an architecture and some algorithms to query the data warehouse, while keeping the different points of view given by the sources. These algorithms were implemented in GenoQuery (http://www. Lri. Fr/~lemoine/GenoQuery), a prototype querying module adapted to a genomic data warehouse
APA, Harvard, Vancouver, ISO, and other styles
9

Lozano, Espinosa Rafael. "Intégration de données vidéo dans un SGBD à objets." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10050.

Full text
Abstract:
La video est une donnee qui pose de nombreux problemes de stockage, de modelisation, d'interrogation et de presentation. Une maniere d'aborder ces problemes consiste a exploiter les fonctionnalites des systemes de gestion de bases de donnees (sgbd). L'integration de la donnee video dans un sgbd passe par sa cohabitation avec les autres types de donnees, et ce a tous les niveaux. Par ailleurs, elle impose d'etendre le sgbd tout en preservant ses proprietes structurelles et fonctionnelles. Un modele dans le contexte d'un sgbd a une motivation principale, celle d'offrir un environnement qui renforce la reutilisabilite des donnees. Nous presentons dans cette these un modele pour la donnee video permettant de capturer l'information derivee de sa semantique (au travers de l'utilisation d'annotations) et de son organisation (au travers de l'utilisation d'une structure du type hierarchique). Ce modele fournit egalement des elements aidant a l'exploitation des donnees video. Une telle exploitation necessite le developpement d'outils pour : (i) formuler des requetes qui prennent en consideration la nature de la video (interrogation), (ii) composer une video en utilisant le resultat des requetes (composition), (iii) feuilleter de facon intelligente cette video (generation de resumes video). Nous avons aussi etendu un sgbd a objets 02 afin de montrer la faisabilite ainsi que la pertinence de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
10

Jautzy, Olivier. "Intégration de sources de données hétérogènes : Une approche langage." Marne-la-vallée, ENPC, 2000. http://www.theses.fr/2000ENPC0002.

Full text
Abstract:
Les systèmes de gestion de bases de données (SGBD) ont connu de nombreuses évolutions et révolutions, liées en particulier aux formalismes de représentation et de structuration des données - la plus récente de ces évolutions concerne le passage du formalisme relationnel, structurant les données sous la forme de tables, au formalisme objet - la recherche a consisté à modéliser un langage de programmation base sur un formalisme objet réflexif et sur une architecture de type SGMB (Système de Gestion Multibases de Données) qui permet d'intégrer diverses sources de données hétérogènes et donnent l'illusion d'un seul et même SGBD : approche validée par l'implantation d'une extension au langage java.
APA, Harvard, Vancouver, ISO, and other styles
11

Mathieu, Jean. "Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28019/28019.pdf.

Full text
Abstract:
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause.
In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
APA, Harvard, Vancouver, ISO, and other styles
12

Verdin, David. "Intégration et recherche de données environnementales dans un système d'information." Rennes, Agrocampus Ouest, 2006. http://www.theses.fr/2006NSARG003.

Full text
Abstract:
Disposer de connaissances fiables et claires sur un problème constitue un préalable indispensable à une prise de décision raisonnable et argumentée. Les données sont la première source de connaissance en environnement, or elles sont rares et souvent inaccessibles. Ces données sont hétérogènes et dispersées au sein de diverses structures et organismes publics et privés. Etant donné leur coût d'acquisition, il nous semble préférable de favoriser leur réutilisation. Nous proposons une architecture pour un système d'information dont le but est l'identification et la localisation de jeux de données environnementales. Afin de remédier à l'hétérogénéité et l'éparpillement des données, nous créons un système qui n'impose pas de modifier la structure actuelle et le fonctionnement institutionnel de la gestion de l'environnement. Nous décrivons les données environnementales afin d'établir des fiches de métadonnées. Ceci rend aisée l'intégration de tous types de jeux de données dans notre système. L'intégration de métadonnées issues de jeux de données par nature très variés pose rapidement deux problèmes sémantiques : l'interprétation des termes employés pour les décrire et la diversité des requêtes que l'on peut adresser à notre système. Pour les résoudre, nous organisons le traitement des requêtes autour d'une ontologie de l'environnement, dont le rôle est d'enrichir notre système de connaissance environnementales et faciliter l'interprétation des requêtes qui lui sont adressées. Ces connaissances sont exploitées en parcourant le graphe de concepts que constitue l'ontologie et en évaluant la pertinence des concepts rencontrés par rapport à la requête.
APA, Harvard, Vancouver, ISO, and other styles
13

Cohen-Boulakia, Sarah. "Intégration de données biologiques : sélection de sources centrée sur l'utilisateur." Paris 11, 2005. http://www.theses.fr/2005PA112243.

Full text
Abstract:
Nos travaux de recherche s'inscrivent dans le cadre général de l'intégration d'informations biologiques visant à développer des solutions pour offrir un accès uniforme à des bases de données multiples et hétérogènes. Les données biologiques sont fortement distribuées sur le Web (419 sources en 2005). Elles évoluent rapidement, reposent souvent sur des observations expérimentales et des expertises et sont donc très variées et complémentaires. Pour interpréter leurs résultats expérimentaux, les biologistes doivent donc fréquemment intégrer leurs données avec celles des sources publiques. Ils doivent alors sélectionner les sources et les outils à utiliser. La diversité des sources rend cette tâche complexe à effectuer manuellement. Nos travaux sont fondés sur une collaboration étroite avec des biologistes de différents domaines. Nous avons conduit une étude approfondie de leurs besoins d'où il ressort qu'ils ont des préférences sur les sources à interroger et que le processus d'interrogation -- la stratégie suivie -- diffère d'un biologiste à l'autre. En réponse à ces besoins, nous introduisons d'abord un cadre pour une médiation coopérative proposant notamment à l'utilisateur de caractériser les sources qu'il souhaite exploiter pour sa requête. Nous proposons ensuite deux modules d'aide à la sélection de sources : DSS puis BioGuide (http://www. Lri. Fr/~cohen/bioguide/bioguide. Html) qui généralise ce dernier. BioGuide offre un support dans le processus d'interrogation en aidant le biologiste à choisir des sources et des outils pertinents, trouver des informations complémentaires et gérer les données divergentes en respectant ses préférences et en suivant sa stratégie
Our work takes place in the context of data integration which aims at developing solutions to offer a uniform access to multiple, distributed and heterogeneous biological databases. Life sciences are continuously evolving so that the number and size of new sources providing specialized information in biological sciences have increased exponentially in the last few years. Scientists are therefore frequently faced with the problem of the integration of their data with information from multiple heterogeneous sources and data analysis with bioinformatics tools. They have thus to select sources and tools when interpreting their data. The diversity of sources and tools available makes it increasingly difficult to make this selection without assistance. Our work was developed following a thorough study of scientists' needs during querying and data management. After interviewing scientists working in various domains, we found that biologists express preferences concerning the sources to be queried and that the querying process itself -- the strategy followed -- differs between scientists. In response to these findings, we have first introduced a cooperative mediator, making it possible to meets some of the key requirements of experts. Secondly, we have proposed two modules to select data sources: DSS then BioGuide which generalizes DSS. BioGuide (http://www. Lri. Fr/~cohen/bioguide/bioguide. Html) is a user-centric framework which helps the scientists to choose suitable sources and tools, find complementary information in sources, and deal with divergent data. It provides answers respecting the preferences of the user and obtained following his strategy
APA, Harvard, Vancouver, ISO, and other styles
14

Monceyron, Jean-Luc. "Intégration des données et conception des bâtiments : cas de l'acoustique." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0119.

Full text
Abstract:
Une analyse systémique du processus de conception des bâtiments nous conduit à identifier des îlots d'information : les logiciels professionnels travaillent sur leurs propres données et ne sont pas en mesure d'échanger des données techniques décrivant un projet de bâtiment, principalement du fait du cloisonnement des connaissances donnant un sens aux informations manipulées. Pour briser cet isolement, des recherches trans-sectorielles relatives à la structuration de l'information de description de produit ainsi qu'aux échanges et au partage de données ont contribué à la mise en place de la norme ISO 10303 STEP. Nos travaux ont consisté à appliquer ces avancées dans le cadre de la conception des bâtiments, pour permettre en particulier des échanges de données techniques entre un architecte (via son système de C. A. O. ) et un acousticien (via un système à bases de connaissances destiné à vérifier la conformité d'un projet à la nouvelle réglementation acoustique). Pour atteindre cet objectif, nous avons retranscrit dans un modèle de données le point de vue adopté par l'acousticien sur le projet, et réutilisé une infrastructure d'intégration développée dans le cadre du projet ESPRIT ATLAS reposant sur la norme STEP. De plus, les échanges avec le modèle de l'architecte ont nécessité la mise en place de mécanismes de conversions de données, réalisées au moyen de systèmes à base de règles de production. Cette expérimentation, conjuguée à l'étude de plusieurs modèles issus du secteur de la construction, a été généralisée pour l'incorporation d'une discipline au sein d'une infrastructure logicielle intégrée pour la conception. La méthode proposée décrit les activités nécessaires à l'élaboration d'un modèle de vue et repose sur une architecture à trois couches : ressources, domaine et discipline, le dernier niveau exprimant le concept de vue
A system analysis of the building design process leads to the identification of some islands of information: software currently in use during the design process are unable to exchange product data describing a building project, primarily because of the partitioning of knowledge characterizing the meaning to the involved information. In order to come out of this isolation, multi-sector research works dedicated to product model data representation, exchange or sharing, have contributed to the implementation of the ISO 10303 STEP standard. Our research works lie in implementing these developments for the building design field, with an emphasis on the data exchange between an architect (in runtime via its CAD system) and an acoustician (via a knowledge-based system dedicated to the compliance checking of the last French acoustics regulation). To meet this goal, the acoustician's viewpoint on the project was interpreted into a data model, and we re-used an integration framework defined into the ESPRIT project 7280 ATLAS, based on the STEP standard. Furthermore, the exchange with the architect's view model required the specification of data mapping. It was achieved thanks to a rule-based approach. This investigation, combined with the study of several modelling experiments in the building industry field, have been brought into general for the integration of a design field in a wider framework for computer aided building design. The proposed method describes the activities required for the development of a view model and is based on a three-layer architecture: resources, domain and field, the latter reflecting the concept of an actor view
APA, Harvard, Vancouver, ISO, and other styles
15

Hoebeke, Mark. "Intégration de données et prédiction d'interactions protéiques chez Bacillus subtilis." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0004.

Full text
Abstract:
A major part of this work is related to making bioinformatics applications available to the community of biologists. It covers data integration aspects as well as those tied to user interfaces. During this thesis, several databases have been put on-line: a database managing experimental data about protein interactions (SPiD), and a more integrative database (SeqDB/ORIGAMI) containing completely sequenced microbial genomes and their annotations, as well as results of in silico analysis programs. Each of these databases is provided with the appropriate access layers (an interactive graphical user interface for the interaction database and a programmatic interface for the integrative database). A generic client allowing the simultaneous exploration of several annotated genomes, accompanied by analysis results, has also been developed, and has proven useful for the navigation through the results contained in ORIGAMI. These different ressources have been used in order to predict novel protein interactions in B. Subtilis. The prediction are based in part on orthology relationships between proteins belonging to interaction networks of other species, and those of B. Subtilis. Other prediction sets exploit various levels of neighborhood conservation within groups of completely sequences genomes (gene fusions, immediate neighborhoods or more distant neighborhoods)
Le travail de thèse concerne en grande partie la mise àdisposition de la communauté des biologistes d'applications bioinformatiques. Y sont abordés aussi bien les aspects liés àl'intégration des données que ceux relevant des interfaces utilisateur. Dans le cadre de cette thèse, plusieurs bases de données ont été mises en production : une base de données de résultats expérimentaux dédiée aux interactions protéiques (SPiD), et une base de donnée plus intégrative regroupant aussi bien des génomes annotés que des résultats d'analyse in silico (SeqDB/ORIGAMI). Chacune de ces bases a été munie d'interfaces d'accès adaptées (interface graphique dynamique pour la base d'interactions, interface programmatique pour la base de données intégrative). Un client générique pour l'exploration simultanée de plusieurs génomes annotés, complétés par des résultats d'analyse a également été développé et trouve notamment son utilité dans l'exploitation des résultats contenus dans ORIGAMI. Ces différentes ressources ont été utilisées pour les prédictions d'interactions protéiques dans B. Subtilis. Ces prédictions se fondent d'une part sur les relations d'orthologie entre des protéines appartenant à des réseaux d'interaction chez d'autres espèces, et les protéines de B. Subtilis. Et d'autre part, elles utilisent les différents niveaux de conservation du voisinage des gènes dans un ensemble de génomes complètement séquencés (fusion de gènes, voisinage immédiat, voisinage plus éloigné)
APA, Harvard, Vancouver, ISO, and other styles
16

Gadchaux, Christian. "Inclusion des étudiants en situation de handicap à l’université : approches croisées anthropologique et didactique, analyse de données d’entretiens cliniques et de données vidéo." Rouen, 2016. http://www.theses.fr/2016ROUEL027.

Full text
Abstract:
L’université accueille la croissance du nombre d’étudiants en situation de handicap (loi 2005-103), et doit faire face à la complexité du défi de l’inclusion (loi 2013-595). La loi sur l’égalité des chances et des droits a rendu obligatoire leur admission, et la loi sur la refondation de l’école et de la République impose l’établissement de l’université inclusive. Nous interrogeons la problématique de l’inclusion des étudiants en situation de handicap à la fois dans l’aspect de socialisation par l’approche anthropologique, dans l’aspect de la production-transmission des savoirs académiques, et de leur accessibilisation par l’approche didactique. L’état des lieux de la question se fait dans une analyse historico-critique des textes et des institutions, afin de rendre compte de l’évolution conceptuelle des notions selon leur provenance. Nous faisons l’analyse et la critique des textes officiels et des positionnements institutionnels. Prenant appui sur la recherche scientifique nous reprenons à notre compte certains éléments conceptuels (liminalité, stigmates, rites d’interaction, rites d’institution) pour poursuivre l’approche anthropologique du handicap. La didactique de l’action conjointe que nous présentons rapidement nous semble répondre aux besoins relationnels d’inclusion dans la didactique du supérieur. Notre thèse adopte une démarche clinique et collaborative, donnant une place de choix aux acteurs, étudiants en situation de handicap ou non, et enseignants. Nous écoutons trois étudiants en situation de handicap, trois étudiants ordinaires (tous en Licence, deux de sociologie et un d’anthropologie) et deux enseignants (l’un expérimenté ; l’autre débutant). Ces entretiens cliniques recueillis suivant la méthode rogérienne de l’écoute active donnent lieu à un ensemble de corpus analysés dans la thèse et livrés in extenso en annexes pour servir d’apports empiriques à la recherche scientifique. Nous engageons une démarche croisée, anthropologique et didactique, de la description et l’analyse de données vidéo filmées en TD de sociologie et l’analyse croisée d’enseignants expérimentés. Qu’en est-il de la relation et de la production-transmission de savoirs en travaux dirigés, avec et pour des étudiants en situation de handicap aujourd’hui à l’université ? Si l’éclairage clinique ne nous permet pas de rendre compte de manière exhaustive des évolutions de la réalité actuelle, du moins nous permet-il de poser mieux certaines questions à la lumière des enjeux sociétaux et anthropologiques de l’inclusion de la socialisation cognitive à l’université
The university growth in the number of disabled students (2005-103 law), and is facing the complex challenge of inclusion (2013-595 law). The law on equal opportunities and rights made it compulsory admission, and the law school and refounding the Republic requires the establishment of inclusive university. We question the issue of inclusion of students with disabilities in both the socialization aspect of the anthropological approach in the aspect of the production-transmission of academic knowledge and their accessibilisation by the didactic approach. The inventory of the issue is in a critical historical analysis of texts and institutions, in order to realize the conceptual evolution of the concepts according to their origin. We analyze and critique of official documents and institutional positioning. Building on scientific research we return to our account some conceptual elements (liminality, stigmata, rites of interaction, rites of institution) to continue the anthropological approach to disability. Didactics of joint action that we present seems quickly respond to relational needs inclusion in the academic higher education. Our thesis adopts a clinical and collaborative approach, giving pride of place to actors, students with disabilities or not, and teachers. We listen to three students with disabilities, three regular students (all Bachelor, two of Sociology and Anthropology) and two teachers (one experienced, the other rookie). These clinical interviews collected at Rogerian method of active listening give rise to a set of corpus analyzed in the thesis and delivered in full in appendices to serve as empirical contributions to scientific research. We urge cross approach, anthropological and didactic, description and video analysis filmed TD sociology and cross analysis of experienced teachers. What about the relationship and the production-transmission of knowledge in tutorials, with and for students with disabilities at the University today? If the clinical lighting does not allow us to report comprehensively on developments of the current reality, at least it allows us better to ask some questions in the light of societal and anthropological issues of inclusion of cognitive socialization university
APA, Harvard, Vancouver, ISO, and other styles
17

Wechman, Christophe. "Intégration de méthodes de data mining dans le domaine de l'olfaction." Orléans, 2005. http://www.theses.fr/2005ORLE2047.

Full text
Abstract:
La complexité du domaine de l'olfaction rend souvent difficile le développement de modèles structure – odeurs (SOR) à la fois robustes et prédictifs. Le recours à des méthodes de Data Mining (DM) basées sur les Algorithmes Génétiques et la Logique Floue (LF) apporte des solutions intéressantes. L'objectif du travail de thèse a donc consisté à analyser par ces techniques deux grandes bases de données olfactives dérivées respectivement de l'ouvrage d'Arctander et de la base commerciale "Perfumery Materials and Performance 2001" (PMP2001). La comparaison systématique du contenu informationnel des deux bases montre que le profil olfactif de la plupart des composés communs est globalement différent. Par conséquent, il s'avère nécessaire de définir un critère "objectif" capable d'évaluer leur qualité absolue et réciproque. Ceci a été établi à l'aide de la Partition Floue Adaptative (PFA), méthode dérivée de la LF, qui est particulièrement adaptée à représenter le "flou " lié à la subjectivité des experts dans la caractérisation des odeurs. Les modèles SOR ainsi développés indiquent que la base PMP2001 contient des données olfactives de qualité supérieure. La deuxième étude a été conduite sur une série plus large de composés extraits uniquement de PMP2001. Les modèles établis sont très satisfaisants car une excellente moyenne de prédiction d'environ 80% a été obtenue sur les ensembles d'apprentissage et de test. Une dernière analyse a été menée afin de vérifier la possibilité de modéliser un ensemble de molécules présentant simultanément plusieurs odeurs. Cette étude préliminaire fournit des résultats encourageants, des progrès ultérieurs sont à l'étude.
APA, Harvard, Vancouver, ISO, and other styles
18

Moriceau, Véronique. "Intégration de données dans un système question-réponse sur le Web." Toulouse 3, 2007. http://www.theses.fr/2007TOU30019.

Full text
Abstract:
Nous nous plaçons dans le cadre des systèmes question-réponse sur le Web. Nos objectifs sont de modéliser, concevoir et évaluer un système capable, à partir d'une question en langue, de rechercher les réponses pertinentes sur le Web et de générer une réponse synthétique, même quand le moteur de recherche sélectionne plusieurs réponses potentielles. Nous nous sommes intéressés aux questions temporelles et numériques. Notre système a pour but : - l'intégration d'informations provenant des réponses potentielles à une question en utilisant une base de connaissances et des connaissances extraites des pages Web. Ce composant permet de détecter les incohérences de données et de prendre en compte les attentes de l'utilisateur pour produire une réponse appropriée, - la production en langue de réponses synthétiques et pertinentes vis-à-vis de l'utilisateur. En effet, il faut produire des réponses courtes, intelligibles et qui expriment le savoir-faire coopératif mis en oeuvre pour résoudre les incohérences de données. Nous proposons également des méthodes d'évaluation adéquates pour évaluer le système d'un point de vue technique et d'un point de vue cognitif
In the framework of question-answering systems on the Web, our main goals are to model, develop and evaluate a system which can, from a question in natural language, search for relevant answers on the Web and generate a synthetic answer, even if the search engine selected several candidate answers. We focused on temporal and numerical questions. Our system deals with : - the integration of data from candidate answers by using a knowledge base and knowledge extracted from the Web. This component allows the detection of data inconsistencies and deals with user expectations in order to produce a relevant answer, - the generation of synthetic answers in natural language which are relevant w. R. T users. Indeed, generated answers have to be short, understandable and have to express the cooperative know-how which has been used to solve data inconsistencies. We also propose evaluation methods to evaluate our system from a technical and cognitive point of view
APA, Harvard, Vancouver, ISO, and other styles
19

Essid, Mehdi. "Intégration des données et applications hétérogènes et distribuées sur le Web." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11035.

Full text
Abstract:
Cette thèse se situe dans le cadre général de l'intégration de données hétérogènes sur le Web et plus particulièrement dans le cadre applicatif du domaine géographique. Nous avons orienté nos travaux selon deux directions : 1 - un axe "modèle structuré" : nous avons proposé l'algorithme de réécriture Grouper/Diviser dans le cas de présence de clés. Ensuite, nous avons construit un système de médiation relationnel pour les SIG implantant cet algorithme. L'originalité de notre système est l'extension des capacités manquantes dans les sources par l'intégration d'outils. 2 - un axe "modèle semi-structuré" : nous avons utilisé la même stratégie que Grouper/Diviser afin de proposer un algorithme de réécriture dans un cadre XML. Ensuite, nous avons construit le système VirGIS : un système de médiation conforme à des standards. Grâce à sa conformité aux standards de l'OpenGIS et du W3C, nous avons déployé notre système dans le cadre géographique tout en restant générique à d'autres domaines
APA, Harvard, Vancouver, ISO, and other styles
20

Alamé, Melissa. "Intégration de données et caractérisation du microenvironnement tumoral de tumeurs rares." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTT046.

Full text
Abstract:
Le recueil des données issues des technologies de haut débit, et en particulier le séquençage de nouvelle génération (NGS) a largement contribué à la compréhension de la biologie des tumeurs et leurs classifications moléculaires, par notamment la caractérisation d’anomalies génétiques diagnostiques, pronostiques, ou ciblant les patients éligibles à certaines thérapeutiques (théranostique). Ces marqueurs du cancer ont intégré les panels d’analyses médicales existantes et promeuvent une médecine davantage personnalisée en oncologie.La compréhension de la contribution du microenvironnement tumoral (MET) dans la progression tumorale, et l’identification de mécanismes de résistance aux traitements, a révolutionné la biologie du cancer et la prise en charge des patients en oncologie. A l’ère des immunothérapies, la classification des tumeurs sur la base de la composition de leur MET a identifié des groupes de patients qui corrèlent avec la survie et la réponse à certains traitements. Ainsi, pour une majorité des cancers, une classification immunologique des tumeurs a été établie, complétant les classifications histologiques et moléculaires précédemment érigées. Malgré de considérables efforts, ces classifications immunologiques et moléculaires demeurent incomplètes. En particulier, certaines entités tumorales rares et agressives nécessitent une caractérisation approfondie. En outre, la majorité des études portant sur le MET se sont davantage concentrées sur l’étude de la composition cellulaire et semblent avoir négligé la cartographie des réseaux d’interactions intercellulaires des cancers. L’avènement des technologies basées sur la cellule unique répond à cet impair, mais se focalise essentiellement sur les cancers fréquents.Dans ma thèse, j’ai intégré différentes méthodes d’analyse de données et j’ai développé une nouvelle approche inférant des réseaux d’interactions ligand – récepteur, s’appuyant sur une base de données (LRdb), développée par l’équipe du Pr Colinge, pour caractériser le MET de deux tumeurs rares, les carcinomes canalaires de la glande salivaire et les lymphomes B diffus à grandes cellules B primitifs du SNC.La combinaison de méthodes bioinformatiques et d’analyses statistiques multivariées classiques et avancées, m’a permis d’intégrer des données de transcriptomique totale et de protéomique provenant d’échantillons frais et de données TCGA. Les techniques informatiques utilisées ont été complétées par des technologies d’immunomarquage couplées à de l’analyse d’images digitales afin de recueillir des validations expérimentales.D’importants efforts ont été déployés pour placer nos résultats dans une perspective clinique. En particulier, cette approche a permis d’identifier des groupes de MET d’intérêt clinique, des mécanismes d’évasion immune et de résistance à certains traitements, de nouveaux axes thérapeutiques, et des biomarqueurs
The development of high-throughput technologies, especially Next Generation Sequencing, has triggered considerable advances in tumor understanding and molecular classification. Patient subgroups for a same tumor have been defined and characterized. Those subgroups are typically associated with a particular prognosis or eligible to a specific targeted therapy. These progresses paved the way towards personalized medicine.The understanding of the contribution of the tumor microenvironment (TME) to disease aggressiveness, progression, and therapy resistance is another revolution in cancer biology and patient care. The contribution of the aforementioned high-throughput technologies was essential. At the era of immunotherapy, the sub-classification of tumors based on their TME composition identified patient subgroups correlated to survival and to their response to this particular class of drugs. Despite a formidable community effort, the molecular and immunological classification of tumors has not been completed for every cancer, some rare and aggressive entities still require thorough characterization. Moreover, most TME studies have focused on the cellular composition and they neglected the mapping of the intercellular communications networks occurring in neoplasms. The advent of single-cell technologies is filling this gap, but with a strong focus on the most frequent cancers.In my thesis, I have both deployed advanced data integration methods and a novel approach to infer ligand-receptor networks relied on a database (LRdb), which is developed by the Colinge Lab, to characterize the TME of two rare tumors, Salivary Duct Carcinoma (SDC) and Primary Central Nervous System Diffuse Large B-Cell Lymphoma (PCNSL). I have combined classical – yet advanced – bioinformatic and multivariate statistics methods integrating bulk transcriptomics and proteomics data, including fresh and TCGA data. Those computational techniques were supplemented with immunofluorescence and immunohistochemistry coupled with digital imaging to obtain experimental validations. To accommodate limited patient cohorts, I have searched for highly coherent messages at all the levels of my analyses. I also devoted important efforts relating our findings with the literature to put them in a clinical perspective. In particular, our approach revealed TME groups of tumors with particular prognosis, immune evasion and therapy resistance mechanisms, several clinical biomarkers, and new therapeutic perspectives
APA, Harvard, Vancouver, ISO, and other styles
21

Amouroux, Rémy. "Intégration de logiciels : utilisation de données réactives pour la construction d'applications." Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10145.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux problèmes relatifs a la mise en place de la coopération et du partage de données entre différents composants logiciels afin d'obtenir une application intégrée
Apres une étude du domaine, nous proposons une approche qui consiste en un rapprochement de la coopération et du partage des données par le biais d'un modèle de données adapté. Ce modèle reprend les concepts du modèle objet, étendu par les notions de relations entre données et de réactivité des données. L'utilisation de règles actives associées aux objets partages par les composants permet de séparer la définition des interactions entre composants de la de ceux-ci. Ces choix permettent l'intégration dans une application de composants existants, mais aussi la réalisation de composants adaptables à plusieurs applications
Nous complétons nos propositions, d'une part, en définissant une architecture type et des services de base pour l'intégration de logiciels, et d'autre part en proposant au concepteur d'une application intégrée des principes de construction facilitant la maintenance et l'évolution de l'application
Ce travail a été valide par la mise en œuvre concrète d'un environnement d'intégration de logiciels qui nous a permis d'expérimenter notre approche par la construction d'environnements de développement logiciel
APA, Harvard, Vancouver, ISO, and other styles
22

Wery, Méline. "Identification de signature causale pathologie par intégration de données multi-omiques." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S071.

Full text
Abstract:
Le lupus systémique erythémateux est un exemple de maladie complexe, hétérogène et multi-factorielle. L'identification de signature pouvant expliquer la cause d'une maladie est un enjeu important pour la stratification des patients. De plus, les analyses statistiques classiques s'appliquent difficilement quand les populations d'intérêt sont hétérogènes et ne permettent pas de mettre en évidence la cause. Cette thèse présente donc deux méthodes permettant de répondre à cette problématique. Tout d'abord, un modèle transomique est décrit pour structurer l'ensemble des données omiques en utilisant le Web sémantique (RDF). Son alimentation repose sur une analyse à l'échelle du patient. L'interrogation de ce modèle sous forme d'une requête SPARQL a permis l'identification d'expression Individually-Consistent Trait Loci (eICTLs). Il s'agit d'une association par raisonnement d'un couple SNP-gène pour lequel la présence d'un SNP influence la variation d'expression du gène. Ces éléments ont permis de réduire la dimensionalité des données omiques et présentent un apport plus informatif que les données de génomique. Cette première méthode se base uniquement sur l'utilisation des données omiques. Ensuite, la deuxième méthode repose sur la dépendance entre les régulations existante dans les réseaux biologiques. En combinant la dynamique des systèmes biologiques et l'analyse par concept formel, les états stables générés sont automatiquement classés. Cette classification a permis d'enrichir des signatures biologiques, caractéristique de phénotype. De plus, de nouveaux phénotypes hybrides ont été identifiés
Systematic erythematosus lupus is an example of a complex, heterogeneous and multifactorial disease. The identification of signature that can explain the cause of a disease remains an important challenge for the stratification of patients. Classic statistical analysis can hardly be applied when population of interest are heterogeneous and they do not highlight the cause. This thesis presents two methods that answer those issues. First, a transomic model is described in order to structure all the omic data, using semantic Web (RDF). Its supplying is based on a patient-centric approach. SPARQL query interrogates this model and allow the identification of expression Individually-Consistent Trait Loci (eICTLs). It a reasoning association between a SNP and a gene whose the presence of the SNP impact the variation of its gene expression. Those elements provide a reduction of omics data dimension and show a more informative contribution than genomic data. This first method are omics data-driven. Then, the second method is based on the existing regulation dependancies in biological networks. By combining the dynamic of biological system with the formal concept analysis, the generated stable states are automatically classified. This classification enables the enrichment of biological signature, which caracterised a phenotype. Moreover, new hybrid phenotype is identified
APA, Harvard, Vancouver, ISO, and other styles
23

Gentilhomme, Théophile. "Intégration multi-échelles des données de réservoir et quantification des incertitudes." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0089/document.

Full text
Abstract:
Dans ce travail, nous proposons de suivre une approche multi-échelles pour simuler des propriétés spatiales des réservoirs, permettant d'intégrer des données directes (observation de puits) ou indirectes (sismique et données de production) de résolutions différentes. Deux paramétrisations sont utilisées pour résoudre ce problème: les ondelettes et les pyramides gaussiennes. A l'aide de ces paramétrisations, nous démontrons les avantages de l'approche multi-échelles sur deux types de problèmes d'estimations des incertitudes basés sur la minimisation d'une distance. Le premier problème traite de la simulation de propriétés à partir d'un algorithme de géostatistique multipoints. Il est montré que l'approche multi-échelles basée sur les pyramides gaussiennes améliore la qualité des réalisations générées, respecte davantage les données et réduit les temps de calculs par rapport à l'approche standard. Le second problème traite de la préservation des modèles a priori lors de l'assimilation des données d'historique de production. Pour re-paramétriser le problème, nous développons une transformée en ondelette 3D applicable à des grilles stratigraphiques complexes de réservoir, possédant des cellules mortes ou de volume négligeable. Afin d'estimer les incertitudes liées à l'aspect mal posé du problème inverse, une méthode d'optimisation basée ensemble est intégrée dans l'approche multi-échelles de calage historique. A l'aide de plusieurs exemples d'applications, nous montrons que l'inversion multi-échelles permet de mieux préserver les modèles a priori et est moins assujettie au bruit que les approches standards, tout en respectant aussi bien les données de conditionnement
In this work, we propose to follow a multi-scale approach for spatial reservoir properties characterization using direct (well observations) and indirect (seismic and production history) data at different resolutions. Two decompositions are used to parameterize the problem: the wavelets and the Gaussian pyramids. Using these parameterizations, we show the advantages of the multi-scale approach with two uncertainty quantification problems based on minimization. The first one concerns the simulation of property fields from a multiple points geostatistics algorithm. It is shown that the multi-scale approach based on Gaussian pyramids improves the quality of the output realizations, the match of the conditioning data and the computational time compared to the standard approach. The second problem concerns the preservation of the prior models during the assimilation of the production history. In order to re-parameterize the problem, we develop a new 3D grid adaptive wavelet transform, which can be used on complex reservoir grids containing dead or zero volume cells. An ensemble-based optimization method is integrated in the multi-scale history matching approach, so that an estimation of the uncertainty is obtained at the end of the optimization. This method is applied on several application examples where we observe that the final realizations better preserve the spatial distribution of the prior models and are less noisy than the realizations updated using a standard approach, while matching the production data equally well
APA, Harvard, Vancouver, ISO, and other styles
24

Guillemot, Vincent. "Application de méthodes de classification supervisée et intégration de données hétérogènes pour des données transcriptomiques à haut-débit." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00481822.

Full text
Abstract:
Les méthodes d'apprentissage supervisé sont appliquées depuis récemment à des jeux de données de puces à ADN, afin d'une part d'extraire des gènes impliqués dans les différences entre les classes d'individus étudiés et d'autre part de construire une fonction de classification permettant de prédire la classe d'un nouvel individu. Ces données de puces à ADN peuvent être accompagnées d'une information précieuse décrivant les interactions entre les variables (les gènes). Cette information est regroupée sous la forme de réseaux de régulations génétiques (RRG). L'objectif de la thèse est de réaliser l'intégration de l'information contenue dans ces RRGs dans une méthode de classification supervisée binaire. Nous proposons une nouvelle méthode, graph Constrained Discriminant Analysis (gCDA), basée sur l'analyse discriminante de Fisher. Les méthodes de la littérature se proposent d'implémenter la contrainte suivante : les gènes qui sont voisins dans le RRG doivent avoir des poids proches, voire identiques, dans la fonction de classification. À contrepoint de ces méthodes, gCDA est basée sur l'estimation régularisée des matrices de variance covariance qui sont utilisées dans l'analyse discriminante de Fisher. Les estimateurs utilisés dans gCDA prennent en compte l'information contenue dans les RRGs disponibles a priori grâce aux propriétés des modèles graphiques gaussiens. gCDA est comparée aux méthodes de la littérature sur des données simulées, données pour lesquelles le graphe sous-jacent est parfaitement connu. Dans le cas de données réelles, le graphe sous-jacent décrivant les interactions entre variables n'est pas connu. Nous nous sommes donc également intéressés à des méthodes permettant d'inférer de tels graphes à partir de données transcriptomiques. Enfin, des résultats sont obtenus sur trois jeux de données réelles. Les RRG ont été inférés soit sur des jeux de données de même nature mais indépendants (c'est-à-dire concernant des individus qui ne sont pas utilisés pour en classification), soit sur une partie indépendante du jeu de données étudié. Nous montrons une amélioration notable des performances de classification sur ces jeux de données lorsque gCDA est utilisée par rapport à l'utilisation des méthodes de la littérature décrites dans la deuxième partie.
APA, Harvard, Vancouver, ISO, and other styles
25

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Full text
Abstract:
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
APA, Harvard, Vancouver, ISO, and other styles
26

Vo-Van, Claudine. "Analyse de données pharmacocinétiques fragmentaires : intégration dans le développement de nouvelles molécules." Paris 5, 1994. http://www.theses.fr/1994PA05P044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Imbert, Alyssa. "Intégration de données hétérogènes complexes à partir de tableaux de tailles déséquilibrées." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10022/document.

Full text
Abstract:
Les avancées des nouvelles technologies de séquençage ont permis aux études cliniques de produire des données volumineuses et complexes. Cette complexité se décline selon diverses modalités, notamment la grande dimension, l’hétérogénéité des données au niveau biologique (acquises à différents niveaux de l’échelle du vivant et à divers moments de l’expérience), l’hétérogénéité du type de données, le bruit (hétérogénéité biologique ou données entachées d’erreurs) dans les données et la présence de données manquantes (au niveau d’une valeur ou d’un individu entier). L’intégration de différentes données est donc un défi important pour la biologie computationnelle. Cette thèse s’inscrit dans un projet de recherche clinique sur l’obésité, DiOGenes, pour lequel nous avons fait des propositions méthodologiques pour l’analyse et l’intégration de données. Ce projet est basé sur une intervention nutritionnelle menée dans huit pays européens et vise à analyser les effets de différents régimes sur le maintien pondéral et sur certains marqueurs de risque cardio-vasculaire et de diabète, chez des individus obèses. Dans le cadre de ce projet, mes travaux ont porté sur l’analyse de données transcriptomiques (RNA-Seq) avec des individus manquants et sur l’intégration de données transcriptomiques (nouvelle technique QuantSeq) avec des données cliniques. La première partie de cette thèse est consacrée aux données manquantes et à l’inférence de réseaux à partir de données d’expression RNA-Seq. Lors d’études longitudinales transcriptomiques, il arrive que certains individus ne soient pas observés à certains pas de temps, pour des raisons expérimentales. Nous proposons une méthode d’imputation multiple hot-deck (hd-MI) qui permet d’intégrer de l’information externe mesurée sur les mêmes individus et d’autres individus. hd-MI permet d’améliorer la qualité de l’inférence de réseau. La seconde partie porte sur une étude intégrative de données cliniques et transcriptomiques (mesurées par QuantSeq) basée sur une approche réseau. Nous y montrons l’intérêt de cette nouvelle technique pour l’acquisition de données transcriptomiques et l’analysons par une approche d’inférence de réseau en lien avec des données cliniques d’intérêt
The development of high-throughput sequencing technologies has lead to a massive acquisition of high dimensional and complex datasets. Different features make these datasets hard to analyze : high dimensionality, heterogeneity at the biological level or at the data type level, the noise in data (due to biological heterogeneity or to errors in data) and the presence of missing data (for given values or for an entire individual). The integration of various data is thus an important challenge for computational biology. This thesis is part of a large clinical research project on obesity, DiOGenes, in which we have developed methods for data analysis and integration. The project is based on a dietary intervention that was led in eight Europeans centers. This study investigated the effect of macronutrient composition on weight-loss maintenance and metabolic and cardiovascular risk factors after a phase of calorie restriction in obese individuals. My work have mainly focused on transcriptomic data analysis (RNA-Seq) with missing individuals and data integration of transcriptomic (new QuantSeq protocol) and clinic datasets. The first part is focused on missing data and network inference from RNA-Seq datasets. During longitudinal study, some observations are missing for some time step. In order to take advantage of external information measured simultaneously to RNA-Seq data, we propose an imputation method, hot-deck multiple imputation (hd-MI), that improves the reliability of network inference. The second part deals with an integrative study of clinical data and transcriptomic data, measured by QuantSeq, based on a network approach. The new protocol is shown efficient for transcriptome measurement. We proposed an analysis based on network inference that is linked to clinical variables of interest
APA, Harvard, Vancouver, ISO, and other styles
28

Tran, Ba-Huy. "Une approche sémantique pour l’exploitation de données environnementales : application aux données d’un observatoire." Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS025.

Full text
Abstract:
La nécessité de collecter des observations sur une longue durée pour la recherche sur des questions environnementales a entrainé la mise en place de Zones Ateliers par le CNRS. Ainsi, depuis plusieurs années, de nombreuses bases de données à caractère spatio-temporel sont collectées par différentes équipes de chercheurs. Afin de faciliter les analyses transversales entre différentes observations, il est souhaitable de croiser les informations provenant de ces sources de données. Néanmoins, chacune de ces sources est souvent construite de manière indépendante de l'une à l'autre, ce qui pose des problèmes dans l'analyse et l'exploitation. De ce fait, cette thèse se propose d'étudier les potentialités des ontologies à la fois comme objets de modélisation, d'inférence, et d'interopérabilité. L'objectif est de fournir aux experts du domaine une méthode adaptée permettant d'exploiter l'ensemble de données collectées. Étant appliquées dans le domaine environnemental, les ontologies doivent prendre en compte des caractéristiques spatio-temporelles de ces données. Vu le besoin d'une modélisation des concepts et des opérateurs spatiaux et temporaux, nous nous appuyons sur la solution de réutilisation des ontologies de temps et de l'espace. Ensuite, une approche d'intégration de données spatio-temporelles accompagnée d'un mécanisme de raisonnement sur leurs relations a été introduite. Enfin, les méthodes de fouille de données ont été adoptées aux données spatio-temporelles sémantiques pour découvrir de nouvelles connaissances à partir de la base de connaissances. L'approche a ensuite été mise en application au sein du prototype Geminat qui a pour but d'aider à comprendre les pratiques agricoles et leurs relations avec la biodiversité dans la zone atelier Plaine et Val de Sèvre. De l'intégration de données à l'analyse de connaissances, celui-ci offre les éléments nécessaires pour exploiter des données spatio-temporelles hétérogènes ainsi qu'en extraire de nouvelles connaissances
The need to collect long-term observations for research on environmental issues led to the establishment of "Zones Ateliers" by the CNRS. Thus, for several years, many databases of a spatio-temporal nature are collected by different teams of researchers. To facilitate transversal analysis of different observations, it is desirable to cross-reference information from these data sources. Nevertheless, these sources are constructed independently of each other, which raise problems of data heterogeneity in the analysis.Therefore, this thesis proposes to study the potentialities of ontologies as both objects of modeling, inference, and interoperability. The aim is to provide experts in the field with a suitable method for exploiting heterogeneous data. Being applied in the environmental domain, ontologies must take into account the spatio-temporal characteristics of these data. As the need for modeling concepts and spatial and temporal operators, we rely on the solution of reusing the ontologies of time and space. Then, a spatial-temporal data integration approach with a reasoning mechanism on the relations of these data has been introduced. Finally, data mining methods have been adapted to spatio-temporal RDF data to discover new knowledge from the knowledge-base. The approach was then applied within the Geminat prototype, which aims to help understand farming practices and their relationships with the biodiversity in the "zone atelier Plaine and Val de Sèvre". From data integration to knowledge analysis, it provides the necessary elements to exploit heterogeneous spatio-temporal data as well as to discover new knowledge
APA, Harvard, Vancouver, ISO, and other styles
29

Degré, Yvon. "Intégration des données de la mécanique aux données de l'automatique : une contribution au poste de travail du génie automatique." Paris, ENSAM, 2001. http://www.theses.fr/2001ENAM0006.

Full text
Abstract:
Réaliser un système automatisé de production nécessite l'intégration des activités de plusieurs métiers centrés autour de deux grans pôles : les métiers de l'automatique, pour la partie"contrôle-commande"et les métiers de la construction mécanique pour la partie opérative. Bien qu'un système automatisé de production forme un tout cohérent, il n'existe pas d'outil intégrant et manipulant l'ensemble des informations propre à une application industrielle donnée et cela depuis sa phase de conception jusqu'à son utilisation et sa maintenance en production. Un certain nombre d'études et de recherches ont été menées pour le champ de l'automatique et supportent un travail normatif, la norme NFZ68-901 dite Base-PTA (1996). Par contre, dans des domaines connexes à celui de la mécanique pour les systèmes automatisés de production (SAP) existent des réalisations portées par des recherches universitaires et industrielles, et traitant de la conception routinière d'ensembles mécaniques : le projet KoMoD (Knowledge Modelling for Design). Le but de ce travail est d'examiner sous quelles conditions il est possible d'étendre les principes fondateurs de Base-PTA à l'ensemble du génie automatique, intégrant de facto le domaine mécanique, pour tenter d'obtenir un outil de modélisation et d'intégration de l'ensemble des données du domaine que demande le concept du poste de travail du génie automatique étendu. A la suite de quoi et du point de vue opérationnel, une application est instanciée à partir du modèle général établi. Elle porte qur la conception de guidages linéaires à galets construits à partir d'une famile de produits préfabriqués et vendus sur étagères.
APA, Harvard, Vancouver, ISO, and other styles
30

Chulyadyo, Rajani. "Un nouvel horizon pour la recommandation : intégration de la dimension spatiale dans l'aide à la décision." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4012/document.

Full text
Abstract:
De nos jours, il est très fréquent de représenter un système en termes de relations entre objets. Parmi les applications les plus courantes de telles données relationnelles, se situent les systèmes de recommandation (RS), qui traitent généralement des relations entre utilisateurs et items à recommander. Les modèles relationnels probabilistes (PRM) sont un bon choix pour la modélisation des dépendances probabilistes entre ces objets. Une tendance croissante dans les systèmes de recommandation est de rajouter une dimension spatiale à ces objets, que ce soient les utilisateurs, ou les items. Cette thèse porte sur l’intersection peu explorée de trois domaines connexes - modèles probabilistes relationnels (et comment apprendre les dépendances probabilistes entre attributs d’une base de données relationnelles), les données spatiales et les systèmes de recommandation. La première contribution de cette thèse porte sur le chevauchement des PRM et des systèmes de recommandation. Nous avons proposé un modèle de recommandation à base de PRM capable de faire des recommandations à partir des requêtes des utilisateurs, mais sans profils d’utilisateurs, traitant ainsi le problème du démarrage à froid. Notre deuxième contribution aborde le problème de l’intégration de l’information spatiale dans un PRM
Nowadays it is very common to represent a system in terms of relationships between objects. One of the common applications of such relational data is Recommender System (RS), which usually deals with the relationships between users and items. Probabilistic Relational Models (PRMs) can be a good choice for modeling probabilistic dependencies between such objects. A growing trend in recommender systems is to add spatial dimensions to these objects, and make recommendations considering the location of users and/or items. This thesis deals with the (not much explored) intersection of three related fields – Probabilistic Relational Models (a method to learn probabilistic models from relational data), spatial data (often used in relational settings), and recommender systems (which deal with relational data). The first contribution of this thesis deals with the overlapping of PRM and recommender systems. We have proposed a PRM-based personalized recommender system that is capable of making recommendations from user queries in cold-start systems without user profiles. Our second contribution addresses the problem of integrating spatial information into a PRM
APA, Harvard, Vancouver, ISO, and other styles
31

Michel, Franck. "Intégrer des sources de données hétérogènes dans le Web de données." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4002/document.

Full text
Abstract:
Le succès du Web de Données repose largement sur notre capacité à atteindre les données stockées dans des silos invisibles du web. Dans les 15 dernières années, des travaux ont entrepris d’exposer divers types de données structurées au format RDF. Dans le même temps, le marché des bases de données (BdD) est devenu très hétérogène avec le succès massif des BdD NoSQL. Celles-ci sont potentiellement d’importants fournisseurs de données liées. Aussi, l’objectif de cette thèse est de permettre l’intégration en RDF de sources de données hétérogènes, et notamment d'alimenter le Web de Données avec les données issues des BdD NoSQL. Nous proposons un langage générique, xR2RML, pour décrire le mapping de sources hétérogènes vers une représentation RDF arbitraire. Ce langage étend des travaux précédents sur la traduction de sources relationnelles, CSV/TSV et XML en RDF. Sur cette base, nous proposons soit de matérialiser les données RDF, soit d'évaluer dynamiquement des requêtes SPARQL sur la base native. Dans ce dernier cas, nous proposons une approche en deux étapes : (i) traduction d’une requête SPARQL en une requête pivot, abstraite, en se basant sur le mapping xR2RML ; (ii) traduction de la requête abstraite en une requête concrète, prenant en compte les spécificités du langage de requête de la BdD cible. Un souci particulier est apporté à l'optimisation des requêtes, aux niveaux abstrait et concret. Nous démontrons l’applicabilité de notre approche via un prototype pour la populaire base MongoDB. Nous avons validé la méthode dans un cas d’utilisation réel issu du domaine des humanités numériques
To a great extent, the success of the Web of Data depends on the ability to reach out legacy data locked in silos inaccessible from the web. In the last 15 years, various works have tackled the problem of exposing various structured data in the Resource Description Format (RDF). Meanwhile, the overwhelming success of NoSQL databases has made the database landscape more diverse than ever. NoSQL databases are strong potential contributors of valuable linked open data. Hence, the object of this thesis is to enable RDF-based data integration over heterogeneous data sources and, in particular, to harness NoSQL databases to populate the Web of Data. We propose a generic mapping language, xR2RML, to describe the mapping of heterogeneous data sources into an arbitrary RDF representation. xR2RML relies on and extends previous works on the translation of RDBs, CSV/TSV and XML into RDF. With such an xR2RML mapping, we propose either to materialize RDF data or to dynamically evaluate SPARQL queries on the native database. In the latter, we follow a two-step approach. The first step performs the translation of a SPARQL query into a pivot abstract query based on the xR2RML mapping of the target database to RDF. In the second step, the abstract query is translated into a concrete query, taking into account the specificities of the database query language. Great care is taken of the query optimization opportunities, both at the abstract and the concrete levels. To demonstrate the effectiveness of our approach, we have developed a prototype implementation for MongoDB, the popular NoSQL document store. We have validated the method using a real-life use case in Digital Humanities
APA, Harvard, Vancouver, ISO, and other styles
32

Deba, El Abbassia. "Transformation de modèles de données : intégration de la métamodélisation et de l'approche grammaticale." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/220/.

Full text
Abstract:
La recherche d'ARN non-codants (ARNnc) a reçu un regain d'intérêt suite à la découverte de nouveaux types d'ARNnc aux fonctions multiples. De nombreuses techniques ont été développées pour localiser ces ARN dans des séquences génomiques. Nous utilisons ici une approche supposant la connaissance d'un ensemble d'éléments de structure discriminant une famille d'ARNnc appelé signature. Dans cette approche, nous combinons plusieurs techniques de pattern-matching avec le formalisme des réseaux de contraintes pondérées afin de modéliser simplement le problème, de décrire finement les signatures et d'attribuer un coût à chaque solution. Nos travaux nous ont conduit à élaborer plusieurs techniques de filtrage ainsi que des algorithmes de pattern-matching originaux que nous présentons ici. Nous avons de plus conçu un logiciel, appelé DARN!, qui implante notre approche, ainsi qu'un module de génération de signatures. Ceux-ci permettent de rechercher efficacement de nouveaux ARNnc
Following recent discoveries about the several roles of non-coding RNAs (ncRNAs), there is now great interest in identifying these molecules. Numerous techniques have been developed to localize these RNAs in genomic sequences. We use here an approach which supposes the knowledge of a set of structural elements called signature that discriminate an ncRNA family. In this work, we combine several pattern-matching techniques with the weighted constraint satisfaction problem framework. Together, they make it possible to model our biological problem, to describe accurately the signatures and to give the solutions a cost. We conceived filtering techniques as well as novel pattern-matching algorithms. Furthermore, we designed a software called DARN! that implements our approach and another tool that automatically creates signatures. These tools make it possible to localize efficiently new ncRNAs
APA, Harvard, Vancouver, ISO, and other styles
33

Maisongrande, Philippe. "Modélisation du cycle du carbone dans la biosphère terrestre : intégration de données satellitaires." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT131H.

Full text
Abstract:
Le travail presente s'inscrit dans le cadre du projet europeen escoba (european study of carbon in the ocean, biosphere and atmosphere) dont le but est de comprendre et modeliser le cycle global du carbone et ses perturbations par les activites humaines et le climat. Au sein de la composante biosphere terrestre de ce projet, l'etude que nous presentons a pour objectif la mise au point d'une modelisation diagnostique des flux de co#2 a l'interface biosphere terrestre/atmosphere. La biosphere terrestre influence le cycle global du carbone par le biais de la pne (productivite nette des ecosystemes) qui resulte du bilan entre la productivite primaire nette (ppn) des vegetaux et les flux de respiration heterotrophe (rh) issus du sol. Dans un premier temps, plusieurs annees d'indices de vegetations globaux (gvi) satellitaires sont integrees dans une modelisations de la ppn basee sur l'approche parametrique de kumar et monteith (1981). Cette etude pluriannelle met en evidence la sensibilite du modele aux evenements climatiques de type el nino. Un effort particulier a ete porte sur la qualite du signal satellitaire, a laquelle les estimations sont tres sensibles. En effet, une erreur de 1% sur l'indice de vegetation entraine une variation d'environ 1. 5% de la ppn estimee, soit 10#1#5g carbone/an. Pour l'annee 1990, nous avons calcule la pne en couplant une rh fonction exponentielle de la temperature (modele en q#1#0, heimann et al. 1989) au modele de ppn. Si les flux nets obtenus sont qualitativement coherents au signal co2 atmospherique mesure, le transport atmospherique revele le manque de precision du bilan global estime. Dans une approche inverse, un ajustement zonal des parametres de la rh est alors applique de facon a reproduire la pne evaluee par un modele de transport atmospherique bi-dimensionnel inverse. Ces flux utilises comme reference deconvoluent les composantes terrestres et oceaniques du signal (ciais et al. , 1995) a partir de la composition isotopique de l'atmosphere. Les resultats de cette inversion font etat de parametres d'ajustement compatibles avec des valeurs communement admises. Cependant, differentes parametrisations de la rh pour un meme bilan carbone induisent un doute quant a la capacite du transport atmospherique seul a apporter des contraintes suffisantes pour valider simultanement les modeles de ppn et de rh. En effet, cet outils indispensable ne dispense probablement pas d'une confrontation des modeles aux mesures de terrain, ni d'une amelioration du formalisme de la rh.
APA, Harvard, Vancouver, ISO, and other styles
34

Blirando, Catherine. "Intégration du multimédia dans une architecture de bases de données à objets distribués." Versailles-St Quentin en Yvelines, 2000. http://www.theses.fr/2000VERS0022.

Full text
Abstract:
Cette thèse aborde le problème de l'intégration des objets multimédia au sein de bases de données et d'architectures à objets interopérables. L'émergence de l'information multimédia engendre un certain nombre de problématiques pour les systèmes de gestion de bases de données amenés à la supporter. Au-delà du simple stockage de ces données, le challenge porte sur les possibilités de rechercher efficacement la masse des données multimédia. Parmi les candidats émergeants, les SGBD objet-relationnel tentent d'étendre leur architecture de composants objets afin de gérer les données multimédia. Cette thèse propose une intégration des objets multimédia sur la base d'une architecture à objets distribués telle que CORBA, au sein de laquelle des composants objets et de bases e données interporèrent de manière normalisée via XML.
APA, Harvard, Vancouver, ISO, and other styles
35

Larnier, Hugo. "Intégration des données d'observatoires magnétiques dans l'interprétation de sondages magnétotelluriques : acqusition, traitement, interprétation." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAH003/document.

Full text
Abstract:
Dans ce manuscrit, nous développons des méthodologies de détection et caractérisation de sources géomagnétiques et atmosphériques en se basant sur la transformée en ondelettes continues. Les techniques introduites se basent sur les caractéristiques temps-fréquence des ondes observées dans les séries temporelles magnétotelluriques (MT). A partir de ces procédures de détection, nous détaillons l'implémentation d'une stratégie de détermination des fonctions de réponse MT basée sur les statistiques robustes, et du bootstrap hiérarchique pour le calcul des incertitudes. Deux études MT sont également détaillées. La première étude MT concerne la caractérisation de la structure géoélectrique situé sous l'observatoire magnétique de Chambon-La-Forêt, France. La seconde étude concerne des mesures effectuées dans la vallée de Trisuli au Népal en mars 2016. L'objectif de cette campagne est la comparaison avec une étude effectuée en 1996. Nous discutons des effets topographiques sur les sondages MT. Nous présentons également une nouvelle interprétation de la distribution de conductivité dans le sous-sol de vallée de Trisuli
In this manuscript, we detail the application of continuous wavelet transform to processing schemes for the detection and the characterisation of geomagnetic and atmospheric sources. Presented techniques are based on time-frequency properties of electromagnetic (EM) waves observed in magnetotellurics (MT) time series. We detail the application of these detection procedures in a MT processing scheme. To recover MT response functions, we use robust statistics and a hierarchical bootstrap approach for uncertainties determination. Interpretation of two datasets are also presented. The first MT study deals with the caracterisation of the resistivity distribution below the French National magnetic observatory of Chambon-la-Forêt. The second study details the interpretation of new MT soundings acquired in March 2016 in the Trisuli valley, Nepal. The main objective of this campaign was to compare the new soundings with an old campaign in 1996. We discuss topography effects on MT soundings and their implication on the resistivity distribution. We also introduce a new interpretation of the resistivity distribution in Trisuli valley
APA, Harvard, Vancouver, ISO, and other styles
36

Mariette, Jérôme. "Apprentissage statistique pour l'intégration de données omiques." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30276/document.

Full text
Abstract:
Les avancées des nouvelles techniques de séquençage ont permis de produire des données hétérogènes, volumineuse, de grande dimension et à différentes échelles du vivant. L'intégration de ces différentes données représente un défi en biologie des systèmes, défi qu'il est critique d'aborder pour tirer le meilleur parti possible de l'accumulation d'informations biologiques pour leur interprétation et leur exploitation dans un but finalisé. Cette thèse regroupe plusieurs contributions méthodologiques utiles à l'exploration simultanée de plusieurs jeux de données omiques de natures hétérogènes. Pour aborder cette question, les noyaux et les méthodes à noyaux offrent un cadre naturel, car ils permettent de prendre en compte la nature propre de chacun des tableaux de données tout en permettant leur combinaison. Toutefois, lorsque le nombre d'observations à traiter est grand, les méthodes à noyaux souffrent d'un manque d'interprétabilité et d'une grande complexité algorithmique. Une première partie de mon travail a porté sur l'adaptation de deux méthodes exploratoires à noyaux : l'analyse en composantes principales (K-PCA) et les cartes auto- organisatrices (K-SOM). Les adaptations développées portent d'une part sur le passage à l'échelle du K-SOM et de la K-PCA au domaine des omiques et d'autre part sur l'amélioration de l'interprétabilité des résultats. Dans une seconde partie, je me suis intéressé à l'apprentissage multi-noyaux pour combiner plusieurs jeux de données omiques. L'efficacité des méthodes proposées est illustrée dans le contexte de l'écologie microbienne : huit jeux de données du projet TARA oceans ont été intégrés et analysés à l'aide d'une K-PCA
The development of high-throughput sequencing technologies has lead to produce high dimensional heterogeneous datasets at different living scales. To process such data, integrative methods have been shown to be relevant, but still remain challenging. This thesis gathers methodological contributions useful to simultaneously explore heterogeneous multi-omics datasets. To tackle this problem, kernels and kernel methods represent a natural framework because they allow to handle the own nature of each datasets while permitting their combination. However, when the number of sample to process is high, kernel methods suffer from several drawbacks: their complexity is increased and the interpretability of the model is lost. A first part of my work is focused on the adaptation of two exploratory kernel methods: the principal component analysis (K-PCA) and the self-organizing map (K-SOM). The proposed adaptations first address the scaling problem of both K-SOM and K-PCA to omics datasets and second improve the interpretability of the models. In a second part, I was interested in multiple kernel learning to combine multiple omics datasets. The proposed methods efficiency is highlighted in the domain of microbial ecology: eight TARA oceans datasets are integrated and analysed using a K-PCA
APA, Harvard, Vancouver, ISO, and other styles
37

Dugré, Mathieu. "Conception et réalisation d'un entrepôt de données : intégration à un système existant et étape nécessaire vers le forage de données." Thèse, Université du Québec à Trois-Rivières, 2004. http://depot-e.uqtr.ca/4679/1/000108834.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Coulibaly, Lacina. "Intégration de données multisources de télédétection et de données morphométriques pour la cartographie des formations meubles région de Cochabamba en Bolivie." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2717.

Full text
Abstract:
In this study, we develop a new method for mapping surficial deposits based on the modeling of the synergistic relationship between objects on the surface identifiable from remote sensing data, morphometric information derived from a DEM and geoscience ancillary data. The performance of SPOT-4 HRVIR, Landsat-7 ETM+, and RADARSAT-1 S4 and S5 mode SAR satellite data are compared in order to identify and map the surface indicators of surficial deposits. Furthermore, morphometric data such as altitude, slope, slope orientation, slope curvature and the potential moisture index extracted from the DEM are used to define the ground topographical characteristics. Supervised classifications were carried out from single source images and multisource image combinations using image fusion techniques including RVB, ACP and HIS. Different spectral indices including NDVI, TSAVI, RI and IF, as well as texture indices (average, standard deviation, entropy, contrast) are also compared. The different layers of information obtained are regrouped into categories of variables in relation to the vegetation cover, soils, the textural organization of the landscape and the topography. Results show that the supervised classification using the maximum likelihood method based on the RVB fusion of HRVIR and SAR S4 data provides the best classification rate of the land cover estimated at 96%. The morphometric data derived from the DEM are integrated with the results of the spectral indices, the texture indices and the land cover map in a linear equation within a discriminant analysis. Based on this equation, we were able to model the synergy between the surficial deposits indicators which allowed their identification and mapping. Based solely on the binary units derived from the land cover variables, the model is capable of identifying and classifying surficial deposits in the study area with a global accuracy of 70%. The addition of spectral indices relating to vegetation and soil to the preceding information increases the global classification precision to 79%. This improvement in the results confirms the importance of the two categories of spectral indices in providing information on the density of the vegetation cover, the state of growth of the vegetation and the soil spectral characteristics. The addition of texture indices added to the previous information increases the classification accuracy to 81%. Finally, the addition of topographical information to the parameters of the previous step provides a further improvement in the global classification rate from 81% to 88%, a further increase of 7%. Validation of the final results of the model applied to the entire study area, in comparison with ground truth data and geological maps, gives a global classification rate of 88%"--Résumé abrégé par UMI.
APA, Harvard, Vancouver, ISO, and other styles
39

Hadj, Kacem Nabil. "Intégration des données sismiques pour une modélisation statique et dynamique plus réaliste des réservoirs." Paris, ENMP, 2009. http://www.theses.fr/2006ENMP1407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Colonna, François-Marie. "Intégration de données hétérogènes et distribuées sur le web et applications à la biologie." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30050.

Full text
Abstract:
Depuis une vingtaine d'années, la masse de données générée par la biologie a cru de façon exponentielle. L'accumulation de ces informations a conduit à une hétérogénéité syntaxique et sémantique importante entre les sources. Intégrer ces données est donc devenu un des champs principaux de recherche en bases de données, puisque l'écriture de requêtes complexes joue un rôle important, en médecine prédictive par exemple. Les travaux présentés dans cette thèse se sont orientés autour de deux axes. Le premier axe s'intéresse à la jointure de données de source en source, qui automatise les extractions manuelles habituellement destinées à recouper les données. Cette méthode est basée sur une description des capacités des sources en logique des attributs. Le deuxième axe vise à développer une architecture de médiation BGLAV basée sur le modèle semi-structure, afin d'intégrer les sources de façon simple et flexible, en associant au système le langage XQuery
Over the past twenty years, the volume of data generated by genomics and biology has grown exponentially. Interoperation of publicly available or copyrighted datasources is difficult due to syntactic and semantic heterogeneity between them. Thus, integrating heterogeneous data is nowadays one of the most important field of research in databases, especially in the biological domain, for example for predictive medicine purposes. The work presented in this thesis is organised around two classes of integration problems. The first part of our work deals with joining data sets across several datasources. This method is based on a description of sources capabilities using feature logics. The second part of our work is a contribution to the development of a BGLAV mediation architecture based on semi-structured data, for an effortless and flexible data integration using the XQuery language
APA, Harvard, Vancouver, ISO, and other styles
41

Kretz, Vincent. "Intégration de données de déplacements de fluides dans la caractérisation de milieux poreux hétérogènes." Paris 6, 2002. http://www.theses.fr/2002PA066200.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Hamidou, Salim. "Analyse de l'image en multirésolution : intégration de données multiéchelles dans un système d'information géographique." Paris 12, 1997. http://www.theses.fr/1997PA120029.

Full text
Abstract:
Les principes sont d'analyser les variations induites par le changement de resolution -et donc d'integration spatiale- sur les objets constituant le paysage, et de modeliser ces variations pour adapter la resolution des images disponibles aux echelles d'analyse souhaitees. Sur une meme image apparaissent des objets ou des groupes d'objets appartenant a differents niveaux scalaires. L'objectif est de recenser, dans un premier temps, les differents objets perceptibles dans un paysage et leurs resolutions limites d'agregation -ou de desagregation- a l'aide d'une collection d'images (photo aeriennes numerisees au pas de 5m, spot : 10m et 20m). Afin de quantifier de facon homogene les variations de textures et leur niveau scalaire, nous avons ete amene a utiliser une methode geostatistique classique, l'analyse par variogramme et co-variogramme en utilisant un modele fractal fournissant en chaque point de l'image consideree la variance mesuree et la dimension fractale de l'echantillon que l'on peut directement relier a la notion d'echelle. Les resultats obtenus peuvent etre analyses de facon homogene depuis les resolutions les plus fines jusqu'aux resolutions les plus basses. La constitution d'images interpolees, avec le krigeage notamment, a la resolution souhaitee peut ainsi etre entreprise en tenant compte, a la fois de la variation du signal radiometrique dans les bandes spectrales disponibles, mais aussi du respect de la representation des objets ou groupes d'objets a un niveau d'echelle donne.
APA, Harvard, Vancouver, ISO, and other styles
43

Maranzana, Roland. "Intégration des fonctions de conception et de fabrication autour d'une base de données relationnelle." Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/c2b1155d-a9f8-446e-b064-3b228bf8511b.

Full text
Abstract:
Après avoir exposé les raisons qui conduisent à préconiser l'emploi d'un système de gestion de base de données dans les systèmes de CFAO, le modèle de données relationnel est présenté de façon détaillée. Une méthode pour obtenir un schéma relationnel de bonne qualité est décrite et utilise le modèle sémantique OLE. La mise en œuvre du système de modélisation et l'élaboration des différents interfaces et opérateurs nécessaires à la manipulation des informations sont ensuite abordées. Elles montrent les problèmes posés par le SGBD relationnel et proposent des solutions.
APA, Harvard, Vancouver, ISO, and other styles
44

Baril, Daniel. "Modélisation de l'érosion hydrique par intégration de données multisources à un système d'information géographique." Mémoire, Université de Sherbrooke, 1989. http://hdl.handle.net/11143/11135.

Full text
Abstract:
Résumé : La dégradation des sols est un processus qui affecte les terres agricoles de la majorité des pays du monde. L'érosion hydrique est d'ailleurs le phénomène de dégradation des sols le plus apparent mais aussi le plus sous-estimé par les agriculteurs. L'objectif de cette recherche est donc d'intégrer à un système d'information géographique (S.I.G.) les facteurs de l'équation universelle des pertes de sol (U.S.L.E.) afin de modéliser les pertes de sol dues à l'érosion hydrique. Cette méthodologie a été appliquée sur un secteur agricole d'environ 500 km2 situé dans les Cantons de l'Est (sud du Québec). Une image satellite HRV de SPOT nous a permis de cartographier l'utilisation du sol. Du modèle numérique d'élévation (M.N.É.) nous avons dérivé la pente et de la longueur de pente nécessaires au calcul du facteur de topographie. Finalement, à la carte pédologique numérisée, nous associons les indices d'érodabilité de chacun des types de sol mesurés à l'aide d'un simulateur de pluie. L'utilisation d'outils modernes et flexibles tels la télédétection et les systèmes d'information géographique (S.I.G.) nous a permis d'améliorer la rapidité de calcul des pertes de sol afin de couvrir de plus vastes territoires. Nous pourrons ainsi contribuer à déterminer plus rapidement et adéquatement des moyens pour corriger la situation avant que les sols les plus sensibles ne deviennent infertiles. Pour l'ensemble du territoire à l'étude, nous avons obtenu des pertes totales de sol de 791 tonnes métriques/an. Elles sont réparties comme suit: 24 Van pour la forêt, 95 Van pour les cultures et 672 t/an pour les secteurs de sol nu. De plus, on observe que 84,96% des pertes de sols se retrouvent sur les sols nus qui ne représentent que 7,35% du territoire. Les forêts qui couvrent 66,09% du territoire n'obtiennent que 3,03 % des pertes totales de sol.||Abstract : Soil degradation is a process that affects croplands in all countries around the word. Water erosion is the most frequently observed process involved in soil degradation but also the less well known by farmers. The purpose of this study is to integrate into a geographical information system (G.I.S.) the universal soil loss equation (U.S.L.E.) factors to estimate soil losses due to water erosion. This methodology was applied in an agricultural region of 500 km2 in the Eastern Townships (southern Quebec). A HRV SPOT satellite image was used to determine land use. From the digital elevation model (D.E.M.) we derived the slope and slope length required to calculate the topographic factor (LS factor). Finally, we added to the G.I.S. the digitized soil map units with their soil erodibility based on rainfall simulator measurements. The use of modern and flexible tools like remote sensing and geographical information systems (G.I.S.) allowed us to increase calculation speed of soil loss to cover more territoriy. This method will also contribute to determine more quickly and adequately the solutions to correct the situation before the more sensitive soils become unfertile. For all our study area, we obtained a total soil loss of 791 metric tons/year. These are divided as follows: 24 t/an for forest, 95 t/an for crops and 672 t/an for bare soils. We also observe that 84,96% of soil losses were found on bare soils that represent only 7,35% of the territory. Forests that cover 66,09% of the territory represent only 3,03 % of the total soil losses.
APA, Harvard, Vancouver, ISO, and other styles
45

McHugh, Rosemarie. "Intégration de la structure matricielle dans les cubes spatiaux." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25758/25758.pdf.

Full text
Abstract:
Dans le monde de la géomatique, la fin des années 1990 a été marquée par l’arrivée de nouvelles solutions décisionnelles, nommées SOLAP. Les outils SOLAP fournissent des moyens efficaces pour facilement explorer et analyser des données spatiales. Les capacités spatiales actuelles de ces outils permettent de représenter cartographiquement les phénomènes et de naviguer dans les différents niveaux de détails. Ces fonctionnalités permettent de mieux comprendre les phénomènes, leur distribution et/ou leurs interrelations, ce qui améliore le processus de découverte de connaissances. Toutefois, leurs capacités en termes d’analyses spatiales interactives sont actuellement limitées. Cette limite est principalement due à l’unique utilisation de la structure de données géométrique vectorielle. Dans les systèmes d’information géographique (SIG), la structure de données matricielle offre une alternative très intéressante au vectoriel pour effectuer certaines analyses spatiales. Nous pensons qu’elle pourrait offrir une alternative intéressante également pour les outils SOLAP. Toutefois, il n’existe aucune approche permettant son exploitation dans de tels outils. Ce projet de maîtrise vise ainsi à définir un cadre théorique permettant l’intégration de données matricielles dans les SOLAP. Nous définissons les concepts fondamentaux permettant l’intégration du matriciel dans les cubes de données spatiaux. Nous présentons ensuite quelques expérimentations qui ont permis de les tester et finalement nous initions le potentiel du matriciel pour l’analyse spatiale dans les outils SOLAP.
APA, Harvard, Vancouver, ISO, and other styles
46

Lagorce, Jean-Bernard. "Migration d'objet : intégration dans les bases de données à objets et solution pour l'évolution de schéma." Paris 11, 2002. http://www.theses.fr/2002PA112021.

Full text
Abstract:
Cette thèse étudie la définition, les propriétés et les utilisations de la migration d'objet dans les bases de données à objets. Cette étude a été orientée suivant trois axes principaux. Le premier de ces axes est l'étude des problèmes posés par la primitive de migration d'Objet elle-même, que nous analysons comme étant principalement des problèmes de références mal typées. Nous nous sommes interroges sur la manière dont doivent être réglés ces problèmes et sur l'intégration de cette nouvelle primitive au sein de langages de mise à jour d'instance. A partir de cette étude, nous avons proposé un langage de mise à jour d'instance offrant une primitive de migration d'objet. Le second axe porte sur la manière dont la migration d'objet apporte une solution au problème de l'évolution de schéma. Nous montrons qu'il est nécessaire de réorganiser l'instance, et que dans ce contexte la migration d'objet est une primitive puissante. Le dernier axe porte sur une intégration du concept de migration d'objet au sein du schéma d'une base de données, définissant ainsi un schéma dynamique. Nous définissons un mécanisme de contraintes dynamiques permettant principalement de spécifier les séquences de migrations autorisées au sein de la base de données. Nous montrons également comment il interagit avec des langages de mise à jour d'instance en restreignant l'ensemble des programmes applicables sur la base. Une implémentation de deux langages de mise à jour d'instance comportant de la migration d'objet a été réalisée. Malgré l'apparent déclin actuel des SGBD à objets, nous croyons que les problèmes de dynamicité étudiés dans cette thèse vont au-delà d'un modèle, d'un langage, et même d'un paradigme de programmation particulier. En particulier, nous croyons qu'ils se poseront sans aucun doute, sous une forme ou une autre, dans XML et les modèles semi-structurés
This document studies the definition, properties and uses of object migration in Object-Oriented Databases. This study has focus on tree main subjects. The first subject is the study of the problems related to the object migration primitive itself. We mainly see these problems as ill-typed references problems. We have studied the way these problems had to be solved and how add this primitive to instance update languages. We have then proposed an instance update language featuring an object migration primitive. The second subject focuses on the way that object migration solves the schema evolution problem. We show that it is necessary to reorganize the instance and that, in this situation, object migration offers a powerful primitive. The last subject is about integration of object migration inside a database schema, allowing definition of a dynamic schema. We define a mechanism consisting of migration constraints allowing to specify migration sequences in the database. We also show how it interacts with instance update languages by restricting the set of allowed programs upon the database. . We have implemented two instance update languages featuring object migration. Even though object-oriented databases seem to decline, we think that the dynamic problems studied in this thesis focus beyond a specific model, language or programming paradigm. We think that these problems will appear for example in XML
APA, Harvard, Vancouver, ISO, and other styles
47

Barriot, Roland. "Intégration des connaissances biologiques à l'échelle de la cellule." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13100.

Full text
Abstract:
Cette thèse dans le domaine de la bio-informatique porte sur la représentation et la confrontation des données biologiques. La disponibilité d'un nombre croissant de génomes complets et l'accumulation de résultats expérimentaux produits par des apprcohes post-séquençage à l'échelle de la cellule et à haut débit doivent permettre de mieux comprendre l'articulation entre les mécanismes moléculaires et les fonctions cellulaires. L'intégration de ces données volumineuses et hétérogènes permettra de progresser vers une meilleure connaissance du fonctionnement de la cellule. Nous présentons un cadre formel pour la présentation de ces données permettant leur intégration à l'échelle de la cellule en vue de leur confrontation et de leur recoupement afin d'établir des correspondances nouvelles entre les données. Notre approche repose sur la généralisation du concept de voisinage entre les objets biologiques et sa représentation en ensembles partiellement ordonnés. Nous définissons une mesure de similarité entre les ensemble qui nous permet de confronter des données hétérogènes en recherchant des ensembles similaires entre les ensembles composant différents voisinages. La mise en oeuvre de ces concepts est illustrée avec la conception du système BlastSets grâce auquel des résultats biologiques préliminaires ont permis de valider l'approche.
APA, Harvard, Vancouver, ISO, and other styles
48

Kanellos, Léonidas. "Information juridique, intégration technologique et connaissance du droit dans l'Europe communautaire." Montpellier 1, 1990. http://www.theses.fr/1990MON10035.

Full text
Abstract:
L'application des nouvelles technologies de l'information en matiere juridique suscite des interrogations nouvelles. Que peuvent en effet apporter les "nouveaux medias" ( banques de donnees, telematique, bureautique, mediatheques, cd-rom, systemes-experts, eao. . . ) au traitement de l'information juridique et de facon plus generale, a la connaissance du droit ? quelles sont les conditions d'elaboration du droit lui-meme dans l'espace national et communautaire ? quel est l'impact des modeles de regulation de type "soft law" dans la production juridique ? quelles transformations des methodologies, des heuristiques documentaires des juristes les nouvelles technologies, sont-elles susceptibles d'engendrer ? quelles sont les potentialites offertes et les risques encourus, face a ce nouveau defi ?
The application of computerised information systems within the judicial and legal sector provokes newquestions and creates delicate problems. The author is trying to analyse the actual and potential impact of information technologies, "traditional" and modern, such as data bases, telematics, office automation, electronic information retrieval, cd-rom, expert systems, computer assisted learning to the accessibility of legal norms. Or, this analysis of information technologies applied on the legal sector has to be accompagnied with an analysis of the specific conditions of elaboration of law itself in national and european levels
APA, Harvard, Vancouver, ISO, and other styles
49

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Full text
Abstract:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
APA, Harvard, Vancouver, ISO, and other styles
50

Brisson, Laurent. "Intégration de connaissances expertes dans le processus de fouille de données pour l'extraction d'informations pertinentes." Phd thesis, Université Nice Sophia Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00211946.

Full text
Abstract:
L'extraction automatique de connaissances à partir des données peut être considérée comme la découverte d'informations enfouies dans de très grands volumes de données. Les approches Actuelles, pour évaluer la pertinence des informations extraites, se distinguent en deux catégories : les approches objectives qui mettent en oeuvre des mesures d'intérêt afin d'évaluer les propriétés statistiques des modèles extraits et les approches subjectives qui confrontent les modèles extraits à des connaissances exprimées sur le domaine et nécessitent généralement l'interrogation d'experts. Toutefois, le choix de modèles pertinents en regard de la connaissance métier d'un expert reste un problème ouvert et l'absence de formalisme dans l'expression des connaissances nuit à la mise au point de techniques automatiques de confrontation des modèles permettant d'exploiter toute la richesse sémantique des connaissances expertes. L'approche KEOPS que nous proposons dans ce mémoire, répond à cette problématique en proposant une méthodologie qui intègre les connaissances des experts d'un domaine tout au long du processus de fouille. Un système d'information dirigé par une ontologie (ODIS) joue un rôle central dans le système KEOPS en permettant d'organiser rationnellement non seulement la préparation des données mais aussi la sélection et l'interprétation des modèles générés. Une mesure d'intérêt est proposée afin de prendre en compte les centres d'intérêt et le niveau de connaissance des experts. Le choix des modèles les plus pertinents se base sur une évaluation à la fois objective pour évaluer la précision des motifs et subjective pour évaluer l'intérêt des modèles pour les experts du domaine. Enfin l'approche KEOPS facilite la définition de stratégies pour améliorer le processus de fouille de données dans le temps en fonction des résultats observés. Les différents apports de l'approche KEOPS favorisent l'automatisation du processus de fouille de données, et ainsi, une dynamique d'apprentissage peut être initiée pour obtenir un processus de fouille particulièrement bien adapté au domaine étudié. KEOPS a été mise en oeuvre dans le cadre de l'étude de la gestion des relations avec les allocataires au sein des Caisses d'Allocations Familiales. L'objectif de cette étude a été d'analyser la relation de service rendu aux allocataires afin de fournir aux décideurs des connaissances précises, pertinentes et utiles pour l'amélioration de ce service.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography