Academic literature on the topic 'Intégration de données de peptidomique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Intégration de données de peptidomique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Intégration de données de peptidomique"

1

Boussaid, Omar, Fadila Lafaye, Jérôme Darmont, and Sabine Rabaseda. "Vers l'entreposage des données complexes. Structuration, intégration et analyse." Ingénierie des systèmes d'information 8, no. 5-6 (December 24, 2003): 79–107. http://dx.doi.org/10.3166/isi.8.5-6.79-107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Vidal, Alain, Solène Laloux, and Damien Lepoutre. "Analyse des systèmes d'information et intégration des données spatialisées." La Houille Blanche, no. 8 (December 1996): 55–60. http://dx.doi.org/10.1051/lhb/1996088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Drolet, Gaëtan. "La bibliothèque universitaire québécoise à l’aube des fichiers de données numériques." Documentation et bibliothèques 38, no. 1 (February 11, 2015): 15–22. http://dx.doi.org/10.7202/1028558ar.

Full text
Abstract:
On observe un mouvement d’intégration des fichiers de données numériques aux collections des bibliothèques universitaires au même titre que les données bibliographiques et textuelles. L’auteur décrit ce mouvement dans les bibliothèques nord-américaines et québécoises. Il fait état des défis que présente l’exploitation de ces données et des pressions extérieures qui inciteront les bibliothèques à offrir de nouveaux services aux chercheurs. Il énumère les facteurs qui favoriseront cette intégration et invite les bibliothécaires à une coopération d’abord axée sur la formation puis sur d’autres formes de collaboration. En complément, suit une bibliographie annotée.
APA, Harvard, Vancouver, ISO, and other styles
4

Devignes, Marie-Dominique, André Schaaff, and Malika Smaïl. "Collecte et intégration de données biologiques hétérogènes sur le web." Ingénierie des systèmes d'information 7, no. 1-2 (April 24, 2002): 45–61. http://dx.doi.org/10.3166/isi.7.1-2.45-61.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Delahaye-Duriez, Andrée, Brigitte Benzacken, Michael Johnson, and Enrico Petretto. "Intégration des données de RNAseq sur cellule unique du cerveau." Morphologie 101, no. 335 (December 2017): 240–41. http://dx.doi.org/10.1016/j.morpho.2017.07.006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Rossille, D., S. Bayat, A. Burgun, M. C. Béné, and T. Fest. "Intégration de données en recherche clinique : étude sur les lymphomes." Revue d'Épidémiologie et de Santé Publique 56, no. 1 (April 2008): 50–51. http://dx.doi.org/10.1016/j.respe.2008.02.101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gutzwiller, F. "Méthodologie des enquêtes de santé et intégration des données sanitaires." Sozial- und Präventivmedizin SPM 30, no. 2 (March 1985): 66. http://dx.doi.org/10.1007/bf02083046.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Coulibaly, L., and Q. H. J. Gwyn. "Intégration de données d'images satellitaires optiques et radars et de données topographiques pour la cartographie géomorphologique." Canadian Journal of Remote Sensing 31, no. 6 (December 2005): 439–49. http://dx.doi.org/10.5589/m05-028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

BERNIER, M., J. P. FORTIN, Y. GAUTHIER, C. CORBANE, J. SOMMA, and J. P. DEDIEU. "Intégration de données satellitaires à la modélisation hydrologique du Mont Liban." Hydrological Sciences Journal 48, no. 6 (December 2003): 999–1012. http://dx.doi.org/10.1623/hysj.48.6.999.51428.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

D’Haene, Nicky, Oriane Blanchard, Nancy De Nève, Julien Evens, Marie Le Mercier, and Isabelle Salmon. "Intégration des données de la biologie moléculaire au diagnostic anatomopathologique des gliomes." Morphologie 99, no. 326 (September 2015): 92–93. http://dx.doi.org/10.1016/j.morpho.2015.07.052.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Intégration de données de peptidomique"

1

Suwareh, Ousmane. "Modélisation de la pepsinolyse in vitro en conditions gastriques et inférence de réseaux de filiation de peptides à partir de données de peptidomique." Electronic Thesis or Diss., Rennes, Agrocampus Ouest, 2022. https://tel.archives-ouvertes.fr/tel-04059711.

Full text
Abstract:
Pour faire face aux enjeux démographiques actuels, aux « maladies de civilisation » et à la possible raréfaction des ressources alimentaires, il est impératif d’optimiser l’utilisation effective des aliments et d’adapter leur conception aux besoins spécifiques des différentes populations. Cela demande d’accroître notre compréhension des différentes étapes de la digestion. En particulier, en raison du rôle majeur des protéines dans notre alimentation, leur devenir au cours de la digestion est au coeur des préoccupations. Or, les lois probabilistes qui régissent l’action de la pepsine, première protéase à agir dans le tractus gastro-intestinal, ne sont pas encore clairement identifiées.Dans une première approche s’appuyant sur des données de peptidomique, nous démontrons que l’hydrolyse parla pepsine d’une liaison peptidique dépend de la nature des résidus d’acides aminés dans son large voisinage, mais aussi de variables physicochimiques et de structure décrivant son environnement. Nous proposons dans un second temps, tenant compte de l’environnement physicochimique à l’échelle de séquences peptidiques, un modèle non-paramétrique de l’hydrolyse de ces séquences par la pepsine et un algorithme d’estimation de type Expectation-Maximisation, offrant des perspectives de valorisation des données de peptidomique. Dans cette approche dynamique, nous intégrons les réseaux de filiation des peptides dans la procédure d’estimation, ce qui conduit à un modèle plus parcimonieux et plus pertinent au regard des interprétations biologiques
Addressing the current demographic challenges, “civilization diseases” and the possible depletion of food resources, require optimization of food utilization and adapting their conception to the specific needs of each target population. This requires a better understanding of the different stages of the digestion process. In particular, how proteins are hydrolyzed is a major issue, due to their crucial role in human nutrition. However, the probabilistic laws governing the action of pepsin, the first protease to act in the gastrointestinal tract, are still unclear.In a first approach based on peptidomic data, we demonstrate that the hydrolysis by pepsin of a peptidebond depends on the nature of the amino acid residues in its large neighborhood, but also on physicochemical and structural variables describing its environment. In a second step, and considering the physicochemical environment at the peptide level, we propose a nonparametric model of the hydrolysis by pepsin of these peptides, and an Expectation-Maximization type estimation algorithm, offering novel perspectives for the valorization of peptidomic data. In this dynamic approach, we integrate the peptide kinship network into the estimation procedure, which leads to a more parsimonious model that is also more relevant regarding biological interpretations
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Béchec Antony. "Gestion, analyse et intégration des données transcriptomiques." Rennes 1, 2007. http://www.theses.fr/2007REN1S051.

Full text
Abstract:
Dans le cadre de l'étude des mécanismes moléculaires impliqués dans les processus biologiques liés aux pathologies, la transcriptomique permet d’étudier l’expression de plusieurs milliers de gènes en une seule expérience. Les standards internationaux permettent actuellement de gérer la grande quantité de données générées par cette technologie et de nombreux algorithmes permettent le traitement et l’analyse des données d’expression. Le grand défi d’aujourd’hui réside dans l’interprétation des données, notamment par l’intégration de connaissances biologiques supplémentaires permettant la création d’un contexte d’étude aidant à la compréhension des mécanismes biologiques. Afin de répondre aux besoins liés à l’exploitation de ces données transcriptomiques, un environnement complet et évolutif a été développé, M@IA (Micro@rray Integrated Application), permettant de gérer les expériences de puces à ADN mais également traiter et analyser les données d’expression. Une méthode de biologie intégrative combinant de multiples sources de données a été conçue pour exploiter des listes de gènes différentiellement exprimés par l’interprétation de réseaux de gènes représentés sous forme de graphes d’interaction. Egalement, une méthode de méta-analyse de données d’expression de gènes issues de la bibliographie a permis de sélectionner et combiner des études similaires associées à la progression tumorale du foie. En conclusion, ces travaux s’intègrent totalement à l’actuel développement de la biologie intégrative, indispensable à la résolution des mécanismes physiopathologiques
Aiming at a better understanding of diseases, transcriptomic approaches allow the analysis of several thousands of genes in a single experiment. To date, international standard initiatives have allowed the utilization of large quantity of data generated using transcriptomic approaches by the whole scientific community, and a large number of algorithms are available to process and analyze the data sets. However, the major challenge remaining to tackle is now to provide biological interpretations to these large sets of data. In particular, their integration with additional biological knowledge would certainly lead to an improved understanding of complex biological mechanisms. In my thesis work, I have developed a novel and evolutive environment for the management and analysis of transcriptomic data. Micro@rray Integrated Application (M@IA) allows for management, processing and analysis of large scale expression data sets. In addition, I elaborated a computational method to combine multiple data sources and represent differentially expressed gene networks as interaction graphs. Finally, I used a meta-analysis of gene expression data extracted from the literature to select and combine similar studies associated with the progression of liver cancer. In conclusion, this work provides a novel tool and original analytical methodologies thus contributing to the emerging field of integrative biology and indispensable for a better understanding of complex pathophysiological processes
APA, Harvard, Vancouver, ISO, and other styles
3

Saïs, Fatiha. "Intégration sémantique de données guidée par une ontologie." Paris 11, 2007. http://www.theses.fr/2007PA112300.

Full text
Abstract:
Dans cette thèse, nous traitons du problème d'intégration sémantique de données. L’objectif est de pouvoir combiner des sources de données autonomes et hétérogènes. Pour y parvenir, toutes les données doivent être représentées selon un même schéma et selon une sémantique unifiée. Cette thèse est articulée en deux parties relativement indépendantes. La première présente une méthode automatique et flexible de réconciliation de données avec une ontologie dans le cas où les données sont représentées dans des tableaux. Pour représenter le résultat de la réconciliation, nous avons défini le format SML dont l’originalité est de permettre de représenter tous les appariements trouvés mais également les informations imparfaitement identifiées. La seconde partie présente deux méthodes de réconciliation de références décrites relativement à un même schéma. Il s’agit de décider si des descriptions différentes se réfèrent à la même entité du monde réel. La première méthode, nommée L2R, est logique. La sémantique des données et du schéma y est traduite par un ensemble de règles de (non) réconciliation permettant d’inférer des décisions de (non) réconciliation certaines. La seconde, nommée N2R, est numérique. Dans cette méthode, la sémantique du schéma est traduite par une mesure de similarité informée utilisée pour calculer la similarité des paires de références. Ce calcul est exprimé dans un système d’équations non linéaire résolu par une méthode itérative. Ces méthodes obtiennent des résultats satisfaisants sur des données réelles, ce qui montre la faisabilité d’approches complètement automatiques et guidées uniquement par une ontologie pour ces deux problèmes de réconciliation
This thesis deals with semantic data integration guided by an ontology. Data integration aims at combining autonomous and heterogonous data sources. To this end, all the data should be represented according to the same schema and according to a unified semantics. This thesis is divided into two parts. In the first one, we present an automatic and flexible method for data reconciliation with an ontology. We consider the case where data are represented in tables. The reconciliation result is represented in the SML format which we have defined. Its originality stems from the fact that it allows representing all the established mappings but also information that is imperfectly identified. In the second part, we present two methods of reference reconciliation. This problem consists in deciding whether different data descriptions refer to the same real world entity. We have considered this problem when data is described according to the same schema. The first method, called L2R, is logical: it translates the schema and the data semantics into a set of logical rules which allow inferring correct decisions both of reconciliation and no reconciliation. The second method, called N2R, is numerical. It translates the schema semantics into an informed similarity measure used by a numerical computation of the similarity of the reference pairs. This computation is expressed in a non linear equation system solved by using an iterative method. Our experiments on real datasets demonstrated the robustness and the feasibility of our approaches. The solutions that we bring to the two problems of reconciliation are completely automatic and guided only by an ontology
APA, Harvard, Vancouver, ISO, and other styles
4

Delanaux, Rémy. "Intégration de données liées respectueuse de la confidentialité." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1303.

Full text
Abstract:
La confidentialité des données personnelles est un souci majeur et un problème peu étudié pour la publication de données dans le Web des données ouvertes (ou LOD cloud, pour Linked Open Data cloud) . Ce nuage formé par le LOD est un réseau d'ensembles de données interconnectés et accessibles publiquement sous la forme de graphes de données modélisés dans le format RDF, et interrogés via des requêtes écrites dans le langage SPARQL. Ce cadre très standardisé est très utilisé de nos jours par des organismes publics et des entreprises. Mais certains acteurs notamment du secteur privé sont toujours réticents à la publication de leurs données, découragés par des soucis potentiels de confidentialité. Pour pallier cela, nous présentons et développons un cadre formel déclaratif pour la publication de données liées respectant la confidentialité, dans lequel les contraintes de confidentialité et d'utilité des données sont spécifiées sous forme de politiques (des ensembles de requêtes SPARQL). Cette approche est indépendante des données et du graphe considéré, et consiste en l'analyse statique d'une politique de confidentialité et d'une politique d'utilité pour déterminer des séquences d'opérations d'anonymization à appliquer à n'importe quel graphe RDF pour satisfaire les politiques fournies. Nous démontrons la sûreté de nos algorithmes et leur efficacité en terme de performance via une étude expérimentale. Un autre aspect à prendre en compte est qu'un nouveau graphe publié dans le nuage LOD est évidemment exposé à des failles de confidentialité car il peut être relié à des données déjà publiées dans d'autres données liées. Dans le second volet de cette thèse, nous nous concentrons donc sur le problème de construction d'anonymisations *sûres* d'un graphe RDF garantissant que relier le graphe anonymisé à un graphe externe quelconque ne causera pas de brèche de confidentialité. En prenant un ensemble de requêtes de confidentialité en entrée, nous étudions le problème de sûreté indépendamment des données du graphe, et la construction d'une séquence d'opérations d'anonymisation permettant d'assurer cette sûreté. Nous détaillons des conditions suffisantes sous lesquelles une instance d'anonymisation est sûre pour une certaine politique de confidentialité fournie. Par ailleurs, nous montrons que nos algorithmes sont robustes même en présence de liens de type sameAs (liens d'égalité entre entités en RDF), qu'ils soient explicites ou inférés par de la connaissance externe. Enfin, nous évaluons l'impact de cette contribution assurant la sûreté de données en la testant sur divers graphes. Nous étudions notamment la performance de cette solution et la perte d'utilité causée par nos algorithmes sur des données RDF réelles comme synthétiques. Nous étudions d'abord les diverses mesures d'utilité existantes et nous en choisissons afin de comparer le graphe original et son pendant anonymisé. Nous définissons également une méthode pour générer de nouvelles politiques de confidentialité à partir d'une politique de référence, via des modifications incrémentales. Nous étudions le comportement de notre contribution sur 4 graphes judicieusement choisis et nous montrons que notre approche est efficace avec un temps très faible même sur de gros graphes (plusieurs millions de triplets). Cette approche est graduelle : le plus spécifique est la politique de confidentialité, le plus faible est son impact sur les données. Pour conclure, nous montrons via différentes métriques structurelles (adaptées aux graphes) que nos algorithmes ne sont que peu destructeurs, et cela même quand les politiques de confidentialité couvrent une grosse partie du graphe
Individual privacy is a major and largely unexplored concern when publishing new datasets in the context of Linked Open Data (LOD). The LOD cloud forms a network of interconnected and publicly accessible datasets in the form of graph databases modeled using the RDF format and queried using the SPARQL language. This heavily standardized context is nowadays extensively used by academics, public institutions and some private organizations to make their data available. Yet, some industrial and private actors may be discouraged by potential privacy issues. To this end, we introduce and develop a declarative framework for privacy-preserving Linked Data publishing in which privacy and utility constraints are specified as policies, that is sets of SPARQL queries. Our approach is data-independent and only inspects the privacy and utility policies in order to determine the sequence of anonymization operations applicable to any graph instance for satisfying the policies. We prove the soundness of our algorithms and gauge their performance through experimental analysis. Another aspect to take into account is that a new dataset published to the LOD cloud is indeed exposed to privacy breaches due to the possible linkage to objects already existing in the other LOD datasets. In the second part of this thesis, we thus focus on the problem of building safe anonymizations of an RDF graph to guarantee that linking the anonymized graph with any external RDF graph will not cause privacy breaches. Given a set of privacy queries as input, we study the data-independent safety problem and the sequence of anonymization operations necessary to enforce it. We provide sufficient conditions under which an anonymization instance is safe given a set of privacy queries. Additionally, we show that our algorithms are robust in the presence of sameAs links that can be explicit or inferred by additional knowledge. To conclude, we evaluate the impact of this safety-preserving solution on given input graphs through experiments. We focus on the performance and the utility loss of this anonymization framework on both real-world and artificial data. We first discuss and select utility measures to compare the original graph to its anonymized counterpart, then define a method to generate new privacy policies from a reference one by inserting incremental modifications. We study the behavior of the framework on four carefully selected RDF graphs. We show that our anonymization technique is effective with reasonable runtime on quite large graphs (several million triples) and is gradual: the more specific the privacy policy is, the lesser its impact is. Finally, using structural graph-based metrics, we show that our algorithms are not very destructive even when privacy policies cover a large part of the graph. By designing a simple and efficient way to ensure privacy and utility in plausible usages of RDF graphs, this new approach suggests many extensions and in the long run more work on privacy-preserving data publishing in the context of Linked Open Data
APA, Harvard, Vancouver, ISO, and other styles
5

Megdiche, Bousarsar Imen. "Intégration holistique et entreposage automatique des données ouvertes." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30214/document.

Full text
Abstract:
Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations
Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations
APA, Harvard, Vancouver, ISO, and other styles
6

Grison, Thierry. "Intégration de schémas de bases de données entité-association." Dijon, 1994. http://www.theses.fr/1994DIJOS005.

Full text
Abstract:
L'essor des fédérations de bases de données a réactualisé les besoins en méthodes d'intégration de schémas. Nous proposons une nouvelle approche pour le traitement des correspondances inter-schémas, approche fondée sur les idées de partition et de règles de déduction. Par ailleurs pour faciliter la détection des correspondances nous avons pensé enrichir, par des définitions, les schémas à intégrer en donnant la possibilité aux utilisateurs de décrire la sémantique de leurs concepts. Nous développons enfin une nouvelle méthode d'intégration de schémas dont l'objectif est de tirer un profit maximum des informations présentes dans les schémas (dont les définitions de concepts) et de minimiser le nombre nécessaire de comparaisons de concepts
APA, Harvard, Vancouver, ISO, and other styles
7

Hamdoun, Khalfallah Sana. "Construction d'entrepôts de données par intégration de sources hétérogènes." Paris 13, 2006. http://www.theses.fr/2006PA132039.

Full text
Abstract:
Les données nécessaires à des fins décisionnelles sont de plus en plus complexes. Elles ont des formats hétérogènes et proviennent de sources distribuées. Elles peuvent être classées en trois catégories : les données structurées, les données semi-structurées et les données non-structurées. Dans cette thèse, nous nous sommes intéressés au domaine d’intégration de données dans le but de construction d’entrepôts dont les sources sont totalement hétérogènes et appartenant aux différentes catégories. Nous proposons un cadre formel qui se base sur la définition d’un environnement d’intégration. Un ensemble de ²liens d’intégration² entre les composants des sources est ainsi défini : une relation d’équivalence et une relation d’ordre strict. Ces liens sont définis indépendamment de toute modélisation des sources de données. Ces dernières peuvent alors être hétérogènes et de catégories différentes. Notre approche a donné naissance au prototype (HDI for DW). Elle est composée de cinq étapes allant de la définition des composants de l’entrepôt jusqu’à la génération des scripts SQL et XQuery de création des vues de ce dernier. Un ensemble de schémas multidimensionnels sous forme de faits et de dimensions est proposé. Mots clés Intégration de données, bases et entrepôt de données, données hétérogènes, données complexes, liens d’intégration, relationnel-étendu, XML, SQL, XQuery
This work describes the construction of a data warehouse by the integration of heterogeneous data. These latter could be structured, semi-structured or unstructured. We propose a theoretical approach based on an integration environment definition. This environment is formed by data sources and inter-schema relationships between these sources ( equivalence and strict order relations). Our approach is composed of five steps allowing data warehouse component choice, global schema generation and construction of data warehouse views. Multidimensional schemas are also proposed. All the stages proposed in this work are implemented by the use of a functional prototype (using SQL and Xquery). Keywords Data Integration, data warehouses, heterogeneous data, inter-schema relationships, Relational, Object-relational, XML, SQL, Xquery
APA, Harvard, Vancouver, ISO, and other styles
8

Lemoine, Frédéric. "Intégration, interrogation et analyse de données de génomique comparative." Paris 11, 2008. http://www.theses.fr/2008PA112180.

Full text
Abstract:
Nos travaux s’inscrivent dans le projet ANR « Microbiogenomics ». Ce projet a pour but la construction d'un entrepôt de données de génomes bactériens. Cet entrepôt doit rassembler de nombreuses données actuellement dispersées, dans le but d'améliorer l'annotation des génomes bactériens. Au sein de ce projet, nos travaux comportent plusieurs volets. La première problématique porte principalement sur l'extraction et le traitement de données biologiques. Nous nous sommes intéressés plus particulièrement à la conservation de l’ordre des gènes des génomes procaryotes au cours de l’évolution. Pour cela, nous avons mis au point une chaîne de traitements visant à détecter les régions dont l’ordre est conservé. Nous avons ensuite étudié l’évolution relative des protéines codées par les gènes dont l’ordre est conservé par rapport aux autres protéines. Ces données ont été mises à disposition à travers l’outil de visualisation SynteView (http://www. Synteview. U-psud. Fr). Pour élargir l'analyse de ces données de conservation de l'ordre des gènes, il est nécessaire de les croiser avec d'autres types de données comme par exemple de voie métabolique. Ces données, souvent dispersées et hétérogènes sont difficiles à interroger. C’est pourquoi dans un second temps, nous nous sommes concentrés sur la conception et l'interrogation de l'entrepôt. Nous avons conçu une architecture et des algorithmes dans le but d’interroger l’entrepôt, en gardant les points de vue donnés par les sources. Ces algorithmes ont été implémentés dans GenoQuery (http://www. Lri. Fr/~lemoine/GenoQuery), un module de requête prototype adapté à l'interrogation d'un entrepôt de données génomiques
Our work takes place within the « Microbiogenomics » project. Microbiogenomics aims at building a genomic prokaryotic data warehouse. This data warehouse gathers numerous data currently dispersed, in order to improve functional annotation of bacterial genomes. Within this project, our work contains several facets. The first one focuses mainly on the analyses of biological data. We are particularly interested in the conservation of gene order during the evolution of prokaryotic genomes. To do so, we designed a computational pipeline aiming at detecting the areas whose gene order is conserved. We then studied the relative evolution of the proteins coded by genes that are located in conserved areas, in comparison with the other proteins. This data were made available through the SynteView synteny visualization tool (http://www. Synteview. U-psud. Fr). Moreover, to broaden the analysis of these data, we need to cross them with other kinds of data, such as pathway data. These data, often dispersed and heterogeneous, are difficult to query. That is why, in a second step, we were interested in querying the Microbiogenomics data warehouse. We designed an architecture and some algorithms to query the data warehouse, while keeping the different points of view given by the sources. These algorithms were implemented in GenoQuery (http://www. Lri. Fr/~lemoine/GenoQuery), a prototype querying module adapted to a genomic data warehouse
APA, Harvard, Vancouver, ISO, and other styles
9

Lozano, Espinosa Rafael. "Intégration de données vidéo dans un SGBD à objets." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10050.

Full text
Abstract:
La video est une donnee qui pose de nombreux problemes de stockage, de modelisation, d'interrogation et de presentation. Une maniere d'aborder ces problemes consiste a exploiter les fonctionnalites des systemes de gestion de bases de donnees (sgbd). L'integration de la donnee video dans un sgbd passe par sa cohabitation avec les autres types de donnees, et ce a tous les niveaux. Par ailleurs, elle impose d'etendre le sgbd tout en preservant ses proprietes structurelles et fonctionnelles. Un modele dans le contexte d'un sgbd a une motivation principale, celle d'offrir un environnement qui renforce la reutilisabilite des donnees. Nous presentons dans cette these un modele pour la donnee video permettant de capturer l'information derivee de sa semantique (au travers de l'utilisation d'annotations) et de son organisation (au travers de l'utilisation d'une structure du type hierarchique). Ce modele fournit egalement des elements aidant a l'exploitation des donnees video. Une telle exploitation necessite le developpement d'outils pour : (i) formuler des requetes qui prennent en consideration la nature de la video (interrogation), (ii) composer une video en utilisant le resultat des requetes (composition), (iii) feuilleter de facon intelligente cette video (generation de resumes video). Nous avons aussi etendu un sgbd a objets 02 afin de montrer la faisabilite ainsi que la pertinence de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
10

Jautzy, Olivier. "Intégration de sources de données hétérogènes : Une approche langage." Marne-la-vallée, ENPC, 2000. http://www.theses.fr/2000ENPC0002.

Full text
Abstract:
Les systèmes de gestion de bases de données (SGBD) ont connu de nombreuses évolutions et révolutions, liées en particulier aux formalismes de représentation et de structuration des données - la plus récente de ces évolutions concerne le passage du formalisme relationnel, structurant les données sous la forme de tables, au formalisme objet - la recherche a consisté à modéliser un langage de programmation base sur un formalisme objet réflexif et sur une architecture de type SGMB (Système de Gestion Multibases de Données) qui permet d'intégrer diverses sources de données hétérogènes et donnent l'illusion d'un seul et même SGBD : approche validée par l'implantation d'une extension au langage java.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Intégration de données de peptidomique"

1

Millet, Pierre. Intégration voix et données: Principes et concepts. Paris: Masson, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Michael, Catinat, Jacquemin Alex, and Cecchini Paolo, eds. 1992, le défi: Nouvelles données économiques de l'Europe sans frontières. Paris: Flammarion, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rode, Gilles. Handicap, médecine physique et réadaptation, guide pratique. Montrouge: Édition Xavier Montauban, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pulvirenti, Adrián Sergio. Pentaho data integration 4 cookbook: Over 70 recipes to solve ETL problems using Pentaho Kettle. Birmingham, U.K: Packt Pub., 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Elargissement de l'Europe à l'Est: Danger ou chance pour les agriculteurs? Paris: Editions France Agricole, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Policy-making in the European Union: Conceptual lenses and the integration process. London: Routledge, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

L' Europe de Maastricht pour ceux qui n'y comprennent rien. Paris: J C Lattès, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Hayward, David J. International trade and regional economies: The impacts of European integration on the United States. Boulder, Colo: Westview Press, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Hayward, David J. International trade and regional economies: The impacts of European integration on the United States. Oxford: Westview Press, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

William, Stallings. Data and Computer Communications. 5th ed. Upper Saddle River, N.J: Prentice Hall, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Intégration de données de peptidomique"

1

WACK, Maxime. "Entrepôts de données cliniques." In Intégration de données biologiques, 9–31. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch1.

Full text
Abstract:
La prise en charge des patients dans les hôpitaux, les cabinets de ville et toutes les structures de soins produit une grande quantité d’informations. Ces données, générées pour le soin, peuvent être réutilisées pour la recherche et l’amélioration des soins dans des entrepôts de données cliniques. Ce chapitre explore les différentes architectures, la construction des entrepôts et leur utilisation pour la recherche.
APA, Harvard, Vancouver, ISO, and other styles
2

DAMERON, Olivier. "Méthodes du Web sémantique pour l’intégration de données en sciences de la vie." In Intégration de données biologiques, 33–61. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch2.

Full text
Abstract:
Les données en sciences de la vie sont massives, hétérogènes, compliquées et complexes. L'enjeu est d'en automatiser le traitement afin de le rendre systématique, ce qui nécessite à la fois intégration (data engineering) et méthodes d'analyse (data science). Ce chapitre montre comment le Web Sémantique offre une solution générique adoptée à large échelle par la communauté bioinformatique.
APA, Harvard, Vancouver, ISO, and other styles
3

MARIETTE, Jérôme, and Nathalie VIALANEIX. "Des noyaux pour les omiques." In Intégration de données biologiques, 165–210. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch6.

Full text
Abstract:
En biologie des systèmes, de nombreuses méthodes ont été développées pour intégrer les données -omiques et, parmi elles, les noyaux sont une approche couramment utilisée. Dans ce chapitre, nous présentons le cadre général des approches à noyau et leur utilité pour l'analyse de divers types de données biologiques avec un focus particulier sur les approches exploratoires.
APA, Harvard, Vancouver, ISO, and other styles
4

GUINOT, Florent, Marie SZAFRANSKI, and Christophe AMBROISE. "Compression structurée de l’information génétique et étude d’association pangénomique par modèles additifs." In Intégration de données biologiques, 129–63. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch5.

Full text
Abstract:
Ce chapitre présente un modèle de compression de données adapté aux études d’associations pangénomiques (GWAS pour Genome-Wide association Study). La méthode présentée exploite la structure de déséquilibre de liaison du génome pour améliorer la puissance statistique des tests utilisés dans les études d’associations pangénomiques. Une étude de cas concret sur la spondylarthrite ankylosante illustre l’approche.
APA, Harvard, Vancouver, ISO, and other styles
5

LÉVY-LEDUC, Céline, Marie PERROT-DOCKÈS, Gwendal CUEFF, and Loïc RAJJOU. "Sélection de variables dans le modèle linéaire général : application à des approches multiomiques pour étudier la qualité des graines." In Intégration de données biologiques, 101–28. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch4.

Full text
Abstract:
Nous proposons dans ce chapitre une nouvelle méthode de sélection de variables dans le modèle linéaire général tenant compte de la dépendance pouvant exister entre les colonnes de la matrice d’observations afin de l’appliquer à des données “-omiques” qui sont caractérisées par la présence d’une forte structure de dépendance. L’implémentation de la méthode est disponible dans le package R MultiVarSel.
APA, Harvard, Vancouver, ISO, and other styles
6

COHEN-BOULAKIA, Sarah, and Frédéric LEMOINE. "Workflows d’intégration de données bioinformatiques." In Intégration de données biologiques, 63–97. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch3.

Full text
Abstract:
Les traitements de données sont au cœur de nombreux domaines de la Bioinformatique. Ils consistent en l’enchaînement d’un grand nombre d’outils bioinformatiques et manipulent des données massives et diverses. Ce chapitre décrit les difficultés d’implémentation et d’exécution de ces traitements, introduit les systèmes de gestion de workflows comme élément de solution et souligne les problèmes de recherche encore ouverts.
APA, Harvard, Vancouver, ISO, and other styles
7

DÉJEAN, Sébastien, and Kim-Anh LÊ CAO. "Modèles multivariés pour l’intégration de données et la sélection de biomarqueurs dans les données omiques." In Intégration de données biologiques, 211–69. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch7.

Full text
Abstract:
Les méthodes multivariées linéaires présentées permettent : l’exploration d’un seul jeu de données (ACP), la discrimination (PLS-DA), l’intégration de plusieurs jeux de données (PLS, multi-block PLS). Les aspects mathématiques de chaque méthode sont présentés, ensuite leur mise en œuvre sur des exemples fictifs et réels permet d’en illustrer l’intérêt pour répondre à des questions biologiques.
APA, Harvard, Vancouver, ISO, and other styles
8

Math, François, Jean-Pierre Kahn, and Jean-Pierre Vignal. "Chapitre 5. Intégration des données sensorielles par le cerveau." In Neurosciences cliniques, 231–303. De Boeck Supérieur, 2008. http://dx.doi.org/10.3917/dbu.math.2008.01.0231.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

YERGEAU, Michel, Christian PRÉVOST, Bertin Goze BÉNIÉ, and Ferdinand BONN. "Intégration de données multisources pour la gestion des ressources en eau au Sahel." In Télédétection de l'environnement dans l'espace francophone, 457–78. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18pgwp2.39.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"Intégration des activités sur le terrain à l’aide de GPS et de données télédétectées." In Etudes méthodologiques (Ser. F), 89–116. UN, 2009. http://dx.doi.org/10.18356/dc73afd3-fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Intégration de données de peptidomique"

1

Antoni, M., and M. Houel. "Intégration de données continues au sein d’une méthode de validation formelle par approche événementielle." In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dufau, J., H. Galley, and J. C. Mangin. "Intégration d'un modèle d'évaluation technique et économique de gros-cuvre de bâtiment dans un système de CAO utilisant un système de gestion de base de données réseau." In Colloque CAO et Robotique en Architecture et BTP (3rd International Symposium on Automation and Robotics in Construction). Paris: Hermes, 1986. http://dx.doi.org/10.22260/isarc1986/0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Intégration de données de peptidomique"

1

Toutin, Th. Intégration de données multisources: comparaison de méthodes géometriques et radiométriques. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1995. http://dx.doi.org/10.4095/218023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography