Dissertations / Theses on the topic 'Structure de données persitantes'

To see the other types of publications on this topic, follow the link: Structure de données persitantes.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Structure de données persitantes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lefort, Anatole. "A Support for Persistent Memory in Java." Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS001.

Full text
Abstract:
L'arrivée de la mémoire non-volatile (NVMM) sur le marché propose une alternative rapide et durable pour le stockage de données, avec des performances considérablement accrues par rapport aux supports traditionnels, à savoir SSD et disques durs. La NVMM est adressable à la granularité de l'octet, une caractéristique unique qui permet de maintenir des structures de données complexes par le biais d'instructions mémoires standards, tout en étant résistante aux pannes système et logiciels. Néanmoins, gérer correctement la persistance des données est bien plus compliquée que de simples manipulations mémoire. De plus, chaque bug en NVMM peut désormais compromettre l'intégrité des données ainsi que leur récupération, et il faut donc prendre grand soin quant à sa programmation. Ainsi, de nouvelles abstractions de programmation pour la persistance et l'intégration dans les langages et compilateurs sont nécessaires afin de faciliter l'usage de la mémoire non-volatile. Cette thèse se penche sur ce problème général. Nous expliquons comment intégrer la mémoire persistante dans les langages de programmation managés, et présentons J-NVM, un framework pour accéder efficacement à la NVMM en Java. Avec J-NVM, nous montrons comment concevoir une interface d'accès simple, complète et efficace qui lie les spécificités de la persistance sur NVMM avec la programmation orientée objet. En particulier, J-NVM offre des fonctionnalités pour rendre durable des objets Java avec des sections de code atomiques en cas de panne. J-NVM est construit sans apporter de modifications à l'environnement d'exécution de Java, ce qui favorise sa portabilité aux divers environnements d'exécution de Java. En interne, J-NVM s'appuie sur des objets mandataires qui réalisent des accès directs à la NVMM, gérée comme une mémoire hors-tas. Ce canevas fournit également une bibliothèque de structures de données optimisées pour la NVMM qui restent cohérentes à la suite de redémarrages ou d'arrêts impromptus. Au cours de cette thèse, nous évaluons J-NVM en ré-implémentant la couche de stockage d'Infinispan, une base de données open-source de niveau industriel. Les résultats obtenus avec les benchmarks TPC-B et YCSB, montrent que J-NVM est systématiquement plus rapide que les autres approches existant à l'heure actuelle pour accéder à la NVMM en Java
Recently released non-volatile main memory (NVMM), as fast and durable memory, dramatically increases storage performance over traditional media (SSD, hard disk). A substantial and unique property of NVMM is byte-addressability -- complex memory data structures, maintained with regular load/store instructions,can now resist machine power-cycles, software faults or system crashes. However, correctly managing persistence with the fine grain of memory instructions is laborious, with increased risk of compromising data integrity and recovery at any misstep. Programming abstractions from software libraries and support from language runtime and compilers are necessary to avoid memory bugs that are exacerbated with persistence. In this thesis, we address the challenges of supporting persistent memory in managed language environments by introducing J-NVM, a framework to efficiently access NVMM in Java. With J-NVM, we demonstrate how to design an efficient, simple and complete interface to weave NVMM-devised persistence into object-oriented programming,while remaining unobtrusive to the language runtime itself. In detail, J-NVM offers a fully-fledged interface to persist plain Java objects using failure-atomic sections. This interface relies internally on proxy objects that intermediate direct off-heap access to NVMM. The framework also provides a library of highly-optimized persistent data types that resist reboots and power failures. We evaluate J-NVM by implementing a persistent backend for Infinispan, an industrial-grade data store. Our experimental results, obtained with a TPC-B like benchmark and YCSB, show that J-NVM is consistently faster than other approaches at accessing NVMM in Java
APA, Harvard, Vancouver, ISO, and other styles
2

Sozen, Neset. "Structure d'agents explorateur de données." Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/532/1/SOZEN_Neset.pdf.

Full text
Abstract:
Ce projet consiste à réaliser un système d'exploration de données automatisé en utilisant des agents logiciels. Ce projet touche deux concepts fondamentaux: l'exploration de données et les agents logiciels. La technologie des agents logiciels est un domaine très nouveau. À la suite d'une recherche intensive et quelques essais et erreurs, la méthodologie PASSI fut choisie pour le design et le développement du système. De la même manière, nous avons choisi la plateforme JADE pour implémenter nos agents.
APA, Harvard, Vancouver, ISO, and other styles
3

Léonard, Michel. "Conception d'une structure de données dans les environnements de bases de données." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Full text
Abstract:
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
APA, Harvard, Vancouver, ISO, and other styles
4

Ba, Mouhamadou Lamine. "Exploitation de la structure des données incertaines." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0013.

Full text
Abstract:
Cette thèse s’intéresse à certains problèmes fondamentaux découlant d’un besoin accru de gestion des incertitudes dans les applications Web multi-sources ayant de la structure, à savoir le contrôle de versions incertaines dans les plates-formes Web à large échelle, l’intégration de sources Web incertaines sous contraintes, et la découverte de la vérité à partir de plusieurs sources Web structurées. Ses contributions majeures sont : la gestion de l’incertitude dans le contrôle de versions de données arborescentes en s’appuyant sur un modèle XML probabiliste ; les étapes initiales vers un système d’intégration XML probabiliste de sources Web incertaines et dépendantes ; l’introduction de mesures de précision pour les données géographiques et ; la conception d’algorithmes d’exploration pour un partitionnement optimal de l’ensemble des attributs dans un processus de recherche de la vérité sur des sources Web conflictuelles
This thesis addresses some fundamental problems inherent to the need of uncertainty handling in multi-source Web applications with structured information, namely uncertain version control in Web-scale collaborative editing platforms, integration of uncertain Web sources under constraints, and truth finding over structured Web sources. Its major contributions are: uncertainty management in version control of treestructured data using a probabilistic XML model; initial steps towards a probabilistic XML data integration system for uncertain and dependent Web sources; precision measures for location data and; exploration algorithms for an optimal partitioning of the input attribute set during a truth finding process over conflicting Web sources
APA, Harvard, Vancouver, ISO, and other styles
5

El, Golli Aïcha. "Extraction de données symboliques et cartes topologiques: application aux données ayant une structure complexe." Phd thesis, Université Paris Dauphine - Paris IX, 2004. http://tel.archives-ouvertes.fr/tel-00178900.

Full text
Abstract:
Un des objectifs de lanalyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de lanalyse de données classiques. Un ensemble dopérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensible aux observations aberrantes. Lorsque les données que lon souhaite généraliser sont hétérogènes, certaines assertions incluent des observations virtuelles. Face à ce nouveau formalisme et donc cette extension dordre sémantique que lanalyse de données symbolique a apporté, une nouvelle approche de traitement et dinterprétation simpose. Notre objectif au cours de ce travail est daméliorer tout dabord cette généralisation et de proposer ensuite une méthode de traitement de ces données. Les contributions originales de cette thèse portent sur de nouvelles approches de représentation et de classification des données à structure complexe. Nous proposons donc une décomposition permettant daméliorer la généralisation tout en offrant le formalisme symbolique. Cette décomposition est basée sur un algorithme divisif de classification. Nous avons aussi proposé une méthode de généralisation symbolique non supervisée basée sur l'algorithme des cartes topologiques de Kohonen. L'avantage de cette méthode est de réduire les données d'une manière non supervisée et de modéliser les groupes homogènes obtenus par des données symboliques. Notre seconde contribution porte sur lélaboration dune méthode de classification traitant les données à structure complexe. Cette méthode est une adaptation de la version batch de lalgorithme des cartes topologiques de Kohonen aux tableaux de dissimilarités. En effet, seule la définition dune mesure de dissimilarité adéquate, est nécessaire pour le bon déroulement de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
6

El, Golli Aicha. "Extraction de données symboliques et cartes topologiques : Application aux données ayant une structure complexe." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090026.

Full text
Abstract:
Un des objectifs de l'analyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de l'analyse de données classiques. Un ensemble d'opérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensible aux observations aberrantes. Lorsque les données que l'on souhaite généraliser sont hétérogènes, certaines assertions incluent des observations virtuelles. Face à ce nouveau formalisme et donc cette extension d'ordre sémantique que l'analyse de données symbolique a apporté, une nouvelle approche de traitement et d'interprétation s'impose. Notre objectif au cours de ce travail est d'améliorer tout d'abord cette généralisation et de proposer ensuite une méthode de traitement de ces données. Nous proposons donc une décomposition permettant d'améliorer la énéralisation tout en offrant le formalisme symbolique. Cette décomposition est basée sur un algorithme divisif de classification. Nous avons aussi proposé une méthode de généralisation symbolique non supervisée basée sur l'algorithme des cartes topologiques de Kohonen. L'avantage de cette méthode est de réduire les données d'une manière non supervisée et de modéliser les groupes homogènes obtenus par des données symboliques. Notre seconde contribution porte sur l'élaboration d'une méthode de classification traitant les données à structure complexe. Cette méthode est une adaptation de la version batch de l'algorithme des cartes topologiques de Kohonen aux tableaux de dissimilarités. En effet, seule la définition d'une mesure de dissimilarité adéquate, est nécessaire pour le bon déroulement de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
7

Amarilli, Antoine. "Tirer parti de la structure des données incertaines." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0021/document.

Full text
Abstract:
La gestion des données incertaines peut devenir infaisable, dans le cas des bases de données probabilistes, ou même indécidable, dans le cas du raisonnement en monde ouvert sous des contraintes logiques. Cette thèse étudie comment pallier ces problèmes en limitant la structure des données incertaines et des règles. La première contribution présentée s'intéresse aux conditions qui permettent d'assurer la faisabilité de l'évaluation de requêtes et du calcul de lignage sur les instances relationnelles probabilistes. Nous montrons que ces tâches sont faisables, pour diverses représentations de la provenance et des probabilités, quand la largeur d'arbre des instances est bornée. Réciproquement, sous des hypothèses faibles, nous pouvons montrer leur infaisabilité pour toute autre condition imposée sur les instances. La seconde contribution concerne l'évaluation de requêtes sur des données incomplètes et sous des contraintes logiques, sous l'hypothèse de finitude généralement supposée en théorie des bases de données. Nous montrons la décidabilité de cette tâche pour les dépendances d'inclusion unaires et les dépendances fonctionnelles. Ceci constitue le premier résultat positif, sous l'hypothèse de la finitude, pour la réponse aux requêtes en monde ouvert avec un langage d'arité arbitraire qui propose à la fois des contraintes d'intégrité référentielle et des contraintes de cardinalité
The management of data uncertainty can lead to intractability, in the case of probabilistic databases, or even undecidability, in the case of open-world reasoning under logical rules. My thesis studies how to mitigate these problems by restricting the structure of uncertain data and rules. My first contribution investigates conditions on probabilistic relational instances that ensure the tractability of query evaluation and lineage computation. I show that these tasks are tractable when we bound the treewidth of instances, for various probabilistic frameworks and provenance representations. Conversely, I show intractability under mild assumptions for any other condition on instances. The second contribution concerns query evaluation on incomplete data under logical rules, and under the finiteness assumption usually made in database theory. I show that this task is decidable for unary inclusion dependencies and functional dependencies. This establishes the first positive result for finite open-world query answering on an arbitrary-arity language featuring both referential constraints and number restrictions
APA, Harvard, Vancouver, ISO, and other styles
8

État-Le, Blanc Marie-Sylvie d'. "Une base de données sédimentologiques : structure, mise en place, applications." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10565.

Full text
Abstract:
La base de donnees est construite sur le modele relationnel, elle utilise le logiciel rdb de digital. Sa structure permet de stocker les donnees relatives a une mission oceanographique et a tous les prelevements et analyses qui s'y rattachent. Les programmes d'acces sont ecrits en fortran 77 ainsi que le programme de calcul des parametres granulometriques, la consultation se fait grace au logiciel datatrieve (digital). L'application de ce travail est faite avec les donnees de la mission misedor
APA, Harvard, Vancouver, ISO, and other styles
9

Yahia, Hussein. "Analyse des structures de données arborescentes représentant des images." Paris 11, 1986. http://www.theses.fr/1986PA112292.

Full text
Abstract:
Nous sommes conduits à introduire une notion d'image aléatoire qui permet, grâce à la technique des fonctions génératrices, d'obtenir les moments des principaux paramètres associes aux algorithmes manipulant de telles structures de données. Les modèles introduits sont suffisamment souples pour contenir virtuellement tous les modèles déjà existants. Nous analysons alors les performances des quadtrees et des octrees du point de vue de l'occupation mémoire puis nous étudions la complexité moyenne des algorithmes de recherche des voisins, de passage inter-représentations, et d'intersection ou de superposition d'images
APA, Harvard, Vancouver, ISO, and other styles
10

Charoy, François. "Construction modulaire d'ateliers logiciels sur une structure d'accueil a objets." Nancy 1, 1992. http://www.theses.fr/1992NAN10173.

Full text
Abstract:
Cette thèse s'intéresse à la construction d'environnements de développement et plus particulièrement à la définition des services nécessaires à cette construction. Son objectif est de montrer qu'il est possible de construire des environnements économiques par composition de constituants basés sur la description des objets participant à ce développement. La première partie de la thèse est consacrée à l'étude des besoins pour la gestion des objets du développement et à la confrontation de ces besoins avec les systèmes existants (sgf, sgbd, pcte, cais). La seconde partie est une proposition d'un modèle et de mécanismes devant permettre la construction progressive et incrémentale d'environnements, basée sur le modèle de pcte. Ce modèle permet la construction de composants d'environnements basés sur la description de leurs objets et des opérations de manipulation de ces objets. Les mécanismes associés permettent la fusion, l'intégration et l'évolution de ces composants pour assurer la construction progressive d'environnements. La dernière partie fait le bilan de cette expérience en montrant comment l'objectif initial a été atteint
APA, Harvard, Vancouver, ISO, and other styles
11

Alabau, Miguel. "Une expression des algorithmes massivement parallèles à structure de données irrégulières." Bordeaux 1, 1994. http://www.theses.fr/1994BOR10569.

Full text
Abstract:
Les applications massivement parallèles dans lesquelles le partage d'informations se fait sans mémoire commune rendent difficiles la gestion manuelle de la synchronisation et de la communication, du fait du grand nombre de processus mis en jeu. La programmation directe des processus communicants, la parallélisation automatique des programmes séquentiels, et l'utilisation de langages à parallélisme des données sont les réponses apportées à l'heure actuelle à ce problème. Les deux dernières approches, bien que très répandues, ont des difficultés à prendre en compte des problèmes mettant en jeu des données irrégulières. Dans ce document nous présentons un mode d'expression oriente parallélisme des données dans lequel le graphe est utilisé comme structure de données de base. Nous restreignons ce mode d'expression de façon à produire un langage compilable, base sur une expression en termes de graphes. Nous décrivons ensuite un schéma de compilation dans lequel les communications introduites ne peuvent provoquer aucun inter blocage des processus de l'application parallèle, même dans le cas ou les communications sont bloquantes. Nous proposons enfin une optimisation portant sur le nombre des communications
APA, Harvard, Vancouver, ISO, and other styles
12

Malengreau, Barbara. "Structure profonde de la Réunion d'après les données magnétiques et gravimétriques." Clermont-Ferrand 2, 1995. http://www.theses.fr/1995CLF21702.

Full text
Abstract:
Depuis le début des années 1980, de nombreuses études géologiques et géophysiques ont été effectuées sur l'ile de la Réunion. Au cours de ce travail, une compilation des données magnétiques et gravimétriques acquises au niveau de l'ile a été réalisée. Une campagne gravimétrique régionale sur le piton des neiges a permis de compléter l'ensemble des données terrestres. De plus, les données magnétiques et gravimétriques régionales acquises en mer depuis le début des années 1960 ont été intégrées dans cette étude. Une analyse détaillée des anomalies magnétiques et gravimétriques a été ensuite réalisée. Les résultats d'autres types d'études, géologiques et géophysiques, ont été prises en compte pour proposer un modèle général de structure interne de l'ile et un nouveau schéma d'évolution du volcanisme de l'ile. Ce schéma géologique nous amené (1) à reconsidérer les précédents modèles d'évolution des deux volcans connus à la Réunion, (2) à déduire la présence d'un troisième volcan majeur ancien, le Volcan des Alizés, (3) à supposer la présence d'un quatrième centre d'activité ancien, le Volcan de Takamaka, (4) à délimiter 4 zones de glissements en masse à grande échelle qui se sont produits au cours de la croissance de l'ile, (5) à proposer une explication mécanique possible pour l'occurrence des glissements vers l'est du Piton de la Fournaise, (6) à expliquer le développement des rift zones NE et SE du piton de la Fournaise et (7) à caractériser la zone de stockage magmatique dans la zone centrale du Piton de la Fournaise. Le modèle général d'évolution propose offre une base cohérente d'interprétation des résultats antérieurs et qui doit servir de guide pour les études futures
APA, Harvard, Vancouver, ISO, and other styles
13

Imberty, Anne. "Nouvelles données sur la structure et le polymorphisme des grains d'amidon." Grenoble 1, 1988. http://www.theses.fr/1988GRE10029.

Full text
Abstract:
Le grain d'amidon presente une alternance radiale de zones amorphes. Ces zones correspondent a l'alternace de regions lineaires et de zones de branchement d'une des deux molecules composant le grain d'amidon, l'amylopectine; le role de l'autre composant, l'amylose, etant moins bien connu. L'analyse conformationnelle des liaisons glycosidiques a permis de construire les modeles des fragments lineaires constituant les parties cristallines. D'autre part, l'analyse conformationnelle de composes modeles, conjointement avec la resolution de la structure cristallographique d'un trisaccharide modele du point de branchement, a permis de proposer des modeles des branchements de la molecule d'amylopectine. La resolution de la structure des parties cristallines du grain d'amidon a ete possible par la conjonction de plusieurs techniques de cristallographie (rayon x sur les fibres et les poudres, diffraction eelectronique sur micro-cristaux) alliee a l'analyse conformationnelle. Les structures tridimensionnelles des deux polymorphes (amidon de cereale et amidon de tubercule) different par leur arrangement cristallin et leur teneur en eau mais presentent les memes caracteristiques moleculaires. Dans les deux cas, il s'agit de double-helices a brins paralleles, de chiralite gauche, et ayant un arrangement parallele dans la maille cristalline. Ces caracteristiques sont en accord avec les connaissances actuelles sur les proprietes physico-chimiques de l'amidon et sur la biosynthese de la granule
APA, Harvard, Vancouver, ISO, and other styles
14

Festy, Catherine. "Données actuelles sur les mécanismes d'action des antidépresseurs." Paris 5, 1988. http://www.theses.fr/1988PA05P020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Heulot, Nicolas. "Etude des projections de données comme support interactif de l’analyse visuelle de la structure de données de grande dimension." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112127.

Full text
Abstract:
Acquérir et traiter des données est de moins en moins coûteux, à la fois en matériel et en temps, mais encore faut-il pouvoir les analyser et les interpréter malgré leur complexité. La dimensionnalité est un des aspects de cette complexité intrinsèque. Pour aider à interpréter et à appréhender ces données le recours à la visualisation est indispensable au cours du processus d’analyse. La projection représente les données sous forme d’un nuage de points 2D, indépendamment du nombre de dimensions. Cependant cette technique de visualisation souffre de distorsions dues à la réduction de dimension, ce qui pose des problèmes d’interprétation et de confiance. Peu d’études ont été consacrées à la considération de l’impact de ces artefacts, ainsi qu’à la façon dont des utilisateurs non-familiers de ces techniques peuvent analyser visuellement une projection. L’approche soutenue dans cette thèse repose sur la prise en compte interactive des artefacts, afin de permettre à des analystes de données ou des non-experts de réaliser de manière fiable les tâches d’analyse visuelle des projections. La visualisation interactive des proximités colore la projection en fonction des proximités d’origine par rapport à une donnée de référence dans l’espace des données. Cette technique permet interactivement de révéler les artefacts de projection pour aider à appréhender les détails de la structure sous-jacente aux données. Dans cette thèse, nous revisitons la conception de cette technique et présentons ses apports au travers de deux expérimentations contrôlées qui étudient l’impact des artefacts sur l’analyse visuelle des projections. Nous présentons également une étude de l’espace de conception d’une technique basée sur la métaphore de lentille et visant à s’affranchir localement des problématiques d’artefacts de projection
The cost of data acquisition and processing has radically decreased in both material and time. But we also need to analyze and interpret the large amounts of complex data that are stored. Dimensionality is one aspect of their intrinsic complexity. Visualization is essential during the analysis process to help interpreting and understanding these data. Projection represents data as a 2D scatterplot, regardless the amount of dimensions. However, this visualization technique suffers from artifacts due to the dimensionality reduction. Its lack of reliability implies issues of interpretation and trust. Few studies have been devoted to the consideration of the impact of these artifacts, and especially to give feedbacks on how non-expert users can visually analyze projections. The main approach of this thesis relies on an taking these artifacts into account using interactive techniques, in order to allow data scientists or non-expert users to perform a trustworthy visual analysis of projections. The interactive visualization of the proximities applies a coloring of the original proximities relatives to a reference in the data-space. This interactive technique allows revealing projection artifacts in order to help grasping details of the underlying data-structure. In this thesis, we redesign this technique and we demonstrate its potential by presenting two controlled experiments studying the impact of artifacts on the visual analysis of projections. We also present a design-space based on the lens metaphor, in order to improve this technique and to locally visualize a projection free of artifacts issues
APA, Harvard, Vancouver, ISO, and other styles
16

Ernst, Christian. "Conception et implantation d'un système de gestion de bases d'objets de structure complexe : application aux images." Nice, 1987. http://www.theses.fr/1987NICE4089.

Full text
Abstract:
Dans une première partie, un état de l'art sur les bases d'images est proposé, tant du point de vue des consommateurs d'images que des concepteurs de bases de données. Dans un deuxième temps, la présentation d'un ensemble d'outils de structuration et de manipulation d'images est proposée. Le processus de structuration des objets est naturel, non redondant et dynamique. Il combine une approche à la fois centrée objet et ensembliste des regroupements de données. La cohérence de la base est assurée par l'existence dans le noyau du système d'un mécanisme transactionnel original et performant
APA, Harvard, Vancouver, ISO, and other styles
17

Piuzzi, Marc. "Détermination de la structure de protéines à l'aide de données faiblement résolues." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00629362.

Full text
Abstract:
La connaissance des structures tridimensionnelles des macromolécules biologiques est indispensable pour mieux comprendre leur rôle et pour la conception de nouvelles molécules thérapeutiques. Les techniques utilisées actuellement offrent une grande variété d'approches qui utilisent à la fois des informations spécifiques à la protéine étudiée et des informations génériques communes { l'ensemble des protéines. Il est possible de classer ces méthodes en fonction de la quantité d'information utilisée dans chacune de ces deux catégories avec d'un côté des méthodes utilisant le plus possible de données spécifiques { la protéine étudiée et de l'autre les méthodes utilisant le plus possibles de données génériques présentes dans les bases de données. Le travail présenté dans cette thèse aborde deux utilisations de techniques mixtes, présentant une autre combinaison entre données spécifiques et données génériques. En particulier nous avons cherché à obtenir la structure de protéines composée d'un ou deux domaines en ne disposant que d'un nombre restreint de données spécifiques. Pour déterminer la structure d'une protéine de grande taille composée de deux domaines { l'aide de données de diffusion des rayons X et de modèles obtenus par de la modélisation par homologie, nous avons adapté puis optimisé un programme récemment développé au laboratoire. Nous avons ensuite modélisé la structure d'un domaine d'une protéine de virus en incorporant un faible nombre de contraintes issues des données obtenues par RMN dans une méthode de prédiction de structure " ab initio ". Enfin, nous avons étudié l'intérêt d'intégrer les courants de cycle, une composante du déplacement chimique, dans un programme d'arrimage moléculaire pour la résolution de complexes protéine-ADN.
APA, Harvard, Vancouver, ISO, and other styles
18

Ledezma, Ivan. "Structure de marché et productivité : théorie et analyse empirique sur données manufacturières." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2008. http://tel.archives-ouvertes.fr/tel-00364054.

Full text
Abstract:
Dans cette thèse nous étudions le lien entre structure de marché et productivité. Une place particulière dans nos arguments est réservée à certaines caractéristiques propres à la manufacture : économies d'échelles, hétérogénéité des firmes et asymétries dans la connaissance de l'état de l'art technologique. Nous visons à comprendre comment les changements de la structure de marché, qu'ils soient orientés vers l'extérieur ou vers l'intérieur d'une économie, canalisent les incitations des firmes à obtenir des gains de productivité. La première partie de la thèse analyse l'effet de la politique commerciale sur la productivité des firmes. A l'aide d'un panel de firmes chiliennes (chapitre1) et d'un modèle théorique en économie ouverte (chapitre2), nous cherchons à expliquer des évolutions hétérogènes de la productivité des firmes. La seconde partie se focalise sur le lien entre structure de marché et innovation. A l'aide de données au niveau industriel pour un échantillon de pays de l'OCDE, nous testons l'effet de la concurrence et de la réglementation des marchés sur l'innovation, effet qui est mesuré conditionnellement à la proximité d'une industrie vis-à-vis de la frontière technologique (chapitre3). Finalement, nous proposons un modèle à échelles de qualité pour montrer comment la réglementation peut jouer un rôle important dans l'intensité de la recherche au niveau agrégé. Cet argument est testé au niveau industriel pour notre échantillon d'industrie de l'OCDE.
APA, Harvard, Vancouver, ISO, and other styles
19

Lachance, Bernard. "Développement d'une structure topologique de données 3D pour l'analyse de modèles géologiques." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/22501/22501.pdf.

Full text
Abstract:
La géologie a exprimé, face à la géomatique, le besoin de modéliser les objets géologiques en 3D et d’analyser ces modèles pour prendre des décisions plus éclairées. La géomatique répond relativement bien à certain de ces besoins comme celui de construire des modèles géologiques tridimensionnels. Cependant, les systèmes géomatiques (tels que les systèmes d’information géographique) ne sont pas adaptés à la gestion explicite des relations topologiques s’exprimant dans un univers 3D. Ce projet de maîtrise vise à développer une structure de stockage qui régularise les relations spatiales entre des objets tridimensionnels, permettant d’élargir les possibilités d’analyse d’un modèle géologique 3D. Pour réaliser ce projet, quatre étapes ont été nécessaires : 1) inventaire des structures topologiques 2D et 3D, 2) création d’une structure de données géométriques 3D, 3) création d’un prototype et, finalement, 4) réalisation de tests avec le prototype. Avec ces développements, une requête montrant la relation spatiale contient entre des unités géologiques et des fractures a été réalisée en 3D. Les résultats obtenus montrent le grand potentiel de cette approche pour l’analyse de modèle géologique. De plus, la création d’une nouvelle structure topologique de données appliquée aux données géologiques est certes un avancement pour l’application de la géomatique au domaine des sciences de la terre.
APA, Harvard, Vancouver, ISO, and other styles
20

Piuzzi, Marc. "Détermination de la structure de protéines à l’aide de données faiblement résolues." Paris 6, 2010. http://www.theses.fr/2010PA066510.

Full text
Abstract:
La connaissance des structures tridimensionnelles des macromolécules biologiques est indispensable pour mieux comprendre leur rôle et pour la conception de nouvelles molécules thérapeutiques. Les techniques utilisées actuellement offrent une grande variété d’approches qui utilisent à la fois des informations spécifiques à la protéine étudiée et des informations génériques communes à l’ensemble des protéines. Il est possible de classer ces méthodes en fonction de la quantité d’information utilisée dans chacune de ces deux catégories avec d’un côté des méthodes utilisant le plus possible de données spécifiques à la protéine étudiée et de l’autre les méthodes utilisant le plus possibles de données génériques présentes dans les bases de données. Le travail présenté dans cette thèse aborde deux utilisations de techniques mixtes, présentant une autre combinaison entre données spécifiques et données génériques. En particulier nous avons cherché à obtenir la structure de protéines composée d’un ou deux domaines en ne disposant que d’un nombre restreint de données spécifiques. Pour déterminer la structure d’une protéine de grande taille composée de deux domaines à l’aide de données de diffusion des rayons X et de modèles obtenus par de la modélisation par homologie, nous avons adapté puis optimisé un programme récemment développé au laboratoire. Nous avons ensuite modélisé la structure d’un domaine d’une protéine de virus en incorporant un faible nombre de contraintes issues des données obtenues par RMN dans une méthode de prédiction de structure « ab initio ». Enfin, nous avons étudié l’intérêt d’intégrer les courants de cycle, une composante du déplacement chimique, dans un programme d’arrimage moléculaire pour la résolution de complexes protéine-ADN.
APA, Harvard, Vancouver, ISO, and other styles
21

Gasnier, Claire. "Nouvelles données sur les relations structure/fonction des chromogranines et leurs applications." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/GASNIER_Claire_2006.pdf.

Full text
Abstract:
Les chromogranines sont une famille de protéines présentes dans les vésicules de sécrétion de nombreuses cellules endocrines, neuroendocrines et nerveuses. Elles sont porteuses de modifications post-traductionnelles et subissent une maturation protéolytique qui génère de nombreux peptides dérivés. Dans une première partie, mes recherches ont permis de caractériser 18 phosphorylations, un pont disulfure, 3 pyroglutamylations, 2 O-glycosylations et une N-glycosylation pour la chromogranine B (CGB). La détermination de ces modifications constitue un apport important dans la connaissance de cette protéine et la caractérisation de ses activités biologiques. Dans une seconde partie, je présente les modifications post-traductionnelles et la maturation protéolytique de la sécrétogranine II (SgII), granine minoritaire, mais importante dans les systèmes nerveux, endocrine et immunitaire. Cette étude est suivie par la caractérisation de deux nouveaux peptides à activité antibactérienne et antifongique dérivés de la SgII. Ces peptides pourraient être de nouveaux outils dans la lutte contre les infections, par greffage dans des nanostructures : des films actifs de polyélectrolytes. Dans une dernière partie, je présente un exemple d’application de cette technique avec l’utilisation d’un peptide antifongique dérivé de la CGA (la chromofungine) pour lutter contre les candidoses sous-prothétiques. Cette étude ouvre de nombreuses applications cliniques intéressantes.
APA, Harvard, Vancouver, ISO, and other styles
22

Courtois, Virginie. "Le gène Otx2 de souris : nouvelles données de structure et de fonction." Lyon, École normale supérieure (sciences), 2002. http://www.theses.fr/2002ENSL0231.

Full text
Abstract:
Le génome humain est constitué de 35000 gènes soit seulement 2 à 3 fois plus que celui d'organismes modèles tels que le nématode et la mouche. Ce nombre de gène n'est pas compatible avec la perception de la complexité moléculaire que l'on se faisait de ces différents organismes. Il est apparu que cette complexité moléculaire n'était pas générée uniquement par le nombre de gène mais aussi par des mécanismes de régulation de l'expression des gènes tels que l'usage de différents promoteurs et le processus d'épissage alternatif. Dans le laboratoire, nous avons étudié la régulation de l'expression du gène Otx2. Ce gène code pour un facteur de transcription à homéodomaine dont le rôle est crucial pour la formation du cerveau. En effet, les souris déficientes pour ce gène ne développent pas de structures antérieures du cerveau et meurent in utero. L'analyse moléculaire du gène Otx2 a permis de montrer que sa structure est plus complexe que celle qui était décrite dans la littérature. En effet, nos résultats ont révélé l'existence de trois sites d'initiation de la transcription et l'épissage alternatif d'un petit exon de 24 nucléotides dans la séquence codante. Le gène Otx2 est donc transcrit en 6 ARNm responsables de la synthèse de deux types de protéine Otx2 distinctes de 8 acides aminés dans la région N-terminale. L'étude des patrons d'expression de ces ARNm montre que les domaines d'expression sont identiques à ceux décrits dans la littérature. Cependant, cette analyse montre qu'au cours du développement embryonnaire, tous les ARNm du gène Otx2 sont exprimés dans les mêmes régions du cerveau alors qu'au stade adulte, seul un des trois sites d'initiation de la transcription semble être utilisé pour exprimér le gène Otx2. L'ensemble de nos résultats ainsi que ceux de la littérature nous permettent d'entrevoir les différents mécanismes potentiels de la régulation de l'expression du gène Otx2 et de proposer des hypothèses concernant les fonctions des protéines Otx2 dans le cerveau des mammifères.
APA, Harvard, Vancouver, ISO, and other styles
23

Yasin, Amanullah. "Incremental Bayesian network structure learning from data streams." Nantes, 2013. https://archive.bu.univ-nantes.fr/pollux/show/show?id=b81198e1-9d39-4282-9de6-f29ab95c0664.

Full text
Abstract:
Dans la dernière décennie, l’extraction du flux de données est devenue un domaine de recherche très actif. Les principaux défis pour les algorithmes d’analyse de flux sont de gérer leur infinité, de s’adapter au caractère non stationnaire des distributions de probabilités sous-jacentes, et de fonctionner sans relecture. Par conséquent, les techniques traditionnelles de fouille ne peuvent s’appliquer directement aux flux de données. Le problème s’intensifie pour les flux dont les domaines sont de grande dimension tels que ceux provenant des réseaux sociaux, avec plusieurs centaines voire milliers de variables. Pour rester a jour, les algorithmes d’apprentissage de réseaux Bayésiens doivent pouvoir intégrer des données nouvelles en ligne. L’état de l’art en la matiere implique seulement plusieurs dizaines de variables et ces algorithmes ne fonctionnent pas correctement pour des dimensions supérieures. Ce travail est une contribution au problème d’apprentissage de structure de réseau Bayésien en ligne pour des domaines de haute dimension, et a donné lieu à plusieurs propositions. D’abord, nous avons proposé une approche incrémentale de recherche locale, appelée iMMPC. Ensuite, nous avons proposé une version incrémentale de l’algorithme MMHC pour apprendre la structure du réseau. Nous avons également adapté cet algorithme avec des mécanismes de fenêtre glissante et une pondération privilégiant les données nouvelles. Enfin, nous avons démontré la faisabilité de notre approche par de nombreuses expériences sur des jeux de données synthétiques
In the last decade, data stream mining has become an active area of research, due to the importance of its applications and an increase in the generation of streaming data. The major challenges for data stream analysis are unboundedness, adaptiveness in nature and limitations over data access. Therefore, traditional data mining techniques cannot directly apply to the data stream. The problem aggravates for incoming data with high dimensional domains such as social networks, bioinformatics, telecommunication etc, having several hundreds and thousands of variables. It poses a serious challenge for existing Bayesian network structure learning algorithms. To keep abreast with the latest trends, learning algorithms need to incorporate novel data continuously. The existing state of the art in incremental structure learning involves only several tens of variables and they do not scale well beyond a few tens to hundreds of variables. This work investigates a Bayesian network structure learning problem in high dimensional domains. It makes a number of contributions in order to solve these problems. In the first step we proposed an incremental local search approach iMMPC to learn a local skeleton for each variable. Further, we proposed an incremental version of Max-Min Hill-Climbing (MMHC) algorithm to learn the whole structure of the network. We also proposed some guidelines to adapt it with sliding and damped window environments. Finally, experimental results and theoretical justifications that demonstrate the feasibility of our approach demonstrated through extensive experiments on synthetic datasets
APA, Harvard, Vancouver, ISO, and other styles
24

Todorov, Helena. "Structure learning to unravel mechanisms of the immune system." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN084.

Full text
Abstract:
Les cellules de notre système immunitaire jouent un rôle essentiel en nous protégeant de pathogènes infectieux tels que les virus ou certaines bactéries. Lors d’une maladie, les différents types de cellules immunitaires jouent des rôles spécifiques et interagissent, générant ainsi une réponse immunitaire adéquate. Cependant, cette réponse immunitaire complexe peut parfois être perturbée. Par exemple, les cellules qui sont supposées combattre l’infection peuvent être rendues silencieuses. Ce phénomène est observé dans certaines tumeurs, dans lesquelles des cellules peuvent commencer à proliférer de façon anormale sans être contrôlées par une réponse immune fonctionnelle. Comprendre comment le système immunitaire fonctionne lors d’une maladie est donc d’une importance cruciale pour trouver des thérapies efficaces. Les cellules du système immunitaire peuvent maintenant être étudiées grâce à des technologies qui génèrent de grandes quantités d’information concernant la forme, le type, ou les molécules contenues dans ces cellules. Cette immense quantité d’information représente un réel challenge pour les médecins qui se doivent de l’analyser. Ce contexte a mené au développement de beaucoup d’outils informatiques, qui permettent d’automatiser l’analyse de données médicales. Ces outils computationnels remplissent différentes fonctions, telles que le prétraitement (permettant d’obtenir des données propres, dans lesquelles le bruit technique est diminué), la sélection de variables (permettant d’identifier des variables d’intérêt), le clustering (permettant d’identifier des groupes de cellules similaires), l’inférence de trajectoire (permettant d’identifier des processus de développement), et l’inférence de réseaux d’interactions de gènes (permettant d’identifier les interactions entre certains gènes et leurs cibles), entre autres. Ce travail résulte de l’application et de la création de solutions computationnelles pour l’analyse de données single-cell. Dans la première partie de cette thèse, nous nous sommes essentiellement concentrés sur l’identification de structures dans les données. Nous présentons dans un premier temps TinGa, un outil capable d’identifier des trajectoires de développement de manière rapide et flexible. L’inférence de trajectoire repose en général sur la compression de l’information comprise au sein de milliers de gènes en un espace de faibles dimensions. Nous présentons donc, dans un second temps, une approche exploratoire que nous avons mis en place afin de calculer un espace de faibles dimensions optimal, dans lequel l’identification de trajectoires serait facilitée. Troisièmement, nous avons appliqué l’inférence de trajectoire ainsi que BRED, une nouvelle méthode d’inférence de réseaux de régulation de gènes, dans le but de mieux comprendre la réponse de cellules T CD8 à une infection virale aigüe. Nous avons identifié deux sources de cellules mémoires le long de la trajectoire suivie par les cellules T CD8, et nous les avons caractérisés. Finale- ment, nous présentons les résultats d’une étude multi-omique qui avait pour but d’identifier les différences qui existent entre des patients qui tolèrent la greffe de moelle osseuse, et d’autres patients, qui développent la maladie du greffon contre l’hôte. En intégrant trois différents types de données, nous avons pu identifier l’importance cruciale d’un équilibre entre un état d’activation et de repos du système immunitaire chez ces patients. Les outils computationnels permettent l’analyse de nouveaux types de données à large échelle, de manière rapide et efficace. En permettant d’automatiser des analyses qui étaient jusqu’à présent faites manuellement, ces outils présentent de multiples avantages. [...]
The cells of our immune system play an essential role in protecting us from infections from pathogens such as viruses or harmful bacteria. In the context of a disease, the different types of immune cells perform special roles and interact, resulting in a finely orchestrated immune response. However, this complex immune response can in some cases be disrupted. For instance, the cells that are supposed to fight a disease can be silenced. This phenomenon can be observed in tumors, in which cells can start proliferating abnormally without being controlled by a functional immune response. Understanding how the immune system works in the context of a disease is therefore of crucial importance if we want to find efficient therapies. The cells from the immune system can now be thoroughly studied with technologies that generate unprecedented amounts of in- formation on these cells’ shape, type, and on the molecules that they contain. This enormous amount of data represents a challenge for the doctors who need to analyse it. In this context, many computational tools are being developed, to automate the analysis of medical data. These computational tools tackle typical data analysis issues, such as preprocessing (to obtain clean, noise-free data), feature selection (to identify cell features of interest), clustering (to identify groups of similar cells), trajectory inference (to identify developmental processes), and network inference (to identify genes that can influence other genes), among others. The topic of this thesis is the application and design of computational solutions for single-cell data analysis. In the first part of this the- sis, we essentially focus on identifying structure in this type of data. We first present a new computational tool for trajectory inference, TinGa, that can identify cell developmental trajectories in a fast and flexible way. Trajectories are typically identified by compressing the information contained in thousands of genes into a low-dimensional space. We thus secondly present an exploratory study, in which we aimed at computing an optimal low-dimensional space in which the identification of a trajectory would be facilitated. Thirdly, we applied trajectory inference as well as a new network inference method, BRED, to gain biological insight on the response of CD8 T cells upon an acute viral infection. We identified two sources of memory along the developmental trajectory followed by activated CD8 T cells, and we characterised these two memory precursor populations. Finally, we report our results on a multi-omics study that aimed at unraveling differences between patients that were tolerant to a graft trans- plantation and patients who developed graft-versus-host disease. By integrating three different types of data, we were able to uncover the crucial role between an activated state and a steady state of the immune system in these patients. Computational tools allow to analyse new types of large scale datasets in a fast and efficient way. By allowing to automate analyses that were previously performed manually, they present multiple advantages. First, they make it possible to analyse data of unprecedented size and complexity. Secondly, they significantly reduce the time typically needed for the analysis of any type of data. Lastly, they lead to more robust results, since correctly set computational experiments can be repeated by different persons and will lead to identical results. Altogether, the development and application of computational tools can lead to more robust and reproducible single-cell omics research
APA, Harvard, Vancouver, ISO, and other styles
25

Moussa, Rim. "Contribution à la conception et l'implantation de la structure de données distribuée & scalable à haute disponibilité LH*RS." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090050.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et la mise au point d'une structure de données distribuée et scalable (SDDS) à haute disponibilité : LH*RS. Cette structure permet de mémoriser un grand fichier de données. Les données du fichier LH*RS sont réparties par le hachage linéaire distribué sur les nœuds de stockage connectés par un réseau. LH*RS tolère l'indisponibilité de k  1 nœuds de stockage de données. La tolérance résulte de l'ajout de données de parité, encodées selon un nouveau code que cette Thèse contribue à proposer, de type Reed Solomon (RS). Nos résultats contribuent à la conception du code proposé à travers l'étude théorique et expérimentale de diverses techniques de codage/ décodage candidates pour LH*RS. L'étude expérimentale concernait tout particulièrement la conception et l'implantation d'un gestionnaire prototype pour cette SDDS. Nous avons montré l'efficacité de notre gestionnaire au niveau de temps des opérations de recherche et de mise à jour de données, ainsi que l'efficacité de la récupération de données mémorisées sur un ou plusieurs nœuds de stockage devenus indisponibles.
APA, Harvard, Vancouver, ISO, and other styles
26

Rahier, Thibaud. "Réseaux Bayésiens pour fusion de données statiques et temporelles." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM083/document.

Full text
Abstract:
La prédiction et l'inférence sur des données temporelles sont très souvent effectuées en utilisant uniquement les séries temporelles. Nous sommes convaincus que ces tâches pourraient tirer parti de l'utilisation des métadonnées contextuelles associées aux séries temporelles, telles que l'emplacement, le type, etc. Réciproquement, les tâches de prédiction et d'inférence sur les métadonnées pourraient bénéficier des informations contenues dans les séries temporelles. Cependant, il n'existe pas de méthode standard pour modéliser conjointement les données de séries temporelles et les métadonnées descriptives. De plus, les métadonnées contiennent fréquemment des informations hautement corrélées ou redondantes et peuvent contenir des erreurs et des valeurs manquantes.Nous examinons d’abord le problème de l’apprentissage de la structure graphique probabiliste inhérente aux métadonnées en tant que réseau Bayésien. Ceci présente deux avantages principaux: (i) une fois structurées en tant que modèle graphique, les métadonnées sont plus faciles à utiliser pour améliorer les tâches sur les données temporelles et (ii) le modèle appris permet des tâches d'inférence sur les métadonnées uniquement, telles que l'imputation de données manquantes. Cependant, l'apprentissage de la structure de réseau Bayésien est un défi mathématique conséquent, impliquant un problème d'optimisation NP-difficile. Pour faire face à ce problème, nous présentons un algorithme d'apprentissage de structure sur mesure, inspiré de nouveaux résultats théoriques, qui exploite les dépendances (quasi)-déterministes généralement présentes dans les métadonnées descriptives. Cet algorithme est testé sur de nombreux jeux de données de référence et sur certains jeux de métadonnées industriels contenant des relations déterministes. Dans les deux cas, il s'est avéré nettement plus rapide que l'état de la l'art, et a même trouvé des structures plus performantes sur des données industrielles. De plus, les réseaux Bayésiens appris sont toujours plus parcimonieux et donc plus lisibles.Nous nous intéressons ensuite à la conception d'un modèle qui inclut à la fois des (méta)données statiques et des données temporelles. En nous inspirant des modèles graphiques probabilistes pour les données temporelles (réseaux Bayésiens dynamiques) et de notre approche pour la modélisation des métadonnées, nous présentons une méthodologie générale pour modéliser conjointement les métadonnées et les données temporelles sous forme de réseaux Bayésiens hybrides statiques-dynamiques. Nous proposons deux algorithmes principaux associés à cette représentation: (i) un algorithme d'apprentissage qui, bien qu'optimisé pour les données industrielles, reste généralisable à toute tâche de fusion de données statiques et dynamiques, et (ii) un algorithme d'inférence permettant les d'effectuer à la fois des requêtes sur des données temporelles ou statiques uniquement, et des requêtes utilisant ces deux types de données.%Nous fournissons ensuite des résultats sur diverses applications inter-domaines telles que les prévisions, le réapprovisionnement en métadonnées à partir de séries chronologiques et l’analyse de dépendance d’alarmes en utilisant les données de certains cas d’utilisation difficiles de Schneider Electric.Enfin, nous approfondissons certaines des notions introduites au cours de la thèse, et notamment la façon de mesurer la performance en généralisation d’un réseau Bayésien par un score inspiré de la procédure de validation croisée provenant de l’apprentissage automatique supervisé. Nous proposons également des extensions diverses aux algorithmes et aux résultats théoriques présentés dans les chapitres précédents, et formulons quelques perspectives de recherche
Prediction and inference on temporal data is very frequently performed using timeseries data alone. We believe that these tasks could benefit from leveraging the contextual metadata associated to timeseries - such as location, type, etc. Conversely, tasks involving prediction and inference on metadata could benefit from information held within timeseries. However, there exists no standard way of jointly modeling both timeseries data and descriptive metadata. Moreover, metadata frequently contains highly correlated or redundant information, and may contain errors and missing values.We first consider the problem of learning the inherent probabilistic graphical structure of metadata as a Bayesian Network. This has two main benefits: (i) once structured as a graphical model, metadata is easier to use in order to improve tasks on temporal data and (ii) the learned model enables inference tasks on metadata alone, such as missing data imputation. However, Bayesian network structure learning is a tremendous mathematical challenge, that involves a NP-Hard optimization problem. We present a tailor-made structure learning algorithm, inspired from novel theoretical results, that exploits (quasi)-determinist dependencies that are typically present in descriptive metadata. This algorithm is tested on numerous benchmark datasets and some industrial metadatasets containing deterministic relationships. In both cases it proved to be significantly faster than state of the art, and even found more performant structures on industrial data. Moreover, learned Bayesian networks are consistently sparser and therefore more readable.We then focus on designing a model that includes both static (meta)data and dynamic data. Taking inspiration from state of the art probabilistic graphical models for temporal data (Dynamic Bayesian Networks) and from our previously described approach for metadata modeling, we present a general methodology to jointly model metadata and temporal data as a hybrid static-dynamic Bayesian network. We propose two main algorithms associated to this representation: (i) a learning algorithm, which while being optimized for industrial data, is still generalizable to any task of static and dynamic data fusion, and (ii) an inference algorithm, enabling both usual tasks on temporal or static data alone, and tasks using the two types of data.%We then provide results on diverse cross-field applications such as forecasting, metadata replenishment from timeseries and alarms dependency analysis using data from some of Schneider Electric’s challenging use-cases.Finally, we discuss some of the notions introduced during the thesis, including ways to measure the generalization performance of a Bayesian network by a score inspired from the cross-validation procedure from supervised machine learning. We also propose various extensions to the algorithms and theoretical results presented in the previous chapters, and formulate some research perspectives
APA, Harvard, Vancouver, ISO, and other styles
27

Raynaud, Jean-Louis. "Exploitation simultanée des données spatiales et fréquentielles dans l'identification modale linéaire et non-linéaire." Besançon, 1986. http://www.theses.fr/1987BESA2013.

Full text
Abstract:
Les méthodes d'identification des solutions propres des structures mécaniques utilisent principalement des techniques d'appropriation ou de lissage de fonctions de transfert. Ces méthodes sont longues et n'utilisent pas simultanément toutes les mesures faites sur la structure. Il en résulte des erreurs ou des incohérences. Les méthodes temporelles, récemment développées prennent en compte simultanément toutes les informations délivrées dans une bande de fréquence par l'ensemble des capteurs places sur la structure. Ces méthodes nécessitent le calcul par transformées de Fourier inverses des réponses fréquentielles. La méthode proposée présente les mêmes avantages mais opère directement sur les réponses fréquentielles. A partir de deux développements, on transforme les déplacements et vitesses observes en un problème généralise aux valeurs propres caractérise par deux matrices complexes singulières. La résolution de ce problème conduit aux solutions propres contenues dans la bande fréquentielle observée. Elle a été validée : -sur des structures mécaniques linéaires simples présentant plusieurs modes propres fortement couples. -sur des structures mécaniques simples faiblement non-linéaires pour tester sa sensibilité aux non-linéarités de raideurs et d'amortissements. -sur des structures industrielles. Ce travail a permis la mise au point au L. M. A. D'un logiciel d'identification
APA, Harvard, Vancouver, ISO, and other styles
28

Vandel, Jimmy. "Apprentissage de la structure de réseaux bayésiens : application aux données de génétique-génomique." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1913/.

Full text
Abstract:
Apprendre la structure d'un réseau de régulation de gènes est une tâche complexe due à la fois au nombre élevé de variables le composant (plusieurs milliers) et à la faible quantité d'échantillons disponibles (quelques centaines). Parmi les approches proposées, nous utilisons le formalisme des réseaux bayésiens, ainsi apprendre la structure d'un réseau de régulation consiste à apprendre la structure d'un réseau bayésien où chaque variable représente un gène et chaque arc un phénomène de régulation. Dans la première partie de ce manuscrit nous nous intéressons à l'apprentissage de la structure de réseaux bayésiens génériques au travers de recherches locales. Nous explorons plus efficacement l'espace des réseaux possibles grâce à un nouvel algorithme de recherche stochastique (SGS), un nouvel opérateur local (SWAP), ainsi qu'une extension des opérateurs classiques qui permet d'assouplir temporairement la contrainte d'acyclicité des réseaux bayésiens. La deuxième partie se focalise sur l'apprentissage de réseaux de régulation de gènes. Nous proposons une modélisation du problème dans le cadre des réseaux bayésiens prenant en compte deux types d'information. Le premier, classiquement utilisé, est le niveau d'expression des gènes. Le second, plus original, est la présence de mutations sur la séquence d'ADN pouvant expliquer des variations d'expression. L'utilisation de ces données combinées dites de génétique-génomique, vise à améliorer la reconstruction. Nos différentes propositions se sont montrées performantes sur des données de génétique-génomique simulées et ont permis de reconstruire un réseau de régulation pour des données observées sur le plante Arabidopsis thaliana
Structure learning of gene regulatory networks is a complex process, due to the high number of variables (several thousands) and the small number of available samples (few hundred). Among the proposed approaches to learn these networks, we use the Bayesian network framework. In this way to learn a regulatory network corresponds to learn the structure of a Bayesian network where each variable is a gene and each edge represents a regulation between genes. In the first part of this thesis, we are interested in learning the structure of generic Bayesian networks using local search. We explore more efficiently the search space thanks to a new stochastic search algorithm (SGS), a new local operator (SWAP) and an extension for classical operators to briefly overcome the acyclic constraint imposed by Bayesian networks. The second part focuses on learning gene regulatory networks. We proposed a model in the Bayesian networks framework taking into account two kinds of information. The first one, commonly used, is gene expression levels. The second one, more original, is the mutations on the DNA sequence which can explain gene expression variations. The use of these combined data, called genetical genomics, aims to improve the structural learning quality. Our different proposals appeared to be efficient on simulated genetical genomics data and allowed to learn a regulatory network for observed data from Arabidopsis thaliana
APA, Harvard, Vancouver, ISO, and other styles
29

Astart, Laurent. "Représentation de surfaces ayant une structure arborescente par un modèle paramétrique." Aix-Marseille 2, 2004. http://www.theses.fr/2004AIX22003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Gaillard, Jeremy. "Représentation et échange de données tridimensionnelles géolocalisées de la ville." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2023/document.

Full text
Abstract:
Le perfectionnement des modes d’acquisition 3D (relevés laser, photographiques, etc.) a conduit à la multiplication des données 3D géolocalisées disponibles. De plus en plus de villes mettent leur modèle numérique 3D à disposition en libre accès. Pour garantir l’interopérabilité des différentes sources de données, des travaux ont été effectués sur la standardisation des protocoles d’échange et des formats de fichier. En outre, grâce aux nouveaux standards du Web et à l’augmentation de la puissance des machines, il est devenu possible ces dernières années d’intégrer des contenus riches, comme des applications 3D, directement dans une page web. Ces deux facteurs rendent aujourd’hui possible la diffusion et l’exploitation des données tridimensionnelles de la ville dans un navigateur web. Ma thèse, dotée d’un financement de type CIFRE avec la société Oslandia, s’intéresse à la représentation tridimensionnelle de la ville sur le Web. Plus précisément, il s’agit de récupérer et de visualiser, à partir d’un client léger, de grandes quantités de données de la ville sur un ou plusieurs serveurs distants. Ces données sont hétérogènes : il peut s’agir de la représentations 3D des bâtiments (maillages) et du terrain (carte de hauteur), mais aussi d’informations sémantiques telles que des taux de pollution (volumes), la localisation de stations de vélos (points) et le nombre de vélos disponibles, etc. Durant ma thèse, j’ai exploré différentes manières d’organiser ces données dans des structures génériques afin de permettre une transmission progressive de fortes volumétries de données 3D. La prise en compte de l’aspect multi-échelle de la ville est un élément clef de la conception de ces structures.L’adaptation de la visualisation des données à l’utilisateur est un autre grand axe de ma thèse. Du fait du grand nombre de cas d’utilisations existants pour la ville numérique, les besoins de l’utilisateur varient grandement : des zones d’intérêts se dégagent, les données doivent être représentées d’une manière spécifique... J’explore différentes manières de satisfaire ces besoins, soit par la priorisation de données par rapport à d’autres lors de leur chargement, soit par la génération de scènes personnalisés selon les préférences indiquées par l’utilisateur
Advances in 3D data acquisition techniques (laser scanning, photography, etc.) has led to a sharp increase in the quantity of available 3D geolocated data. More and more cities provide the scanned data on open access platforms. To ensure the intercompatibility of different data sources, standards have been developed for exchange protocols and file formats. Moreover, thanks to new web standards and the increase in processing power of personal devices, it is now possible to integrate rich content, such as 3D applications, directly in a web page. These two elements make it possible to share and exploit 3D city data into a web browser.The subject of my thesis, co-financed by the Oslandia company, is the 3D representation of city data on the Web. More precisely, the goal is to retrieve and visualize a great quantity of city data from one or several distant servers in a thin client. This data is heterogenous: it can be 3D representations of buildings (meshes) or terrain (height maps), but also semantic information such as pollution levels (volume data), the position of bike stations (points) and their availability, etc. During my thesis, I explored various ways of organising this data in generic structures in order to allow the progressive transmission of high volumes of 3D data. Taking into account the multiscale nature of the city is a key element in the design of these structures. Adapting the visualisation of the data to the user is another important objective of my thesis. Because of the high number of uses of 3D city models, the user’s needs vary greatly: some specific areas are of higher interest, data has to be represented in a certain way... I explore different methods to satisfy these needs, either by priroritising some data over others during the loading stage, or by generating personalised scenesbased on a set of preferences defined by the user
APA, Harvard, Vancouver, ISO, and other styles
31

Leonardis, Eleonora De. "Méthodes pour l'inférence en grande dimension avec des données corrélées : application à des données génomiques." Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0033/document.

Full text
Abstract:
La disponibilité de quantités énormes de données a changé le rôle de la physique par rapport aux autres disciplines. Dans cette thèse, je vais explorer les innovations introduites dans la biologie moléculaire grâce à des approches de physique statistique. Au cours des 20 dernières années, la taille des bases de données sur le génome a augmenté de façon exponentielle : l'exploitation des données brutes, dans le champ d'application de l'extraction d'informations, est donc devenu un sujet majeur dans la physique statistique. Après le succès dans la prédiction de la structure des protéines, des résultats étonnamment bons ont été finalement obtenus aussi pour l'ARN. Cependant, des études récentes ont révélé que, même si les bases de données sont de plus en plus grandes, l'inférence est souvent effectuée dans le régime de sous-échantillonnage et de nouveaux systèmes informatiques sont nécessaires afin de surmonter cette limitation intrinsèque des données réelles. Cette thèse va discuter des méthodes d'inférence et leur application à des prédictions de la structure de l'ARN. Nous allons comprendre certaines approches heuristiques qui ont été appliquées avec succès dans les dernières années, même si théoriquement mal comprises. La dernière partie du travail se concentrera sur le développement d'un outil pour l'inférence de modèles génératifs, en espérant qu'il ouvrira la voie à de nouvelles applications
The availability of huge amounts of data has changed the role of physics with respect to other disciplines. Within this dissertation I will explore the innovations introduced in molecular biology thanks to statistical physics approaches. In the last 20 years the size of genome databases has exponentially increased, therefore the exploitation of raw data, in the scope of extracting information, has become a major topic in statistical physics. After the success in protein structure prediction, surprising results have been finally achieved also in the related field of RNA structure characterisation. However, recent studies have revealed that, even if databases are growing, inference is often performed in the under sampling regime and new computational schemes are needed in order to overcome this intrinsic limitation of real data. This dissertation will discuss inference methods and their application to RNA structure prediction. We will discuss some heuristic approaches that have been successfully applied in the past years, even if poorly theoretically understood. The last part of the work will focus on the development of a tool for the inference of generative models, hoping it will pave the way towards novel applications
APA, Harvard, Vancouver, ISO, and other styles
32

Michel, Yann. "Assimilation de données d'images télédétectées en météorologie." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00489243.

Full text
Abstract:
L'évolution libre des fluides géostrophiques turbulents bidimensionnels fait apparaitre des tourbillons présentant une grande cohérence spatio-temporelle. Les écoulements atmosphériques tridimensionnels présentent également ce genre de structures cohérentes, notamment dans les champs de tourbillon potentiel. Certains aspects de la cyclogenèse semblent gouvernés, ou très sensibles, à la position et à l'intensité de ces anomalies. Les images des satellites géostationnaires permettent par ailleurs de visualiser les signatures de ces phénomènes, appelées intrusions sèches. Une première partie du travail adapte des outils de traitement d'image à la détection et au suivi des intrusions sèches sur les images vapeur d'eau. On utilise une approche basée sur des multi-seuillages et le suivi automatisé de structures (logiciel RDT). Le développement de caractéristiques supplémentaires s'avère nécessaire afin de sélectionner les intrusions associées à des événements dynamiques importants. L'une d'entre elles utilise l'information sur le courant-jet à partir de vents d'altitude de l'ébauche. Un deuxième volet s'applique à dégager une méthodologie de correction des structures en tourbillon potentiel à partir de ces informations. L'assimilation de données conventionnelle ne permet pas d'initialiser spécifiquement les structures. Nous décrivons les méthodes alternatives et étudions les possibilités, et limitations, d'une méthodologie basée sur l'assimilation de pseudo-observations. Cela débouche en particulier sur une version renouvelée de la relation entre vapeur d'eau et tourbillon potentiel. Les outils développés sont appliqués à la prévision de la tempête des Landes (2006). L'utilisation de données de concentration d'ozone est finalement évoquée comme une méthode alternative d'initialisation du tourbillon potentiel à la tropopause
APA, Harvard, Vancouver, ISO, and other styles
33

Lavergne-Boudier, Valérie. "Système dynamique d'interrogation des bases de données bibliographiques." Paris 7, 1990. http://www.theses.fr/1990PA077243.

Full text
Abstract:
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
APA, Harvard, Vancouver, ISO, and other styles
34

Limasset, Antoine. "Nouvelles approches pour l'exploitation des données de séquences génomique haut débit." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S049/document.

Full text
Abstract:
Cette thèse a pour sujet les méthodes informatiques traitant les séquences ADN provenant des séquenceurs haut débit. Nous nous concentrons essentiellement sur la reconstruction de génomes à partir de fragments ADN (assemblage génomique) et sur des problèmes connexes. Ces tâches combinent de très grandes quantités de données et des problèmes combinatoires. Différentes structures de graphe sont utilisées pour répondre à ces problèmes, présentant des compromis entre passage à l'échelle et qualité d'assemblage. Ce document introduit plusieurs contributions pour répondre à ces problèmes. De nouvelles représentations de graphes d'assemblage sont proposées pour autoriser un meilleur passage à l'échelle. Nous présentons également de nouveaux usages de ces graphes, différent de l'assemblage, ainsi que des outils pour utiliser ceux-ci comme références dans les cas où un génome de référence n'est pas disponible. Pour finir nous montrons comment utiliser ces méthodes pour produire un meilleur assemblage en utilisant des ressources raisonnables
Novel approaches for the exploitation of high throughput sequencing data In this thesis we discuss computational methods to deal with DNA sequences provided by high throughput sequencers. We will mostly focus on the reconstruction of genomes from DNA fragments (genome assembly) and closely related problems. These tasks combine huge amounts of data with combinatorial problems. Various graph structures are used to handle this problem, presenting trade-off between scalability and assembly quality. This thesis introduces several contributions in order to cope with these tasks. First, novel representations of assembly graphs are proposed to allow a better scaling. We also present novel uses of those graphs apart from assembly and we propose tools to use such graphs as references when a fully assembled genome is not available. Finally we show how to use those methods to produce less fragmented assembly while remaining tractable
APA, Harvard, Vancouver, ISO, and other styles
35

Opderbecke, Jan. "Localisation d'un robot mobile par fusion de données multi sensorielles dans un environnement structure." Paris 6, 1994. http://www.theses.fr/1994PA066213.

Full text
Abstract:
Dans cette thèse une méthode de fusion de données multi sensorielles pour localiser un robot mobile est proposée. L'algorithme met en ouvre un filtre de kalman afin de combiner la localisation relative avec un recalage absolu qui est effectue par rapport a des repères de l'environnement du véhicule. Ces repères sont des balises artificielles ponctuelles ou des éléments caractéristiques de l'environnement: coins, segments de droite l'algorithme permet une localisation du robot par rapport a des repères dont la position n'est que plus ou moins bien connue. Des contraintes, dues a la préparation d'un milieu balise (détermination de la position des repères), peuvent ainsi être levées. Un recalage des balises plus ou moins bien connue est de plus propose et il met également en ouvre un filtre de kalman. Une analyse détaillée de l'algorithme ainsi qu'une étude de ses performances par simulations statistiques sont présentées. Cette analyse nous a permis d'introduire une méthode pour sélectionner les balises qui apportent le plus d'information. Des essais ont été effectues sur une plate-forme expérimentale qui est équipée d'un tellement laser panoramique. Quelques résultats qui permettent de valider la méthode de localisation sont présentes
APA, Harvard, Vancouver, ISO, and other styles
36

Helbert, William. "Données sur la structure du grain d'amidon et des produits de recristallisation de l'amylose." Université Joseph Fourier (Grenoble ; 1971-2015), 1994. http://www.theses.fr/1994GRE10116.

Full text
Abstract:
Des etudes structurales et ultrastructurales ont ete entreprises sur d'une part des grains d'amidon et d'autre part des complexes cristallins d'amylose obtenus par recristallisation a partir de solutions. Ces etudes ont necessite le developpement d'une methodologie de microscopie electronique appliquee aux biopolymeres hydrates et sensibles aux radiations electroniques. L'ultrastructure cristalline des grains d'amidon a ete abordee par la mise au point d'une technique d'observation d'ultracoupes de grains apres erosion de la resine d'inclusion. Cette methode permet en particulier une analyse des echantillons par imagerie et diffraction des electrons. L'analyse de l'architecture cristalline des spherocristaux d'amylose de type a et de type b a revele que ces objets se distinguaient par leur mode de croissance. Leurs textures sont tres differentes, ce qui peut expliquer entre autres leur difference de susceptibilite vis a vis de l'hydrolyse enzymatique. Des monocristaux d'amylose v ont ete prepares en precipitant des solutions aqueuses d'amylose par addition de non solvants. Dans ces monocristaux qui ont ete etudies par microscopie et diffraction electronique, on montre que les chaines d'amylose adoptent des conformations helicoidales a 6 ou 8 residus par tour d'helices. Les monocristaux obtenus se regroupent en quatre famille dont trois correspondent a des helices d'amylose d'ordre 6 et a une des helices d'ordre 8. Certains de ces monocristaux sont susceptibles de cristalliser sur la cellulose pour former des structures du type shish-kebab qui ont ete caracterisees
APA, Harvard, Vancouver, ISO, and other styles
37

Popovici, Eugen-Costin. "Information retrieval of text, structure and sequential data in heterogeneous XML document collections." Lorient, 2008. http://www.theses.fr/2008LORIS110.

Full text
Abstract:
Les documents numériques sont aujourd'hui des données complexes qui intègrent d'une manière hétérogène des informations textuelles, structurelles, multimédia ainsi que des méta-données. Le langage de balisage générique XML s’est progressivement imposé comme support privilégié non seulement pour l’échange des données mais aussi pour leur stockage. La gestion des documents stocke��s sous les formats XML nécessite le développement de méthodes et d'outils spécifiques pour l'indexation, la recherche, le filtrage et la fouille des données. En particulier, les fonctions de recherche et de filtrage doivent prendre en compte des requêtes disposant de connaissances incomplètes, imprécises, parfois même erronées sur la structure ou le contenu des documents XML. Ces fonctions doivent par ailleurs maintenir une complexité algorithmique compatible avec la complexité des données et surtout avec leur volume toujours en forte croissance, ceci pour assurer le passage à l'échelle des solutions informatique. Dans cette thèse, nous étudions des méthodes et développons des outils pour indexer et rechercher des informations multimédia hétérogènes stockées dans des banques de documents XML. Plus précisément, nous abordons la question de la recherche par similarité sur des données composites décrites par des éléments structurels, textuels et séquentiels. En s'appuyant sur la partie structurelle des documents XML, nous avons défini un modèle de représentation, d'indexation et d'interrogation flexible pour des types hétérogènes de données séquentielles. Les principes que nous développons mettent en oeuvre des mécanismes de recherche qui exploitent simultanément les éléments des structures documentaires indexées et les contenus documentaires non structurés. Nous évaluons également l’impact sur la pertinence des résultats retournés par l'introduction de mécanismes d'alignement approximatif des éléments structurels. Nous proposons des algorithmes capables de détecter et de suggérer les « meilleurs points d'entrée » pour accéder directement à l’information recherchée dans un document XML. Finalement, nous étudions l'exploitation d’une architecture matérielle dédiée pour accélérer les traitements les plus coûteux du point de vue de la complexité de notre application de recherche d’information structurée
Nowadays digital documents represent a complex and heterogeneous mixture of text, structure, meta-data and multimedia information. The XML description language is now the standard used to represent such documents in digital libraries, product catalogues, scientific data repositories and across the Web. The management of semi structured data requires the development of appropriate indexing, filtering, searching and browsing methods and tools. In particular, the filtering and searching functions of the retrieval systems should be able to answer queries having an incomplete, imprecise or even erroneous knowledge about both the structure and the content of the XML documents. Moreover, these functions should maintain an algorithmic complexity compatible with the complexity of the data while maintaining the scalability of the system. In this thesis, we explore methods for managing and searching collections of heterogeneous multimedia XML documents. We focus on the flexible searching of structure, text, and sequential data embedded in heterogeneous XML document databases. Based on the structural part of the XML documents, we propose a flexible model for the representation, indexing and retrieval of heterogeneous types of sequential data. The matching mechanism simultaneously exploits the structural organization of the sequential/textual data as well as the relevance and the characteristics of the unstructured content of the indexed documents. We also design and evaluate methods both for the approximate matching of structural constraints in an XML Information Retrieval (IR) framework and for the detection of best entry points to locate given topics in XML Documents. Finally, we explore the use of dedicated hardware architecture to accelerate the most expensive processing steps of our XML IR application
APA, Harvard, Vancouver, ISO, and other styles
38

Picard, Jacques. "Structure, classification et discrimination des profils évolutifs incomplets et asynchrones." Lyon 1, 1987. http://www.theses.fr/1987LYO19044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Thomopoulos, Rallou. "Représentation et interrogation élargie de données imprécises et faiblement structurées." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0018.

Full text
Abstract:
Ce travail de thèse se situe dans le cadre d'un projet appliqué à la microbiologie prévisionnelle, s'appuyant sur une base de données et sur son système d'interrogation. Les données du projet sont faiblement structurées, elles peuvent être imprécises et ne permettent pas de répondre à toute requête de façon exacte, de sorte qu'un système d'interrogation souple de la base de données est nécessaire. Nous nous appuyons sur le modèle des graphes conceptuels pour prendre en compte les données faiblement structurées et sur la théorie des sous-ensembles flous pour représenter les données imprécises et les requêtes floues. L'objet de cette thèse est la combinaison de ces deux formalismes
This work is part of a project applied to predictive microbiology, which is built on a database and on its querying system. The data used in the project are weakly structured, they may be imprecise, and cannot provide exact answers to every query, so that a flexible querying system is necessary for the querying of the database. We use the conceptual graph model in order to take into account weakly structured data, and fuzzy set theory, in order to represent imprecise data and fuzzy queries. The purpose of this work is to provide a combination of these two formalisms
APA, Harvard, Vancouver, ISO, and other styles
40

Jühling, Frank. "Structure and evolution of animal mitochondrial tRNAs." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAJ012.

Full text
Abstract:
Les approches bioinformatiques développées au cours de cette thèse ont permis d’une part le développement de banques de données concernant les ARNt classiques ainsi que les ARNt mitochondriaux de métazoaires. Celles-ci sont basées sur de nouveaux outils pour la détection de gènes d’ARNt «bizarres» et des alignements de séquences basés sur les propriétés structurales préservées. Les analyses des séquences collectées ont conduit non seulement à une vision globale de la diversité des ARNt dans les génomes mitochondriaux couvrant l’ensemble des groupes taxonomiques des métazoaires, mais également une meilleure connaissance de l’organisation des génomes et d’en proposer des liens évolutifs. Elles ont également permis de confirmer et d’élargir l’existence d’ARNt les plus petits connus à ce jour et de poser les bases de compréhension des repliements tridimensionnaux des ARNt mitochondriaux. Ces travaux permettent de mieux appréhender la compréhension des relations structure/fonction des ARNt mitochondriaux humains, et en particulier les dysfonctionnements dans les pathologies mitochondriales
The bioinformatic approaches presented in this thesis include the development of databases for classical tRNAs and the mitochondrial tRNAs of metazoans. They are based on new tools for the detection of "bizarre" tRNA genes and sequences, and for the calculation of alignments based on their structural features. The analysis of collected sequences have led to an global overview on the diversity of tRNAs in mitochondrial genomes covering all taxonomic groups of metazoans, but also to a better understanding of genome organization and their evolution. The present study revealed the existence of the smallest known tRNA so far and provides the basis for understanding the three-dimensional folding of mitochondrial tRNA. This work helps to better understand the structure/function relationships of human mitochondrial tRNAs and, in particular, the dysfunctions in mitochondrial pathologies
APA, Harvard, Vancouver, ISO, and other styles
41

Lefebvre, Sandrine. "Déformées solaires : diamètre et structure interne : simulations en vue d'intercomparer les données sol et espace." Nice, 2003. http://www.theses.fr/2003NICE4058.

Full text
Abstract:
Les objectifs de cette thèse sont, tout d’abord, de faire un état des lieux des observations au sol des variations du diamètre solaire, non seulement temporelles mais aussi latitudinales. Ces dernières variations, ou déformées, traduisent en surface les propriétés physiques sous-jacentes (cisaillement, frottement). La qualité des mesures sol dépend de l’état de la turbulence atmosphérique, qui affecte la précision. Aussi notre équipe s’est-elle engagée dans la construction d’un microsatellite, PICARD, dont l’un des objectifs est la mesure spatiale de ces déformées. Pour préparer cette mission, il convient de créer les algorithmes de traitement de données nécessaires au haut degré de précision requis. Les mesures du diamètre solaire étant photométriques, toute contamination du limbe solaire due à la présence de phénomènes magnétiques tels que taches ou facules de surface jouent sur la précision des mesures. Mon travail a consisté à établir un algorithme de détection automatique de ces phénomènes au bord solaire, algorithme qui sera ensuite introduit dans le futur traitement des données PICARD. Afin de pouvoir établir cet algorithme, une instrumentation spécifique, MIRESOL, a été mise en place. Parallèlement, afin d’expliquer physiquement les déformées solaires, j’ai établi une nouvelle théorie, basée sur le vent thermique. Enfin, un dernier chapitre expose des calculs préliminaires concernant les relations possibles entre les variations du diamètre solaire et de la température globale de la Terre. Nous montrons qu’il existe sans doute un lien passant par les variations de luminosité di Soleil
The objectives of this thesis are, first of all, to make an inventory of ground-based observations of the solar diameter variations, not only temporal but also latitudinal. These last variations reflect surface distortions which are induced by the underlying physical properties (shearing, friction). The quality of ground-based measurements depends on the state of the atmospheric turbulence, which affects the precision. Our team is thus engaged in the construction of a microsatellite, PICARD, of which one of its main objectives is the data analysis algorithms that are necessary to achieve the required high degree of precision. The solar diameter measurements being photometric, any contamination of the solar limb due to the presence of surface magnetic phenomena, such as spots or faculae, affects the precision of the measurements. My work consisted in establishing an algorithm for an automatic control of these phenomena at the solar edge, algorithm which will be then introduced into the future PICARD Date processing. In order to establish this algorithm, a specific and versatile instrumentation, MIRESOL, has been developed. In parallel, in order to physically explain the solar distortions, I established a new theory, based on the thermal wind. Lastly, a final chapter exposes preliminary calculations concerning the possible links between the variations of the solar diameter and the global temperature of the Earth. We show that there is undoubtedly a connection which is through the luminosity variations of the Sun
APA, Harvard, Vancouver, ISO, and other styles
42

Fourno, Jean-Pierre. "Inversion des données télésismiques et gravimétriques, sismicité et structure crustale des Hautes Terres de Madagascar." Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30067.

Full text
Abstract:
La presentation detaillee, objet du chapitre i, des elements geologiques et structuraux reconnus sur la grande ile, souligne la complexite de la structure du socle precambrien malgache remobilise au panafricain et au cours des episodes qui ont affecte cette partie du gondwana au jurassique et au cretace. Le chapitre ii est consacre a l'etude de la sismicite de l'ile. La localisation des foyers de seismes par le reseau sismique malgache (5 stations) resulte de l'utilisation de 2 methodes differentes dont la methode hypoinverse et teste differents modeles de croute. Une correlation est etablie entre la sismicite, les zones de fractures majeures qui affectent l'ile et le volcanisme associe. Le chapitre iii se rapporte a l'etude de la discontinuite de mohorovicic sous les hautes terres d'apres les ondes telesisimiques enregistrees aux stations du reseau. Une etude exhaustive de dispersion des donnees est realisee et les anomalies de residus de temps de propagation sont interpretees en terme de variations d'epaisseur de la croute, les vitesses dans la croute et le manteau etant imposees en fonction des resultats precedents. Dans le dernier chapitre, les variations de profondeur du moho sont deduites par une methode linearisee, de l'inversion des donnees gravimetriques le long de profils e-w traversant les hautes terres. La modelisation-inversion des donnees sismiques et gravimetriques aboutit a des resultats convergents et met en evidence une ondulation tres caracteristique du moho sous l'ensemble des hautes terres, en etroite relation avec les zones de fractures majeures. Ces resultats sont confrontes aux autres donnees d'ordre sismotectonique, tectonique, volcanique et metamorphique. Un schema geodynamique est finalement propose qui implique l'existence possible d'une structure lithospherique extensive ancienne ayant rejoue au cours des episodes de rifting et de dislocation du puzzle gondwanien, dont l'ile de madagascar constitue une piece essentielle. Mots cles: sismicite, inversion sismique, inversion gravimetrique, discontinuite de mohorovicic, amincissement crustal, socle precambrien, madagascar, gondwana
APA, Harvard, Vancouver, ISO, and other styles
43

Kaviani, Ayoub. "La chaîne de collision continentale du Zagros (Iran) : structure lithosphérique par analyse de données sismologiques." Université Joseph Fourier (Grenoble), 2004. http://www.theses.fr/2004GRE10084.

Full text
Abstract:
La chaîne du Zagros située sur la marge septentrionale de la plaque Arabie, est l'une des plus jeunes chaînes de collision continentale. Elle a été structurée par la collision de la plaque Arabie avec le microcontinent d'Iran central. Une expérience sismologique, appelée "Zagros 2000-2001", a été réalisée dans le cadre d'une collaboration entre le LGIT et l'IIEES pour étudier la structure lithosphérique sous structure de la croûte et du manteau lithosphérique sous le réseau de stations. Les variations de l'épaisseur de croûte ont été mises en évidence par analyse en fonctions récepteur. Elles sont caractériśées par un sur épaississement maximum de 20 km sur une largeur d'environ 100 km immédiatement au nord-est du MZT ("Main Zagros Thrust"). Une épaisseur moyenne de croûte de 45 km a été trouvée sous le zagros et de 40 km sous l'Iran central. Nous avons ensuite proposé un modèle de croûte contraint par la géométrie du Moho tirée de l'analyse en fonctions récepteur, qui est aussi compatible avec les données gravimétriques. Le sur-épaississement est interprété comme lié à un redoublement crustal avec chevauchement de la croûte d'Iran central sur celle du Zagros le long du MZT. L'inversion de plus de 5000 temps d'arrivée P télésismsiques nous a permis de caractériser la structure du manteau supérieur jusqu'à 350 km de profondeur. Les résultats de cette inversion montrent un manteau supérieur rapide sous le Zagros et lent sous l'Iran central. Ceci peut être lié à une délamination du manteau lithosphérique sous l'Iran central
The Zagros mountain belt situated on the northern margin of the Arabian plate, is one of the youngest belts was built by the collision of the Arabian plate with the central Iran micro-continent. A seismological experiment, called "Zagros 2000-2001" was realized by a collaboration between LGIT and IIEES to study the lithospheric structure beneath this collision belt and some part of central Iranian block. We used to investigated the variations of the crustal thickness under the network. By this analysis, we have found a thickening by 20 km over a region of about 100 km width just on the northeast of the MZT ("Main Zagros Thrust"). The average crustal thicknesses of 45 and 40 km were found respectively for the Zagros and central Iran. We've then proposed a crustal model in which the Moho was contrained using the results obtained by analysis of the receveir functions. This model was tried to be compatible with gravimetric data. The thickening of the crust on NE of the MZT was interpreted to be related to overthrusting of the central Iranian crust into the Zagros crust. We could also characterise the upper mantle structure to depth of 350 km by inversion of more than 5000 arrival times of teleseismic P waves. The results of this inversion show a fast upper mantle beneath the Zagros and slow one beneath central Iran. We may relate the presence of a slow upper mantle beneath central Iran to delamination of the lithospheric mantle
APA, Harvard, Vancouver, ISO, and other styles
44

Lefèvre, Pascal. "Protection des contenus multimédias pour la certification des données." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2273/document.

Full text
Abstract:
Depuis plus de vingt ans, l'accès à la technologie est devenu très facile étant donné son omniprésence dans le quotidien de chacun et son faible coût. Cet accès aux technologies du numérique permet à toute personne équipée d'un ordinateur ou d'un smartphone de visualiser et de modifier des contenus digitaux. Avec les progrès en matière de stockage en ligne, la quantité de contenus digitaux tels que le son, l'image ou la vidéo sur internet a explosé et continue d'augmenter.Savoir identifier la source d'une image et certifier si celle-ci a été modifiée ou non sont des informations nécessaires pour authentifier une image et ainsi protéger la propriété intellectuelle et les droits d’auteur par exemple. Une des approches pour résoudre ces problèmes est le tatouage numérique. Il consiste à insérer une marque dans une image qui permettra de l'authentifier.Dans cette thèse, nous étudions premièrement le tatouage numérique dans le but de proposer des méthodes plus robustes aux modifications d'image grâce aux codes correcteurs. En étudiant la structure des erreurs produites par la modification d’une image marquée, un code correcteur sera plus efficace qu’un autre. Nous proposons aussi d’intégrer de nouveaux codes correcteurs appelés codes en métrique rang pour le tatouage.Ensuite, nous proposons d’améliorer l'invisibilité des méthodes de tatouage pour les images couleur. A l’insertion d’une marque, les dégradations de l’image sont perçues différemment par le système visuel humain en fonction de la couleur. Nous proposons un modèle biologique de la perception des couleurs qui nous permet de minimiser les distorsions psychovisuelles de l’image à l’insertion.Toutes ces techniques sont testées sur des images naturelles dans un contexte d’insertion d’information
For more than twenty years, technology has become more and more easy to access. It is omnipresent in everyday life and is low cost. It allows anyone using a computer or a smartphone to visualize and modify digital contents. Also, with the impressive progress of online massive data storage (cloud), the quantity of digital contents has soared and continues to increase. To ensure the protection of intellectual property and copyright, knowing if an image has been modified or not is an important information in order to authenticate it. One approach to protect digital contents is digital watermarking. It consists in modifying an image to embed an invisible mark which can authenticate the image. In this doctorate thesis, we first study how to improve the robustness of digital image watermarking against image processings thanks to error correcting codes. By studying the error structure produced by the image processing applied on a watermarked image, we can find an optimal choice of error correcting code for the best correction performances. Also, we propose to integrate a new type of error correcting codes called rank metric codes for watermarking applications. Then, we propose to improve the invisibility of color image watermarking methods. At the embedding step, a host image suffers some distortions which are perceived differently in function of the color by the human visual system. We propose a biological model of color perception which allows one to minimize psychovisual distortions applied on the image to protect
APA, Harvard, Vancouver, ISO, and other styles
45

Sung, Mee-Young. "Modélisation de documents multimédia incluant des tables, des données calculables et des formules mathématiques." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0058.

Full text
Abstract:
La multitude ·des outils de manipulation ·de documents et le besoin important de communiquer entre organisations ont abouti à la définition de la norme ODA (Office Document Architecture) qui est un modèle de documents multimédia structurés. Cette norme prend en compte deux aspects du document: la forme logique et la forme physique. Cependant, ODA ne supporte pas actuellement la description logique des tables multidimensionnelles, des documents possédant des portions de contenu calculables (documents paramétrés) et des formules mathématiques dans les documents retraitables. La représentation de ces objets documentaires fait l'objet principal de cette thèse. L'approche orientée objet a été choisie pour servir de base à la modélisation des tables multidimensionnelles. Les objets d'une table sont structurés en Graphe Direct Acyclique (GDA) pour permettre de distinguer les cellules à l'aide des lignes et des colonnes. Une grammaire associée à ce modèle défmit un nouveau constructeur "MSUB" (Multiple-SUBordination) qui permet de construire un GD A. Et ainsi d'étendre le modèle purement hiérarchique d'ODA en un modèle de type GDA. Qui semble plus adéquat à la représentation des tables multidimensionnelles. L'aspect évolutif du document caractérisé par des éléments paramétrés est devenu important dans le domaine bureautique. Un modèle de document paramétré est conçu à l'aide de la notion d'"ObjetDonnée" pour décrire les caractéristiques et les actions (opérations) associées aux données. Un nouveau mécanisme d'évaluation pour inclure des données dans les documents est proposé. La représentation des formules mathématiques a été abordée de façon à analyser la sémantique des formules. Nous avons déflni une structure logique des formules mathématiques offrant la possibilité de définir de nouveaux symboles graphiques pour couvrir l'imagination des mathématiciens. Cette structure logique sera utilisée non seulement pour le formatage mais aussi pour l'évaluation des formules mathématiques
[The existence of man document preparation software products and the requirement of the communication between organizational lead to the definition of the standard ODA (Office Document Architecture) which ia a structured multimedia document model. This standard takea account of two aspects of a document : the logical form and the layout form. However, presently ODA does not support the logical description of multidimen signal tables, calculable (parametered) data and mathematical formulae in the processable documents. The representation of these objecta constitues the them. E of this dissertation. The Object-oriented approach is chosen as a basia of the multidimenaional table modeling. Objecta in a table are structured in an aggregation lattice (D. A. G. :Direct Acyclic Graph) in order to ba able to distinguish cella by rows and colum. Ns. A grammar associated with this model defines a constructor ''MSUB (Multiple SUBordination) to permit creating DAG which seems much more adequate for representing multidimensional tables. The evolution aspect of a document, which is characterised by the parametered elements. Also is important inoffice document system. A parametered document model ia designed in the light of the « Data-Qbject » notion to describe the data characteristics and the assoc:lated actions operations on data fot fields situation tion. ) A new mechanism for including data in auch a document is proposed. A logical of mathematical formulae offers the poasibllity to define new graphical symbol to cover the mathematical imagination
APA, Harvard, Vancouver, ISO, and other styles
46

McHugh, Rosemarie. "Intégration de la structure matricielle dans les cubes spatiaux." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25758/25758.pdf.

Full text
Abstract:
Dans le monde de la géomatique, la fin des années 1990 a été marquée par l’arrivée de nouvelles solutions décisionnelles, nommées SOLAP. Les outils SOLAP fournissent des moyens efficaces pour facilement explorer et analyser des données spatiales. Les capacités spatiales actuelles de ces outils permettent de représenter cartographiquement les phénomènes et de naviguer dans les différents niveaux de détails. Ces fonctionnalités permettent de mieux comprendre les phénomènes, leur distribution et/ou leurs interrelations, ce qui améliore le processus de découverte de connaissances. Toutefois, leurs capacités en termes d’analyses spatiales interactives sont actuellement limitées. Cette limite est principalement due à l’unique utilisation de la structure de données géométrique vectorielle. Dans les systèmes d’information géographique (SIG), la structure de données matricielle offre une alternative très intéressante au vectoriel pour effectuer certaines analyses spatiales. Nous pensons qu’elle pourrait offrir une alternative intéressante également pour les outils SOLAP. Toutefois, il n’existe aucune approche permettant son exploitation dans de tels outils. Ce projet de maîtrise vise ainsi à définir un cadre théorique permettant l’intégration de données matricielles dans les SOLAP. Nous définissons les concepts fondamentaux permettant l’intégration du matriciel dans les cubes de données spatiaux. Nous présentons ensuite quelques expérimentations qui ont permis de les tester et finalement nous initions le potentiel du matriciel pour l’analyse spatiale dans les outils SOLAP.
APA, Harvard, Vancouver, ISO, and other styles
47

Brugger, Bastien. "Structure interne et minéralogie des exoplanètes terrestres de faible masse." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0324/document.

Full text
Abstract:
La modélisation d'intérieurs exoplanétaires fait le lien entre deux domaines : la détection et caractérisation d'exoplanètes, en plein essor avec le lancement de nouvelles missions telles que PLATO ou CHEOPS, et la géophysique, permettant l'étude des corps du système solaire à travers missions spatiales et expériences en laboratoire. Nous avons développé un modèle de structure interne dédié aux planètes telluriques décrites par un noyau métallique, un manteau rocheux, et une enveloppe d'eau, permettant ainsi de considérer un grand nombre de compositions planétaires. En appliquant ce modèle à des exoplanètes validées nous confirmons que, au-delà d'une meilleure précision sur les paramètres fondamentaux de ces corps (masse et rayon), la composition de l'étoile hôte est utile pour contraindre celle de la planète, et ainsi progresser vers une caractérisation complète de cette dernière. L'amélioration du modèle se concentre sur plusieurs aspects, tout d'abord par la sélection de la meilleure équation d'état permettant d'extrapoler les données terrestres au domaine des super-Terres. Une modélisation détaillée des matériaux planétaires est implémentée, permettant de reproduire la chimie complexe du manteau, et de prendre en compte la présence d'éléments légers dans le noyau. Ces améliorations permettent au modèle d'avoir la précision nécessaire pour dériver des contraintes sur l'intérieur de planètes du système solaire, qui peuvent ensuite être reportées sur les familles d'exoplanètes correspondantes. L'objectif de ce travail est ainsi d'améliorer notre compréhension de l'importante diversité des mondes extrasolaires, au niveau de leur dynamique, formation, et composition
Modeling exoplanetary interiors draws a link between two domains: the detection and characterization of exoplanets, in the context of upcoming missions like PLATO or CHEOPS, and geophysics, with the study of solar system bodies from space missions and laboratory experiments. We have developed a model of internal structure for terrestrial exoplanets describing a metallic core, a silicate mantle, and a water envelope – to span a large range of planetary compositions. Applying this model to confirmed cases strengthens the fact that, beyond the precision on an exoplanet's fundamental parameters (mass and radius), the host star's elemental composition is useful to constrain that of the planet, and thus to progress towards its full characterization. Improving the model goes through several aspects, first by selecting the most appropriate equation of state for extrapolating the Earth's data to the domain of super-Earths. A detailed modeling of the materials is implemented, through the use of a Gibbs free-energy minimization code to describe the mantle's complex chemistry, but also with the incorporation of light elements in the metallic core. This gives the model the precision needed to infer constraints on the interior of solar system bodies, which can then be projected to exoplanet families. The purpose of this work is to better apprehend the vast diversity of exoworlds in terms of dynamics, formation, and composition
APA, Harvard, Vancouver, ISO, and other styles
48

Azomahou, Théophile. "Dépendance spatiale et structure de données de panel : application a l'estimation de la demande domestique d'eau." Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR1EC08.

Full text
Abstract:
Cette thèse porte sur l'estimation des modèles spatiaux et propose des applications à la demande domestique d'eau. Les principaux résultats sont de deux ordres. D'un point de vue théorique, je montre que l'estimateur des moindres carrés ordinaires du modèle spatial auto-régressif pur est non-convergent et biaisé quelle que soit la distribution du terme d'erreur. Pour le modèle spatial général, après avoir montré que l'estimateur des moments généralisés de Kelejian et Prucha (1998, 1999) coi͏̈ncide avec l'estimateur des moindres carrés asymptotiques, je propose une estimation efficace fondée sur la méthode des instruments optimaux non-paramétriques. Je suggère également un estimateur non-paramétrique convergent en probabilité pour la fonction d'auto-covariance d'un processus spatial irrégulier. J'en déduis un estimateur pour la matrice de variance-covariance dont je prouve la convergence en norme L2. Finalement, j'étudie la distribution asymptotique de l'estimateur des moments généralisés. D'un point de vue empirique, j'analyse la dépendance spatiale dans la consommation domestique d'eau à partir de deux échantillons de données de panel. Les résultats d'estimation mettent en évidence l'existence de corrélations spatiales dans les comportements de demande d'eau potable des ménages
This thesis deals with the estimation of spatial models with applications to the residential demand for drinking water. The main results are of two-fold. From a theoretical viewpoint, I investigate the asymptotic biais of the ordinary least squares estimator for spatial autoregressive models. I show that this estimator is biased as well as inconsistent regardless of the distribution of the disturbance. For the general spatial model, I show that the generalized method of moments (GMM) estimator of Kelejian and Prucha (1998, 1999) matches the asymptotic least squares procedure. Then, I suggest an efficient estimation of the general model based on optimal nonparametric instruments. I also provide a consistent (in probability) nonparametric estimatior of the sample autocovariances function for an irregularly spaced spatial process. I then derive the consistency in norm L2 of the resulting asymptotic variance-covariance matrix estimator. Finally, the asymptotic distribution of the GMM estimator is stated. From an empirical viewpoint, I investigate spatial dependence in the residential demand for water from two panel data samples. Estimation results indicate spatial patterns in households' demand for drinking water
APA, Harvard, Vancouver, ISO, and other styles
49

Fougeirol, Jérémie. "Structure de variété de Hilbert et masse sur l'ensemble des données initiales relativistes faiblement asymptotiquement hyperboliques." Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0417/document.

Full text
Abstract:
La relativité générale est une théorie physique de la gravitation élaborée il y a un siècle, dans laquelle l'univers est modélisé par une variété Lorentzienne (N,gamma) de dimension 4 appelée espace-temps et vérifiant les équations d'Einstein. Lorsque l'on sépare la dimension temporelle des trois dimensions spatiales, les équations de contrainte découlent naturellement de la décomposition 3+1 des équations d'Einstein. Elles constituent une condition nécessaire et suffisante pour pouvoir considérer l'espace-temps N comme l'évolution temporelle d'une hypersurface Riemannienne (m,g) plongée dans N avec une seconde forme fondamentale K. Le triplet (m,g,K) constitue alors une donnée initiale solution des équations de contrainte dont on note C l'ensemble. Dans cette thèse, nous utilisons la méthode de Robert Bartnik pour établir la structure de sous-variété de Hilbert de C pour des données initiales faiblement asymptotiquement hyperboliques, dont la régularité peut être reliée à la conjecture de courbure L^{2} bornée. Les difficultés inhérentes au cas faiblement AH ont nécessité l'introduction de deux opérateurs différentiels d'ordre deux et l'obtention d'estimées de type Poincaré et Korn pour ces opérateurs. Une fois la structure de Hilbert obtenue, nous définissons une fonctionnelle masse lisse sur la sous-variété C et compatible avec nos conditions de faible régularité. L'invariance géométrique de la masse est étudiée et montrée, modulo une conjecture en faible régularité relative au changement de cartes au voisinage de l'infini. Enfin, nous faisons le lien entre les points critiques de la masse et les métriques statiques
General relativity is a gravitational theory born a century ago, in which the universe is a 4-dimensional Lorentzian manifold (N,gamma) called spacetime and satisfying Einstein's field equations. When we separate the time dimension from the three spatial ones, constraint equations naturally follow on from the 3+1 décomposition of Einstein's equations. Constraint equations constitute a necessary condition,as well as sufficient, to consider the spacetime N as the time evolution of a Riemannian hypersurface (m,g) embeded into N with the second fundamental form K. (m,g,K) is then an element of C, the set of initial data solutions to the constraint equations. In this work, we use Robert Bartnik's method to provide a Hilbert submanifold structure on C for weakly asymptotically hyperbolic initial data, whose regularity can be related to the bounded L^{2} curvature conjecture. Difficulties arising from the weakly AH case led us to introduce two second order differential operators and we obtain Poincaré and Korn-type estimates for them. Once the Hilbert structure is properly described, we define a mass functional smooth on the submanifold C and compatible with our weak regularity assumptions. The geometrical invariance of the mass is studied and proven, only up to a weak regularity conjecture about coordinate changes near infinity. Finally, we make a correspondance between critical points of the mass and static metrics
APA, Harvard, Vancouver, ISO, and other styles
50

Pannetier, Benjamin. "Fusion de données pour la surveillance du champ de bataille." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00377247.

Full text
Abstract:
Dans le domaine de la surveiIlance du champ de bataille, la poursuite de cibles terrestres est un point crucial pour évaluer le comportement des forces présentent sur le théâtre des opérations. Cette poursuite peut être menée à partir des capteurs aéroportés GMTI (Ground Moving Target Indicator) qui détectent tous les objets en mouvement. Toutefois, les techniques classiques de trajectographie ne permettent pas d'établir une situation fiable de la scène. Cependant, avec le développement et la fiabilité des systèmes d'information géographique, il devient possible de fusionner les données GMTI avec toute l'information contextuelJe pour améliorer le pistage. Le travail présenté dans cette thèse s'intéresse à l'intégration de l'information cartographique dans les techniques usueIJes de trajectographie. Le réseau routier est alors considéré comme une contrainte et un algorithme IMM à structure variable, pour s'adapter à la topologie du réseau, est présenté et testé sur données simulées. L'algorithme prend en entrée la position des plots MTI mais aussi la vitesse radiale des plots. Lorsque cette dernière est éloignée statistiquement de la vitesse radiale prédite, le système risque de ne pas associer le plot à la piste et de perdre cette dernière. Dans ce cas, un facteur d'oubli momentané est utilisé afin d'éviter la perte de la piste. De plus, la problématique des entrées et sorties de route pour le pi stage d'objets d'intérêts est traitée en activant ou désactivant les modèles dynamiques sous contraintes. Par ailleurs, nous proposons une approche pour considérer l'information négative (i.e. absence de détection) suivant la nature du terrain et améliorer la continuité du pi stage
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography