Thèses sur le sujet « Génération de données synthétiques »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Génération de données synthétiques.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Génération de données synthétiques ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Kieu, Van Cuong. « Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques ». Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Texte intégral
Résumé :
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
Styles APA, Harvard, Vancouver, ISO, etc.
2

Desbois-Bédard, Laurence. « Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copules ». Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27748.

Texte intégral
Résumé :
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance.
Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Uzan, Kathy. « Les vaccins synthétiques : données récentes ». Paris 5, 1989. http://www.theses.fr/1989PA05P188.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Barrère, Killian. « Architectures de Transformer légères pour la reconnaissance de textes manuscrits anciens ». Electronic Thesis or Diss., Rennes, INSA, 2023. http://www.theses.fr/2023ISAR0017.

Texte intégral
Résumé :
En reconnaissance d’écriture manuscrite, les architectures Transformer permettent de faibles taux d’erreur, mais sont difficiles à entraîner avec le peu de données annotées disponibles. Dans ce manuscrit, nous proposons des architectures Transformer légères adaptées aux données limitées. Nous introduisons une architecture rapide basée sur un encodeur Transformer, et traitant jusqu’à 60 pages par seconde. Nous proposons aussi des architectures utilisant un décodeur Transformer pour inclure l’apprentissage de la langue dans la reconnaissance des caractères. Pour entraîner efficacement nos architectures, nous proposons des algorithmes de génération de données synthétiques adaptées au style visuel des documents modernes et anciens. Nous proposons également des stratégies pour l’apprentissage avec peu de données spécifiques, et la réduction des erreurs de prédiction. Nos architectures, combinées à l’utilisation de données synthétiques et de ces stratégies, atteignent des taux d’erreur compétitifs sur des lignes de texte de documents modernes. Sur des documents anciens, elles parviennent à s’entraîner avec des nombres limités de données annotées, et surpassent les approches de l’état de l’art. En particulier, 500 lignes annotées sont suffisantes pour obtenir des taux d’erreur caractères proches de 5%
Transformer architectures deliver low error rates but are challenging to train due to limited annotated data in handwritten text recognition. We propose lightweight Transformer architectures to adapt to the limited amounts of annotated handwritten text available. We introduce a fast Transformer architecture with an encoder, processing up to 60 pages per second. We also present architectures using a Transformer decoder to incorporate language modeling into character recognition. To effectively train our architectures, we offer algorithms for generating synthetic data adapted to the visual style of modern and historical documents. Finally, we propose strategies for learning with limited data and reducing prediction errors. Our architectures, combined with synthetic data and these strategies, achieve competitive error rates on lines of text from modern documents. For historical documents, they train effectively with minimal annotated data, surpassing state-ofthe- art approaches. Remarkably, just 500 annotated lines are sufficient for character error rates close to 5%
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ruiz, Paredes Javier Antonio. « Génération d'accélérogrammes synthétiques large-bande par modélisation cinématique de la rupture sismique ». Paris, Institut de physique du globe, 2007. http://www.theses.fr/2007GLOB0009.

Texte intégral
Résumé :
Afin de rendre les modélisations cinématiques de la rupture sismique plus réalistes au regard des modèles dynamiques, des contraintes physiques ont été introduites. Pour améliorer la modélisation de la vitesse de glissement sur le plan de faille, une évolution du modèle k-2 estproposée qui consiste à décomposer le glissement en sous-événements au travers d'une analyse par bandes de k. Ce modèle permet d'obtenir des vitesses de glissement proches d'une fonctionde type Kostrov, en préservant un spectre rayonné en w2 avec des amplitudes proportionnelles au coefficient de directivité Cd à hautes fréquences. Pour mieux contrôler les effets de directivité, un modèle cinématique basé sur une description de sources composites et sur une loi d'échellerégissant l'extension de la zone de nucléation des sous-événements est proposé. Ce modèle permet de réduire le coefficient de directivité apparent à une fraction de Cd, et de reproduirel'écart-type des relations d'atténuation. Afin de rendre les modèles de sources sismiques plus réalistes, une vitesse de rupture variable compatible avec la physique de la rupture doit être introduite. L'approche suivie qui relie analytiquement l'énergie de fracturation, le glissement et la vitesse de rupture, se traduit par une augmentation des pics d'accélérations modélisés à distance proche. Enfin, pour mieux rendre compte de la complexité de l'interaction du champ d'ondes avec le milieu géologique, une approche semi-empirique combinant le modèle de sources composites et des fonctions de Green Empiriques est proposée. Les simulations obtenues pour le séisme de Yamaguchi (Mw 5,9) reproduisent les principales caractéristiques du mouvement du sol
In order to make the broadband kinematic rupture modeling more realistic with respect to dynamic modeling, physical constraints are added to the rupture parameters. To improve the slip velocity function (SVF) modeling, an evolution of the k-2 source model is proposed, which consists to decompose the slip as a sum of sub-events by band of k. This model yields to SVFclose to the solution proposed by Kostrov for a crack, while preserving the spectral characteristics of the radiated wavefield, i. E. A w2 model with spectral amplitudes at high frequency scaled to the coefficient of directivity Cd. To better control the directivity effects, acomposite source description is combined with a scaling law defining the extent of the nucleation area for each sub-event. The resulting model allows to reduce the apparent coefficient of directivity to a fraction of Cd, as well as to reproduce the standard deviation of the new empirical attenuation relationships proposed for Japan. To make source models more realistic, avariable rupture velocity in agreement with the physics of the rupture must be considered. The followed approach that is based on an analytical relation between the fracture energy, the slip and the rupture velocity, leads to higher values of the peak ground acceleration in the vicinity ofthe fault. Finally, to better account for the interaction of the wavefield with the geological medium, a semi-empirical methodology is developed combining a composite source model with empirical Green functions, and is applied to the Yamaguchi, Mw 5. 9 earthquake. The modeled synthetics reproduce satisfactorily well the observed main characteristics of ground motions
Styles APA, Harvard, Vancouver, ISO, etc.
6

Pazat, Jean-Louis. « Génération de code réparti par distribution de données ». Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Baez, miranda Belen. « Génération de récits à partir de données ambiantes ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Texte intégral
Résumé :
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
Styles APA, Harvard, Vancouver, ISO, etc.
8

Morisse, Pierre. « Correction de données de séquençage de troisième génération ». Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR043/document.

Texte intégral
Résumé :
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain
The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome
Styles APA, Harvard, Vancouver, ISO, etc.
9

Fontin, Mickaël. « Contribution à la génération de séries synthétiques de pluies, de débits et de températures ». Toulouse, INPT, 1987. http://www.theses.fr/1987INPT117H.

Texte intégral
Résumé :
Les processus stochastiques se revelent un moyen simple et adequat pour modeliser les series hydrometeorologiques dont le caractere complexe et aleatoire rend difficile une approche deterministe. Apres un examen des principaux processus stochastiques utilises en hydrometeorologie, sont presentees des methodes capables de modeliser des series presentant un caractere saisonnier marque. Des applications sont faites sur le regime pluviometrique du climat sahelien a saisons tres contrastees et sur des series de temperatures et de debits du sud de la france. Les pluies journalieres sont modelisees a l'aide de chaines de markov a parametres variables au cours de l'annee ; quant aux series de temperatures et de debits journaliers, pour tenir compte de leur instationnarite, elles sont decomposees en une composante cyclique, par lissage a l'aide de fonctions trigonometriques et en une composante fluctuante stationnaire. Ces composantes sont simulees separement en tenant compte des contraintes de conservation de la fonction de repartition des quantites annuelles et du respect des correlations naturelles. Les exemples traites montrent que les processus stochastiques conviennent pour la modelisation des series hydrometeorologiques
Styles APA, Harvard, Vancouver, ISO, etc.
10

Khalili, Malika. « Nouvelle approche de génération multi-site des données climatiques ». Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/580/1/KHALILI_Malika.pdf.

Texte intégral
Résumé :
Les générateurs de climat sont des outils statistiques permettant de générer de longues séries temporelles de variables climatiques et de simuler le climat futur en tenant compte des scénarios de changements climatiques. La dépendance spatiale est une propriété primordiale des données climatiques négligée par les générateurs de climat uni-site. La présente thèse a permis de développer une approche de génération multi-site des données climatiques basée sur le concept d'autocorrélation spatiale. L'approche a permis de reproduire simultanément dans les séries générées de données climatiques, les autocorrélations spatiales observées sur l'ensemble des stations météorologiques et les corrélations observées entre les couples de stations. L'approche est appliquée avec succès au bassin versant de la rivière Péribonca situé dans la province du Québec, Canada Une étude hydrologique a permis de confirmer la performance du générateur multi-site développé et sa capacité à évaluer avec plus de précision et de fiabilité les impacts des changements climatiques.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Genestier, Richard. « Vérification formelle de programmes de génération de données structurées ». Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2041/document.

Texte intégral
Résumé :
Le problème général de la preuve de propriétés de programmes impératifs est indécidable. Pour deslangages de programmation et de propriétés plus restrictifs, des sous-problèmes décidables sontconnus. En pratique, grâce à des heuristiques, les outils de preuve de programmes automatisent despreuves qui sortent du cadre théorique de ces sous-problèmes décidables connus. Nous illustronscette réussite pratique en construisant un catalogue de preuves, pour des programmes et despropriétés de nature similaire et de complexité croissante. Ces programmes sont principalementdes générateurs de cartes combinatoires.Ainsi, ce travail contribue aux domaines de recherche de la combinatoire énumérative et dugénie logiciel. Nous distribuons une bibliothèque C de générateurs exhaustifs bornés de tableauxstructurés, formellement spécifiés en ACSL et vérifiés avec le greffon WP de la plateforme d’analyseFrama-C. Nous proposons également une méthodologie de test qui facilite la preuve interactive enCoq, une étude formelle des cartes originale, et de nouveaux résultats en combinatoire énumérative
The general problem of proving properties of imperative programs is undecidable. Some subproblems– restricting the languages of programs and properties – are known to be decidable. Inpractice, thanks to heuristics, program proving tools sometimes automate proofs for programs andproperties living outside of the theoretical framework of known decidability results. We illustrate thisfact by building a catalog of proofs, for similar programs and properties of increasing complexity. Mostof these programs are combinatorial map generators.Thus, this work contributes to the research fields of enumerative combinatorics and softwareengineering. We distribute a C library of bounded exhaustive generators of structured arrays, formallyspecified in ACSL and verified with the WP plugin of the Frama-C analysis platform. We also proposea testing-based methodology to assist interactive proof in Coq, an original formal study of maps, andnew results in enumerative combinatorics
Styles APA, Harvard, Vancouver, ISO, etc.
12

Caron, Maxime. « Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques ». Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Texte intégral
Résumé :
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Salama, Paul. « De la génération de soufre diatomique à partir de dérivés dithiocarbonylés, et de ses applications synthétiques ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq26732.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
14

Foundotos, Laetitia. « Génération d'accélérogrammes synthétiques large-bande. Contribution à l'estimation de l'aléa sismique par validation d'approches en aveugle ». Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00918349.

Texte intégral
Résumé :
L'une des problématique scientifique majeure en sismologie est de pouvoir estimer les mouvements du sol attendus en un site pour un futur séisme. L'objectif de cette thèse est de tester et de valider deux méthodes de simulation des mouvements du sol basées sur l'approche des fonctions de Green empiriques (FGEs) et d'apporter des éléments pouvant aider au développement d'une méthodologie de simulation en aveugle. Dans une première partie, une méthode de simulation basée sur une approche stochastique en point-source est validée sur les données réelles de séismes récents bien instrumentés. Profitant de la disponibilité d'enregistrements de petits séismes de bonne qualité pouvant être utilisés comme FGEs, deux applications sont réalisées : une application au séisme des Saintes Mw = 6.4 et une application au séisme de L'Aquila Mw = 6.3. Nous avons développé une approche de simulation en aveugle en prenant en compte une incertitude sur le paramètre de rapport des chutes de contrainte C. Cette approche permet de générer un ensemble d'accélérogrammes synthétiques d'un séisme cible suffisamment variés pour être représentatifs d'un grand nombre de scénarios de sources possibles et prenant en compte dans un sens statistique de potentiels effets de directivité. De plus, la variabilité des mouvements du sol produite par notre approche de simulation en aveugle est cohérente avec la variabilité des prédictions des mouvements du sol purement empiriques. En se plaçant dans un vrai contexte de simulation en aveugle, cette approche a également été appliquée à la simulation d'un séisme historique pyrénéen Mw = 6.1. Dans une seconde partie, afin de se rapprocher des connaissances actuelles sur la complexité de la cinématique d'une source sismique, nous nous appuyons sur un modèle de source étendue plus complexe, combinant des modèles cinématiques de sources composites à distribution fractale avec l'approche des FGEs pour produire des accélérogrammes synthétiques large-bande. Le potentiel de la méthode est testé sur une application au séisme de L'Aquila en fixant les paramètres d'entrée donnant la meilleure opportunité de reproduire les enregistrements du séisme cible. Cela a permis de produire des résultats très satisfaisants sur l'ensemble des paramètres des mouvements du sol analysés. Cette méthode de simulation apparaît comme étant très prometteuse pour la mise en oeuvre d'une méthodologie de simulation en aveugle, même si la principale difficulté réside dans la nécessité de définir la variabilité de nombreux paramètres d'entrée mal connus dans le cadre de la simulation d'un futur séisme.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Honoré-Foundotos, Laëtitia. « Génération d'accélérogrammes synthétiques large-bande : contribution à l'estimation de l'aléa sismique par validation d'approches en aveugle ». Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00920208.

Texte intégral
Résumé :
L'une des problématique scientifique majeure en sismologie est de pouvoir estimer les mouvements du sol attendus en un site pour un futur séisme. L'objectif de cette thèse est de tester et de valider deux méthodes de simulation des mouvements du sol basées sur l'approche des fonctions de Green empiriques et d'apporter des éléments pouvant aider au développement d'une méthodologie de simulation en aveugle. Dans une première partie, une méthode de simulation basée sur une approche stochastique en point-source est validée sur les données réelles de séismes récents bien instrumentés : le séisme des Saintes Mw6.4 et le séisme de L'Aquila Mw6.3. Nous avons développé une approche de simulation en aveugle en prenant en compte une incertitude sur le paramètre de rapport des chutes de contrainte C. Cette approche permet de générer un ensemble d'accélérogrammes synthétiques d'un séisme cible suffisamment variés pour être représentatifs d'un grand nombre de scénarios de sources possibles et prenant en compte dans un sens statistique de potentiels effets de directivité. Cette approche a également été appliquée à la simulation d'un séisme historique pyrénéen Mw6.1. Dans une seconde partie, nous nous appuyons sur un modèle de source étendue plus complexe, combinant des modèles cinématiques de sources composites fractales avec l'approche des FGEs. Le potentiel de la méthode est testé sur une application au séisme de L'Aquila. Cela a permis de produire des résultats très satisfaisants sur l'ensemble des paramètres des mouvements du sol analysés. Cette méthode de simulation apparaît comme étant très prometteuse pour la mise en œuvre d'une méthodologie de simulation en aveugle, même si la principale difficulté réside dans la nécessité de définir la variabilité de nombreux paramètres d'entrée mal connus dans le cadre de la simulation d'un futur séisme.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Honoré-Foundotos, Laëtitia. « Génération d'accélérogrammes synthétiques large-bande : contribution à l’estimation de l’aléa sismique par validation d’approches en aveugle ». Thesis, Nice, 2013. http://www.theses.fr/2013NICE4054/document.

Texte intégral
Résumé :
L’une des problématique scientifique majeure en sismologie est de pouvoir estimer les mouvements du sol attendus en un site pour un futur séisme. L’objectif de cette thèse est de tester et de valider deux méthodes de simulation des mouvements du sol basées sur l’approche des fonctions de Green empiriques et d’apporter des éléments pouvant aider au développement d’une méthodologie de simulation en aveugle. Dans une première partie, une méthode de simulation basée sur une approche stochastique en point-source est validée sur les données réelles de séismes récents bien instrumentés : le séisme des Saintes Mw6.4 et le séisme de L’Aquila Mw6.3. Nous avons développé une approche de simulation en aveugle en prenant en compte une incertitude sur le paramètre de rapport des chutes de contrainte C. Cette approche permet de générer un ensemble d’accélérogrammes synthétiques d’un séisme cible suffisamment variés pour être représentatifs d’un grand nombre de scénarios de sources possibles et prenant en compte dans un sens statistique de potentiels effets de directivité. Cette approche a également été appliquée à la simulation d’un séisme historique pyrénéen Mw6.1. Dans une seconde partie, nous nous appuyons sur un modèle de source étendue plus complexe, combinant des modèles cinématiques de sources composites fractales avec l’approche des FGEs. Le potentiel de la méthode est testé sur une application au séisme de L’Aquila. Cela a permis de produire des résultats très satisfaisants sur l’ensemble des paramètres des mouvements du sol analysés. Cette méthode de simulation apparaît comme étant très prometteuse pour la mise en œuvre d’une méthodologie de simulation en aveugle, même si la principale difficulté réside dans la nécessité de définir la variabilité de nombreux paramètres d’entrée mal connus dans le cadre de la simulation d’un futur séisme
One of the major scientific problems in seismology is to estimate the ground motions expected at a given site from a future earthquake. The aim of this thesis is to test and validate two different methods of ground motions simulation based on the empirical Green’s function approach and to provide elements that can help to develop a blind simulation methodology. In a first part, a simulation method based on a stochastic point source approach is validated on the real data of recent earthquakes well instrumented : the Les Saintes earthquake Mw6.4 and the L’Aquila earthquake Mw6.3. We have developed a blind simulation approach by taking into account an uncertainty on the parameter of stress drop ratio C. This approach allows to generate a set of synthetic accelerograms of a target earthquake varied enough to be representative of a large number of possible source scenario and taking into account in a statistical sense potential directivity effects. This approach is also applied to the simulation of an historical Pyrenean earthquake Mw6.1. In a second part, we use a more complex extended source model, combining kinematic models of fractal composite sources with EGF approach. The potential of the method is tested on an application to L’Aquila earthquake. This has produced very satisfying results on all ground motion parameters analyzed. This simulation method appears to be very promising for the implementation of a blind simulation methodology, even if the main difficulty lies in the need to define the variability of many poorly known input parameters in the simulation of a future earthquake
Styles APA, Harvard, Vancouver, ISO, etc.
17

Effantin, dit Toussaint Brice. « Colorations de graphes et génération exhaustive d'arbres ». Dijon, 2003. http://www.theses.fr/2003DIJOS021.

Texte intégral
Résumé :
Les travaux de recherche présentés dans ce mémoire montrent deux approches de la théorie des graphes. Dans un premier temps, nous caractérisons certains graphes en utilisant la coloration de graphes. Ainsi nous étudions deux paramètres de coloration qui maximisent le nombre de couleurs utilisées et mettent en évidence certains ensembles dominants de sommets pour les graphes étudiés (graphes puissances, somme cartésienne de graphes). Dans un second temps, nous étudions divers algorithmes de génération pour des arbres binaires particuliers. En effet, le morphing de polygones (problème sous-jacent au morphing d'images) peut être réalisé par une suite de rotations d'arbres binaires étiquetés. Nous présentons également des algorithmes de génération des arbres binaires étiquetés et des arbres binaires non ordonnés.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lagrange, Jean-Philippe. « Ogre : un système expert pour la génération de requêtes relationnelles ». Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090035.

Texte intégral
Résumé :
Le but du travail présenté ici est d'affranchir le développeur de programmes d'application de la nécessité de construire ses requêtes en fonction du schéma logique de la base de données. La démarche retenue est de proposer un langage d'interrogation ne faisant référence qu'au schéma conceptuel, le système assurant la construction des requêtes au SGBD à partir de spécifications écrites dans ce langage. Par ailleurs, un des objectifs vises, par opposition aux travaux antérieurs, est d'imposer le moins de contraintes possible pour le schéma logique (relationnel) et pour le schéma conceptuel associe. Pour cela on propose: une mise en correspondance souple entre le schéma relationnel et un schéma conceptuel exprime en fonction d'un modèle d'une grande puissance d'expression; de faire assurer la génération des requetés par un système à base de connaissances, qui s'appuie sur des connaissances relatives à la base de données, une méta-base, et sur des connaissances déductives, des règles d'analyse et de génération des requêtes. On trouvera ici une analyse de l'état de l'art dans le domaine des interfaces de requêtes, une définition du modèle conceptuel er#+, et du langage de requête de ogre, et une description des trois principaux modules du système: constitution de la méta-base, analyse et reformulation des spécifications et enfin génération des requêtes
Styles APA, Harvard, Vancouver, ISO, etc.
19

Bounar, Boualem. « Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau ». Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Leroux, (zinovieva) Elena. « Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données ». Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Texte intégral
Résumé :
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Uribe, Lobello Ricardo. « Génération de maillages adaptatifs à partir de données volumiques de grande taille ». Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Texte intégral
Résumé :
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
Styles APA, Harvard, Vancouver, ISO, etc.
22

Xue, Xiaohui. « Génération et adaptation automatiques de mappings pour des sources de données XML ». Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00324429.

Texte intégral
Résumé :
L'intégration de l'information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d'information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d'un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération automatique de mappings pour des sources de données XML ainsi qu'à l'adaptation de ces mappings en cas de changements survenant dans le schéma cible ou dans les sources de données.
Nous proposons une approche de génération de mappings en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chacun de ces sous-arbres et enfin (iii) la génération de mappings pour l'ensemble du schéma cible à partir de ces mappings partiels. Le résultat de notre approche est un ensemble de mappings, chacun ayant une sémantique propre. Dans le cas où l'information requise par le schéma cible n'est pas présente dans les sources, aucun mapping ne sera produit. Dans ce cas, nous proposons de relaxer certaines contraintes définies sur le schéma cible pour permettre de générer des mappings. Nous avons développé un outil pour supporter notre approche. Nous avons également proposé une approche d'adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Xue, Xiaohui. « Génération et adaptation automatiques de mappings pour des sources de données XML ». Phd thesis, Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0019.

Texte intégral
Résumé :
L’intégration de l’information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d’information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d’un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération et l’adaptation automatiques de mappings pour des sources de données XML. Nous proposons une approche de génération en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chaque sous-arbre et enfin (iii) la génération de mappings pour l’ensemble du schéma cible à partir de ces mappings partiels. Nous avons également proposé une approche d’adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible. Nous avons développé un outil pour supporter ces approches
The integration of information originating from multiple heterogeneous data sources is required by many modern information systems. In this context, the applications’ needs are described by a target schema and the way in-stances of the target schema are derived from the data sources is expressed through mappings. In this thesis, we address the problem of mapping generation for multiple XML data sources and the adaptation of these mappings when the target schema or the sources evolve. We propose an automatic generation approach that first decom-poses the target schema into subtrees, then defines mappings, called partial mappings, for each of these subtrees, and finally combines these partial mappings to generate the mappings for the whole target schema. We also propose a mapping adaptation approach to keep existing mappings current if some changes occur in the target schema or in one of the sources. We have developed a prototype implementation of a tool to support these proc-esses
Styles APA, Harvard, Vancouver, ISO, etc.
24

Fabregue, Mickael. « Extraction d'informations synthétiques à partir de données séquentielles : application à l'évaluation de la qualité des rivières ». Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD016/document.

Texte intégral
Résumé :
L'exploration des bases de données temporelles à l'aide de méthodes de fouille de données adaptées a fait l'objet de nombreux travaux de recherche. Cependant le volume d'informations extraites est souvent important et la tâche d'analyse reste alors difficile. Dans cette thèse, nous présentons des méthodes pour synthétiser et filtrer l'information extraite. L'objectif est de restituer des résultats qui soient interprétables. Pour cela, nous avons exploité la notion de séquence partiellement ordonnée et nous proposons (1) un algorithme qui extrait l'ensemble des motifs partiellement ordonnés clos; (2) un post-traitement pour filtrer un ensemble de motifs d'intérêt et(3) une approche qui extrait un consensus comme alternative à l'extraction de motifs. Les méthodes proposées ont été testées sur des données hydrobiologiques issues du projet ANR Fresqueau et elles ont été implantées dans un logiciel de visualisation destiné aux hydrobiologistes pour l'analyse de la qualité des cours d'eau
Exploring temporal databases with suitable data mining methods have been the subject of several studies. However, it often leads to an excessive volume of extracted information and the analysis is difficult for the user. We addressed this issue and we specically focused on methods that synthesize and filter extracted information. The objective is to provide interpretable results for humans. Thus, we relied on the notion of partially ordered sequence and we proposed (1) an algorithm that extracts the set of closed partially ordered patterns ; (2) a post-processing to filter some interesting patterns for the user and (3) an approach that extracts a partially ordered consensus as an alternative to pattern extraction. The proposed methods were applied for validation on hydrobiological data from the Fresqueau ANR project. In addition, they have been implemented in a visualization tool designed for hydrobiologists for water course quality analysis
Styles APA, Harvard, Vancouver, ISO, etc.
25

Zinovieva-Leroux, Eléna. « Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données ». Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Texte intégral
Résumé :
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Pinard, Hugo. « Imagerie électromagnétique 2D par inversion des formes d'ondes complètes : Approche multiparamètres sur cas synthétiques et données réelles ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU041/document.

Texte intégral
Résumé :
Le radar géologique est une méthode d'investigation géophysique basée sur la propagation d'ondes électromagnétiques dans le sous-sol. Avec des fréquences allant de 5 MHz à quelques GHz et une forte sensibilité aux propriétés électriques, le géoradar fournit des images de réflectivité dans des contextes et à des échelles très variés : génie civil, géologie, hydrogéologie, glaciologie, archéologie. Cependant, dans certains cas, la compréhension fine des processus étudiés dans la subsurface nécessite une quantification des paramètres physiques du sous-sol. Dans ce but, l'inversion des formes d'ondes complètes, méthode initialement développée pour l'exploration sismique qui exploite l'ensemble des signaux enregistrés, pourrait s'avérer efficace. Dans cette thèse, je propose ainsi des développements méthodologiques par une approche d'inversion multiparamètres (permittivité diélectrique et conductivité), pour des configurations en transmission, en deux dimensions.Ces développements sont ensuite appliqués à un jeu de données réelles acquises entre forages.Dans une première partie, je présente tout d'abord la méthode numérique utilisée pour modéliser la propagation des ondes électromagnétiques dans un milieu 2D hétérogène, élément indispensable pour mener à bien le processus d'imagerie. Ensuite, j’introduis puis étudie le potentiel des méthodes d’optimisation locale standards (gradient conjugué non linéaire, l-BFGS, Newton tronqué dans ses versions Gauss-Newton et Exact-Newton) pour découpler la permittivité diélectrique et la conductivité électrique. Je montre notamment qu’un découplage effectif n’est possible qu’avec un modèle initial suffisamment précis et la méthode la plus sophistiquée (Newton tronqué). Comme dans le cas général, ce modèle initial n’est pas disponible, il s’avère nécessaire d'introduire un facteur d'échelle qui répartit le poids relatif de chaque classe de paramètres dans l'inversion. Dans un milieu réaliste avec une acquisition entre puits, je montre que les différentes méthodes d'optimisation donnent des résultats similaires en matière de découplage de paramètres. C'est finalement la méthode l-BFGS qui est retenue pour l'application aux données réelles, en raison de coûts de calcul plus faibles.Dans une deuxième partie, j'applique cette méthodologie à des données réelles acquises entre deux forages localisés dans des formations carbonatées, à Rustrel (France, 84). Cette inversion est réalisée en parallèle d'une approche synthétique à l'aide d'un modèle représentatif du site étudié et des configurations d'acquisition similaires. Ceci permet de pouvoir comprendre, contrôler et valider les observations et conclusions obtenues sur les données réelles. Cette démarche montre que la reconstruction de la permittivité est très robuste. A contrario, l'estimation de la conductivité souffre de deux couplages majeurs, avec la permittivité diélectrique, d'une part, et avec l'amplitude de la source estimée, d'autre part. Les résultats obtenus sont confrontés avec succès à des données indépendantes (géophysique depuis la surface, analyse sur échantillons de roche), et permet de bénéficier d'une image haute-résolution des formations géologiques. Enfin, une analyse 3D confirme que les structures 3D à fort contraste de propriétés, telles que la galerie enfouie sur notre site, nécessiteraient une approche de modélisation 3D, notamment pour mieux expliquer les amplitudes observées
Ground Penetrating Radar (GPR) is a geophysical investigation method based on electromagnetic waves propagation in the underground. With frequencies ranging from 5 MHz to a few GHz and a high sensitivity to electrical properties, GPR provides reflectivity images in a wide variety of contexts and scales: civil engineering, geology, hydrogeology, glaciology, archeology. However, in some cases, a better understanding of some subsurface processes requires a quantification of the physical parameters of the subsoil. For this purpose, inversion of full waveforms, a method initially developed for seismic exploration that exploits all the recorded signals, could prove effective. In this thesis, I propose methodological developments using a multiparameter inversion approach (dielectric permittivity and conductivity), for two-dimensional transmission configurations. These developments are then applied to a real data set acquired between boreholes.In a first part, I present the numerical method used to model the propagation of electromagnetic waves in a heterogeneous 2D environment, a much-needed element to carry out the process of imaging. Then, I introduce and study the potential of standard local optimization methods (nonlinear conjugate gradient, l-BFGS, Newton truncated in its Gauss-Newton and Exact-Newton versions) to fight the trade-off effects related to the dielectric permittivity and to the electrical conductivity. In particular, I show that effective decoupling is possible only with a sufficiently accurate initial model and the most sophisticated method (truncated Newton). As in the general case, this initial model is not available, it is necessary to introduce a scaling factor which distributes the relative weight of each parameter class in the inversion. In a realistic medium and for a cross-hole acquisition configuration, I show that the different optimization methods give similar results in terms of parameters decoupling. It is eventually the l-BFGS method that is used for the application to the real data, because of lower computation costs.In a second part, I applied the developed Full waveform inversion methodology to a set of real data acquired between two boreholes located in carbonate formations, in Rustrel (France, 84). This inversion is carried out together with a synthetic approach using a model representative of the studied site and with a similar acquisition configuration. This approach enables us to monitor and validate the observations and conclusions derived from data inversion. It shows that reconstruction of dielectrical permittivity is very robust. Conversely, conductivity estimation suffers from two major couplings: the permittivity and the amplitude of the estimated source. The derived results are successfully compared with independent data (surface geophysics and rock analysis on plugs) and provides a high resolution image of the geological formation. On the other hand, a 3D analysis confirms that 3D structures presenting high properties contrasts, such as the buried gallery present in our site, would require a 3D approach, notably to better explain the observed amplitudes
Styles APA, Harvard, Vancouver, ISO, etc.
27

Benalia, Akram Djellal. « HELPDraw : un environnement visuel pour la génération automatique de programmes à parallélisme de données ». Lille 1, 1995. http://www.theses.fr/1995LIL10095.

Texte intégral
Résumé :
Le parallélisme de données consiste à appliquer simultanément le même traitement sur un ensemble de données homogènes. De part la conservation d'un unique flux d'instructions, il est devenu de fait un modèle de programmation largement répandu et qui autorise facilement l'accès à la puissance théorique des machines parallèles pour le calcul scientifique. L'objectif de cette thèse est de montrer qu'il est possible de programmer dans ce modèle sans contrainte de syntaxe ou d'architecture, tout en gardant le maximum de performances. Nous proposons un environnement de programmation visuelle : HELPDraw. Il permet de traduire la pensée et la conception du programmeur en un code data-parallèle source. HELPDraw se base sur un modèle de programmation géométrique. Les structures de données définies par l'utilisateur sont regroupées et alignées au sein d'un hyper-espace (machine virtuelle), référentiel de toute manipulation. Le modèle géométrique offre deux vues clairement distinctes : la vue microscopique permet l'expression du parallélisme de calcul ; la vue macroscopique permet les communications parallèles à travers l'hyper-espace par une modélisation à base de primitives géométriques. Le modèle géométrique offre un support naturel pour la programmation visuelle. Le programmeur développe son algorithme data-parallèle en interagissant avec les éditeurs graphiques de HELPDraw. Les objets data-parallèles représentés par des formes géométriques sont manipulés à travers des migrations et des changements de formes à l'intérieur de l'hyper-espace. Le programmeur construit graphiquement et interactivement ses instructions ou blocs d'instructions. HELPDraw les traduit au fur et à mesure dans le langage data-parallèle cible. Nous étudions dans cette thèse la génération automatique des codes C-HELP (un langage mis en oeuvre dans notre équipe) et HPF le nouveau fortran data-parallèle. Pour C-HELP qui se base lui-même sur le modèle géométrique, cette génération est assez naturelle. Pour HPF elle est cependant plus complexe, nous proposons une solution permettant de compiler une description géométrique vers une description par les indices.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Nesvijevskaia, Anna. « Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données ». Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Texte intégral
Résumé :
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Styles APA, Harvard, Vancouver, ISO, etc.
29

Nemecek, Daniel. « Une nouvelle génération d'oligonucléotides synthétiques utilisables en stratégie antisens : propriétés d'hybridation et stabilité des complexes formés avec leurs compléments d'ADN naturel ». Paris 6, 2005. http://www.theses.fr/2005PA066012.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Thiéblin, Elodie. « Génération automatique d'alignements complexes d'ontologies ». Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30135.

Texte intégral
Résumé :
Le web de données liées (LOD) est composé de nombreux entrepôts de données. Ces données sont décrites par différents vocabulaires (ou ontologies). Chaque ontologie a une terminologie et une modélisation propre ce qui les rend hétérogènes. Pour lier et rendre les données du web de données liées interopérables, les alignements d'ontologies établissent des correspondances entre les entités desdites ontologies. Il existe de nombreux systèmes d'alignement qui génèrent des correspondances simples, i.e., ils lient une entité à une autre entité. Toutefois, pour surmonter l'hétérogénéité des ontologies, des correspondances plus expressives sont parfois nécessaires. Trouver ce genre de correspondances est un travail fastidieux qu'il convient d'automatiser. Dans le cadre de cette thèse, une approche d'alignement complexe basée sur des besoins utilisateurs et des instances communes est proposée. Le domaine des alignements complexes est relativement récent et peu de travaux adressent la problématique de leur évaluation. Pour pallier ce manque, un système d'évaluation automatique basé sur de la comparaison d'instances est proposé. Ce système est complété par un jeu de données artificiel sur le domaine des conférences
The Linked Open Data (LOD) cloud is composed of data repositories. The data in the repositories are described by vocabularies also called ontologies. Each ontology has its own terminology and model. This leads to heterogeneity between them. To make the ontologies and the data they describe interoperable, ontology alignments establish correspondences, or links between their entities. There are many ontology matching systems which generate simple alignments, i.e., they link an entity to another. However, to overcome the ontology heterogeneity, more expressive correspondences are sometimes needed. Finding this kind of correspondence is a fastidious task that can be automated. In this thesis, an automatic complex matching approach based on a user's knowledge needs and common instances is proposed. The complex alignment field is still growing and little work address the evaluation of such alignments. To palliate this lack, we propose an automatic complex alignment evaluation system. This system is based on instances. A famous alignment evaluation dataset has been extended for this evaluation
Styles APA, Harvard, Vancouver, ISO, etc.
31

Bonnel, Nicolas. « Génération dynamique de présentations interactives en multimédia 3D, de données, pour les applications en ligne ». Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00532641.

Texte intégral
Résumé :
La recherche d'information textuelle fait partie des principales tâches liées au Web. Elle se fait majoritairement par des moteurs de recherche qui sont rapidement devenus incontournables. En effet, lorsque les utilisateurs ont une nouvelle tâche à accomplir sur le Web, ils démarrent - 88% du temps - par l'utilisation d'un moteur de recherche. Cependant, face à l'augmentation des informations disponibles sur le Web et à l'absence d'évolution significative du processus de recherche, la quantité de résultats obtenus pour une requête devient très importante. Il est alors difficile pour l'utilisateur d'interpréter efficacement tous ces résultats. Cette problématique est abordée en se plaçant du côté de la restitution des résultats de recherche à l'utilisateur via des interfaces utilisateur d'information (IUI). De nombreux travaux ont déjà été réalisés sur la visualisation des résultats de recherche au cours des dernières années, sans réelle influence sur les interfaces grand public. L'objectif de notre approche est de créer dynamiquement des présentations 3D interactives et basées sur des métaphores de visualisation adaptées à la fois à l'utilisateur, à la tâche à réaliser et aux données. Pour cela, nous avons développé un prototype - SmartWeb - proposant des interfaces hybrides (2D/3D) de visualisation de résultats de recherche. Il utilise le langage X-VRML qui permet d'exprimer efficacement les métaphores 3D de visualisation et de générer automatiquement des contenus 3D interactifs. Nous proposons alors une métaphore 3D cognitive permettant d'utiliser une représentation spatiale plus riche afin d'aider efficacement l'utilisateur dans sa tâche. Il s'agit d'une ville virtuelle dans laquelle les résultats sont organisés d'après le calcul d'une carte auto-organisatrice. Une étude utilisateur de cette interface est réalisée et une réflexion plus générale sur l'évaluation des IUI est proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Abdelmoula, Mariem. « Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués ». Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Texte intégral
Résumé :
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
Styles APA, Harvard, Vancouver, ISO, etc.
33

Genevaux, Jean-David. « Représentation, modélisation et génération procédurale de terrains ». Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22013/document.

Texte intégral
Résumé :
Cette thèse (qui a pour intitulé "Représentation, modélisation et génération procédurale de terrains") a pour cadre la génération de contenus numériques destinés aux films et aux jeux-vidéos, en particulier les scènes naturelles. Nos travaux visent à représenter et à générer des terrains. Nous proposons, en particulier, un nouveau modèle de représentation qui s'appuie sur un arbre de construction et qui va permettre à l'utilisateur de manipuler des morceaux de terrain de façon intuitive. Nous présentons également des techniques pour visualiser ce modèle avec un maximum d'efficacité. Enfin nous développons un nouvel algorithme de génération de terrains qui construit de très grands reliefs possédant des structures hiérarchiques découlant d'un réseau hydrographique : le relief généré est conforme aux grands principes d'écoulement des eaux sans avoir besoin d'utiliser de coûteuses simulations d'érosion hydrique
This PhD (entitled "Representation, modelisation and procedural generation of terrains") is related to movie and videogames digital content creation, especially natural scenes.Our work is dedicated to handle and to generate landscapes efficently. We propose a new model based on a construction tree inside which the user can handle parts of the terrain intuitively. We also present techniques to efficently visualize such model. Finally, we present a new algorithm for generating large-scale terrains exhibiting hierarchical structures based on their hydrographic networks: elevation is generated in a broad compliance to water-tansport principles without having to resort on costly hydraulic simulations
Styles APA, Harvard, Vancouver, ISO, etc.
34

Kou, Huaizhong. « Génération d'adaptateurs web intelligents à l'aide de techniques de fouilles de texte ». Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0011.

Texte intégral
Résumé :
Cette thèse définit un système d'informations Web d'intégration sémantique, appelé SEWISE qui peut intégrer des informations textuelles provenant de différentes sources Web. Dans SEWISE les adaptateurs Web sont construits autour de différents sites Web pour extraire automatiquement des informations intéressantes. Des technologies de fouille de texte sont alors employées pour découvrir des sémantiques abordées dans les documents. SEWISE peut assister à la recherche des informations sur le Web. Trois problèmes liés à la catégorisation de document sont étudiés. Premièrement, nous étudions les approches de sélection de termes et nous proposons deux approches CBA et IBA pour choisir ces termes. Puis, pour estimer des associations statistiques entre termes, un modèle mathématique est proposé. Finalement, les algorithmes de calculs de scores de catégories employées par des classificateurs k-NN sont étudiés. Deux algorithmes pondérés CBW et IBW pour calculer des scores de catégories sont proposés
This thesis defines a system framework of semantically integrating Web information, called SEWISE. It can integrate text information from various Web sources belonging to an application domain into common domain-specific concept ontology. In SEWISE, Web wrappers are built around different Web sites to automatically extract interesting information from. Text mining technologies are then used to discover the semantics Web documents talk about. SEWISE can ease topic-oriented information researches over the Web. Three problems related to the document categorization are studied. Firstly, we investigate the approaches to feature selection and proposed two approaches CBA and IBA to select features. To estimate statistic term associations and integrate them within document similarity model, a mathematical model is proposed. Finally, the category score calculation algorithms used by k-NN classifiers are studied. Two weighted algorithms CBW and IBW to calculate category score are proposed
Styles APA, Harvard, Vancouver, ISO, etc.
35

Raschia, Guillaume. « SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles ». Nantes, 2001. http://www.theses.fr/2001NANT2099.

Texte intégral
Résumé :
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
Styles APA, Harvard, Vancouver, ISO, etc.
36

Platzer, Auriane. « Mécanique numérique en grandes transformations pilotée par les données : De la génération de données sur mesure à une stratégie adaptative de calcul multiéchelle ». Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0041.

Texte intégral
Résumé :
La mécanique numérique est aujourd'hui au cœur d'un important flux de données. D'un côté, l'identification des lois de comportement utilisées dans les simulations éléments finis repose sur de riches données expérimentales (mesures de champs). D'un autre côté, les calculs multiéchelles fournissent un très grand nombre de valeurs discrètes de champs de déplacement, déformation et contrainte, dont on extrait des connaissances sur la réponse effective du matériau. Entre ces données, la loi de comportement apparaît comme un goulot contraignant le champ des possibles. En rupture avec cette approche, Kirchdoerfer et Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) ont proposé un paradigme de mécanique numérique sans modèle, appelé data-driven computational mechanics. La réponse matériau y est uniquement représentée par une base de données (couples déformation-contrainte). Le problème mécanique est alors reformulé comme une mini- misation sous contrainte de la distance entre (i) l'état déformation-contrainte mécanique de la structure, et (ii) la base de données matériau. Ces travaux de thèse se concentrent sur la question de la couverture de l'espace par les données matériau, notamment dans le cadre des grandes transformations. Ainsi, l'approche data-driven est d'abord étendue à la mécanique non linéaire : nous considérons deux formulations différentes et proposons pour chacune d'elles un solveur éléments finis. Nous explorons ensuite la génération de base de données sur mesure, grâce à une méthode d'échantillonnage mécaniquement motivée. Nous évaluons l'approche au moyen d'analyses éléments finis de structures complexes en grandes déformations. Enfin, nous proposons une première stratégie de calcul multiéchelle pilotée par les données, qui permet d'enrichir de façon adaptative la base de données matériau
Computational mechanics is a field in which a large amount of data is both consumed and produced. On the one hand, the recent developments of experimental measurement techniques have provided rich data for the identification process of constitutive models used in finite element simulations. On the other hand, multiscale analysis produces a huge amount of discrete values of displacements, strains and stresses from which knowledge is extracted on the overall material behavior. The constitutive model then acts as a bottleneck between upstream and downstream material data. In contrast, Kirchdoerfer and Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) proposed a model-free computing paradigm, called data-driven computational mechanics. The material response is then only represented by a database of raw material data (strain-stress pairs). The boundary value problem is thus reformulated as a constrained distance minimization between (i) the mechanical strain-stress state of the body, and (ii) the material database. In this thesis, we investigate the question of material data coverage, especially in the finite strain framework. The data-driven approach is first extended to a geometrically nonlinear setting: two alternative formulations are considered and a finite element solver is proposed for both. Second, we explore the generation of tailored databases using a mechanically meaningful sampling method. The approach is assessed by means of finite element analyses of complex structures exhibiting large deformations. Finally, we propose a prototype multiscale data-driven solver, in which the material database is adaptively enriched
Styles APA, Harvard, Vancouver, ISO, etc.
37

Zaher, Noufal Issam al. « Outils de CAO pour la génération d'opérateurs arithmétiques auto-contrôlables ». Grenoble INPG, 2001. http://www.theses.fr/2001INPG0028.

Texte intégral
Résumé :
Les chemins de données sont des parties logiques essentielles dans les microprocesseurs et les microcontrôleurs. La conception de chemins de données fiables est donc un pas important vers la réalisation de circuits intégrés plus sûrs. Nous avons, d’abord, étudié des multiplieurs auto-contrôlables basés sur le code résidu. Nous avons montré qu’on peut avoir des multiplieurs sûrs en présence de fautes de type collage logique avec un surcoût très faible, notamment pour les multiplieurs de grande taille (de 10 à 15 % pour les multiplieurs de taille 32x32). Dans la deuxième partie, nous avons généralisé des solutions auto-contrôlables existantes d’opérateurs arithmétiques basés sur la parité. Les nouvelles versions ont plusieurs bits de parité et permettent d’augmenter sensiblement la couverture de fautes transitoires. Les solutions développées sont intégrées dans un outil informatique. Cet outil donne une grande flexibilité de choix d’opérateurs arithmétiques et logiques auto contrôlables permettant ainsi de faciliter la tâche des concepteurs non spécialisés
Styles APA, Harvard, Vancouver, ISO, etc.
38

Thiessard, Frantz. « Détection des effets indésirables des médicaments par un système de génération automatisée du signal adapté à la base nationale française de pharmacovigilance ». Bordeaux 2, 2004. http://www.theses.fr/2004BOR21184.

Texte intégral
Résumé :
L'évaluation et l'amélioration du rapport bénéfice/risque des médicaments, passe par la surveillance de leurs effets indésirables après leur mise sur le marché. La pharmacovigilance a pour principal objectif la détection des effets indésirables médicamenteux et repose essentiellement sur les notifications spontanées de ces effets. La pharmacovigilance française est confrontée à un flux de données très important sans qu'aucune méthode automatique ne permette d'éditer une liste de cas potentiellement suspects. Huit méthodes ont été étudiées : le "Proportional Reporting Ratio" (PRR), le "Reporting Odds Ratio" (ROR), le "Yule's Q", le "Sequential Probability Ration Test" (SPRT2), les probabilités de Poisson, le X2, l'"Information Component" (IC) et l'"Empirical Bayes Method" (EBAM). Les signaux obtenus avec chaque méthode ont été comparés à partir de données simulées, puis à partir des données réelles de la pharmacovigilance française
Evaluation and improvement of drugs risk/benefit ratio in population implies their adverse reactions surveillance after marketing. Pharmacovigilance main objective is to detect drugs adverse reactions relied mainly on spontaneous notifications. The French pharmacovigilance is faced to a very large data flow while no automatic method is available to edit a list of potentially suspected drug/adverse drug reaction associations. Eight methods were studied : Proportional Reporting Ratio (PRR), Reporting Odds Ratio (ROR), Uule's Q, Sequential Probability Ratio Test (SPRT2), Poisson's probabilities, X2, Information Component (IC), and Empirical Baye's Method (EBAM). Signals obtained with each method were compared through simulated data, then through real data from the French pharmacovigilance database
Styles APA, Harvard, Vancouver, ISO, etc.
39

Tourancheau, Alan. « Analyse bio-informatique de données de séquençage de nouvelle génération pour l'étude transcriptomique d'enzymes du métabolisme ». Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27295.

Texte intégral
Résumé :
Les UDP-glucuronosyltransférases (UGT), enzymes catalysant la réaction de glucuronidation, sont impliquées dans le métabolisme de nombreux substrats endogènes (p. ex. bilirubine et hormones stéroïdiennes) et exogènes (p. ex. agents anticancéreux et médicaments d’autres classes) grâce à leur expression, entre autres, dans les tissus du métabolisme des médicaments tels que le foie, les reins et le tractus gastro-intestinal. Ainsi, une vue d’ensemble et détaillée du transcriptome des UGT humaines apparait comme une condition importante à l’établissement de la signature métabolique d’un individu. Dans le cadre de mon projet de recherche de doctorat, nous avons mis à jour le transcriptome des dix gènes UGT humains dans des tissus normaux et tumoraux du métabolisme par séquençage de nouvelle génération d’ARN ciblés (Capture-Seq). Pour cela, des tissus de foie, de rein, d’intestin et de côlon ainsi que des tissus d’endomètre, de sein et de prostate ont été analysés. Après alignement sur le génome de référence humain (hg19), 234 nouveaux évènements d’épissage ont été identifiés. Tous les transcrits codants pour les enzymes UGT1 et UGT2 déjà connues ont été observés, ainsi que plus de 130 nouveaux transcrits présentant des structures variables et des fonctions biologiques potentiellement diverses. Ainsi, nos travaux révèlent que l’ensemble des gènes UGT est sujet à l’épissage alternatif. Ces résultats ont permis de proposer une structure génomique révisée des locus UGT ainsi que d’établir le vaste répertoire des transcrits pour chaque gène UGT dans les tissus étudiés. Enfin, l’ensemble du transcriptome des gènes UGT a été quantifié dans les principaux tissus du métabolisme des médicaments. Les résultats indiquent que les transcrits alternatifs représentent une part non négligeable et très variable du transcriptome UGT, c’est-à-dire de 6 à 100 % de l’expression génique, et qu’ils sont exprimés de façon tissu spécifique. De plus, ces données suggèrent un remodelage du transcriptome UGT en présence de néoplasie pouvant affecter la capacité de glucuronidation tumorale comparativement au tissu sain. Le programme complexe d’épissage alternatif régulant l’expression et la fonction des protéines alternatives UGT jouerait un rôle important dans la détermination de la capacité de détoxification d’un organe, affectant potentiellement la réponse aux médicaments et à d’autres composés éliminés par cette voie métabolique. La connaissance approfondie du transcriptome des UGT est cruciale afin de mieux comprendre les éléments fonctionnels des locus UGT et d’établir leur rôle dans le métabolisme des médicaments et dans la réponse à divers composés endogènes.
UDP-glucuronosyltransferases (UGT) catalyze the reaction of glucuronidation. These enzymes are involved in the metabolism of many endogenous (e.g. bilirubin and steroid hormones) and exogenous substrates (e.g. many anticancer agents and drugs of other classes). They are expressed, among others, in the tissues of drug metabolism of such as the liver, kidneys and gastrointestinal tract tissues. A comprehensive and detailed view of the human UGT transcriptome emerges as a key condition for the establishment of the metabolic signature of an individual. As part of my PhD research project, we uncover the transcriptome landscape of the 10 human UGT gene loci in normal and tumoral metabolic tissues by targeted RNA next-generation sequencing (Capture-Seq). For this, liver tissues, kidney, small intestine and colon as well as endometrial tissues, breast and prostate were analyzed. Alignment on the human hg19 reference genome identifies 234 novel exon-exon junctions. We recover all previously known UGT1 and UGT2 enzyme-coding transcripts and identify over 130 structurally and functionally diverse novel UGT variants. Our work establish for the first time that all UGT genes are subject to alternative splicing. We further expose a revised genomic structure of UGT loci and provide a comprehensive repertoire of transcripts for each UGT gene. Finally, the entire transcriptome of UGT genes was quantified in the major drugs metabolism tissues (liver, kidney and intestine). The results indicate that alternative transcripts represent a significant part of the UGT transcriptome varying from 6-100% of UGT gene expression. Data also uncover a remodelling of the UGT transcriptome occurring in a tissue- and tumor-specific manner. The complex alternative splicing program regulating UGT expression and protein functions is likely critical in determining detoxification capacity of an organ and stress-related responses, with significant impact on drug responses and diseases.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Gombert, Baptiste. « Vers une nouvelle génération de modèles de glissements co-sismiques : analyse stochastique et approche multi-données ». Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH016/document.

Texte intégral
Résumé :
L’explosion du nombre et de la variété des données géodésiques, sismologiques et tsunami disponibles est une opportunité exceptionnelle pour produire de nouveaux modèles de la source sismique. Mais ces données n’apportent pas toutes la même information et sont soumises à différentes sources d’incertitudes, rendant la solution au problème inverse non-unique. Dans cette thèse, nous utilisons une méthode d’échantillonnage bayésien pour produire de nouveaux modèles de glissement moins assujettis au sur-ajustement des données et permettant une estimation réaliste de l’incertitude associée aux paramètres estimés. Nous l’appliquons à l’étude du glissement dans trois contextes tectoniques différents : le séisme de Landers (1992, Mw=7.3), la zone de subduction équato-colombienne où s’est produit le séisme de Pedernales (2016, Mw=7.8), et le séisme intra-plaque de Tehuantepec (2017, Mw=8.2). À travers ce travail, nous démontrons l’importance de la considération rigoureuse des incertitudes et les atouts de l’approche bayésienne pour l’étude des différentes phases du cycle sismique
The explosion in the amount and variety of available geodetic, tsunami, and seismological observations offers an outstanding opportunity to develop new seismic source models. But these data are sensitive to different sources of uncertainty and provide heterogeneous information, which makes the solution of the inverse problem non-unique.In this thesis, we use a Bayesian sampling method to propose new slip models, which benefit from an objective weighting of the various datasets by combining observational and modelling errors. These models are less affected by data overfit and allow a realistic assessment of posterior uncertainties. We apply this method to the study of slip processes occurring in three different tectonic contexts: the Landers earthquake (1992, Mw=7.3), the Ecuador-Colombia subduction zone which hosted the Pedernales earthquake (2016, Mw=7.8), and the intraslab Tehuantepec earthquake (2017, Mw=8.2). Through these analyses, we demonstrate how the study of the seismic cycle can benefit from rigorous uncertainty estimates and Bayesian sampling
Styles APA, Harvard, Vancouver, ISO, etc.
41

Soukane, Assia. « Génération automatique des requêtes de médiation dans un environnement hétérogène ». Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0038.

Texte intégral
Résumé :
Les systèmes de médiation sont aujourd'hui largement développes et connus. Cependant, leur mise en œuvre pose un certain nombre de problèmes, en particulier la définition de requêtes de médiation en présence d'un grand nombre de sources de données, et d'un volume important de méta-données les décrivant. Ce problème est d'autant plus crucial lorsque les sources sont hétérogènes. Face a cette problématique, nous proposons dans cette thèse pour le contexte relationnel, une approche de génération automatique de requêtes de médiation. A partir de sources de données distribuées et hétérogènes, notre algorithme produit un ensemble potentiel de requêtes de médiation. Nous avons développé un outil qui permet de générer automatiquement des requêtes de médiation dans un environnement hétérogène. Notre objectif principal étant de fournir à l'utilisateur un outil adapte aux petits et grands systèmes, nous avons réalise une série de tests d'évaluation des performances pour mesurer son passage a l'échelle. Ces tests montrent la faisabilité de notre approche
Nowadays, mediation systems are widely used. However, their implementation raises several problems, especially, the definition of queries when there is a high number of sources, and a great amount of meta data. Furthermore, the problem is particularly important when sources are heterogeneous. We propose in this thesis an approach to automatically generate the mediation queries, in a relational context. Our algorithm produce candidate set of queries since heterogeneous and distributed sources. We develop a tool to automatically generate mediation queries in the heterogeneous context. Our principal goal is to provide an appropriate tool for different sizes of systems; we achieve tests series to perform scalability
Styles APA, Harvard, Vancouver, ISO, etc.
42

Moyse, Gilles. « Résumés linguistiques de données numériques : interprétabilité et périodicité de séries ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066526/document.

Texte intégral
Résumé :
Nos travaux s'inscrivent dans le domaine des résumés linguistiques flous (RLF) qui permettent la génération de phrases en langage naturel, descriptives de données numériques, et offrent ainsi une vision synthétique et compréhensible de grandes masses d'information. Nous nous intéressons d'abord à l'interprétabilité des RLF, capitale pour fournir une vision simplement appréhendable de l'information à un utilisateur humain et complexe du fait de sa formulation linguistique. En plus des travaux existant à ce sujet sur les composants élémentaires des RLF, nous proposons une approche globale de l'interprétabilité des résumés vus comme un ensemble de phrases et nous intéressons plus spécifiquement à la question de leur cohérence. Afin de la garantir dans le cadre de la logique floue standard, nous introduisons une formalisation originale de l'opposition entre phrases de complexité croissante. Ce formalisme nous permet de démontrer que les propriétés de cohérence sont vérifiables par le choix d'un modèle de négation spécifique. D'autre part, nous proposons sur cette base un cube en 4 dimensions mettant en relation toutes les oppositions possibles entre les phrases d'un RLF et montrons que ce cube généralise plusieurs structures d'opposition logiques existantes. Nous considérons ensuite le cas de données sous forme de séries numériques et nous intéressons à des résumés linguistiques portant sur leur périodicité : les phrases que nous proposons indiquent à quel point une série est périodique et proposent une formulation linguistique appropriée de sa période. La méthode d’extraction proposée, nommée DPE pour Detection of Periodic Events, permet de segmenter les données de manière adaptative et sans paramètre utilisateur, en utilisant des outils issus de la morphologie mathématique. Ces segments sont ensuite utilisés pour calculer la période de la série temporelle ainsi que sa périodicité, calculée comme un degré de qualité sur le résultat renvoyé mesurant à quel point la série est périodique. Enfin, DPE génère des phrases comme « Environ toutes les 2 heures, l'afflux de client est important ». Des expériences sur des données artificielles et réelles confirment la pertinence de l'approche. D’un point de vue algorithmique, nous proposons une implémentation incrémentale et efficace de DPE, basée sur l’établissement de formules permettant le calcul de mises à jour des variables. Cette implémentation permet le passage à l'échelle de la méthode ainsi que l'analyse en temps réel de flux de données. Nous proposons également une extension de DPE basée sur le concept de périodicité locale permettant d'identifier les sous-séquences périodiques d'une série temporelle par l’utilisation d’un test statistique original. La méthode, validée sur des données artificielles et réelles, génère des phrases en langage naturel permettant d’extraire des informations du type « Toutes les deux semaines sur le premier semestre de l'année, les ventes sont élevées »
Our research is in the field of fuzzy linguistic summaries (FLS) that allow to generate natural language sentences to describe very large amounts of numerical data, providing concise and intelligible views of these data. We first focus on the interpretability of FLS, crucial to provide end-users with an easily understandable text, but hard to achieve due to its linguistic form. Beyond existing works on that topic, based on the basic components of FLS, we propose a general approach for the interpretability of summaries, considering them globally as groups of sentences. We focus more specifically on their consistency. In order to guarantee it in the framework of standard fuzzy logic, we introduce a new model of oppositions between increasingly complex sentences. The model allows us to show that these consistency properties can be satisfied by selecting a specific negation approach. Moreover, based on this model, we design a 4-dimensional cube displaying all the possible oppositions between sentences in a FLS and show that it generalises several existing logical opposition structures. We then consider the case of data in the form of numerical series and focus on linguistic summaries about their periodicity: the sentences we propose indicate the extent to which the series are periodic and offer an appropriate linguistic expression of their periods. The proposed extraction method, called DPE, standing for Detection of Periodic Events, splits the data in an adaptive manner and without any prior information, using tools from mathematical morphology. The segments are then exploited to compute the period and the periodicity, measuring the quality of the estimation and the extent to which the series is periodic. Lastly, DPE returns descriptive sentences of the form ``Approximately every 2 hours, the customer arrival is important''. Experiments with artificial and real data show the relevance of the proposed DPE method. From an algorithmic point of view, we propose an incremental and efficient implementation of DPE, based on established update formulas. This implementation makes DPE scalable and allows it to process real-time streams of data. We also present an extension of DPE based on the local periodicity concept, allowing the identification of local periodic subsequences in a numerical series, using an original statistical test. The method validated on artificial and real data returns natural language sentences that extract information of the form ``Every two weeks during the first semester of the year, sales are high''
Styles APA, Harvard, Vancouver, ISO, etc.
43

Archier, Pascal. « Contribution à l'amélioration des données nucléaires neutroniques du sodium pour le calcul des réacteurs de génération IV ». Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00680781.

Texte intégral
Résumé :
Les critères de sûreté exigés pour les réacteurs rapides au sodium de Generation IV (RNR-Na) se traduisent par la nécessité d'incertitudes réduites et maîtrisées sur les grandeurs neutroniques d'intérêt. Une part de ces incertitudes provient des données nucléaires et, dans le cas des RNR-Na, des données nucléaires du sodium, qui présentent des différences significatives entre les bibliothèques internationales (JEFF-3.1.1, ENDF/B-VII.0, JENDL-4.0). L'objectif de cette thèse est d'améliorer la connaissance sur les données nucléaires du sodium afin de mieux calculer les paramètres neutroniques des RNR-Na et fournir des incertitudes fiables. Après un état des lieux des présentes données du Na23, l'impact des différences est quantifié notamment sur les effets en réactivité de vidange du sodium, calculés avec des outils neutroniques déterministe et stochastique. Les résultats montrent qu'il est nécessaire de ré-évaluer entièrement les données nucléaires du sodium. Plusieurs développements ont été effectués dans le code d'évaluation Conrad, pour intégrer de nouveaux modèles de réactions nucléaires et leurs paramètres ainsi que pour permettre de procéder à des ajustements avec des mesures intégrales. Suite à ces développements, l'analyse des données différentielles et la propagation des incertitudes expérimentales avec Conrad ont été réalisées. Le domaine des résonances résolues a été étendu à 2 MeV et le domaine du continuum débute directement au-delà de cette énergie. Une nouvelle évaluation du Na23 et les matrices de covariances multigroupes associées ont été générées pour de futurs calculs d'incertitudes. La dernière partie de la thèse se focalise sur le retour des expériences intégrales de vidange du sodium, par des méthodes d'assimilation de données intégrales, afin de réduire les incertitudes sur les sections efficaces du sodium. Ce document se clôt sur des calculs d'incertitudes pour des RNR-Na de type industriel, qui montrent une meilleure prédiction de leurs paramètres neutroniques avec la nouvelle évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Tata, Zafiarifety Christian. « Simulation et traitement des données d’un imageur à rayons Gamma pour une nouvelle génération de caméras Compton ». Electronic Thesis or Diss., Troyes, 2019. http://www.theses.fr/2019TROY0028.

Texte intégral
Résumé :
La localisation de la radioactivité est une étape cruciale dans le contexte du démantèlement des centrales nucléaires. Pour cela plusieurs systèmes de détection ont été développés, telle que la caméra pinhole, utilisant des collimateurs en plomb ou tungstène, mais ayant comme principal inconvénient une basse efficacité de détection. La caméra Compton, elle, utilise la cinématique de la diffusion Compton. Elle représente une alternative très prometteuse comparée aux systèmes classiques car disposant de plusieurs avantages tels que : une haute efficacité de détection, une reconstruction des images de la source radioactive avec une haute résolution spatiale et un large champ de vue, et une capabilité de faire de la spectroscopie avec une bonne résolution en énergie. Ainsi dans ce travail nous avons développé une nouvelle caméra Compton basé sur l’utilisation de deux cristaux monolithiques de CeBr3 équipés de photodétecteur Philips DPC3200 et assemblés avec des matériaux et procédés développés par Damavan pour obtenir les têtes de détection de qualité optimale et adaptés aux contraintes de la caméra Compton. Nous avons ainsi mis en place une procédure de calibration en temps et en énergie des têtes de détection. Nous avons aussi implémenté un nouvel algorithme de calcul de positions basé sur l’utilisation d’un nouveau modèle simulé par Monte Carlo. Finalement nous avons procédé à l’évaluation globale de la performance de la caméra, une fois que les concepts élémentaires dans son développement ont été éprouvés : Le temps, l’énergie et la position
The localization of radioactivity is a crucial step in the dismantling of nuclear power plants. For this purpose, several detection systems have been developed, such as the pinhole camera, using lead or tungsten collimators, but having as main disadvantage a low detection efficiency. The Compton camera uses the kinematics of the Compton broadcast. It represents a very promising alternative compared to conventional systems because it has several advantages such as: high detection efficiency, reconstruction of radioactive source images with high spatial resolution and wide field of view, and the ability to perform spectroscopy with good energy resolution. So, in this work we developed a new Compton camera based on the use of two monolithic crystals from Cebr3 equipped with Philips DPC3200 photodetector and assembled with materials and processes developed by Damavan for obtain the detection heads of optimal quality and adapted to the constraints of the Compton camera. We have thus set up a procedure for the calibration of the time and energy of the detection heads. We also implemented a new position calculation algorithm based on the use of a new model simulated by Monte Carlo. Finally, we carried out a global evaluation of the camera’s performance, once the basic concepts in its development were tested: time, energy and position
Styles APA, Harvard, Vancouver, ISO, etc.
45

Benna, Mehdi. « Génération et inversion de données de propagation d'ondes radio à travers un noyau cométaire (simulation de l'expérience CONSERT) ». Toulouse 3, 2002. http://www.theses.fr/2002TOU30116.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
46

Banerji, Ranajoy. « Optimisation d’une mission spatiale CMB de 4eme génération ». Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC199/document.

Texte intégral
Résumé :
Le rayonnement du Fond Diffus Cosmologique est une source riche et propre d’informations cosmologiques. L’étude du CMB au cours des dernières décennies a conduit à la mise en place d’un modèle standard pour la cosmologie et a permis de mesurer précisément ses principaux paramètres. Il a également transformé le domaine, en le basant davantage sur les données observationnelles et les approches numériques et statistiques.A l’heure actuelle, l’inflation est le principal paradigme décrivant les premiers moments de notre Univers. Elle prédit la génération de fluctuations de la densité de matière primordiale et des ondes gravitationnelles. Le signal de polarisation du CMB porte la signature de ces ondes gravitationnelles sous la forme de modes-B primordiaux. Une future génération de missions spatiale d’observation de la polarisation du CMB est bien adaptée à l’observation de cette signature de l’inflation.Cette thèse se concentre sur l’optimisation d’une future mission spatiale CMB qui observera le signal en modes-B pour atteindre une sensibilité de r = 0,001. Plus précisément, j’étudie la stratégie d’observation et l’impact des effets systématiques sur la qualité de la mesure de polarisation
The Cosmic Microwave Background radiation is a rich and clean source of Cosmological information. Study of the CMB over the past few decades has led to the establishment of a “Standard Model” for Cosmology and constrained many of its principal parameters. It hasalso transformed the field into a highly data-driven domain.Currently, Inflation is the leading paradigm describing the earliest moments of our Universe. It predicts the generation of primordial matter density fluctuations and gravitational waves. The CMB polarisation carries the signature of these gravitational waves in the form of primordial “B-modes”. A future generation of CMB polarisation space mission is well suited to observe this signature of Inflation.This thesis focuses on optimising a future CMB space mission that will observe the B-modesignal for reaching a sensitivity of r = 0.001. Specifically, I study the optimisation of the scanning strategy and the impact of systematics on the quality of polarisation measurement
Styles APA, Harvard, Vancouver, ISO, etc.
47

Rialle, Stéphanie. « Méthodologie et outils bioinformatiques d'aide à la conception de systèmes biologiques synthétiques pour de nouveaux diagnostics en santé humaine ». Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20091/document.

Texte intégral
Résumé :
La biologie synthétique est une discipline en pleine expansion visant à concevoir et construire des systèmes biologiques possédant des fonctions qui n'existent pas dans la nature. Elle se fonde sur des principes d'ingénierie pour rationnaliser la conception de tels systèmes. Le projet CompuBioTic a pour objectif le développement d'un nouveau type de diagnostic du cancer colorectal, se fondant sur une approche de biologie synthétique. Un choix stratégique a été fait et consiste à vouloir développer un système non vivant, ne nécessitant pas de cellule hôte et fondé sur l'utilisation de réseaux protéiques plutôt que génétiques. Très peu de méthodologies et d'outils ont été développés pour faciliter la conception de ce type de système. Cette thèse propose une méthodologie en trois points : conception, simulation et validation expérimentale ainsi que deux outils bioinformatiques, développés pour aider à la conception de réseaux biochimiques synthétiques. Tout d'abord, CompuBioTicDB est une base de données qui regroupe et annote des dispositifs fonctionnels et des molécules réalisant des processus (protéines et petites molécules) pouvant être exploités dans un contexte de biologie synthétique. Deuxièmement, BioNetCAD est un outil permettant de concevoir un réseau biochimique composé de molécules réelles à partir d'un réseau abstrait. BioNetCAD facilite également la simulation spatio-temporelle du système conçu grâce à un lien vers le logiciel HSim. Des portes logiques moléculaires et un dispositif de détection du glucose ont ainsi été conçus, modélisés et validés expérimentalement. Les principes d'un système pour le diagnostic du cancer colorectal sont également proposés
Synthetic biology is a growing discipline which aims to design and construct biological systems with functions that do not exist in nature. It is based on engineering principles to rationalize the design such systems. The CompuBioTic project aims at the development of a new system for the diagnosis of the colorectal cancer, based on a synthetic biology approach. A strategic choice has been done and consists in wanting to develop a non-living system, which does not require a host cell and which is based on the use of protein rather than genetic networks. Very few methodologies and tools have been developed to facilitate the design of such systems. This thesis proposes a methodology in three steps: design, simulation and experimental validation, as well as two bioinformatics tools, developed to assist the design of synthetic biochemical networks. Firstly, CompuBioTicDB is a database that registers and annotates functional devices and molecules carrying processes (proteins and small molecules) that can be exploited in a context of synthetic biology. Secondly, BioNetCAD is a tool for designing a biochemical network composed of real molecules from an abstract network. BioNetCAD also facilitates spatiotemporal simulation of the designed system with a link to the HSim software. Molecular logic gates and a device for detecting glucose have been designed, modeled and then validated experimentally. The principles of a system for the diagnosis of colorectal cancer are also proposed
Styles APA, Harvard, Vancouver, ISO, etc.
48

Mehdi, Benna. « Génération et inversion de données de propagation d'ondes radio à travers un noyau comètaire (Experience CONSERT - Mission Spatiale ROSETTA) ». Phd thesis, Université Paul Sabatier - Toulouse III, 2002. http://tel.archives-ouvertes.fr/tel-00007990.

Texte intégral
Résumé :
Ce memoire presente les modelisations directe et inverse entreprisent dans le cadre de la preparation de l'exploitation scientique de l'experience Consert de la mission spatiale Rosetta. Nous nous sommes interesses a la modelisation de la propagation d'ondes radio dans le cas simplifie d'un noyau cometaire a geometrie bidimentionnelle. A cette fin, une technique de trace de rayons (Ray Tracing Method, RTM) a ete developpee et validee par comparaison avec les resultats d'une methode spectrale (Pseudo Spectral Time Domain, PSTD). Cette technique a ete ensuite etendue au cas plus complexe d'une geometrie tridimentionnelle, aboutissant a la realisation d'un simulateur pour l'instrument Consert. Le probleme inverse a ete aborde dans le cas d'une geometrie bidimentionnelle a faibles perturbations de permittivite en utilisant la methode de regularisation de Tikhonov. Son etude a montre son caractere mal pose et fortement non lineaire, ainsi que le role important des informations a priori lors de la reconstruction d'image.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Khamakhem, Wassim. « Etude de l'évolution du combustible dans des réacteurs rapides de quatrième génération : impact des données nucléaires sur leur performance ». Paris 11, 2010. http://www.theses.fr/2010PA112173.

Texte intégral
Résumé :
L'objectif de cette thèse est de contribuer à la compréhension des variations des caractéristiques neutroniques de cœurs de réacteurs de 4ème génération (RNR-Na et RNR-G) au cours de l'évolution du combustible. Les caractéristiques neutroniques d'intérêt sont bien sûr la perte de réactivité au cours du cycle et le gain de régénération mais aussi l'effet Doppler et l'effet de vidange du caloporteur. L'évolution du combustible conduit à une dégradation des paramètres de sûreté des cœurs. L'étude de ces variations et de leurs incertitudes associées contribue à justifier la conception des réacteurs de 4ème génération telle qu'envisagée dans ses derniers développements. Les cœurs des réacteurs à neutrons rapides à caloporteur sodium (RNR-Na) et à caloporteur hélium (RNR-He) sont maintenant redimensionnés afin de respecter les critères de conception des réacteurs de quatrième génération qui sont: l'économie des ressources, l'amélioration de la sûreté et de la fiabilité, la résistance à la prolifération et la protection physique. Les images de ces cœurs ont des caractéristiques neutroniques innovantes par rapport à celles du cœur EFR qui fût dimension né dans la continuité de Phénix et de Super Phénix. Les récentes études du CEA ont conduit à un RNR-Na de 3600 MWth à combustible oxyde, appelé SFR, et à un RNR-He de 2400 MWth à combustible carbure, appelé GFR. La conception de ces cœurs doit atteindre un équilibre entre les phénomènes physiques antagonistes que sont un gain de régénération positif et une sûreté accrue traduite comme un effet de vidange sodium réduit (SFR) ou un effet de dépressurisation hélium faible (GFR). Des études ont été réalisées sur des cœurs SFR avec des combustibles de nature différente: carbure (provenant du GFR) ou métal. Les images préliminaires obtenues sont caractérisées par des densités de puissance élevées et de forts gains de régénération, avec un maximum atteint égal à 0,17. La première étape dans le développement des GFR concerne un réacteur expérimental de puissance réduite appelé ALLEGRO démonstrateur technolgique de la filière, ses caractéristiques spécifiques ont également été étudiées. Pour étudier les paramètres neutroniques des cœurs, on dispose d'analyses basées sur les méthodes de sensibilité du code de calcul déterministe ERANOS (système de codes de calcul neutronique). Ces méthodes sont disponibles en statique sans possibilité de prise en compte de l'évolution du combustible. Afin de pallier à cette insuffisance, la première partie de la thèse a consisté à développer des méthodes de calcul de sensibilité en évolution ayant la particularité de coupler l'équation de Boltzmann avec l'équation de Bateman et permettant une compréhension approfondie de l'impact de l'évolution du combustible sur les caractéristiques des cœurs. Les méthodes développées permettent maintenant de calculer la sensibilité des concentrations des actinides mineurs et des produits de fission, et des autres grandeurs neutroniques d'intérêt telles le gain de régénération, l'effet Doppler et l'effet de vidange du caloporteur. Afin d'illustrer l'application de ces sensibilités en évolution, les calculs d'incertitudes des caractéristiques neutroniques des cœurs en évolution ont été réalisés à l'aide d'un ensemble de matrices de variance covariance appelée BOLNA. Les calculs d'incertitudes mettent en lumière la contribution de chaque nucléide aux grandeurs neutroniques des divers cœurs envisagés. Des études poussées concernant les données nucléaires du sodium (ENDFB-VII, JEFF-3. 1, JENDL-3. 3) ont permis de mettre en évidence la difficulté de produire des données nucléaires suffisamment précises et leurs matrices de variance covariance associées. Bien que la faisabilité de ces cœurs ne soit pas remise en question, il apparaît évident que leur performance nécessitera des expériences intégrales confirmant les données nucléaires et réduisant les incertitudes associées. Enfin, on utilise les méthodes de sensibilité pour expliquer les évolutions particulières et parfois divergentes des grandeurs intégrales comme l'effet de vidange ou l'effet Doppler au cours de l'évolution dans les cœurs GFR et ALLEGRO. La raison vient de la différence de taille des deux cœurs mais également des différents matériaux de structure utilisés. Pour le SFR, la répartition de l'effet de vidange sur les zones du coeur est analysée et comparée à celle de la nappe de puissance et in fine rapportée au gain de régénération. Il s'avère que la conception de coeur SFR avec un gain de régénération interne plutôt plat, a comme conséquence, un effet vide plutôt plat qui est un autre aspect positif de la conception de ce cœur. On conclut sur les avantages issus des derniers dessins de cœurs de réacteurs ainsi que sur leur degré de performance du point de vue de la robustesse des outils de calcul très dépendants, en premier lieu, de la connaissance des données nucléaires
The objective of this PhD topic is to contribute to the understanding of the variations of the core neutronic characteristics of the 4th generation reactors (Sodium Cooled Fast Reactors (SFR) and Gas Cooled Fast Reactors (GFR)) during fuel depletion. The neutron characteristics of interest are of course the burn up reactivity swing and the breeding gain but also the Doppler effect and the coolant void effect. Fuel depletion leads to a degradation of the core safety parameters. The study of these variations and their associated uncertainties contributes to justify 4th generation reactor core designs as envisaged in their last developments. These last developments concerned Sodium Cooled Fast Reactors (SFR) and Gas Cooled Fast Reactors (GFR) which were reshaped in order to meet Generation IV goals on economics, safety and reliability, sustainability and proliferation resistance. They exhibit very innovative characteristics compared to the European Fast Reactor (EFR) whose design was very much in line with those of Phenix and Super Phenix. Recent CEA studies had led to large 3600 MWth SFR cores using oxide fuel and to large 2400 MWth GFR cores using carbide fuel. Since the designs have to balance between positive breeding gain and safety characteristics such as rather low void reactivity effects (SFR) or rather sm ail core pressure drop (GFR), scoping studies for breakthrough SFR cores were performed using dense fuels either carbide (already taken as a reference for the GFR core) or metal. These preliminary breakthrough SFR images are characterized by high power density and highly positive breeding gain (Breeding Gain = 0. 17). As a first step towards the development of GFR plants, a low power experimental GFR called ALLEGRO is being envisaged and has been studied for its peculiar characteristics. To study the main neutronic characteristics of these cores, one can use analyses based on the sensitivity methods of the deterministic computer code ERANOS (neutronic code system). These methods are available in statics without the possibility of taking into account fuel depletion. Ln order to mitigate this insufficiency, a subsequent part of the thesis consisted in developing the depletion perturbation theory which requires to couple Boltzmann and Bateman equations and allows a more precise understanding of the behaviour of the previous cores. The method is now able to calculate the sensitivity of the actinides and fission products concentrations and of neutron characteristics of interest such as breeding gain, Doppler reactivity effect and the coolant void reactivity coefficient effect. Ln order to illustrate these sensitivity developments, uncertainties of the neutron characteristics have been calculated using a preliminary variance covariance matrix called BOLNA. The uncertainty analyses highlight the contribution of each isotope to the neutron characteristics of the various core designs. This determination has given relatively small uncertainty variations with burn up when possible modifications of nuclear data are applied. The in-depth study performed on sodium nuclear data evaluations (ENDFB-VII, JEFF-3. 1, JENDL-3. 3) highlight the difficulty of creating accurate enough nuclear data and their associated covariance matrix. It appears hence that although the feasibility of these core designs are not questioned (relatively optimistic values being calculated are within the target value of 700 pcm for the reactivity swing and 7% for the reactivity coefficient), their performance will require integral experiments both to confirm what has been evaluated with nuclear data covariance matrices and to reduce nuclear data uncertainties. Lastly, the sensitivity methods are used to explain the peculiar behaviour of integral characteristics Iike the void effect or the Doppler effect with depletion in the GFR and ALLEGRO cores. One reason was track back to the difference in size of the two cores but also to the different structural materials being used. Furthermore, the building up of Pu239 fission products and the change in Pu239 and Pu241 isotopes being different induce divergent behaviour of both Doppler with time. For the SFR, the distribution of the void effect in the various core zones which present different fuel depletion histories is finally analyzed to be compared to that of the power distribution and finally to that of the breeding gain. It appears that the SFR core design with a rather flat internai breeding gain has, as a consequence, a rather flat void effect which is another nice feature. One concludes on the advantages resulting from the last core designs as weil as their degree of performance from the view point of computational tools very dependent at first on the nuclear data knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
50

Fellahi, Mohammed. « Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel ». Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00683224.

Texte intégral
Résumé :
Les applications de flux de données sont des cibles importantes de l'optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d'application: communication, systèmes embarqués, multimédia, etc. L'un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d'applications est comment les ordonnancer à grain fin à fin d'exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l'ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l'épilogue de chaque boucle (phase) parallélisée pour éviter l'augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d'autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l'application de cette technique permet l'amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie