Dissertations / Theses on the topic 'Génération à partir de données'

To see the other types of publications on this topic, follow the link: Génération à partir de données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Génération à partir de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Baez, miranda Belen. "Génération de récits à partir de données ambiantes." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
2

Uribe, Lobello Ricardo. "Génération de maillages adaptatifs à partir de données volumiques de grande taille." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
3

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles." Nantes, 2001. http://www.theses.fr/2001NANT2099.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
4

Sridhar, Srivatsan. "Analyse statistique de la distribution des amas de galaxies à partir des grands relevés de la nouvelle génération." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4152/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est d'étudier la possibilité de construire la fonction de corrélation à 2 points des amas de galaxies détectés dans les grands relevés optiques de galaxies. En particulier j’étudie l’impact de décalages vers le rouge dégradés car dérivés de données photométriques seules comme cela sera le cas pour les grands relevés à venir. J’ai utilisé des sous-échantillons d’amas sélectionnés dans les catalogues simulés. Les décalages vers le rouge des amas sont modélisés à partir des décalages exacts auxquels sont rajoutés un brui gaussien d’écart type σ (z=0) = 0.005 à 0.050. La fonction de corrélation dans l’espace direct est calculées par une méthode de déprojection. L’étude a été menée sur 4 intervalles de masse et 6 de redshift couvrant le domaine 0N200) est similaire à Σ(>masse), ainsi que la fonction de biais qui peut être reproduite à 1σ près
I aim to study to which accuracy it is actually possible to recover the real-space to-point correlation function from cluster catalogues based on photometric redshifts. I make use of cluster sub-samples selected from a light-cone simulated catalogue. Photometric redshifts are assigned to each cluster by randomly extracting from a Gaussian distribution having a dispersion varied in the range σ (z=0) = 0.005 à 0.050. The correlation function in real-space is computed through deprojection method. Four masse ranges and six redshifts slices covering the redshift range 0
5

Pentek, Quentin. "Contribution à la génération de cartes 3D-couleur de milieux naturels à partir de données d'un système multicapteur pour drone." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thèse sont des travaux préliminaires à la construction de cartes 3D-couleur. Ils visent à résoudre la problématique de fusion des données LiDAR et de l'imagerie optique acquises depuis un drone. Deux prérequis sont identifiés. Ceux-ci consistent, d'une part, à caractériser les erreurs de mesure des données hétérogènes issues des capteurs, et d'autre part, à aligner géométriquement ces-dernières.Dans un premier temps, nous proposons le développement d'un modèle de prédiction de l'incertitude de mesure LiDAR prenant en compte l'influence de l'empreinte laser. Une nouvelle méthode sans référence est introduite dans le but de valider ce modèle de prédiction. Une deuxième méthode utilisant un plan de référence valide l'adéquation de l'utilisation de la méthode sans référence.Dans un second temps, nous proposons une nouvelle méthode d'étalonnage du système multicapteur composé d'un LiDAR, d'une caméra, d'un système de navigation inertielle et d'un système de positionnement par satellites. La performance de cette méthode est évaluée sur des données synthétiques et réelles. Elle présente l'avantage d'être entièrement automatique, ne nécessite pas de mire d'étalonnage ou de point de contrôle au sol et peut opérer indifféremment en milieu naturel ou urbain. La flexibilité de cette méthode lui permet d'être mise en œuvre rapidement avant chaque acquisition.Finalement, nous proposons une méthode permettant de générer des cartes 3D-couleur sous forme de nuages de points colorisés. Nos expériences montrent que l'alignement géométrique des données permet d'améliorer fortement la qualité des cartes 3D-couleurs. Si on regarde plus attentivement ces cartes 3D-couleur, il persiste des erreurs de colorisation dues principalement à la non prise en compte des erreurs de mesure. L'exploitation du modèle de prédiction de l'incertitude de mesure LiDAR proposé pour la construction des cartes 3D-couleur serait donc la suite logique de ces travaux
These thesis works are preliminary works to the construction of 3D-colour maps. They aim to solve the problem of combining LiDAR data and optical imagery acquired from a drone. Two prerequisites are identified. These consist, on the one hand, in characterizing the measurement errors of heterogeneous data from the sensors and, on the other hand, in geometrically aligning the latter.First, we propose the development of a LiDAR measurement uncertainty prediction model that takes into account the influence of the laser footprint. A new method without reference is introduced to validate this prediction model. A second method using a reference plane validates the adequacy of the use of the method without reference.In a second step, we propose a new method for calibrating the multi-sensor system consisting of a LiDAR, a camera, an inertial navigation system and a global satellite navigation system. The performance of this method is evaluated on synthetic and real data. It has the advantage of being fully automatic, does not require a calibration object or ground control point and can operate in either natural or urban environments. The flexibility of this method allows it to be implemented quickly before each acquisition.Finally, we propose a method to generate 3D-color maps in the form of colored point clouds. Our experiments show that geometric data alignment significantly improves the quality of 3D-color maps. If we look more closely at these 3D-colour maps, there are still colorization errors due mainly to the failure to take into account measurement errors. The use of the proposed LiDAR measurement uncertainty prediction model in the construction of 3D-color maps would therefore be the logical continuation of this work
6

Broseus, Lucile. "Méthodes d'étude de la rétention d'intron à partir de données de séquençage de seconde et de troisième générations." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTT027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On reconnaît maintenant aux transcrits des implications multiples dans le fonctionnement des cellules eucaryotes. En plus de leur rôle originel de messagers assurant la liaison entre l'ADN et la synthèse protéique, l’usage de transcrits alternatifs apparaît comme un mode de contrôle post-transcriptionnel de l'expression génique. Exemplairement, plusieurs mécanismes distincts de régulation impliquant la production de transcrits matures retenant des introns (IRTs) ont été récemment décrits. Ces observations sont largement tributaires du développement de la seconde génération de séquençage haut-débit de l'ARN (RNA-seq). Cependant, ces données ne permettent pas d’identifier la structure complète des IRTs , dont le répertoire est encore très parcellaire. L’émergence d’une troisième génération de séquençage, à même de lire les transcrits dans leur intégralité, pourrait permettre d’y remédier. Bien que chaque technologie présente des inconvénients propres qui n'autorisent qu'une vision partielle et partiale du transcriptome, elles se complètent sur plusieurs points. Leur association, au moyen de méthodes dites hybrides, offre donc des perspectives intéressantes pour aborder l'étude des isoformes. L'objet de cette thèse est d'examiner ce que ces deux types de données peuvent, seuls ou combinés, apporter plus spécifiquement à l'étude des événements de rétention d'intron (IR). Un nombre croissant de travaux exploitent la profondeur et la largeur de couverture des données de seconde génération pour déceler et quantifier l'IR. Toutefois, il existe encore peu de méthodes informatiques dédiées à leur analyse et l’on fait souvent appel à des méthodes conçues pour d'autres usages comme l'étude de l'expression des gènes ou des exons. En tous les cas, leur capacité à apprécier correctement l'IR ne sont pas garanties. C'est la raison pour laquelle nous mettons en place un plan d'évaluation des méthodes de mesure des niveaux d’IR. Cette analyse révèle un certain nombre de biais, susceptibles de nuire à l'interprétation des résultats et nous amène à proposer une nouvelle méthode d’estimation. Au-delà de la vision centrée sur les variants, les données de longs reads Oxford Nanopore ont le potentiel de révéler la structure complète des IRTs, et ainsi, d’inférer un certain nombre de leurs caractéristiques. Cependant, leur taux d’erreur élevé et la troncation des séquences sont des obstacles incontournables. A large échelle, le traitement informatique de ces données nécessite l’introduction d’heuristiques, qui privilégient certaines formes de transcrits et, en général, occultent les formes rares ou inattendues. Il en résulte une perte importante d’information et de qualité d’interprétation. Pour la réduire, nous développons une méthode hybride de correction des séquences et proposons des stratégies ciblées pour reconstituer et caractériser les IRTs
In eucaryotic cells, the roles of RNA transcripts are known to be varied. Besides their role as messengers, transferring information from DNA to protein synthesis, the usage of alternative transcripts appears as a means to control gene expression in a post-transcriptional manner. Exemplary, the production of mature transcripts retaining introns (IRTs) was recently shown to take part in several distinct regulatory mechanisms. These observations benefited greatly from the development of the second generation of RNA-sequencing (RNA-seq). However, these data do not allow to identify the entire structure of IRTs, whose catalog is still fragmented. The emerging third generation of RNA-seq, apt to read RNA sequences in their full extent, could help achieve this goal. Despite their respective drawbacks and biases, both technologies are, to some extent, complementary. It is therefore appealing to try and combine them through so-called hybrid methods, so as to perform analyses at the isoform level. In the present thesis, we aim to investigate the potential of these two types of data, alone or in combination, in order to study intron retention (IR) events, more specifically. A growing number of studies harness the high coverage depths provided by second generation data to detect and quantify IR. However, there exist few dedicated computational methods, and many studies rely on methods designed for other purposes, such as gene or exon expression analysis. In any case, their ability to accurately measure IR has not been certified. For this reason, we set up a benchmark of the various IR quantification methods. Our study reveals several biases, prone to prejudice the interpretation of results and prompted us to suggest a novel method to estimate IR levels. Beyond event-centered analyses, Oxford Nanopore long read data have the capability to reveal the full-length structure of IRTs, and thereby to allow to infer some of their features. However, their high error rate and truncation events constitute inescapable impediments. Transcriptome-wide, the computational treatment of these data necessitates heuristics which will favor specific transcript forms, and, generally, overlook rare or unexpected ones. This results in a considerable loss of information and precludes meaningful interpretations. To address these issues, we develop a hybrid correction method and suggest specific strategies to recover and characterize IRTs
7

Kersale, Marion. "Dynamique de processus océaniques de méso- et de subméso-échelle à partir de simulations numériques et de données in situ." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'hydrodynamisme autour des îles océaniques et dans les régions côtières est caractérisé par la présence de nombreuses structures de méso- et de subméso-échelle. L'objectif de cette thèse est d'étudier, à partir de données in situ et de modélisation numérique, d'une part la prédominance de certains forçages dans la génération de ces structures et d'autre part leurs dynamiques et leurs impacts sur la dispersion des eaux côtières. Dans un premier temps, une étude basée sur des données issues d'un modèle hydrodynamique autour de l'archipel hawaïen a permis d'évaluer les influences respectives et l'importance des forçages du vent, de la topographie et de la circulation générale sur la génération de tourbillons de méso-échelle. Des tests de sensibilité ont mis en évidence l'intérêt d'une haute-résolution spatiale du forçage atmosphérique. Dans un deuxième temps, la dynamique côtière du Golfe du Lion (GdL) a été investie. Une première étude s'est focalisée sur les caractéristiques physiques et la dynamique d'un tourbillon dans la partie ouest du golfe à l'aide de données de la campagne Latex09 et de résultats d'un modèle hydrodynamique. Leur analyse combinée a permis d'identifier un nouveau processus de génération de tourbillons de méso-échelle dans cette zone et de mettre en évidence la formation d'une structure transitoire de subméso-échelle. Basée sur les données de la campagne Latex10, une deuxième étude s'est alors orientée sur la dispersion des eaux côtières de la partie occidentale du GdL. Un suivi lagrangien des masses d'eau a permis de déterminer les coefficients horizontaux et verticaux de diffusion dans cette zone clef pour les échanges côte-large ou interrégionaux
The hydrodynamics around oceanic islands and in coastal areas is characterized by the presence of numerous meso- and submesocale features. The aim of this PhD thesis is to study, from in situ data and numerical modeling, firstly the predominance of some forcings on the generation of these features and secondly their dynamics and their impacts on the dispersion of coastal waters. Firstly, a study based on a series of numerical simulations in the Hawaiian region, allows us to examine the relative importance of wind, topographic and inflow current forcing on the generation of mesoscale eddies. Sensitivity tests have shown the importance of high wind-forcing spatial resolution. Secondly, the coastal dynamics of the Gulf of Lions (GoL), also subject to these forcings, has been investigated. A first part focuses on the physical characteristics and the dynamics of an eddy in the western part of the gulf, using data from the Latex09 campaign and results from a realistic hydrodynamic model of the GoL. Their combined analysis has allowed to identify a new generation mechanism for the mesoscale eddies in this area and to understand the formation of a transient submesoscale structure. This work has shown the importance of these structures in modulating exchanges in this region. Based on the data of the Latex10 campaign, a second part has then focused on the dispersion of coastal waters in the western area of the GoL. The tracking of the water masses in a Lagrangian reference frame (floats, tracer) has allowed to determine the horizontal and vertical diffusion coefficients in this key area for coastal-offshore and interregional exchanges
8

Thurin, Nicolas H. "Evaluation empirique d’approches basées sur les cas pour la génération d’alertes de pharmacovigilance à partir du Système National des Données de Santé (SNDS)." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0408.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La France possède une large base de données nationale regroupant les données de liquidation de l’Assurance Maladie, de mortalité et des données hospitalières : le Système National des Données de Santé (SNDS). Celui-ci couvre actuellement la quasi-totalité de la population française de la naissance (ou immigration), au décès (ou émigration), en incluant tous les remboursements de frais médicaux ou paramédicaux. En recueillant de manière systématique et prospective les dispensations médicamenteuses, les événements hospitaliers et les décès, le SNDS est doté d’un fort potentiel pour l’évaluation du médicament en vie réelle. Suite au retrait mondial du rofecoxib en 2004, de nombreuses initiatives visant au développement et à l’évaluation de méthodologies adaptées aux bases de données populationnelles pour la surveillance des risques liés à l’usage du médicament ont vu le jour, en particulier le réseau EU-ADR en Europe (Exploring and Understanding Adverse Drug Reactions by integrative mining of clinical records and biomedical knowledge) et OMOP (Observational Outcomes Partnership) aux États-Unis. Ces travaux ont démontré l’utilité des approches pharmaco-épidémiologiques pour la détection de signaux de pharmacovigilance. Cependant, le SNDS n’a jamais été testé dans cette optique. L’objectif de cette thèse était d’évaluer de manière empirique, 3 approches pharmaco épidémiologiques basées sur les cas pour la génération d’alerte(s) de pharmacovigilance dans le SNDS : étude cas-population, étude cas-témoins et séries de cas autocontrôlés. Ces approches ont été appliquées à deux événements médicaux d’intérêt récurrents en pharmacovigilance : l’hémorragie digestive haute (UGIB) et l’hépatite aigue (ALI). Le projet a été composé de 4 principales étapes : (1) le formatage des données selon les spécifications du modèle commun de données d’OMOP et la sélection des médicaments témoins positifs et négatifs pour chaque événement d'intérêt ; (2) l’analyse des médicaments témoins sélectionnés en utilisant les 3 approches basées sur les cas, en déclinant chaque approche selon plusieurs variantes (par exemple, en testant différentes fenêtres de risque, stratégies d'ajustement, etc.) ; (3) la comparaison des performances des variantes selon leur aire sous la courbe ROC (AUC), leur erreur quadratique moyenne (MSE) et leur probabilité de couverture ; (4) la sélection de la meilleure variante pour chaque événement d’intérêt et son étalonnage. Sur les 3 approches étudiées, c’est la série de cas autocontrôlés qui a montré les meilleures performances dans UGIB et ALI avec des AUC respectifs de 0,80 et 0,94 et des MSE de 0,07 et 0,12. Pour UGIB, les performances optimales ont été observées lorsque l'ajustement tenait compte des traitements concomitants et lorsque les 30 premiers jours d'exposition au médicament d’intérêt étaient utilisés comme fenêtre de risque. Pour ALI, les performances optimales ont été également obtenues lors de l'ajustement en fonction des traitements concomitants, mais en utilisant une fenêtre de risque correspondant à l’ensemble de la période couverte par les dispensations de médicament d’intérêt. L’utilisation de médicaments témoins négatifs a montré que l’erreur systématique résultant de l’application de l’approche et des paramètres optimaux dans le SNDS semblait faible, mais que les biais protopathiques et de confusion restaient présents. Au total, ces travaux ont montré que les séries de cas autocontrôlées sont à considérer comme une approche adaptée à la détection d’alertes de pharmacovigilance associées à ALI et à UGIB dans le SNDS. Un point de vue clinique demeure toutefois nécessaire pour écarter tout risque de faux positif résultant de potentiels biais résiduels. L’application d'une telle approche à d'autres événements d'intérêt et son utilisation en routine constitueraient des progrès substantiels en matière de pharmacovigilance en France
France has a large nationwide longitudinal database with claims and hospital data, the Système National des Données de Santé (French National healthcare database – SNDS), which currently covers almost the complete French population, from birth or immigration to death or emigration, and includes all reimbursed medical and paramedical encounters. Since SNDS systematically and prospectively captures drug dispensings, death, and events leading to hospital stays, it has a strong potential for drug assessment in real life settings. Following the worldwide withdrawal of rofecoxib in 2004, several initiatives aiming to develop and evaluate methodologies for drug safety monitoring on healthcare databases emerged. The EU-ADR alliance (Exploring and Understanding Adverse Drug Reactions by integrative mining of clinical records and biomedical knowledge) and OMOP (Observational Outcomes Partnership) were respectively launched in Europe and in the Unites-States. These experiments demonstrated the usefulness of pharmacoepidemiological approaches in drug safety signal detection. However the SNDS had never been tested in this scope. The objective of this thesis was to empirically assess 3 case-based designs – case-population, case-control, and self-controlled case series – for drug-safety alert generation in the SNDS, taking as examples two health outcome of interest: upper gastrointestinal bleeding (UGIB) and acute liver injury (ALI).The overall project consisted of 4 main stages: (1) preparation of the data to fit the OMOP common data model and the selection of positive and negative drug controls for each outcome of interest; (2) analysis of the selected drug controls using the 3 case-based designs, testing several design variants (e.g. testing different risk windows, adjustment strategies, etc.); (3) comparison of design variant performances through the calculation of the area under the receiver operating characteristics curve (AUC), the mean square error (MSE) and the coverage probability; (4) the selection of the best design variant and its calibration for each health outcome of interest.Self-controlled case series showed the best performances in both outcomes, ALI and UGIB, with AUCs reaching respectively 0.80 and 0.94 and MSEs 0.07 and 0.12. For UGIB optimal performances were observed when adjusting for multiple drugs and using a risk window corresponding to the 30 first days of exposure. For ALI, optimal performances were also observed when adjusting for multiple drugs but using a risk window corresponding to the overall period covered by drug dispensings. Negative drug control implementation highlighted that a low systematic error seemed to be generated by the optimum variants in the SNDS but that protopathic bias and confounding by indication remained unaddressed issues.These results showed that self-controlled case series were well suited to detect drug safety alerts associated with UGIB and ALI in the SNDS in an accurate manner. A clinical perspective remains necessary to rule out potential false positive signals from residual confounding. The application in routine of such approaches extended to other outcomes of interest could result in substantial progress in pharmacovigilance in France
9

Nguyen, Trung Ky. "Génération d'histoires à partir de données de téléphone intelligentes : une approche de script Dealing with Imbalanced data sets for Human Activity Recognition using Mobile Phone sensors." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le script est une structure qui décrit une séquence stéréotypée d’événements ou d’actions survenant dans notre vie quotidienne. Les histoires utilisent des scripts , avec une ou plusieurs déviations intéressantes, qui nous permettent de mieux saisir les situations quotidiennes rapportées et les faits saillants du récit. Ainsi, la notion de script est très utile dans de nombreuses applications d’intelligence ambiante telles que la surveillance de la santé et les services d’urgence. Ces dernières années, l’avancement des technologies de détection et des systèmes intégrés permettent aux systèmes de santé de collecter en permanence les activités des êtres humains, en intégrant des capteurs dans des dispositifs portables (par exemple smart-phone ou smart-watch). La reconnaissance de l’activité humaine (HAR) a ainsi connue un essor important grâce notamment à des approches d’apprentissage automatique telles que le réseau neuronal ou le réseau bayésien. Ces avancées ouvre des perspectives qui vont au delà de la simple reconnaissance d’activités. Ce manuscrit défend la thèse selon laquelle ces données de capteurs portables peuvent être utilisées pour générer des récits articulés autour de scripts en utilisant l’apprentissage automatique. Il ne s’agit pas d’une tâche triviale en raison du grand écart sémantique entre les informations brutes de capteurs et les abstractions de haut niveau présente dans les récits. A notre connaissance, il n’existe toujours pas d’approche pour générer une histoire à partir de données de capteurs en utilisant l’apprentissage automatique, même si de nombreuses approches d’apprentissage automatique (réseaux de neurones convolutifs, réseaux de neurones profonds) ont été proposées pour la reconnaissance de l’activité humaine au cours des dernières années. Afin d’atteindre notre objectif, nous proposons premièrement dans cette thèse un nouveau cadre qui traite le problème des données non uniformément distribuées (problème du biais induit par des classes majoritaires par rapport aux classes minoritaires) basé sur un apprentissage actif associé à une technique de sur-échantillonnage afin d’améliorer la macro-exactitude de classification des modèles d’apprentissage classiques comme la perception multi-couche. Deuxièmement, nous présentons un nouveau système permettant de générer automatiquement des scripts à partir de données d’activité humaine à l’aide de l’apprentissage profond. Enfin, nous proposons une approche pour l’apprentissage de scripts à partir de textes en langage naturel capable d’exploiter l’information syntaxique et sémantique sur le contexte textuel des événements. Cette approche permet l’apprentissage de l’ordonnancement d’événements à partir d’histoires décrivant des situations typiques de vie quotidienne. Les performances des méthodes proposées sont systématiquement discutées sur une base expérimentale
Script is a structure describes an appropriate sequence of events or actions in our daily life. A story, is invoked a script with one or more interesting deviations, which allows us to deeper understand about what were happened in routine behaviour of our daily life. Therefore, it is essential in many ambient intelligence applications such as healthmonitoring and emergency services. Fortunately, in recent years, with the advancement of sensing technologies and embedded systems, which make health-care system possible to collect activities of human beings continuously, by integrating sensors into wearable devices (e.g., smart-phone, smart-watch, etc.). Hence, human activity recognition (HAR) has become a hot topic interest of research over the past decades. In order to do HAR, most researches used machine learning approaches such as Neural network, Bayesian network, etc. Therefore, the ultimate goal of our thesis is to generate such kind of stories or scripts from activity data of wearable sensors using machine learning approach. However, to best of our knowledge, it is not a trivial task due to very limitation of information of wearable sensors activity data. Hence, there is still no approach to generate script/story using machine learning, even though many machine learning approaches were proposed for HAR in recent years (e.g., convolutional neural network, deep neural network, etc.) to enhance the activity recognition accuracy. In order to achieve our goal, first of all in this thesis we proposed a novel framework, which solved for the problem of imbalanced data, based on active learning combined with oversampling technique so as to enhance the recognition accuracy of conventional machine learning models i.e., Multilayer Perceptron. Secondly, we introduce a novel scheme to automatically generate scripts from wearable sensor human activity data using deep learning models, and evaluate the generated method performance. Finally, we proposed a neural event embedding approach that is able to benefit from semantic and syntactic information about the textual context of events. The approach is able to learn the stereotypical order of events from sets of narrative describing typical situations of everyday life
10

Potes, Ruiz Paula Andrea. "Génération de connaissances à l’aide du retour d’expérience : application à la maintenance industrielle." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0089/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche présentés dans ce mémoire s’inscrivent dans le cadre de la valorisation des connaissances issues des expériences passées afin d’améliorer les performances des processus industriels. La connaissance est considérée aujourd'hui comme une ressource stratégique importante pouvant apporter un avantage concurrentiel décisif aux organisations. La gestion des connaissances (et en particulier le retour d’expérience) permet de préserver et de valoriser des informations liées aux activités d’une entreprise afin d’aider la prise de décision et de créer de nouvelles connaissances à partir du patrimoine immatériel de l’organisation. Dans ce contexte, les progrès des technologies de l’information et de la communication jouent un rôle essentiel dans la collecte et la gestion des connaissances. L’implémentation généralisée des systèmes d’information industriels, tels que les ERP (Enterprise Resource Planning), rend en effet disponible un grand volume d’informations issues des événements ou des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances (les expériences passées) sont très contextualisés et nécessitent des méthodologies bien précises pour être généralisés. Etant donné le potentiel des informations recueillies dans les entreprises en tant que source de nouvelles connaissances, nous proposons dans ce travail une démarche originale permettant de générer de nouvelles connaissances tirées de l’analyse des expériences passées, en nous appuyant sur la complémentarité de deux courants scientifiques : la démarche de Retour d’Expérience (REx) et les techniques d’Extraction de Connaissances à partir de Données (ECD). Le couplage REx-ECD proposé porte principalement sur : i) la modélisation des expériences recueillies à l’aide d’un formalisme de représentation de connaissances afin de faciliter leur future exploitation, et ii) l’application de techniques relatives à la fouille de données (ou data mining) afin d’extraire des expériences de nouvelles connaissances sous la forme de règles. Ces règles doivent nécessairement être évaluées et validées par les experts du domaine avant leur réutilisation et/ou leur intégration dans le système industriel. Tout au long de cette démarche, nous avons donné une place privilégiée aux Graphes Conceptuels (GCs), formalisme de représentation des connaissances choisi pour faciliter le stockage, le traitement et la compréhension des connaissances extraites par l’utilisateur, en vue d’une exploitation future. Ce mémoire s’articule en quatre chapitres. Le premier constitue un état de l’art abordant les généralités des deux courants scientifiques qui contribuent à notre proposition : le REx et les techniques d’ECD. Le second chapitre présente la démarche REx-ECD proposée, ainsi que les outils mis en œuvre pour la génération de nouvelles connaissances afin de valoriser les informations disponibles décrivant les expériences passées. Le troisième chapitre présente une méthodologie structurée pour interpréter et évaluer l’intérêt des connaissances extraites lors de la phase de post-traitement du processus d’ECD. Finalement, le dernier chapitre expose des cas réels d’application de la démarche proposée à des interventions de maintenance industrielle
The research work presented in this thesis relates to knowledge extraction from past experiences in order to improve the performance of industrial process. Knowledge is nowadays considered as an important strategic resource providing a decisive competitive advantage to organizations. Knowledge management (especially the experience feedback) is used to preserve and enhance the information related to a company’s activities in order to support decision-making and create new knowledge from the intangible heritage of the organization. In that context, advances in information and communication technologies play an essential role for gathering and processing knowledge. The generalised implementation of industrial information systems such as ERPs (Enterprise Resource Planning) make available a large amount of data related to past events or historical facts, which reuse is becoming a major issue. However, these fragments of knowledge (past experiences) are highly contextualized and require specific methodologies for being generalized. Taking into account the great potential of the information collected in companies as a source of new knowledge, we suggest in this work an original approach to generate new knowledge based on the analysis of past experiences, taking into account the complementarity of two scientific threads: Experience Feedback (EF) and Knowledge Discovery techniques from Databases (KDD). The suggested EF-KDD combination focuses mainly on: i) modelling the experiences collected using a knowledge representation formalism in order to facilitate their future exploitation, and ii) applying techniques related to data mining in order to extract new knowledge in the form of rules. These rules must necessarily be evaluated and validated by experts of the industrial domain before their reuse and/or integration into the industrial system. Throughout this approach, we have given a privileged position to Conceptual Graphs (CGs), knowledge representation formalism chosen in order to facilitate the storage, processing and understanding of the extracted knowledge by the user for future exploitation. This thesis is divided into four chapters. The first chapter is a state of the art addressing the generalities of the two scientific threads that contribute to our proposal: EF and KDD. The second chapter presents the EF-KDD suggested approach and the tools used for the generation of new knowledge, in order to exploit the available information describing past experiences. The third chapter suggests a structured methodology for interpreting and evaluating the usefulness of the extracted knowledge during the post-processing phase in the KDD process. Finally, the last chapter discusses real case studies dealing with the industrial maintenance domain, on which the proposed approach has been applied
11

Maupetit, Julien. "Génération ab initio de modèles protéiques à partir de représentations discrètes des protéines et de critères d'énergie simplifiés." Paris 7, 2007. http://www.theses.fr/2007PA077194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans l'ère post-génomique, de nombreuses protéines identifiées par leur séquence demeurent de structure inconnue, non résolue expérimentalement, et non accessibles aux méthodes de modélisation comparative. L'objet de mon travail de thèse a été d'explorer une approche de prédiction de novo de la structure des protéines. Cette méthode est fondée sur le concept d'alphabet structural, c'est à dire une description de la structure locale des protéines utilisant un nombre réduit de conformations prototypes. A partir de la seule séquence en acides aminés de la structure à prédire, nous avon mis en place une méthode de prédiction de fragments candidats de taille variable, couvrant plus de 98,6% de la structure de la protéine pour une taille moyenne 6,7 résidus. Les fragments prédits nous permettent d'approximer les structures protéiques avec une précision moyenne de 2,2 angströms. L'assemblage de ces fragments est réalisé par un algorithme glouton. Le champ de force OPEP a été optimisé puis implémenté dans l'algorithme glouton pour évaluer la pertinence des modèles générés. L'évaluation, en aveugle, de la méthode a été réalisée, pour la première fois, lors de notre participation à CASP7, ce qui nous a permis d'identifier les faiblesses de la méthode. A l'heure actuelle, l'amélioration du champ de force et de la procédure d'assemblage des fragments, nous permet, dans certains cas, de donner des résultats au niveau ou meilleurs que les serveurs réputés du domaine
In a post-genomic context, plenty of proteins identified by their sequence have no experimentally resolved structure, and fall out the range of application of comparative modelling methods. The goal of my PHD thesis has been to explore a new de novo protein structure prediction approach. Thus approach is based on the concept of structural alphabet, i. E. Of a local description of protein architecture by using a small number of prototype conformations. Starting from the amino acids sequence of the protein to model, we have developed a candidate fragments prediction method covering mode than 98. 6% of the protein structure with an average length of 6. 7 residues. This set of predicted fragments can approximate the protein structures with a precision of less than 2. 2 angströms. A greedy algorithm have been developed in the laboratory to assemble fragments. The OPEP force field has been optimized and then implemented in the greedy assembling procedure to evaluate the relevance of the generated models. Our participation to the CASP7 experiment came out some weaknesses of the method. For now, the improvement of the OPEP force field and the fragment assembly procedure leeds us to generate, in some cases, models as relevant or better than other famous protein structure prediction servers
12

Meghnoudj, Houssem. "Génération de caractéristiques à partir de séries temporelles physiologiques basée sur le contrôle optimal parcimonieux : application au diagnostic de maladies et de troubles humains." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, une nouvelle méthodologie a été proposée pour la génération de caractéristiques à partir de signaux physiologiques afin de contribuer au diagnostic d'une variété de maladies cérébrales et cardiaques. Basée sur le contrôle optimal parcimonieux, la génération de caractéristiques dynamiques parcimonieuses (SDF) s'inspire du fonctionnement du cerveau. Le concept fondamental de la méthode consiste à décomposer le signal de manière parcimonieuse en modes dynamiques qui peuvent être activés et/ou désactivés au moment approprié avec l'amplitude adéquate. Cette décomposition permet de changer le point de vue sur les données en donnant accès à des caractéristiques plus informatives qui sont plus fidèles au concept de production des signaux cérébraux. Néanmoins, la méthode reste générique et polyvalente puisqu'elle peut être appliquée à un large éventail de signaux. Les performances de la méthode ont été évaluées sur trois problématiques en utilisant des données réelles accessibles publiquement, en abordant des scénarios de diagnostic liés à : (1) la maladie de Parkinson, (2) la schizophrénie et (3) diverses maladies cardiaques. Pour les trois applications, les résultats sont très concluants, puisqu'ils sont comparables aux méthodes de l'état de l'art tout en n'utilisant qu'un petit nombre de caractéristiques (une ou deux pour les applications sur le cerveau) et un simple classifieur linéaire suggérant la robustesse et le bien-fondé des résultats. Il convient de souligner qu'une attention particulière a été accordée à l'obtention de résultats cohérents et significatifs avec une explicabilité sous-jacente
In this thesis, a novel methodology for features generation from physiological signals (EEG, ECG) has been proposed that is used for the diagnosis of a variety of brain and heart diseases. Based on sparse optimal control, the generation of Sparse Dynamical Features (SDFs) is inspired by the functioning of the brain. The method's fundamental concept revolves around sparsely decomposing the signal into dynamical modes that can be switched on and off at the appropriate time instants with the appropriate amplitudes. This decomposition provides a new point of view on the data which gives access to informative features that are faithful to the brain functioning. Nevertheless, the method remains generic and versatile as it can be applied to a wide range of signals. The methodology's performance was evaluated on three use cases using openly accessible real-world data: (1) Parkinson's Disease, (2) Schizophrenia, and (3) various cardiac diseases. For all three applications, the results are highly conclusive, achieving results that are comparable to the state-of-the-art methods while using only few features (one or two for brain applications) and a simple linear classifier supporting the significance and reliability of the findings. It's worth highlighting that special attention has been given to achieving significant and meaningful results with an underlying explainability
13

Shimorina, Anastasia. "Natural Language Generation : From Data Creation to Evaluation via Modelling." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La génération en langue naturelle (natural language generation, NLG) est le processus qui consiste à générer du texte dans une langue naturelle à partir de données d’entrée. Ces entrées peuvent prendre la forme de textes, de documents, d’images, de tableaux, de graphes (réseaux de connaissances), de bases de données, d’actes de dialogue, ou d’autres représentations sémantiques. Les méthodes récentes en NLG, principalement basées sur des modèles neuronaux, ont apporté des améliorations significatives. Malgré ces récents progrès, de nombreux problèmes liés à la tâche de génération subsistent, tels que celui de la fidélité aux données d’entrée, du développement de modèles multilingues, ou de la génération à partir de peu d’exemples. Cette thèse explore trois aspects de la NLG : tout d’abord, la création de données d’apprentissage, puis le développement de modèles de génération, et enfin l’évaluation des méthodes proposées. Nous abordons la question du multilinguisme et proposons des stratégies de traduction semi-automatique de corpus destinés à l’entraînement de modèles de NLG. Nous montrons que les entités nommées constituent un obstacle majeur dans la réalisation de la tâche de traduction, ici considérée de l’anglais vers le russe. Nous décrivons ensuite deux méthodes de traitement des entités rares dans les données d’apprentissages des modèles de NLG : la copie et la délexicalisation. Nous démontrons que l’effet de ces deux mécanismes varie fortement selon la manière dont les données sont construites, et que les entités rares ont un impact important sur les performances des modèles. Concernant la génération multilingue, nous développons une approche modulaire de réalisation de surface superficielle (shallow surface realisation, SSR) pour plusieurs langues. Notre approche consiste à diviser la tâche de SSR en trois composantes : l’ordonnancement des mots, l’inflexion morphologique et la génération de contractions. Nous montrons, via la délexicalisation, que la composante d’ordonnancement s’appuie principalement sur les informations syntaxiques. En plus de nos contributions concernant la modélisation, nous proposons un cadre d’analyse des erreurs axé sur l’ordre des mots, pour la tâche de SSR. Ce cadre permet d’obtenir un aperçu linguistique des performances des modèles au niveau de la phrase et d’identifier les cas où un modèle échoue. Enfin, nous abordons le sujet de l’évaluation de manière plus générale et comparons différentes métriques automatiques et humaines ; nous soulignons la différence entre les méthodes d’évaluation au niveau de la phrase et les méthodes d’évaluations au niveau du corpus
Natural language generation is a process of generating a natural language text from some input. This input can be texts, documents, images, tables, knowledge graphs, databases, dialogue acts, meaning representations, etc. Recent methods in natural language generation, mostly based on neural modelling, have yielded significant improvements in the field. Despite this recent success, numerous issues with generation prevail, such as faithfulness to the source, developing multilingual models, few-shot generation. This thesis explores several facets of natural language generation from creating training datasets and developing models to evaluating proposed methods and model outputs. In this thesis, we address the issue of multilinguality and propose possible strategies to semi-automatically translate corpora for data-to-text generation. We show that named entities constitute a major stumbling block in translation exemplified by the English-Russian translation pair. We proceed to handle rare entities in data-to-text modelling exploring two mechanisms: copying and delexicalisation. We demonstrate that rare entities strongly impact performance and that the impact of these two mechanisms greatly varies depending on how datasets are constructed. Getting back to multilinguality, we also develop a modular approach for shallow surface realisation in several languages. Our approach splits the surface realisation task into three submodules: word ordering, morphological inflection and contraction generation. We show, via delexicalisation, that the word ordering component mainly depends on syntactic information. Along with the modelling, we also propose a framework for error analysis, focused on word order, for the shallow surface realisation task. The framework enables to provide linguistic insights into model performance on the sentence level and identify patterns where models underperform. Finally, we also touch upon the subject of evaluation design while assessing automatic and human metrics, highlighting the difference between the sentence-level and system-level type of evaluation
14

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité
The work in this thesis addresses the improvement of the testing process with a view to automating test data generation as well as its quality evaluation, in the framework of reactive synchronous systems specified in Lustre/SCADE. On the one hand, we present a testing methodology using the Lutess tool that automatically generates test input data based exclusively on the environment description of the system under test. On the other hand, we are based on the SCADE model of the program under test and we define structural coverage criteria taking into account two new aspects: the use of multiple clocks as well as integration testing, allowing the coverage measurement of large-sized systems. These two strategies could have a positive impact in effectively testing real-world applications. Case studies extracted from the avionics domain are used to demonstrate the applicability of these methods and to empirically evaluate their complexity
15

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00454409.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité.
16

Messé, Arnaud. "Caractérisation de la relation structure-fonction dans le cerveau humain à partir de données d'IRM fonctionnelle et de diffusion : méthodes et applications cognitive et clinique." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00845014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La compréhension des mécanismes cognitifs est un défi que les prouesses technologiques en imagerie par résonance magnétique fonctionnelle et de diffusion permettent de relever. Les réseaux neuronaux, ensembles de régions interconnectées anatomiquement et fonctionnellement, sont à l'ori- gine des processus cognitifs. Nous nous sommes intéressés à la relation entre la structure anatomique et la fonction de ces réseaux, au travers des deux principes fondamentaux du fonctionnement céré- bral que sont la ségrégation et l'intégration, ainsi que via la notion d'intégrité. En premier lieu, nous nous sommes penchés sur la ségrégation anatomique des noyaux gris centraux et son interprétation fonctionnelle. Puis, nous avons abordé le principe d'intégration, d'un point de vue descriptif par le biais de la théorie des graphes, puis explicatif par l'utilisation du modèle spatial autorégressif. Enfin, nous avons étudié l'intégrité structurelle du cerveau en présence de déficits neurocomportementaux suite à un traumatisme crânien léger. Nous avons ainsi mis en évidence l'existence d'un substrat ana- tomique sous-jacent aux réseaux fonctionnels. Nos résultats suggèrent que la structure anatomique des réseaux cérébraux est un substrat complexe optimisant les processus fonctionnels. De plus, une perte d'intégrité de ce substrat anatomique lors d'un traumatisme crânien léger se répercute sur le comportement et les performances cognitives. Ceci démontre que le fonctionnement cérébral, traduit par les réseaux neuronaux, est intimement lié à la structure anatomique de ces réseaux.
17

Pazat, Jean-Louis. "Génération de code réparti par distribution de données." Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Morisse, Pierre. "Correction de données de séquençage de troisième génération." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR043/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain
The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome
19

Khalili, Malika. "Nouvelle approche de génération multi-site des données climatiques." Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/580/1/KHALILI_Malika.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les générateurs de climat sont des outils statistiques permettant de générer de longues séries temporelles de variables climatiques et de simuler le climat futur en tenant compte des scénarios de changements climatiques. La dépendance spatiale est une propriété primordiale des données climatiques négligée par les générateurs de climat uni-site. La présente thèse a permis de développer une approche de génération multi-site des données climatiques basée sur le concept d'autocorrélation spatiale. L'approche a permis de reproduire simultanément dans les séries générées de données climatiques, les autocorrélations spatiales observées sur l'ensemble des stations météorologiques et les corrélations observées entre les couples de stations. L'approche est appliquée avec succès au bassin versant de la rivière Péribonca situé dans la province du Québec, Canada Une étude hydrologique a permis de confirmer la performance du générateur multi-site développé et sa capacité à évaluer avec plus de précision et de fiabilité les impacts des changements climatiques.
20

Genestier, Richard. "Vérification formelle de programmes de génération de données structurées." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2041/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème général de la preuve de propriétés de programmes impératifs est indécidable. Pour deslangages de programmation et de propriétés plus restrictifs, des sous-problèmes décidables sontconnus. En pratique, grâce à des heuristiques, les outils de preuve de programmes automatisent despreuves qui sortent du cadre théorique de ces sous-problèmes décidables connus. Nous illustronscette réussite pratique en construisant un catalogue de preuves, pour des programmes et despropriétés de nature similaire et de complexité croissante. Ces programmes sont principalementdes générateurs de cartes combinatoires.Ainsi, ce travail contribue aux domaines de recherche de la combinatoire énumérative et dugénie logiciel. Nous distribuons une bibliothèque C de générateurs exhaustifs bornés de tableauxstructurés, formellement spécifiés en ACSL et vérifiés avec le greffon WP de la plateforme d’analyseFrama-C. Nous proposons également une méthodologie de test qui facilite la preuve interactive enCoq, une étude formelle des cartes originale, et de nouveaux résultats en combinatoire énumérative
The general problem of proving properties of imperative programs is undecidable. Some subproblems– restricting the languages of programs and properties – are known to be decidable. Inpractice, thanks to heuristics, program proving tools sometimes automate proofs for programs andproperties living outside of the theoretical framework of known decidability results. We illustrate thisfact by building a catalog of proofs, for similar programs and properties of increasing complexity. Mostof these programs are combinatorial map generators.Thus, this work contributes to the research fields of enumerative combinatorics and softwareengineering. We distribute a C library of bounded exhaustive generators of structured arrays, formallyspecified in ACSL and verified with the WP plugin of the Frama-C analysis platform. We also proposea testing-based methodology to assist interactive proof in Coq, an original formal study of maps, andnew results in enumerative combinatorics
21

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
22

Effantin, dit Toussaint Brice. "Colorations de graphes et génération exhaustive d'arbres." Dijon, 2003. http://www.theses.fr/2003DIJOS021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche présentés dans ce mémoire montrent deux approches de la théorie des graphes. Dans un premier temps, nous caractérisons certains graphes en utilisant la coloration de graphes. Ainsi nous étudions deux paramètres de coloration qui maximisent le nombre de couleurs utilisées et mettent en évidence certains ensembles dominants de sommets pour les graphes étudiés (graphes puissances, somme cartésienne de graphes). Dans un second temps, nous étudions divers algorithmes de génération pour des arbres binaires particuliers. En effet, le morphing de polygones (problème sous-jacent au morphing d'images) peut être réalisé par une suite de rotations d'arbres binaires étiquetés. Nous présentons également des algorithmes de génération des arbres binaires étiquetés et des arbres binaires non ordonnés.
23

Lagrange, Jean-Philippe. "Ogre : un système expert pour la génération de requêtes relationnelles." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but du travail présenté ici est d'affranchir le développeur de programmes d'application de la nécessité de construire ses requêtes en fonction du schéma logique de la base de données. La démarche retenue est de proposer un langage d'interrogation ne faisant référence qu'au schéma conceptuel, le système assurant la construction des requêtes au SGBD à partir de spécifications écrites dans ce langage. Par ailleurs, un des objectifs vises, par opposition aux travaux antérieurs, est d'imposer le moins de contraintes possible pour le schéma logique (relationnel) et pour le schéma conceptuel associe. Pour cela on propose: une mise en correspondance souple entre le schéma relationnel et un schéma conceptuel exprime en fonction d'un modèle d'une grande puissance d'expression; de faire assurer la génération des requetés par un système à base de connaissances, qui s'appuie sur des connaissances relatives à la base de données, une méta-base, et sur des connaissances déductives, des règles d'analyse et de génération des requêtes. On trouvera ici une analyse de l'état de l'art dans le domaine des interfaces de requêtes, une définition du modèle conceptuel er#+, et du langage de requête de ogre, et une description des trois principaux modules du système: constitution de la méta-base, analyse et reformulation des spécifications et enfin génération des requêtes
24

Embe, Jiague Michel. "Génération de graphes d'accessibilité à partir de structures réplicables." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/4780.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire explore une méthode symbolique pour le calcul hors ligne de contrôleurs non bloquants basée principalement sur un algorithme de génération de graphes d'accessibilité. Dans le but de réduire l'explosion de l'espace d'états, l'algorithme considère une classe particulière de systèmes définis à partir de structures réplicables. De telles structures résultent de la modélisation de systèmes à événements discrets paramétrés et de cas respectivement issus du domaine de la théorie du contrôle et du domaine des workflows. La principale caractéristique de ce nouvel algorithme est qu'il travaille sur des expressions symboliques à la place de valeurs numériques lors de la génération du graphe d'accessibilité.
25

Smadja, Laurent. "Génération d'environnements 3D denses à partir d'images panoramiques cylindriques." Paris 6, 2003. http://www.theses.fr/2003PA066488.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Ferrandiz, Sylvain. "Apprentissage supervisé à partir de données séquentielles." Caen, 2006. http://www.theses.fr/2006CAEN2030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En phase de préparation d’un processus de fouille de données, une part importante du travail est consacrée à la construction et à la sélection des variables descriptives. L’approche filtre univariée usuellement adoptée nécessite l’emploi d’une méthode d’évaluation d’une variable. Nous considérons la question de l’évaluation supervisée d’une variable séquentielle. Pour résoudre ce problème, nous montrons qu’il suffit de résoudre un problème plus général : celui de l’évaluation supervisée d’une mesure de similitude. Nous proposons une telle méthode d’évaluation. Pour l’obtenir, nous formulons le problème en un problème de recherche d’une bonne partition de Voronoi. Nous proposons un nouveau critère d’évaluation supervisée de ces partitions et une nouvelle heuristique de recherche optimisée. Le critère prévient automatiquement le risque de sur-apprentissage et l’heuristique trouve rapidement une bonne solution. Au final, la méthode réalise une estimation non paramétrique robuste de la densité d’une variable cible symbolique conditionnellement à une mesure de similitude définie à partir d’une variable. La méthode a été testée sur de nombreux jeux de données. Son utilisation permet de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l’appétence à un nouveau service ?
In the data mining process, the main part of the data preparation step is devoted to feature construction and selection. The filter approach usually adopted requires evaluation methods for any kind of feature. We address the problem of the supervised evaluation of a sequential feature. We show that this problem is solved if a more general problem is tackled : that of the supervised evaluation of a similarity measure. We provide such an evaluation method. We first turn the problem into the search of a discriminating Voronoi partition. Then, we define a new supervised criterion evaluating such partitions and design a new optimised algorithm. The criterion automatically prevents from overfitting the data and the algorithm quickly provides a good solution. In the end, the method can be interpreted as a robust non parametric method for estimating the conditional density of a nominal target feature given a similarity measure defined from a descriptive feature. The method is experimented on many datasets. It is useful for answering questions like : which day of the week or which hourly time segment is the most relevant to discriminate customers from their call detailed records ? Which series allows to better estimate the customer need for a new service ?
27

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau." Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Leroux, (zinovieva) Elena. "Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
29

Xue, Xiaohui. "Génération et adaptation automatiques de mappings pour des sources de données XML." Phd thesis, Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intégration de l’information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d’information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d’un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération et l’adaptation automatiques de mappings pour des sources de données XML. Nous proposons une approche de génération en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chaque sous-arbre et enfin (iii) la génération de mappings pour l’ensemble du schéma cible à partir de ces mappings partiels. Nous avons également proposé une approche d’adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible. Nous avons développé un outil pour supporter ces approches
The integration of information originating from multiple heterogeneous data sources is required by many modern information systems. In this context, the applications’ needs are described by a target schema and the way in-stances of the target schema are derived from the data sources is expressed through mappings. In this thesis, we address the problem of mapping generation for multiple XML data sources and the adaptation of these mappings when the target schema or the sources evolve. We propose an automatic generation approach that first decom-poses the target schema into subtrees, then defines mappings, called partial mappings, for each of these subtrees, and finally combines these partial mappings to generate the mappings for the whole target schema. We also propose a mapping adaptation approach to keep existing mappings current if some changes occur in the target schema or in one of the sources. We have developed a prototype implementation of a tool to support these proc-esses
30

Xue, Xiaohui. "Génération et adaptation automatiques de mappings pour des sources de données XML." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00324429.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intégration de l'information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d'information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d'un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération automatique de mappings pour des sources de données XML ainsi qu'à l'adaptation de ces mappings en cas de changements survenant dans le schéma cible ou dans les sources de données.
Nous proposons une approche de génération de mappings en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chacun de ces sous-arbres et enfin (iii) la génération de mappings pour l'ensemble du schéma cible à partir de ces mappings partiels. Le résultat de notre approche est un ensemble de mappings, chacun ayant une sémantique propre. Dans le cas où l'information requise par le schéma cible n'est pas présente dans les sources, aucun mapping ne sera produit. Dans ce cas, nous proposons de relaxer certaines contraintes définies sur le schéma cible pour permettre de générer des mappings. Nous avons développé un outil pour supporter notre approche. Nous avons également proposé une approche d'adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible.
31

Gingras, François. "Prise de décision à partir de données séquentielles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0019/NQ56697.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Rannou, Éric. "Modélisation explicative de connaissances à partir de données." Toulouse 3, 1998. http://www.theses.fr/1998TOU30290.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce document, nous proposons d’étudier quelques méthodes d'extraction de connaissances d'un ensemble de données. L'extraction de connaissances qui est proposée consiste à exploiter les capacités des règles floues pour le résumé de données, et par extension, pour la modélisation de connaissances imprécises intelligibles pour un expert. En effet, les règles floues peuvent tout aussi bien traduire une information complexe décrivant le comportement dynamique d'un système (en modélisation floue) qu'une information intelligible destinée à la découverte de connaissances (dans une interface numerico-symbolique mettant en œuvre le raisonnement approche). Dans le premier cas, la connaissance extraite à partir des données est capable de reproduire les données mais n'est pas forcement une approche explicative. Seul le second cas s’avère une approche explicative qui permet de prendre en compte la connaissance experte. C'est pourquoi la découverte de connaissance basée sur l'extraction de règles floues à partir de données a été décomposée en deux parties. La première partie consiste à extraire des données un système de règles floues aux propriétés d'approximateur universel (approche non explicative de la structure des données). Les règles floues qui sont utilisées dans cette partie sont dites disjonctives en raison du mécanisme de combinaison que nécessite leur mise en œuvre. Une présentation d'un processus d'acquisition de connaissances, résultat d'une synthèse d'un ensemble d'approches, est proposée pour la modélisation floue. Celle-ci se décompose classiquement en deux parties : l'identification structurelle et l'identification paramétrique. Cependant, l'acquisition de connaissances pour la modélisation floue ne dépend que de l'identification structurelle. Nous nous sommes donc essentiellement intéressés aux différentes méthodes d'identification structurelles existantes pour la modélisation floue d'une base de connaissances. La seconde partie du document est consacrée à l'extraction de règles floues à partir des données à des fins d'interface et d’inférence. Les règles floues utilisées alors sont dites conjonctives. Ceci s'explique par le fait que nous souhaitons dans ce cas inférer règle par règle comme dans un système expert classique. Nous montrons comment nous avons développé une méthode d'extractions de connaissances linguistiques au moyen de règles floues conjonctives. Cette nouvelle méthode s'appuie sur une procédure de recherche successive de sous-groupes d’échantillons typiques au sein des données. Nous présentons enfin une application industrielle d'un système de règles floues disjonctives utilise en tant qu'approximateur universel. Ce système de règles floues a été comparé à deux autres méthodes de modélisation mettant en œuvre les réseaux de neurones et l'identification paramétrique de modèles linéaires.
33

Santoso, Mas Simon. "Simulation d'écoulements fluides à partir de données réelles." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nuages de points sont des objets mathématiques permettant de décrire de manière discrète des fonctions à plusieurs variables. Ils sont principalement utilisés dans le domaine statistique mais on les retrouve également en géométrie afin de représenter des variétés géométriques complexes. Il est aujourd'hui difficile d'intégrer les objets représentés par ces nuages de points dans des calculs éléments finis car l'intégration de ces nuages de points requiert la reconstruction de la variété ainsi que la génération d'un maillage surfacique qu'il faut intégrer dans un maillage volumique. Ces opérations sont souvent basées sur des processus itératifs et sont extrêmement coûteuses en temps car les nuages de points utilisés sont de très grande taille. La méthodologie développée dans cette thèse permet d'immerger des nuages de points dans un domaine maillé sans passer par les étapes de reconstruction de surface et de génération de maillage. On utilise la technique d'immersion de volume adaptée aux nuages de points. Cette technique est couplée avec une méthode d'adaptation de maillage. Cela nous permettra de générer un maillage anisotropique adapté autour des zones d'intérêt. On utilise ensuite la méthode variationnelle multi-échelle afin de simuler des écoulements fluides. Cette technique est une extension de la méthode éléments finis classique permettant de simuler des écoulements à forte convection et à haut nombre de Reynolds. La dernière partie de ce manuscrit présente quelques cas d'application dans le domaine aérodynamique, hydrodynamique et urbains
Points clouds are mathematical objects that allows to describe discretely multivariable functions. They are mainly used in the statistical domain but also in geometrical manifolds. It is nowadays a real challenge to immerse the previous manifolds in finite element computation. Indeed, the immersion of those points clouds requires the reconstruction of the surface of the manifold and the generation of a surfacic mesh. As those operations are often based on an iterative process, they are extremely time-consuming as points clouds are usually massive. The method developed in this thesis allows to immerse points clouds in a meshed domain without the surface reconstruction and mesh generations steps. For that purpose, we use the Volume Immersion Method adapted to point clouds. We coupled this method with an adaped mesh generation technique. Then we are able to generate a monolithic anisotropic mesh, adapted around interest zones. We also use the variational multi-scale method to simulate fluid flow. This method is an extension of the classical finite element method and allows to simulate fluid flow. The last part of this thesis introduce some applications cases in the aerodynamic and urbans domains
34

Zhang, Bo. "Reconnaissance de stress à partir de données hétérogènes." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0113/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la société moderne, le stress s’avère un problème omniprésent. Un stress permanent peut entraîner divers problèmes mentaux et physiques notamment pour des personnes confrontées à des situations d'urgence comme par exemple des pompiers en intervention: il peut modifier leurs actions et les mettre en danger. Par conséquent, dans ce contexte, il est pertinent de chercher à évaluer le stress de la personne. Sur la base de cette idée, a été proposé le projet Psypocket qui vise à concevoir un système portable capable d'analyser précisément l'état de stress d'une personne en fonction de ses modifications physiologiques, psychologiques et comportementales, puis de proposer des solutions de rétroaction pour réguler cet état. Cette thèse s’inscrit dans le cadre du projet Psypocket. Nous y discutons de la faisabilité et de l'intérêt de la reconnaissance du stress à partir de données hétérogènes. Non seulement les signaux physiologiques, tels que l'électrocardiographie (ECG), l'élecchtromyographie (EMG) et l'activité électrodermale (EDA), mais aussi le temps de réaction (RT) sont adoptés pour discriminer différents états de stress d'une personne. Pour cela nous proposons une approche basée sur un classifieur SVM (Machine à Vecteurs de Support). Les résultats obtenus montrent que le temps de réaction peut-être un moyen d’estimation du niveau de stress de l’individu en complément ou non des signaux physiologiques. En outre, nous discutons de la faisabilité d'un système embarqué à même de réaliser la chaîne globale de traitement des signaux. Cette thèse contribue donc à la conception d’un système portable de reconnaissance du stress d'une personne en temps réel en adoptant des données hétérogènes, en l’occurrence les signaux physiologiques et le temps de réaction
In modern society, the stress of an individual has been found to be a common problem. Continuous stress can lead to various mental and physical problems and especially for the people who always face emergency situations (e.g., fireman): it may alter their actions and put them in danger. Therefore, it is meaningful to provide the assessment of the stress of an individual. Based on this idea, the Psypocket project is proposed which is aimed at making a portable system able to analyze accurately the stress state of an individual based on his physiological, psychological and behavioural modifications. It should then offer solutions for feedback to regulate this state.The research of this thesis is an essential part of the Psypocket project. In this thesis, we discuss the feasibility and the interest of stress recognition from heterogeneous data. Not only physiological signals, such as Electrocardiography (ECG), Electromyography (EMG) and Electrodermal activity (EDA), but also reaction time (RT) are adopted to recognize different stress states of an individual. For the stress recognition, we propose an approach based on a SVM classifier (Support Vector Machine). The results obtained show that the reaction time can be used to estimate the level of stress of an individual in addition or not to the physiological signals. Besides, we discuss the feasibility of an embedded system which would realize the complete data processing. Therefore, the study of this thesis can contribute to make a portable system to recognize the stress of an individual in real time by adopting heterogeneous data like physiological signals and RT
35

Zhang, Bo. "Reconnaissance de stress à partir de données hétérogènes." Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la société moderne, le stress s’avère un problème omniprésent. Un stress permanent peut entraîner divers problèmes mentaux et physiques notamment pour des personnes confrontées à des situations d'urgence comme par exemple des pompiers en intervention: il peut modifier leurs actions et les mettre en danger. Par conséquent, dans ce contexte, il est pertinent de chercher à évaluer le stress de la personne. Sur la base de cette idée, a été proposé le projet Psypocket qui vise à concevoir un système portable capable d'analyser précisément l'état de stress d'une personne en fonction de ses modifications physiologiques, psychologiques et comportementales, puis de proposer des solutions de rétroaction pour réguler cet état. Cette thèse s’inscrit dans le cadre du projet Psypocket. Nous y discutons de la faisabilité et de l'intérêt de la reconnaissance du stress à partir de données hétérogènes. Non seulement les signaux physiologiques, tels que l'électrocardiographie (ECG), l'élecchtromyographie (EMG) et l'activité électrodermale (EDA), mais aussi le temps de réaction (RT) sont adoptés pour discriminer différents états de stress d'une personne. Pour cela nous proposons une approche basée sur un classifieur SVM (Machine à Vecteurs de Support). Les résultats obtenus montrent que le temps de réaction peut-être un moyen d’estimation du niveau de stress de l’individu en complément ou non des signaux physiologiques. En outre, nous discutons de la faisabilité d'un système embarqué à même de réaliser la chaîne globale de traitement des signaux. Cette thèse contribue donc à la conception d’un système portable de reconnaissance du stress d'une personne en temps réel en adoptant des données hétérogènes, en l’occurrence les signaux physiologiques et le temps de réaction
In modern society, the stress of an individual has been found to be a common problem. Continuous stress can lead to various mental and physical problems and especially for the people who always face emergency situations (e.g., fireman): it may alter their actions and put them in danger. Therefore, it is meaningful to provide the assessment of the stress of an individual. Based on this idea, the Psypocket project is proposed which is aimed at making a portable system able to analyze accurately the stress state of an individual based on his physiological, psychological and behavioural modifications. It should then offer solutions for feedback to regulate this state.The research of this thesis is an essential part of the Psypocket project. In this thesis, we discuss the feasibility and the interest of stress recognition from heterogeneous data. Not only physiological signals, such as Electrocardiography (ECG), Electromyography (EMG) and Electrodermal activity (EDA), but also reaction time (RT) are adopted to recognize different stress states of an individual. For the stress recognition, we propose an approach based on a SVM classifier (Support Vector Machine). The results obtained show that the reaction time can be used to estimate the level of stress of an individual in addition or not to the physiological signals. Besides, we discuss the feasibility of an embedded system which would realize the complete data processing. Therefore, the study of this thesis can contribute to make a portable system to recognize the stress of an individual in real time by adopting heterogeneous data like physiological signals and RT
36

Gaumer, Gaëtan. "Résumé de données en extraction de connaissances à partir des données (ECD) : application aux données relationnelles et textuelles." Nantes, 2003. http://www.theses.fr/2003NANT2025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse ont été réalisés dans le cadre d'un contrat CNET JMINER, dont le but est l'étude de pré-traitement et post-traitements en extraction de connaissances à partir des données, appliqués aux lettres de réclamation de France Télécom. Les caractéristiques particulières des données de cette application ont orienté nos travaux de recherche. Nous nous sommes tout d'abord intéressés aux problèmes liés à l'extraction de connaissances à partir de très importants volumes de données. Nous proposons, pour résoudre ces problèmes, de remplacer les données à traiter par un résumé de ces données possédant les mêmes caractéristiques. Cette proposition s'est concrétisée par le développement du logiciel CFSUMM, un système de création de résumés de données utilisant des mesures de similarités et d'indiscernabilités entre instances. Nous montrons pourquoi et comment les caractéristiques de ce logiciel le destine particulièrementà la réduction d'importants volumes de données, qu'ils soient issus de bases de données relationnelles ou d'indexation de documents non structurés (texte, html, etc). . .
37

Zinovieva-Leroux, Eléna. "Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
38

Pietrzyk-Nivau, Audrey. "Génération de plaquettes in vitro à partir de cellules souches hématopoïétiques." Thesis, Paris 5, 2014. http://www.theses.fr/2014PA05P626/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mégacaryopoïèse représente le processus de différenciation des cellules souches hématopoïétiques (CSH) en mégacaryocytes (MK). Ce processus précède la thrombopoïèse qui aboutira à la formation des plaquettes sanguines. Ces processus complexes ont lieu 1) au sein de la structure tridimensionnelle (3D) de la moelle osseuse, 2) dans les vaisseaux sinusoïdes de la moelle et 3) dans la circulation sanguine. Le but général de ce travail a été de comprendre le mécanisme de chaque étape. Le premier objectif a été d’étudier les effets d’une structure poreuse 3D mimant celle de la moelle osseuse, sur la différenciation mégacaryocytaire et la production plaquettaire in vitro. Cette étude a permis de démontrer que la synergie entre l’organisation spatiale et les signaux du microenvironnement améliore la production en MK et en plaquettes. Par la suite, nous avons souhaité caractériser in vitro et in vivo les plaquettes produites en conditions de flux. Nous avons notamment mis en évidence la capacité des plaquettes produites in vitro dans un système de microfluidique, à s’incorporer et à participer à la formation d’un thrombus in vitro et in vivo contrairement aux plaquettes obtenues en statique. Ces travaux prouvent donc l’intérêt d’une part, de mimer le microenvironnement de la moelle osseuse et d’autre part, de reproduire les forces de cisaillement du sang afin d’améliorer et d’augmenter la production de plaquettes in vitro pour de futures applications en thérapeutique
Megakaryopoiesis is a process allowing hematopoietic stem cell (HSC) to proliferate and differentiate into megakaryocytes (MK). It is followed by thrombopoiesis allowing blood platelet production. These processes occur 1) in the bone marrow three-dimensional (3D) structure, 2) in the bone marrow sinusoid vessels and 3) in the blood flow. Our general aim was to decipher the mechanism associated to each process. The first objective was to study the effects of porous 3D structure on MK differentiation and platelet production. This study demonstrated that the synergy between spatial organization and biological cues improved MK and platelet production. We also characterized platelets produced from mature MK in flow conditions, with respect to their in vitro and in vivo properties. We highlighted the capacity of flow-derived platelets to incorporate in a thrombus in vitro and in vivo, compared to static-derived platelets. These works represent some new developments for mimicking the bone marrow structure and to reproduce blood shear forces in order to improve and increase in vitro platelet production for therapeutic use
39

Ramirez, Lis. "Production de bio-carburants de 3ème génération à partir de microalgues." Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-01070856.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à l'épuisement des réserves en carburants fossiles et afin de subvenir à une demande toujours croissante en énergie pour le transport, les scientifiques se tournent désormais vers une ressource quasi-inépuisable et renouvelable : la biomasse. Au sein de la biomasse, les microalgues représentent une source potentielle de biocarburant car elles peuvent contenir des fortes teneurs en lipides et hydrocarbures. Leur croissance extrêmement rapide, l'utilisation du CO2 et de l'énergie solaire pour leur croissance et l'absence de compétition avec l'agriculture traditionnelle confèrent aux micro-algues une très forte attractivité. Deux voies de conversion ont été abordées. Dans un premier temps, nous avons étudié l'hydroconversion de triglycérides avec une molécule modèle (GTO) et charges réelles (huile de poisson et huile de Nannochloropsis obtenu par extraction au CO2 supercritique) sur catalyseurs de type CoMoS et NiMoS sur alumine. Des rendements élevés en alcanes (60- 70%pds) semblables à des carburants fossiles ont été obtenus. Dans un second temps, nous avons étudié la liquéfaction hydrothermale de la Spiruline, peu représentative d'algues lipidiques mais disponible, et d'autres algues (Porphyridium cruentum, Nannochloropsis sp., Ourococcus, Dunaliela salina) pour optimiser ce procédé selon les différentes conditions opératoires avec l'obtention d'un rendement optimal en bio-huile de 35%pds. Cependant, les teneurs élevées en azote et oxygène (8-10%pds) de la bio-huile ne permettent pas de la valoriser directement comme carburant. Cela nous a amené à effectuer une valorisation de la bio-huile avec des catalyseurs hétérogènes de type CoMo, NiMoS, NiMoS-Y supportés sur alumine et SrMoO4-N pour éliminer l'azote et l'oxygène de la bio-huile. Le catalyseur avec le résultat plus satisfaisant a été le SrMoO4-N, avec une teneur finale en alcanes de 70%pds
40

Antoine, Elodie. "Génération automatique d'interfaces Web à partir de spécifications l'outil DCI-Web." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/4746.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'expansion du domaine Web a entraîné l'émergence de nouveaux outils, permettant le développement d'applications Web dans différents langages. La complexité de ces langages, et donc du développement des applications Web, est en augmentation. C'est pourquoi beaucoup de générateurs de code existent actuellement. Une application Web, construite sur le modèle"modèle, vue, contrôleur" (MVC), est donc constituée d'éléments principaux qui peuvent être générés ou non par ces différents outils. Ce sont ces éléments générés qui les différencient. En effet, certains outils vont se concentrer sur l'aspect graphique, tandis que d'autres vont également traiter la partie logique métier (modèle). La plupart des outils ne traitent pas ou très peu l'aspect contrôleur, car une des spécificités communes à tous est d'utiliser une architecture de développement pour simplifier la génération. Ce mémoire présente une nouvelle version de l'outil de description comportementale d'interface Web ( DC1-Web ), générateur d'interface graphique en Java (Java Server Page (JSP)). DCI-Web génère la vue et le contrôleur de l'interface web, mais ne génère pas la couche métier d'une application. Le contrôleur est implémenté avec l'architecture de développement Struts (Apache). DCI-Web prend en entrée une spécification de l'interface web à partir de laquelle est générée l'interface. Cette spécification comprend la définition des différentes pages avec pour chacune leur contenu, c'est-à-dire les variables qu'elle contient, la mise en page de ces éléments, les transitions entre les différentes pages qui peuvent contenir des appels au système d'information (SI), et enfin, les données relatives à la navigation (déclaration des menus). Nous présentons une description complète de cet outil, et de son utilisation.
41

Bedini, Ivan. "Génération automatique d'ontologie à partir de fichiers XSD appliqué au B2B." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Computer mediated networks play a central role in the evolution of Enterprise Information Systems. However the integration of data in networked systems still remains harder than it really should be. In our research we claim that Semantic Web technologies, and specifically ontologies, are well suited to integrate this domain to fulfil current approaches and achieve the needed flexibility. For this we address the first step toward the business semantic communication with a system that overcomes some of the existing lacks in the state of the art and provides a new approach for the automatic generation of ontologies from XML sources. We show the usefulness of our system by applying our theory to the B2B domain and producing automatically ontologies of relevant quality and expressiveness
La communication entre systèmes d'information d'entreprise joue un rôle central dans l'évolution des processus d'affaire. Pourtant l'intégration des données reste compliquée : elle exige un effort humain considérable, surtout pour les connexions d'applications appartenant à différentes entreprises. Dans notre recherche nous affirmons que les technologies du Web Sémantique, et plus particulièrement les ontologies, peuvent permettre l'obtention de la flexibilité nécessaire. Notre système permet de surmonter certains manques dans l'état de l'art actuel et réalise une nouvelle approche pour la génération automatique d'ontologies à partir de sources XML. Nous montrons l'utilité du système en appliquant notre théorie au domaine du B2B pour produire automatiquement des ontologies de qualité et d’expressivité appropriée
42

Patoz, Evelyne. "Génération de représentations topologiques à partir de requêtes en langage naturel." Besançon, 2006. http://www.theses.fr/2006BESA1031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A partir de l’étude du raisonnement et des compétences visuo-perceptives qu’emploie un être humain pour se situer dans l’espace, nous élaborons un modèle théorique permettant à un système informatique de situer un objet dans l’espace au moyen d’indices linguistiques. A cet effet, l’impact de l’activité langagière est étudié dans son rôle de constructeur de la représentation spatiale, mais aussi d’une autre activité cognitive, relevée comme essentielle : la perception visuelle. La perception visuelle reposant en grande partie sur des informations produites en fonction de l’univers des connaissances de l’observateur, l’interprétation qui en est faite conduit à une représentation mentale. La notion de représentation est alors liée à la réalité d’objets dont l’existence est elle-même dépendante des aptitudes perceptives d’un individu donné. La représentation n’est plus alors examinée comme préalable à la construction d’une configuration donnée, mais relative à la perception environnementale. Nous montrons que la génération dynamique d’une représentation spatiale ne dépend en fait que de quelques paramètres, dont le facteur le plus important est l’identification du point de référence. Nous développons une application logicielle, intégrant un module de dialogue, qui permet à un utilisateur de diriger un robot sur une surface, et à celui-ci de rendre compte de l’état du monde dans lequel il évolue
From the reasoning’ study and the visual perceptions abilities that use a human being for locating in the space, we elaborate an example theoretic allowing a computing system to situate an object in the space by means of linguistics signs. For this fact, the rule of linguistic activity is studying in his constructive rule of the spatial representation, but also to the other cognitive effect, is revealed as essential: the visual perception. The visual perception resting in a huge part on the products informations in function of an observer’ knowledges of the universe, the interpretation can conduct to a mental representation. The notion of representation so is linked up to a reality of objects that existence by itself depends of the perceptive aptitude of a special individual. The representation is no more examined like a construction for a well-done configuration, but relative to an environmental perception. We can show that the dynamic generation for a spatial representation depend of parameters, which the more important factor is the identification of a point of reference. We can develop a logical application, integrating a speech factor, that permit to a user to directing a robot in an area, and thus to give an account to the state of the world how it can evaluate
43

Boudellal, Toufik. "Extraction de l'information à partir des flux de données." Saint-Etienne, 2006. http://www.theses.fr/2006STET4014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intelligence artificielle est un thème général de travail en informatique. Nous trouvons dans cette thématique le traitement des données ou l'analyse de données. Ce domaine s'intéresse principalement à la recherche de différentes approches pour la découverte de connaissances. Les problèmes proposés à étudier dans cette thèse sont définis à l'intérieur de ce domaine. Nous commençons notre problématique par un passage sur les travaux en cours en extraction de connaissances à partir des flux de données. Ensuite, revenons sur la base de ces travaux pour étudier leurs portabilités aux systèmes de flux de données adaptatifs. Puis, nous proposons notre nouvelle approche ainsi que des résultats expérimentaux. Nous finirons par une conclusion de nos travaux et des perspectives de recherches dans cette nouvelle thématique
The aim of this work is an attempt to resolve a mining data streams specified problem. It is an adaptative analysis of data streams. The web generation proposes new challenges due to the complexity of data structures. As an example, the data issued from virtual galleries, credit card transactions,. . . Generally, such data are continuous in time, and their sizes are dynamic. We propose a new algorithm based on measures applied to adaptative data streams. The interpretation of results is possible due to such measures. In fact, we compare our algorithm experimentally to other adapted approaches that are considered fundamental in the field. A modified algorithm that is more useful in applications is also discussed. This thesis finishes with a suggestions set about our future work relating to noises data streams and another set of suggestions about the future needfully work
44

Guillouet, Brendan. "Apprentissage statistique : application au trafic routier à partir de données structurées et aux données massives." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30205/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à l'apprentissage pour données massives. On considère en premier lieu, des trajectoires définies par des séquences de géolocalisations. Une nouvelle mesure de distance entre trajectoires (Symmetrized Segment-Path Distance) permet d'identifier par classification hiérarchique des groupes de trajectoires, modélisés ensuite par des mélanges gaussiens décrivant les déplacements par zones. Cette modélisation est utilisée de façon générique pour résoudre plusieurs types de problèmes liés aux trafic routier : prévision de la destination finale d'une trajectoire, temps d'arrivée à destination, prochaine zone de localisation. Les exemples analysés montrent que le modèle proposé s'applique à des environnements routiers différents et, qu'une fois appris, il s'applique à des trajectoires aux propriétés spatiales et temporelles différentes. En deuxième lieu, les environnements technologiques d'apprentissage pour données massives sont comparés sur des cas d'usage industriels
This thesis focuses on machine learning techniques for application to big data. We first consider trajectories defined as sequences of geolocalized data. A hierarchical clustering is then applied on a new distance between trajectories (Symmetrized Segment-Path Distance) producing groups of trajectories which are then modeled with Gaussian mixture in order to describe individual movements. This modeling can be used in a generic way in order to resolve the following problems for road traffic : final destination, trip time or next location predictions. These examples show that our model can be applied to different traffic environments and that, once learned, can be applied to trajectories whose spatial and temporal characteristics are different. We also produce comparisons between different technologies which enable the application of machine learning methods on massive volumes of data
45

Verdie, Yannick. "Modélisation de scènes urbaines à partir de données aeriennes." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00881242.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes.
46

Bernardes, Vieira Marcelo. "Reconstruction de surfaces à partir de données tridimensionnelles éparses." Cergy-Pontoise, 2002. http://biblioweb.u-cergy.fr/theses/02CERG0145.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail traite du problème de l'organisation spatiale de données éparses pour la reconstruction de surfaces. Nous proposons une variante de la méthode d'accumulation développée par Gideon Guy et améliorée par Mi-Suen Lee. Les principaux outils mathématiques de ces méthodes sont : champs spatiaux d'influence et tenseurs pour représenter des orientations. Em général, ces méthodes sont associées à des problèmes de groupement perceptuel. Cependant, nous avons remarqué que ces méthodes permettent d'estimer l'organisation spatiale de données éparses. Nous proposons donc une nouvelle stratégie pour estimer des orientations de surfaces. Nous pensons, en effet, qu'une méthode dédiée peut améliorer cette inférence, contrairement aux méthodes originales. C'est pourquoi nous avons utilisé le tenseur d'orientation pour répresenter exclusivement des surfaces et les champs d'influence pour coder des trajectoires elliptiques. Un nouveau traitement pour l'inférence initiale des orientations qui évalue l'organisation des données éparses est proposé. La présentation et la critique des travaux de Guy et de Lee ainsi que le développement méthodologique de cette thèse ont été faits à partir d'une étude épistemologique. Une évaluation qualitative des méthodes a été realisée sur des objets de forme différente. Des comparaisons quantitatives ont également été menées afin d'estimer les erreurs de reconstruction. Les résultats montrent que la méthode proposée est moins sensible au bruit et à la variabilité de la densité des données. Nous proposons aussi une méthode pour segmenter des points structurés sur des surfaces. Une évaluation comparative permet d'apprécier l'intérêt de la méthode proposée
This work approaches the problem of sparse data spatial organization inference for surface reconstruction. We propose a variant of the voting method developed by Gideon Guy and extended by Mi-Suen Lee. Tensors to represent orientations and spatial influence fields are the main mathematical instruments. These methods have been associated to perceptual grouping problems. However, we observe that their accumulation processes infer sparse data organization. From this point of view, we propose a new strategy for orientation inference focused on surfaces. In contrast with original ideas, we argue that a dedicated method may enhance this inference. The mathematical instruments are adapted to estimate normal vectors: the orientation tensor represents surfaces and influence fields code elliptical trajectories. We also propose a new process for the initial orientation inference which effectively evaluates the sparse data organization. The presentation and critique of Guy's and Lee's works and methodological development of this thesis are conducted by epistemological studies. Objects of different shapes are used in a qualitative evaluation of the method. Quantitative comparisons were prepared with error estimation from several reconstructions. Results show that the proposed method is more robust to noise and variable data density. A method to segment points structured on surfaces is also proposed. Comparative evaluations show a better performance of the proposed method in this application
47

Verdie, Yannick. "Modélisation de scènes urbaines à partir de données aériennes." Thesis, Nice, 2013. http://www.theses.fr/2013NICE4078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires ; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes
Analysis and 3D reconstruction of urban scenes from physical measurements is a fundamental problem in computer vision and geometry processing. Within the last decades, an important demand arises for automatic methods generating urban scenes representations. This thesis investigates the design of pipelines for solving the complex problem of reconstructing 3D urban elements from either aerial Lidar data or Multi-View Stereo (MVS) meshes. Our approaches generate accurate and compact mesh representations enriched with urban-related semantic labeling.In urban scene reconstruction, two important steps are necessary: an identification of the different elements of the scenes, and a representation of these elements with 3D meshes. Chapter 2 presents two classification methods which yield to a segmentation of the scene into semantic classes of interests. The beneath is twofold. First, this brings awareness of the scene for better understanding. Second, deferent reconstruction strategies are adopted for each type of urban elements. Our idea of inserting both semantical and structural information within urban scenes is discussed and validated through experiments. In Chapter 3, a top-down approach to detect 'Vegetation' elements from Lidar data is proposed using Marked Point Processes and a novel optimization method. In Chapter 4, bottom-up approaches are presented reconstructing 'Building' elements from Lidar data and from MVS meshes. Experiments on complex urban structures illustrate the robustness and scalability of our systems
48

Giraudot, Simon. "Reconstruction robuste de formes à partir de données imparfaites." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des vingt dernières années, de nombreux algorithmes de reconstruction de surface ont été développés. Néanmoins, des données additionnelles telles que les normales orientées sont souvent requises et la robustesse aux données imparfaites est encore un vrai défi. Dans cette thèse, nous traitons de nuages de points non-orientés et imparfaits, et proposons deux nouvelles méthodes gérant deux différents types de surfaces. La première méthode, adaptée au bruit, s'applique aux surfaces lisses et fermées. Elle prend en entrée un nuage de points avec du bruit variable et des données aberrantes, et comporte trois grandes étapes. Premièrement, en supposant que la surface est lisse et de dimension connue, nous calculons une fonction distance adaptée au bruit. Puis nous estimons le signe et l'incertitude de la fonction sur un ensemble de points-sources, en minimisant une énergie quadratique exprimée sur les arêtes d'un graphe uniforme aléatoire. Enfin, nous calculons une fonction implicite signée par une approche dite « random walker » avec des contraintes molles choisies aux points-sources de faible incertitude. La seconde méthode génère des surfaces planaires par morceaux, potentiellement non-variétés, représentées par des maillages triangulaires simples. En faisant croitre des primitives planaires convexes sous une erreur de Hausdorff bornée, nous déduisons à la fois la surface et sa connectivité et générons un complexe simplicial qui représente efficacement les grandes régions planaires, les petits éléments et les bords. La convexité des primitives est essentielle pour la robustesse et l'efficacité de notre approche
Over the last two decades, a high number of reliable algorithms for surface reconstruction from point clouds has been developed. However, they often require additional attributes such as normals or visibility, and robustness to defect-laden data is often achieved through strong assumptions and remains a scientific challenge. In this thesis we focus on defect-laden, unoriented point clouds and contribute two new reconstruction methods designed for two specific classes of output surfaces. The first method is noise-adaptive and specialized to smooth, closed shapes. It takes as input a point cloud with variable noise and outliers, and comprises three main steps. First, we compute a novel noise-adaptive distance function to the inferred shape, which relies on the assumption that this shape is a smooth submanifold of known dimension. Second, we estimate the sign and confidence of the function at a set of seed points, through minimizing a quadratic energy expressed on the edges of a uniform random graph. Third, we compute a signed implicit function through a random walker approach with soft constraints chosen as the most confident seed points. The second method generates piecewise-planar surfaces, possibly non-manifold, represented by low complexity triangle surface meshes. Through multiscale region growing of Hausdorff-error-bounded convex planar primitives, we infer both shape and connectivity of the input and generate a simplicial complex that efficiently captures large flat regions as well as small features and boundaries. Imposing convexity of primitives is shown to be crucial to both the robustness and efficacy of our approach
49

Edwards, Jonathan. "Construction de modèles stratigraphiques à partir de données éparses." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0367/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Toutes les analyses et les constructions de modèles stratigraphiques s'appuient sur des corrélations stratigraphiques entre unités sédimentaires observées au niveau de forages ou d'affleurements. Cependant, deux problèmes se posent aux géologues au moment de la construction de ces corrélations stratigraphiques. Premièrement, les données disponibles sont éparses et peu nombreuses. Deuxièmement, les processus sédimentaires menant à la mise en place des unités sédimentaires à corréler sont nombreux, interdépendants et partiellement connus. Ainsi la construction d'un modèle de corrélations stratigraphiques peut être vue comme un problème sous-contraint auquel plusieurs solutions peuvent être proposées. L'objectif de cette thèse est de mettre en place un système numérique permettant de générer de manière stochastique des modèles stratigraphiques contraints localement par des données d'observation. Deux éléments sont nécessaires à la mise en place d'un tel système : 1. La mise en place de règles régissant l'organisation spatiale d'unités sédimentaires observées au niveau d'affleurements ou de puits. En ce qui concerne ces règles, deux voies seront explorées : - La mise en équation des règles définies dans le cadre de la stratigraphie séquentielle. Ces règles, exprimées d'un point de vue qualitatif dans la littérature sont traduites en termes quantitatifs afin d'évaluer la probabilité de deux unités sédimentaires observées d'être corrélées. - La déduction de la probabilité de corrélations entre deux unités sédimentaires observées à partir de modèles stratigraphiques construits par approche basée processus (forward stratigraphic models). 2. La mise en place d'un cœur algorithmique permettant de construire de façon stochastique un ensemble de modèles stratigraphiques plausibles à partir des règles précédemment présentées et des données d'observation
All stratigraphic models building and analysis are based on stratigraphic correlations of sedimentary units observed on wells or outcrops. However, the geologist building these stratigraphic correlations faces two main problems. First, the data available are few and sparse. Second, the sedimentary processes leading to the deposition of the units are numerous, interdependent and poorly known. So, the construction of a stratigraphic correlation model might be seen as an under-constrained problem with several possible solutions. The aim of this thesis is to create a numeric method to generate stochastic stratigraphic models that are locally constrained by observation data. Two steps are necessary: 1. The establishment of rules describing the spatial organization of sedimentary units observed on outcrops and wells. For these rules, two axis are explored: - The formulation in equations of rules defined in the sequence stratigraphy framework. These rules, presented qualitatively in the literature are translated in quantitative terms to evaluate the probability of two sedimentary units to be correlated. - The deduction of the probability of two sedimentary units to be correlated from stratigraphic models built from forward stratigraphic methods. 2. The development of an algorithm to build possible stochastic stratigraphic models from the rules cited above and observation data
50

Monneret, Gilles. "Inférence de réseaux causaux à partir de données interventionnelles." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS290/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'utilisation de données transcriptomiques actuelles dans le but d'en inférer un réseau de régulation génique. Ces données sont souvent complexes, et en particulier des données d'interventions peuvent être présente. L'utilisation de la théorie de la causalité permet d'utiliser ces interventions afin d'obtenir des réseaux causaux acycliques. Je questionne la notion d'acyclicité, puis en m'appuyant sur cette théorie, je propose plusieurs algorithmes et/ou améliorations à des techniques actuelles permettant d'utiliser ce type de données particulières
The purpose of this thesis is the use of current transcriptomic data in order to infer a gene regulatory network. These data are often complex, and in particular intervention data may be present. The use of causality theory makes it possible to use these interventions to obtain acyclic causal networks. I question the notion of acyclicity, then based on this theory, I propose several algorithms and / or improvements to current techniques to use this type of data

To the bibliography