Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Méthodes guidées par des données.

Дисертації з теми "Méthodes guidées par des données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Méthodes guidées par des données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Espinoza, Molina Daniela. "Méthodes avancées pour l'extraction d'informations a partir des images à haute résolution SAR: Méthodes d'évaluation guidées par les modèles utilisateur et par la structure des données." Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.archives-ouvertes.fr/pastel-00676833.

Повний текст джерела
Анотація:
Nous nous sommes intéressés au problème de l'extraction d'information dans des images (Image Information Mining IIM) pour mieux comprendre et exploiter des données en provenance du high resolution Synthetic Aperture Radar (SAR) les avancements dans ce champ de recherche contribuent à l'élaboration d'outils d'exploration interactive et l'extraction du contenu de l'image. Dans ce contexte , analyser et évaluer les modèles d'image et méthodes d'extraction d'information adéquats selon les conjectures de l'utilisateur, constituent des problèmes difficiles. Notre travail contribue avec des solutions pour la modélisation de SAR de haute résolution et pour l'estimation du contenu en utilisant une approche d'évaluation pilotés par les données (data-driven), et avec la conception de scénarios pour l'extraction d'information dans des images en y associant l'utilisateur et ses conjectures, réalisée par une approche d'évaluation axée sur l'utilisateur. Nous réalisons une évaluation et une validation guidée par les données des méthodes d'extraction automatique d'informations pour des scènes en haute résolution SAR basée sur le modèle Gibbs Random Field (GRF). Plus précisément, des modèles Gauss Markov Random Field (GMRF) et Auto-binomial (ABM) sont mis en place dans les méthodes d'extraction d'information suite aux deux niveaux d'inférence bayésienne: ajustement du modèle et sélection du modèle. Les deux méthodes donnent comme résultat une image sans tache (speckle-free) et ses paramètres de la structure. Le modèle GMRF est plus approprié pour les scènes naturelles et le modèle ABM pour les structures artificielles (man-made)
We are concerned in this thesis by the problem of Image Information Mining for exploitation and understanding of high resolution (HR) Synthetic Aperture Radar (SAR) data. Advances in this field of research contribute to the elaboration of tools for interactive exploration and extraction of the image content. In this context, analyzing and evaluating adequate image models and image information extraction methods according to user conjectures, constitute challenging issues. Our work contributes with solutions to HR SAR modeling and content estimation with a data-driven evaluation approach, and with the design of image mining scenarios by involving the user and his conjectures, achieved through an user-driven evaluation approach. We perform a data-driven evaluation and validation of automatic information extraction methods for high resolution SAR scenes based on Gibbs Random Field (GRF) models. Specifically, Gauss Markov Random Field (GMRF) and Auto-binomial (ABM) models are implemented in information extraction methods following the two levels of Bayesian inference: model fitting and model selection. We perform detection tests on classes such as cities, vegetation, and water bodies; using specific qualitative metrics to quantify the quality of speckle removal. The accuracy of modelling and characterization of the image content are determined using both supervised and unsupervised classifications, and confusion matrices. We conclude that both methods enhance the image during the despeckling process. The GMRF model is more suitable for natural scenes and the ABM model for man-made structures. We design and generate two study cases: oil spill and flood detection
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Jose, Sagar. "Stratégies d'apprentissage multimodal pour le diagnostic et le pronostic de la santé des machines industrielles dans un contexte de manque de données." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP093.

Повний текст джерела
Анотація:
Les approches de Pronostic et gestion de la santé des systèmes (Prognostics and Health Management : PHM) guidées par les données sont fortement dépendantes de la disponibilité et de la qualité d’historiques de défaillances, une exigence souvent difficile à satisfaire dans les systèmes de surveillance en conditions industrielles. Cette divergence crée un écart significatif entre les méthodologies de PHM et leur application pratique sur des systèmes réels. L’accent prédominant mis sur les ensembles de données unimodales dans les travaux de recherche en PHM basée sur les données met en lumière le potentiel des données multimodales pour combler cet écart.Cette thèse explore l’intégration des données multimodales afin d’améliorer les méthodes et les algorithmes de PHM appliqués aux machines industrielles. Elle aborde de manière systématique des défis cruciaux tels que l’absence de données, les données bruitées, les données clairsemées et irrégulières, le déséquilibre des classes et la rareté des données de fonctionnement jusqu’à la défaillance. Elle propose des méthodologies innovantes qui intègrent plusieurs modalités de données et exploitent l’expertise spécifique au domaine pour créer des modèles prédictifs robustes.Les contributions principales de la thèse se déclinent comme suit :1. Apprentissage basé sur l’attention intermodale : une nouvelle méthode d’apprentissage multimodal conçue pour atténuer les limites posées par les données manquantes et bruitées. Elle permet d’intégrer des informations provenant de multiples modalités, améliorant ainsi la précision et la robustesse des modèles prédictifs.2. Méthodologie de diagnostic multimodal assisté par les connaissances d’experts : cette méthodologie combine l’expertise du domaine avec l’apprentissage multimodal pour permettre des diagnostics complets, améliorant ainsi la détection et la classification des défauts dans les machines industrielles.3. Approche de pronostic basée sur des graphes : cette approche innovante construit des trajectoires de fonctionnement jusqu’à la défaillance à partir de données incomplètes en utilisant des techniques basées sur les graphes, offrant une avancée significative dans le domaine du pronostic de défaillances.Ces méthodologies ont été rigoureusement validées sur des données de simulation ainsi que sur des données industrielles provenant d’hydro-générateurs, démontrant des améliorations significatives des algorithmes de PHM et de maintenance prédictive. Les résultats soulignent le potentiel des données multimodales pour améliorer considérablement la fiabilité et l’efficacité des modèles de PHM.Cette thèse apporte un cadre complet pour exploiter diverses sources de données et l’expertise du domaine, promettant de transformer les stratégies de maintenance et de réduire les coûts opérationnels dans diverses industries. Les résultats ouvrent la voie à des recherches futures et à des applications pratiques, positionnant l’intégration des données multimodales comme une avancée essentielle dans le domaine du PHM
Prognostics and Health Management (PHM) with data-driven techniques is heavily dependent upon the availability of extensive and high-quality datasets, a requirement often challenging to fulfill in industrial condition monitoring environments. This discrepancy creates a significant gap between state-of-the-art PHM methodologies and their practical application in real-world scenarios. The prevailing focus in data-driven PHM research on unimodal datasets highlights the potential of multimodal data to bridge this gap.This thesis explores the integration of multimodal data to advance PHM models for industrial machines. It systematically addresses pivotal challenges such as data missingness and noise, sparse and irregular datasets, class imbalance, and the scarcity of run-to-failure data. The research develops innovative methodologies that incorporate multiple data modalities and harness domain-specific expertise to create robust predictive models.The primary contributions of this research include:1. Cross-modal attention-based learning: A new multimodal learning method is designed to mitigate the limitations posed by missing and noisy data. It allows integrating information across multiple modalities, thereby enhancing the accuracy and robustness of predictive models.2. Expert-knowledge-assisted multimodal diagnostics methodology: This methodology combines domain expertise with multimodal learning to enable comprehensive diagnostics, thereby improving fault detection and classification in industrial machinery.3. Graph-based prognostics approach: This innovative approach constructs run-to-failure trajectories from incomplete data using graph-based techniques, offering a significant advancement in failure prognostics.These methodologies were rigorously validated using both simulation and industrial dataset of hydrogenerators, demonstrating significant improvements in PHM and predictive maintenance capabilities. The results underscore the potential of multimodal data to significantly enhance the reliability and efficiency of PHM methods and algorithms.This thesis proposes a comprehensive framework for leveraging diverse data sources and domain expertise, promising to transform maintenance strategies and reducing operational costs across various industries. The findings pave the way for future research and practical implementations, positioning multimodal data integration as a pivotal advancement in the field of PHM
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Hey, Silke. "Thermothérapies guidées par IRM : développements méthodologiques en thermométrie par IRM et méthodes d’asservissement automatique." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14191/document.

Повний текст джерела
Анотація:
Les ultrasons focalisés de haute intensité (HIFU) guidés par IRM et combinés à la thermométrie basée sur la fréquence de résonance du proton (PRF) sont une technique prometteuse pour l’ablation non invasive de tumeurs, le dépôt local de médicaments et l’activation des transgènes. Ce travail présente de nouveaux développements dans le domaine de la thermométrie PRF en présence de mouvement physiologique périodique associé aux variations du champ magnétique. De nouvelles stratégies de correction sont proposées et exploitent la méthode multi-baseline établie en incluant un modèle de variation de phase. Elles sont illustrées avec des exemples de thermométrie dans le sein et dans le cœur humain. De plus, d’autres facteurs influençant la thermométrie PRF, notamment la présence de graisse dans le sein et le flux sanguin dans le cœur, sont étudiés. Dans la seconde partie de ce travail a été abordée la problématique du contrôle précis de la température. Une première approche propose un algorithme de contrôle proportionel, intégral et dérivatif (PID) amélioré utilisant des paramétres de contrôle adaptatifs. En étendant ce concept à un contrôle 3D de la température, une implémentation de chauffage volumétrique est proposée. Par ailleurs, une nouvelle méthode de repositionnement dynamique de la coupe d’imagerie permet de fournir des informations volumétriques sur l’anatomie et la température en temps réel. La combinaison avec la compensation 2D de mouvement et l’adaptation du faisceau ultrasonore permet la réalisation d’un chauffage volumétrique suivant une courbe de température ou de dose thermique prédéfinie qui fonctionne même en présence de mouvements
MR-guided high-intensity focused ultrasound (HIFU) using proton resonance frequency (PRF) based thermometry is a promising technique for non-invasive ablations in tumor therapy as well as for targeted drug delivery and the activation of transgenes. This work presents further developments in the field of PRF thermometry in the presence of periodical physiological motion and the associated magnetic field variations. Using the examples of thermometry in the human breast and the human heart, new correction strategies are presented which extend the established multi-baseline phase correction to include a model of the phase variation and external sensor readings from a pencil-beam navigator. In addition further factors, namely the presence of fat in the breast and blood flow in the heart influencing the performance of MR thermometry in these organs are examined.In the second part of this work, the issue of precise temperature control has been approached in two ways. First, an improved proportional, integral and derivative (PID) controller using adaptive control parameters is developed. By expanding the concept of temperature control to 3D, an implementation of volumetric heating is presented. A novel slice sweep technique provides volumetric anatomic and temperature information in near-real time. The combination with 2D motion compensation and adaptation of the ultrasound beam position allows to achieve volumetric heating according to a pre-defined target temperature or thermal dose value even in the presence of motion
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Ben, Fredj Feten. "Méthode et outil d’anonymisation des données sensibles." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1128/document.

Повний текст джерела
Анотація:
L’anonymisation des données personnelles requiert l’utilisation d’algorithmes complexes permettant de minimiser le risque de ré-identification tout en préservant l’utilité des données. Dans cette thèse, nous décrivons une approche fondée sur les modèles qui guide le propriétaire des données dans son processus d’anonymisation. Le guidage peut être informatif ou suggestif. Il permet de choisir l’algorithme le plus pertinent en fonction des caractéristiques des données mais aussi de l’usage ultérieur des données anonymisées. Le guidage a aussi pour but de définir les bons paramètres à appliquer à l’algorithme retenu. Dans cette thèse, nous nous focalisons sur les algorithmes de généralisation de micro-données. Les connaissances liées à l’anonymisation tant théoriques qu’expérimentales sont stockées dans une ontologie
Personal data anonymization requires complex algorithms aiming at avoiding disclosure risk without losing data utility. In this thesis, we describe a model-driven approach guiding the data owner during the anonymization process. The guidance may be informative or suggestive. It helps the data owner in choosing the most relevant algorithm given the data characteristics and the future usage of anonymized data. The guidance process also helps in defining the best input values for the algorithms. In this thesis, we focus on generalization algorithms for micro-data. The knowledge about anonymization is composed of both theoretical aspects and experimental results. It is managed thanks to an ontology
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Ben, Fredj Feten. "Méthode et outil d’anonymisation des données sensibles." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1128.

Повний текст джерела
Анотація:
L’anonymisation des données personnelles requiert l’utilisation d’algorithmes complexes permettant de minimiser le risque de ré-identification tout en préservant l’utilité des données. Dans cette thèse, nous décrivons une approche fondée sur les modèles qui guide le propriétaire des données dans son processus d’anonymisation. Le guidage peut être informatif ou suggestif. Il permet de choisir l’algorithme le plus pertinent en fonction des caractéristiques des données mais aussi de l’usage ultérieur des données anonymisées. Le guidage a aussi pour but de définir les bons paramètres à appliquer à l’algorithme retenu. Dans cette thèse, nous nous focalisons sur les algorithmes de généralisation de micro-données. Les connaissances liées à l’anonymisation tant théoriques qu’expérimentales sont stockées dans une ontologie
Personal data anonymization requires complex algorithms aiming at avoiding disclosure risk without losing data utility. In this thesis, we describe a model-driven approach guiding the data owner during the anonymization process. The guidance may be informative or suggestive. It helps the data owner in choosing the most relevant algorithm given the data characteristics and the future usage of anonymized data. The guidance process also helps in defining the best input values for the algorithms. In this thesis, we focus on generalization algorithms for micro-data. The knowledge about anonymization is composed of both theoretical aspects and experimental results. It is managed thanks to an ontology
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Moreau, Frédérique. "Méthodes de traitement de données géophysiques par transformée en ondelettes." Phd thesis, Université Rennes 1, 1995. http://tel.archives-ouvertes.fr/tel-00656040.

Повний текст джерела
Анотація:
Cette thèse concerne le développement de nouvelles méthodes de traitement et d'interprétation de données de champs de potentiel. Dans un premier temps, nous avons élaboré un algorithme rapide de débruitage de données géophysiques par transformée en ondelettes orthogonales. La méthode proposée permet de tenir compte des non-stationnarités du rapport signal/bruit. Elle est basée sur quelques tests statistiques qui permettent de séparer les coefficients d'ondelettes dus au signal de ceux dus au bruit. Le signal est alors reconstruit par transformée inverse sur les coefficients conservés. L'idée directrice de la deuxième méthode est d'effectuer une imagerie structurale du soussol à partir d'un champ mesuré en surface. Nous avons d'abord intégré la théorie du potentiel dans la théorie des ondelettes, par l'intermédiaire de l'homogénéité des champs dus à des sources multipolaires. L'introduction d'ondelettes définies à partir du noyau de Poisson permet alors de déterminer précisément la localisation et le degré d'homogénéité des sources présentes. L'utilisation des lignes d'extréma de la transformée rend la méthode robuste vis-à-vis du bruit. Nous avons ensuite généralisé la méthode au cas des sources étendues, ce qui nous permet de localiser et de caractériser des bords d'objets. L'inclinaison des structures peut être déterminée par l'utilisation d'ondelettes complexes. En dernier lieu, cette formulation du problème inverse nous a permis de développer une méthode de filtrage par critères structuraux (type et profondeurs des sources). Nous donnons quelques exemples d'applications sur des données gravimétriques. Les possibilités de la méthode sont illustrées sur des zones de fractures ou de subduction.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Trellet, Mikael. "Exploration et analyse immersives de données moléculaires guidées par la tâche et la modélisation sémantique des contenus." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS262/document.

Повний текст джерела
Анотація:
En biologie structurale, l’étude théorique de structures moléculaires comporte quatre activités principales organisées selon le processus séquentiel suivant : la collecte de données expérimentales/théoriques, la visualisation des structures 3d, la simulation moléculaire, l’analyse et l’interprétation des résultats. Cet enchaînement permet à l’expert d’élaborer de nouvelles hypothèses, de les vérifier de manière expérimentale et de produire de nouvelles données comme point de départ d’un nouveau processus.L’explosion de la quantité de données à manipuler au sein de cette boucle pose désormais deux problèmes. Premièrement, les ressources et le temps relatifs aux tâches de transfert et de conversion de données entre chacune de ces activités augmentent considérablement. Deuxièmement, la complexité des données moléculaires générées par les nouvelles méthodologies expérimentales accroît fortement la difficulté pour correctement percevoir, visualiser et analyser ces données.Les environnements immersifs sont souvent proposés pour aborder le problème de la quantité et de la complexité croissante des phénomènes modélisés, en particulier durant l’activité de visualisation. En effet, la Réalité Virtuelle offre entre autre une perception stéréoscopique de haute qualité utile à une meilleure compréhension de données moléculaires intrinsèquement tridimensionnelles. Elle permet également d’afficher une quantité d’information importante grâce aux grandes surfaces d’affichage, mais aussi de compléter la sensation d’immersion par d’autres canaux sensorimoteurs.Cependant, deux facteurs majeurs freinent l’usage de la Réalité Virtuelle dans le domaine de la biologie structurale. D’une part, même s’il existe une littérature fournie sur la navigation dans les scènes virtuelles réalistes et écologiques, celle-ci est très peu étudiée sur la navigation sur des données scientifiques abstraites. La compréhension de phénomènes 3d complexes est pourtant particulièrement conditionnée par la capacité du sujet à se repérer dans l’espace. Le premier objectif de ce travail de doctorat a donc été de proposer des paradigmes navigation 3d adaptés aux structures moléculaires complexes. D’autre part, le contexte interactif des environnements immersif favorise l’interaction directe avec les objets d’intérêt. Or les activités de collecte et d’analyse des résultats supposent un contexte de travail en "ligne de commande" ou basé sur des scripts spécifiques aux outils d’analyse. Il en résulte que l’usage de la Réalité Virtuelle se limite souvent à l’activité d’exploration et de visualisation des structures moléculaires. C’est pourquoi le second objectif de thèse est de rapprocher ces différentes activités, jusqu’alors réalisées dans des contextes interactifs et applicatifs indépendants, au sein d’un contexte interactif homogène et unique. Outre le fait de minimiser le temps passé dans la gestion des données entre les différents contextes de travail, il s’agit également de présenter de manière conjointe et simultanée les structures moléculaires et leurs analyses et de permettre leur manipulation par des interactions directes.Notre contribution répond à ces objectifs en s’appuyant sur une approche guidée à la fois par le contenu et la tâche. Des paradigmes de navigation ont été conçus en tenant compte du contenu moléculaire, en particulier des propriétés géométriques, et des tâches de l’expert, afin de faciliter le repérage spatial et de rendre plus performante l’activité d’exploration. Par ailleurs, formaliser la nature des données moléculaires, leurs analyses et leurs représentations visuelles, permettent notamment de proposer à la demande et interactivement des analyses adaptées à la nature des données et de créer des liens entre les composants moléculaires et les analyses associées. Ces fonctionnalités passent par la construction d’une représentation sémantique unifiée et performante rendant possible l’intégration de ces activités dans un contexte interactif unique
In structural biology, the theoretical study of molecular structures has four main activities organized in the following scenario: collection of experimental and theoretical data, visualization of 3D structures, molecular simulation, analysis and interpretation of results. This pipeline allows the expert to develop new hypotheses, to verify them experimentally and to produce new data as a starting point for a new scenario.The explosion in the amount of data to handle in this loop has two problems. Firstly, the resources and time dedicated to the tasks of transfer and conversion of data between each of these four activities increases significantly. Secondly, the complexity of molecular data generated by new experimental methodologies greatly increases the difficulty to properly collect, visualize and analyze the data.Immersive environments are often proposed to address the quantity and the increasing complexity of the modeled phenomena, especially during the viewing activity. Indeed, virtual reality offers a high quality stereoscopic perception, useful for a better understanding of inherently three-dimensional molecular data. It also displays a large amount of information thanks to the large display surfaces, but also to complete the immersive feeling with other sensorimotor channels (3D audio, haptic feedbacks,...).However, two major factors hindering the use of virtual reality in the field of structural biology. On one hand, although there are literature on navigation and environmental realistic virtual scenes, navigating abstract science is still very little studied. The understanding of complex 3D phenomena is however particularly conditioned by the subject’s ability to identify themselves in a complex 3D phenomenon. The first objective of this thesis work is then to propose 3D navigation paradigms adapted to the molecular structures of increasing complexity. On the other hand, the interactive context of immersive environments encourages direct interaction with the objects of interest. But the activities of: results collection, simulation and analysis, assume a working environment based on command-line inputs or through specific scripts associated to the tools. Usually, the use of virtual reality is therefore restricted to molecular structures exploration and visualization. The second thesis objective is then to bring all these activities, previously carried out in independent and interactive application contexts, within a homogeneous and unique interactive context. In addition to minimizing the time spent in data management between different work contexts, the aim is also to present, in a joint and simultaneous way, molecular structures and analyses, and allow their manipulation through direct interaction.Our contribution meets these objectives by building on an approach guided by both the content and the task. More precisely, navigation paradigms have been designed taking into account the molecular content, especially geometric properties, and tasks of the expert, to facilitate spatial referencing in molecular complexes and make the exploration of these structures more efficient. In addition, formalizing the nature of molecular data, their analysis and their visual representations, allows to interactively propose analyzes adapted to the nature of the data and create links between the molecular components and associated analyzes. These features go through the construction of a unified and powerful semantic representation making possible the integration of these activities in a unique interactive context
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Park, Soo-Uk. "Les Méthodes d'analyse par enveloppement des données : généralisations et applications nouvelles." Paris, EHESS, 1994. http://www.theses.fr/1994EHES0064.

Повний текст джерела
Анотація:
Notre recherche dans sa partie theorique presente la notion d'efficacite productive, qui est liee au probleme de la performance d'une entreprise sur un marche. Cette notion a ete depuis un certain temps l'objet de developpements importants. En particulier, la methode dea, qui repose sur la programmation lineaire. Toutes ces approches ont ete developpees sous une forme renouvelee, avec certains resultats originaux. La these se propose d'appliquer un certain nombre de variations de la methode dea a l'industrie coreenne de l'electricite. Elle se propose par ailleurs de tenter de degager la signification des efficacites dea mesurees sur l'echantillon des centrales de gestion, en introduisant ces efficacites dans des modeles econometriques de fonction de production
Our work, in its theoretical part, presents the concept of productive efficiency, which is linked to the problem of the performance of a production unit on a market. This concept has, for some time, been the object of important advances. In particular, dea methods, which rests on linear programming methods. All these approches have been developped under a renewed form, with some original results. This dissertation tries to apply some variants of the dea method to the corean industry of thermal electricity production. It proposes an attempt at obtaining the signification of these dea efficiency, as measured in our sample of power plants, by introducing these efficiencies as exogeneous variables in econometric production function models
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Afonso, Filipe. "Méthodes prédictives par extraction de règles en présence de données symboliques." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090067.

Повний текст джерела
Анотація:
Nous commençons par étendre la régression linéaire aux cas des variables symboliques intervalles, diagrammes, histogrammes, taxonomiques et hiérarchiques. Dans un deuxième temps, les travaux étendent les règles d'association aux cas des données symboliques diagrammes, intervalles, hiérarchiques et taxonomiques. La méthode proposée nous permet de découvrir des règles d'association au niveau des concepts. Notamment, plutôt que d'extraire des règles d'association entre différents articles du panier de la ménagère comme dans le cas classique, nous extrayons des règles d'association au niveau des clients afin d'étudier leurs comportements d'achat. L'algorithme Apriori d'extraction des règles d'association est étendu à ses données symboliques. La régression linéaire symbolique est, alors, utilisée pour étudier la qualité des règles d'association symboliques découvertes et pour les sélectionner. Nous proposons, ensuite, un support mathématique pour les règles d'association découvertes à l'aide de la théorie des treillis de Galois
We first extend linear regression methods to the case of interval, diagram, histogram, taxonomical and hierarchical variables. Second, association rules are extended to the case of interval, diagram, taxonomical and hierarchical variables. We will be able to discover rules at the level of the concepts thanks to these methods. For example, instead of mining rules between different items of some transactions recorded in a retail organization like in the classical case, we discover rules at the level of the customers in order to study their purchase behavior. The Apriori algorithm for the extraction of association rules is extended to these symbolic data. The symbolic linear regression is, then, used in order to study and select the symbolic association rules. Afterwards, we give a mathematical support to these association rules using Galois lattices theory
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Giraudel, Jean-Luc. "Exploration des données et prédiction en écologie par des méthodes d'intelligence artificielle." Toulouse 3, 2001. http://www.theses.fr/2001TOU30138.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Druet, Tom. "Tomographie passive par ondes guidées pour des applications de contrôle santé intégré." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0032/document.

Повний текст джерела
Анотація:
Ce manuscrit présente une méthode d’imagerie quantitative et sans état de référence, de défauts de corrosion d’une plaque mince, exploitant de manière passive un réseau embarqué de capteurs d’ondes élastiques guidées. Les applications visées sont le contrôle santé intégré (SHM) de structures critiques qui amènent de fortes contraintes à la fois d’intrusivité des capteurs et de fiabilité du diagnostic. Une solution prometteuse, permettant de multiplier la densité de points de mesure sans augmenter l’intrusivité du système, est offerte par les réseaux de Bragg sur fibre optique (FBG). Toutefois, contrairement aux transducteurs piézoélectriques (PZT) classiquement employés en SHM, les FBG ne permettent pas d’émettre d’ondes élastiques. L’idée consiste à utiliser des méthodes dites « passives » permettant de retrouver la fonction de Green entre deux capteurs à partir du bruit ambiant, naturellement présent dans la structure, mesuré simultanément entre ces deux capteurs. Nous étudions dans ce manuscrit deux méthodes passives : la corrélation de bruit et le filtre inverse passif. Nous verrons que ce dernier a plus de potentiel lorsqu’il est couplé à l’imagerie par tomographie. Différents algorithmes de tomographie sont évalués par simulation numérique puis lors d’expériences comparatives actives et passives à l’aide d’un réseau de PZT. Afin de rendre la tomographie passive robuste, nous présentons une méthode clé de détection de temps de vol, basée sur une représentation temps-fréquence. Enfin, nous décrivons une première démonstration expérimentale de mesures passives par FBG qui laisse à penser que la tomographie passive par FBG est prometteuse
This manuscript presents a baseline-free quantitative method for the imaging of corrosion flaws present in thin plates. This method only requires an embedded guided waves sensors network in a fully passive way. The field ofapplications are Structural Health Monitoring (SHM) of critical structures with heavy constrains on both sensors intrusiveness and diagnostic reliability. A promising solution allowing to increase the number of measurement points without increasing the intrusiveness of the system is provided by the Fiber Bragg Gratings (FBGs). However, unlike piezoelectric transducers generally used in SHM, the FBGs cannot emit elastic waves. The idea consists in using passive methods in order to retrieve the Green function from elastic diffuse fields - naturally present in structures - measured simultaneously between two sensors. In this manuscript, two passive methods are studied: the ambient noise correlation and the passive inverse filter. It is shown that the latter gives better results when coupled with tomography. Several tomography algorithms are assessed with numerical simulations and then applied to active and passive datasets measured by a PZT network. In order to make passive tomography robust, a time of flight identification method is proposed, based on a time-frequency representation. Finally, a novel experimental demonstration of passive measurements with FBGs only is presented, suggesting high potential for FBGs passive tomography
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Nauleau, Pierre. "Vers la mesure d'ondes circonférentielles guidées par la coque corticale du col du fémur." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00931778.

Повний текст джерела
Анотація:
Cette thèse s'inscrit dans le cadre du développement d'une méthode ultrasonore de prédiction du risque de fracture de la hanche. Nous pensons que l'estimation de l'épaisseur et des propriétés élastiques de la coque corticale améliorerait la prédiction de ce risque. L'exploitation des ondes guidées par la coque pourrait permettre d'obtenir ces estimées. Dans le cadre du contrôle non destructif, une méthode basée sur la décomposition de l'opérateur de retournement temporel (DORT) a permis de caractériser des tubes métalliques de section circulaire vides. L'objectif de la thèse est d'adapter cette méthode aux spécificités du col fémoral. Différents fantômes ont été construits afin de découpler les problèmes posés par les propriétés particulières de l'os. Un fantôme d'os vide de section circulaire a tout d'abord été utilisé pour optimiser les conditions expérimentales afin d'observer les ondes guidées circonférentielles en dépit des propriétés matérielles défavorables de l'os. Ensuite, l'étude en simulation de fantômes d'os de section circulaire remplis de fluide imitant la moelle osseuse a conduit à proposer une méthode de filtrage permettant de s'affranchir des réflexions parasites sur les parois de la cavité. Enfin, l'analyse du rayonnement des ondes guidées a permis de généraliser la méthode initiale à des coques de section quelconque, en particulier à une coque elliptique. A l'issue de cette thèse, on dispose d'outils permettant de caractériser des guides d'ondes de section quelconque, d'épaisseur constante dont la cavité peut être vide ou remplie d'un fluide. Cela représente un premier pas vers la caractérisation ultrasonore du col du fémur.
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Loslever, Pierre. "Étude ergonomique du poste bureautique : Approche par les méthodes multidimensionnelles d'analyse des données." Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/0fb2137f-578e-43ec-9bea-1ae708b27a3a.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Barras, Jordan. "Prédiction modale du rayonnement d’ondes élastiques guidées par une source quelconque dans une structure fine - application au contrôle non destructif." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG020.

Повний текст джерела
Анотація:
Cette thèse porte sur la modélisation de la propagation d’ondes élastiques guidées (OG) dans des structures fines - de type plaque - en vue de leur contrôle non-destructif (CND). Ces ondes sont générées par des traducteurs ultrasonores quelconques placés à la surface de la pièce - par exemple une céramique PZT ou un EMAT. On développe un modèle semi-analytique, nommé modèle du pinceau modal d’ondes guidées. Ce modèle se base sur les approximations de l’acoustique géométrique, ce qui le rend particulièrement performant du point de vue numérique et permet de simuler la propagation d’OG sur de longues distances plus rapidement qu’avec des modèles numériques classiques. Le champ de déplacement est alors prédit seulement aux points d’intérêt. Un pinceau peut être utilisé pour traiter de façon générique les réflexions multiples d’une onde sur les bords latéraux de la plaque. Le modèle prend également en compte aussi bien les matériaux métalliques (isotropes) que les matériaux composites (anisotropes) ; la plaque peut également être courbée et avoir des propriétés mécaniques continûment variables. Les formes d’ondes sont obtenues sous la forme de leur décomposition modale, ce qui facilite grandement leur interprétation. Enfin, des comparaisons avec un modèle d’éléments finis permettent de valider l’approche de pinceaux
This thesis focuses on the modelling of the propagation of elastic guided waves (GW) in thin plate like structures for their non-destructive testing (NDT). These waves are generated by any ultrasonic transducer positioned on the surface of the piece - for example, a PZT ceramic or an EMAT. A semianalytical model, the so-called GW modal pencil model, has been developed. It is based on the geometrical acoustic approximation, which makes it particularly efficient from a numerical point-of-view and able to simulate GW propagation over long distances faster than with conventional numerical models. The displacement field is then predicted only at the points of interest. The pencil model can be used to generically deal with multiple reflections of GW on plate edges. It also takes into account plates made of either metallic (isotropic) or composite (anisotropic) materials. The plate can be curved and have continuously variable mechanical properties. The waveforms are obtained in the form of their modal decomposition, which greatly eases their interpretation. Finally, comparisons with a finite element model allow the pencil approach to be validated
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Soulez, Ferréol. "Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation." Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00379735.

Повний текст джерела
Анотація:
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.
L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.

Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).

Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Ollier, Edouard. "Sélection de modèles statistiques par méthodes de vraisemblance pénalisée pour l'étude de données complexes." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN097.

Повний текст джерела
Анотація:
Cette thèse est principalement consacrée au développement de méthodes de sélection de modèles par maximum de vraisemblance pénalisée dans le cadre de données complexes. Un premier travail porte sur la sélection des modèles linéaires généralisés dans le cadre de données stratifiées, caractérisées par la mesure d’observations ainsi que de covariables au sein de différents groupes (ou strates). Le but de l’analyse est alors de déterminer quelles covariables influencent de façon globale (quelque soit la strate) les observations mais aussi d’évaluer l’hétérogénéité de cet effet à travers les strates.Nous nous intéressons par la suite à la sélection des modèles non linéaires à effets mixtes utilisés dans l’analyse de données longitudinales comme celles rencontrées en pharmacocinétique de population. Dans un premier travail, nous décrivons un algorithme de type SAEM au sein duquel la pénalité est prise en compte lors de l’étape M en résolvant un problème de régression pénalisé à chaque itération. Dans un second travail, en s’inspirant des algorithmes de type gradient proximaux, nous simplifions l’étape M de l’algorithme SAEM pénalisé précédemment décrit en ne réalisant qu’une itération gradient proximale à chaque itération. Cet algorithme, baptisé Stochastic Approximation Proximal Gradient algorithm (SAPG), correspond à un algorithme gradient proximal dans lequel le gradient de la vraisemblance est approché par une technique d’approximation stochastique.Pour finir, nous présentons deux travaux de modélisation statistique, réalisés au cours de cette thèse
This thesis is mainly devoted to the development of penalized maximum likelihood methods for the study of complex data.A first work deals with the selection of generalized linear models in the framework of stratified data, characterized by the measurement of observations as well as covariates within different groups (or strata). The purpose of the analysis is then to determine which covariates influence in a global way (whatever the stratum) the observations but also to evaluate the heterogeneity of this effect across the strata.Secondly, we are interested in the selection of nonlinear mixed effects models used in the analysis of longitudinal data. In a first work, we describe a SAEM-type algorithm in which the penalty is taken into account during step M by solving a penalized regression problem at each iteration. In a second work, inspired by proximal gradient algorithms, we simplify the M step of the penalized SAEM algorithm previously described by performing only one proximal gradient iteration at each iteration. This algorithm, called Stochastic Approximation Proximal Gradient Algorithm (SAPG), corresponds to a proximal gradient algorithm in which the gradient of the likelihood is approximated by a stochastic approximation technique.Finally, we present two statistical modeling works realized during this thesis
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Hoang, Huu Tinh. "Contrôle santé intégré passif par ondes élastiques guidées de tuyauteries pour applications nucléaires et pétrolières." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0023.

Повний текст джерела
Анотація:
Le contrôle santé des structures (plus connu sous l’acronyme SHM pour Structural Health Monitoring) consisteà intégrer des capteurs dans une structure afin de suivre son état de santé en temps réel tout au long de sa vie.Les travaux de recherche menés dans cette thèse avaient pour objectif de développer une nouvelle approchede SHM pour la détection de corrosion/érosion dans les tuyaux. Ce manuscrit présente une nouvelle méthoded’imagerie quantitative, dite tomographie passive par ondes élastiques guidées, basée sur l’utilisation d’un réseauembarqué de capteurs piézoélectriques (PZT) écoutant et analysant uniquement le bruit élastique ambiant générénaturellement par la circulation de fluide dans des tuyaux. Cette technique passive offre de nombreux atouts pourun système SHM comme une diminution de sa consommation énergétique, un système électronique simplifié etla possibilité de réaliser une inspection lorsque la structure est en fonctionnement. La méthode passive permetaussi d’utiliser des nouveaux capteurs de type réseaux de Bragg sur fibre optique (FBG) qui présentent plusieursavantages par rapport aux capteurs classiques PZT (faible intrusivité, possibilité de multiplexage, résistance auxenvironnements sévères, etc.) mais qui ne sont pas capable d’émettre des ondes. Une première démonstration defaisabilité d’imagerie de corrosion/érosion par FBG est illustrée expérimentalement au travers d’une tomographiehybride dans laquelle l’émission d’ondes est réalisée par PZT et la réception par FBG. Toutes ces études offrent desperspectives prometteuses en vue de l’application de la tomographie passive sur des structures industrielles à l’aided’un système purement FBG. Parmi les principaux résultats présentés dans la thèse, nous montrons que les défautsde corrosion/érosion peuvent être caractérisés par tomographie sur un tube droit sans nécessité de recourir à unétat de référence. Cela est faisable à l’aide d’une nouvelle méthode d’auto-calibration des données développée danscette thèse et utilisée pour réaliser l’imagerie par tomographie. L’absence d’un état de référence rend la méthodetrès fiable et limite les fausses alarmes du système. Finalement, des études préliminaires de tomographie sur desstructures plus complexes comme un tube coudé ont été menées et validées numériquement
Structural Health Monitoring (SHM) consists in embedding sensors into a structure in order to monitor its health inreal time throughout its lifetime. The research works carried out in this thesis aimed at developing a new approachof SHM for the detection of corrosion/erosion in pipes. This manuscript presents a new quantitative imaging method,called passive elastic guided wave tomography, based on the use of an embedded network of piezoelectric sensors(PZT) listening and analyzing only the ambient elastic noise which is naturally generated by the fluid circulation inpipes. This passive method offers many advantages for a SHM system, such as reduction of energy consumption,simplified electronics and ability to perform an inspection while the structure is in operation. In addition, thispassive method makes SHM systems possible to use Fiber Bragg Grating sensors (FBG) which have several advantagesover traditional PZT sensors (low intrusivity, resistance to harsh environments, etc.) but which are not able to emitwaves. A first demonstration of the feasibility of corrosion/erosion imaging by FBG is illustrated experimentallythanks to a result obtained by hybrid tomography in which wave emission is performed by PZT and reception byFBG. All these works offer promising perspectives for the application of passive tomography on industrial structuresusing a pure FBG system. Among the various results presented in this thesis, we also show that corrosion/erosiondefects can be characterized by tomography on a straight pipe without the need for a baseline measurement in apristine state. It is feasible by using a new method of auto-calibration of the data used for tomography. The absenceof baseline measurement makes the method very reliable and avoid false alarms of the system. Finally, preliminarystudies on tomography for more complex structures such as a bended pipe have been realized and validated throughsimulations
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Barsoum, Baher Albert. "Classification automatique par amincicement de l'histogramme multidimensionnel." Lille 1, 1994. http://www.theses.fr/1994LIL10195.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Hamdan, Hani. "Développement de méthodes de classification pour le contrôle par émission acoustique d'appareils à pression." Compiègne, 2005. http://www.theses.fr/2005COMP1583.

Повний текст джерела
Анотація:
Cette thèse s'inscrit dans le cadre d'aide à la décision en temps réel pour le contrôle par émission acoustique des équipements sous pression. Le problème visé est la prise en compte de l'incertitude de localisation des signaux d'émission acoustique, dans la classification basée sur le modèle de mélange. Deux nouveaux algorithmes (EM et CEM pour les données incertaines) sont alors développés. Ces algorithmes se basent uniquement sur des données de type zone d'incertitude et leur développement est effectué en optimisant des nouveaux critères de vraisemblance adaptés à ce type de données. Pour accélérer le traitement des données lorsque leur taille devient très grande, nous développons également une nouvelle méthode de discrétisation de données incertaines. Cette méthode est comparée à celle classique appliquée aux données imprécises. Une étude expérimentale sur des données simulées et des données réelles met en évidence l'efficacité des différentes approches développées
This PhD thesis deals with real-time computer-aided decision for acoustic emission-based control of pressure equipments. The addressed problem is the taking into account of the location uncertainty of acoustic emission signals, in the mixture model-based clustering. Two new algorithms (EM and CEM for uncertain data) are developed. These algorithms are only based on uncertainty zone data and their development is carried out by optimizing new likelihood criteria adapted to this kind of data. In order to speed up the data processing when the data size becomes very big, we have also developed a new method for the discretization of uncertainty zone data. This method is compared with the traditional one applied to imprecise data. An experimental study using simulated and real data shows the efficiency of the various developed approaches
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Bayat, Makoei Sahar. "Étude de l’accès à la transplantation rénale en Lorraine par méthodes biostatistiques conventionnelles et par fouille de données." Thesis, Nancy 1, 2008. http://www.theses.fr/2008NAN10049/document.

Повний текст джерела
Анотація:
La transplantation est considérée comme la technique de suppléance de la fonction rénale la plus performante et la plus efficiente. Nous avons étudié l’accès à la transplantation rénale au sein du réseau NEPHROLOR en Lorraine. La totalité des insuffisants rénaux chroniques terminaux bénéficiant d’un traitement de suppléance entre le 1/07/1997 et le 30/06/2003 et résidant en Lorraine (1725 patients) ont été inclus. Notre étude a mis en évidence la prédominance des facteurs médicaux dans l’accès à la liste et à la greffe au sein de NEPHROLOR. Toutefois, les patients pris en charge par le centre où les transplantations étaient réalisées avaient plus de chance d’être inscrit sur la liste. Cette étude a aussi montré le bénéfice de transplantation rénale en terme de survie y compris chez les patients âgés de plus de 60 ans. Par ailleurs, la survie des patients était significativement associée aux variables utilisées par les néphrologues pour l’accès à la liste. Tout ceci valide le processus de sélection des candidats potentiels à la greffe rénale au sein de NEPHROLOR. Cependant, il existe un potentiel d’amélioration de l’accès à la liste d’attente de transplantation rénale, puisque les néphrologues des centres ne pratiquant pas la transplantation pourraient élargir leur sélection de candidats potentiels à la greffe rénale. L’utilisation d’un algorithme décisionnel représentant la probabilité d’inscription sur la liste, en fonction des caractéristiques de base du patient, au moment de l’enregistrement initial du patient dans le système d’information du réseau NEPHROLOR pourrait dynamiser et optimiser le processus d’inscription sur la liste et améliorer l’accès à la greffe rénale
Among renal replacement therapy techniques, transplantation is associated with longer survival and lower long-term cost. We studied access to renal transplantation in NEPHROLOR network of care in the French administrative region Lorraine. All incident patients beginning renal replacement therapy in NEPHROLOR between July 1, 1997 and June 30, 2003 (1725 patients) were included in the study. In Lorraine, access to renal transplant waiting list and to transplantation after registration on the list was primarily associated with medical determinants. Nevertheless, patients followed up in the nephrology department performing transplantation were more likely to be placed on the waiting list. After taking into account comorbidities, transplantation was associated with longer survival even among elderly patients (> 60 years). Moreover, patients’ survival was associated with medical determinants of access to renal transplant waiting list. These facts validate the current care process of registration on the waiting list in Lorraine. However, access to the waiting list in the NEPHROLOR network can be improved by encouraging nephrology facilities without transplantation to extend the selection criteria of transplant candidates. Data mining algorithms can represent the probability of being registered on the list based on the patient’s characteristics. Using such an algorithm at the first registration of patient in NEPHROLOR information system could optimize the renal transplant registration process and improve access to renal transplantation in NEPHROLOR
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Da, Rugna Jérôme. "De l'usage des méthodes bas niveau pour la recherche d'images par le contenu." Saint-Etienne, 2004. http://www.theses.fr/2004STET4015.

Повний текст джерела
Анотація:
La thématique de ces travaux de thèse est la recherche d'images par le contenu et plus précisément l'apport des méthodes bas niveau. Après avoir discuté des différentes approches existantes, nous rappelons le fossé sémantique entre les attentes de l'utilisateur et ce que proposent réellement les systèmes de recherche. La plupart de ceux-ci reposent sur une étape préalable de segmentation dont la validité et la robustesse se doivent d'être étudiées. Nous proposons alors un protocole d'évaluation objective et un exemple concret de mise en oeuvre. L'originalité consiste à ne pas comparer une segmentation à une référence théorique mais à juger objectivement sa stabilité. La troisième partie de ce document introduit trois contributions ponctuelles susceptibles d'améliorer la chaîne de recherche. Dans un premier temps, un détecteur de flou permet d'extraire une méta-information portée par l'image, les zones nettes a priori de focalisation. Ensuite nous exposons un descripteur basé sur l'extraction de régions émergentes sur le seul critère couleur. Cette extraction, conjuguée avec des distances adaptées, peut permettre par exemple un pré-filtrage couleur en amont de la phase de recherche de similarité proprement dite. Finalement, nous introduisons brièvement une algèbre d'histogrammes pour exploiter au mieux l'information contenue dans ce type de descripteurs, via un langage de requêtes spécifique
The matter of this work is content based image retrievaland more precisely the contribution of the low level methods. After having discussed the various existing approaches, we recall the semantic gap between the user expectations and what really the systems of research propose. Most of these approaches rely on a preliminary step of segmentation whose validity and robustness must be studied. Then we propose a protocol of evaluation and a practical example of benchmarks. The originality consists in not comparing a segmentation with a theoretical reference but judging its stability objectively. The third part of this document introduces three specific contributions likely to improve the chain of research. Initially, a detector of blur allows to extract a meta-data carried by the image: the unblur regions, a priori of focusing. Secondly, we expose a descriptor based on the extraction of emergent areas using only the color criteria. This process, combined with adapted distances, may allow for example a color pre-filtering before the step of similarity research. Finally, we briefly introduce an algebra of histograms able as well as possible to exploit the information contained in this type of descriptors, via a specific query language
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Bevilacqua, Elsa. "Etude chimique et minéralogique des peintures : analyse sur poudre par méthodes X, traitement de données." Lille 1, 1989. http://www.theses.fr/1989LIL10155.

Повний текст джерела
Анотація:
Nos travaux consistent à développer l'étude chimique et minéralogique de peintures blanches grand public à base d'oxyde de titane. La méthodologie proposée assure d'une part l'identification et la quantification des minéraux et d'autre part l'analyse quantitative des majeurs, la mise en évidence et le dosage d'éléments traceurs. Les travaux relatifs à la minéralogie permettent la mise en évidence des potentialités respectives de méthodes thermiques et de la diffraction des rayons x pour la caractérisation des charges et pigments rencontrés. L'exploitation selon la méthode de MATRIX-FLUSHING est adaptée à la quantification des différentes phases minéralogiques en présence. L'étude chimique des oxydes majeurs: ZnO, TiO2, CaO, K2O, SiO2, Al2O3 et MgO est réalisée par spectrométrie de fluorescence x avec l'application de la méthode des poudres. Le modèle de correction des effets de matrice développé, qui prend en compte la variation des coefficients d'influence avec la composition, rend possible l'analyse sur des larges gammes de concentrations que la grande variété des peintures impose de couvrir. Nos résultats démontrent que la méthode des poudres, très souvent délaissée au profit de la technique des perles, répond de manière satisfaisante avec l'avantage indiscutable de la simplification de la préparation des échantillons. La transposition des méthodes de H. BOURGAULT et des FONDS ETALONS solutionne le dosage des éléments traceurs: Nb, Zr, Sr, Rb et Zn par fluorescence x. La seconde méthode, en s'appuyant sur la mesure de la raie diffusée Compton, présente l'avantage de supprimer l'impératif de la connaissance des concentrations des majeurs. L'applicabilité générale de la méthodologie est confirmée par l'étude de peintures européennes, de provenances, de nature et d'applications différentes
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Carme, Sylvain. "Méthodes d'assimilation de données par Filtrage de Kalman dans un modèle réaliste de l'Atlantique Nord." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10161.

Повний текст джерела
Анотація:
Ce travail vise à exploiter les techniques de filtrage pour assimiler des observations altimétriques dans un modèle de circulation de l'Atlantique Nord. Le coût numérique d'une telle expérience impose de se fonder sur le Filtrage de Kalman Etendu : filtrage stochastique linéaire pouvant s'étendre à des modèles «pas trop» non-linéaires par linéarisation de la dynamique des erreurs. La grande dimension d'un modèle océanique impose également une réduction d'ordre : L'introduction d'une approximation singulière de rang faible des matrices de covariance d'erreur donne lieu à la formulation du SEEK (Singular Extended Evolutive Kalman filter). Son application à un modèle haute résolution de l'Atlantique Nord pose le double problème d'une réduction d'ordre nécessairement drastique et du caractère turbulent d'une telle circulation de latitude moyenne. Le SEEK revient à corriger l'erreur de filtrage parallèlement à une base de correction qui a la propriété d'approcher les modes instables dominants du modèle. Nous analysons ici comment de trop forte non-linéarités peuvent faire perdre cette propriété et nous cherchons une dynamique de la base de correction pour qu'elle converge vers les instabilités dominantes même dans un cadre fortement non-linéaire. Mais ces propriétés dynamiques du SEEK impliquant un coût numérique de mise en oeuvre encore important, nous envisageons aussi, dans un souci plus directement opérationnel, d'exploiter une version du filtre dont la base de correction reste fixe, en vertu de la possibilité de décrire statistiquement une trajectoire du modèle par un «petit» nombre d'EOFs
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Milion, Chloé. "Méthodes et modèles pour l’étude de la mobilité des personnes par l’exploitation de données de radiotéléphonie." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1199/document.

Повний текст джерела
Анотація:
Ce travail de thèse repose sur les intrications entre deux domaines : celui des transports et celui des télécommunications. L’usage intensif et quotidien des réseaux entraîne de la part des acteurs de chacun des domaines des besoins d’analyse pour assurer et garantir la qualité des services fournis aux usagers. Nous nous proposons alors de fournir aux acteurs du transport des mesures des déplacements réalisées à partir de données de signalisation qu’ils pourront traiter avec leur connaissance métier et prendre des décisions sur des sujets étendus allant de l’aménagement du territoire à l’opération des réseaux de transports. Les méthodologies de mesure de déplacements présentées sont basées sur l’exploitation de traces numériques dans les réseaux mobiles. Ces traces sont le reflet de l’usage d’un réseau de télécommunications et existent à des fins d’opération. Les méthodes proposées ici trouvent leur fondement dans notre connaissance du fonctionnement de la téléphonie mobile et sur le traitement des énormes volumes de données que génèrent les terminaux mobiles quotidiennement en tout endroit opéré par Orange. Nous verrons que l’activité de ces terminaux embarqués au niveau de l’individu permettent d’estimer des attributs des déplacements, des volumes par paires origine-destination, des indicateurs de qualité de service ou encore de quantifier des facteurs explicatifs de choix de déplacements. Les relations d’usage explorées au travers de cette signalisation mobile offrent également la possibilité de caractériser l’usage du sol
This work stands on the close relationship that exists between two areas one use every day, namely transportation and telecommunications. Due to a daily and intensive usage of both networks, actors of each area raise up some needs to ensure delivered services and their quality to their end-users. Then, we propose to the actor of transportation measurement of performed trips that can be treated with the knowledge of the transportation actors trade in order to ease the decision making process on matters that go from land uses up to network operation. The methodologies presented here from trip measurement are based on the exploitation of the digital footprints that are fund within a telecommunication network. Those footprints are reflecting how the network is used and already exist for operating purposes. The methods proposed in this work result from our knowledge of the telecommunication mechanisms and the huge amount of data that are generated at every time and every place where Orange is operating. We introduce that mobile equipment embedded onto individuals of whom we capture their activity can lead to estimate trips attributes, origin-destination trip tables, quality of service indicators and quantification of explain factor of trip choices. We also show how the mining of usage relationship through signaling data can lead to the characterization of land use
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Hammami, Imen. "Fusion d'images de télédétection hétérogènes par méthodes crédibilistes." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0034/document.

Повний текст джерела
Анотація:
Avec l’avènement de nouvelles techniques d’acquisition d’image et l’émergence des systèmes satellitaires à haute résolution, les données de télédétection à exploiter sont devenues de plus en plus riches et variées. Leur combinaison est donc devenue essentielle pour améliorer le processus d’extraction des informations utiles liées à la nature physique des surfaces observées. Cependant, ces données sont généralement hétérogènes et imparfaites ce qui pose plusieurs problèmes au niveau de leur traitement conjoint et nécessite le développement de méthodes spécifiques. C’est dans ce contexte que s’inscrit cette thèse qui vise à élaborer une nouvelle méthode de fusion évidentielle dédiée au traitement des images de télédétection hétérogènes à haute résolution. Afin d’atteindre cet objectif, nous axons notre recherche, en premier lieu, sur le développement d’une nouvelle approche pour l’estimation des fonctions de croyance basée sur la carte de Kohonen pour simplifier l’opération d’affectation des masses des gros volumes de données occupées par ces images. La méthode proposée permet de modéliser non seulement l’ignorance et l’imprécision de nos sources d’information, mais aussi leur paradoxe. Ensuite, nous exploitons cette approche d’estimation pour proposer une technique de fusion originale qui permettra de remédier aux problèmes dus à la grande variété des connaissances apportées par ces capteurs hétérogènes. Finalement, nous étudions la manière dont la dépendance entre ces sources peut être considérée dans le processus de fusion moyennant la théorie des copules. Pour cette raison, une nouvelle technique pour choisir la copule la plus appropriée est introduite. La partie expérimentale de ce travail est dédiée à la cartographie de l’occupation des sols dans les zones agricoles en utilisant des images SPOT-5 et RADARSAT-2. L’étude expérimentale réalisée démontre la robustesse et l’efficacité des approches développées dans le cadre de cette thèse
With the advent of new image acquisition techniques and the emergence of high-resolution satellite systems, remote sensing data to be exploited have become increasingly rich and varied. Their combination has thus become essential to improve the process of extracting useful information related to the physical nature of the observed surfaces. However, these data are generally heterogeneous and imperfect, which poses several problems in their joint treatment and requires the development of specific methods. It is in this context that falls this thesis that aimed at developing a new evidential fusion method dedicated to heterogeneous remote sensing images processing at high resolution. In order to achieve this objective, we first focus our research, firstly, on the development of a new approach for the belief functions estimation based on Kohonen’s map in order to simplify the masses assignment operation of the large volumes of data occupied by these images. The proposed method allows to model not only the ignorance and the imprecision of our sources of information, but also their paradox. After that, we exploit this estimation approach to propose an original fusion technique that will solve problems due to the wide variety of knowledge provided by these heterogeneous sensors. Finally, we study the way in which the dependence between these sources can be considered in the fusion process using the copula theory. For this reason, a new technique for choosing the most appropriate copula is introduced. The experimental part of this work isdevoted to land use mapping in case of agricultural areas using SPOT-5 and RADARSAT-2 images. The experimental study carried out demonstrates the robustness and effectiveness of the approaches developed in the framework of this thesis
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Pennerath, Frédéric. "Méthodes d'extraction de connaissances à partir de données modélisables par des graphes : Application à des problèmes de synthèse organique." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00436568.

Повний текст джерела
Анотація:
Des millions de réactions chimiques sont décrites dans des bases de données sous la forme de transformations de graphes moléculaires. Cette thèse propose différentes méthodes de fouille de donnés pour extraire des motifs pertinents contenus dans ces graphes et ainsi aider les chimistes à améliorer leurs connaissances des réactions chimiques et des molécules. Ainsi on commence par montrer comment le problème central de la recherche des schémas de réactions fréquents peut se résoudre à l'aide de méthodes existantes de recherche de sous-graphes fréquents. L'introduction du modèle général des motifs les plus informatifs permet ensuite de restreindre l'analyse de ces motifs fréquents à un nombre réduit de motifs peu redondants et représentatifs des données. Si l'application du modèle aux bases de réactions permet d'identifier de grandes familles de réactions, le modèle est inadapté pour extraire les schémas caractéristiques de méthodes de synthèse (schémas CMS) dont la fréquence est trop faible. Afin de surmonter cet obstacle, est ensuite introduite une méthode de recherche heuristique fondée sur une contrainte d'intervalle entre graphes et adaptée à l'extraction de motifs de très faible fréquence. Cette méthode permet ainsi de déterminer à partir d'exemples de réactions et sous certaines conditions le schéma CMS sous-jacent à une réaction donnée. La même approche est ensuite utilisée pour traiter le problème de la classification supervisée de sommets ou d'arêtes fondée sur leurs environnements puis exploitée pour évaluer la formabilité des liaisons d'une molécule. Les résultats produits ont pu être analysés par des experts de la synthèse organique et sont très encourageants.
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Saley, Issa. "Modélisation des données d'attractivité hospitalière par les modèles d'utilité." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS044/document.

Повний текст джерела
Анотація:
Savoir comment les patients choisissent les hôpitaux est d'une importance majeure non seulement pour les gestionnaires des hôpitaux mais aussi pour les décideurs. Il s'agit entre autres pour les premiers, de la gestion des flux et l'offre des soins et pour les seconds, l'implémentation des reformes dans le système de santé.Nous proposons dans cette thèse différentes modélisations des données d'admission de patients en fonction de la distance par rapport à un hôpital afin de prévoir le flux des patients et de comparer son attractivité par rapport à d'autres hôpitaux. Par exemple, nous avons utilisé des modèles bayésiens hiérarchiques pour des données de comptage avec possible dépendance spatiale. Des applications on été faites sur des données d'admission de patients dans la région de Languedoc-Roussillon.Nous avons aussi utilisé des modèles de choix discrets tels que les RUMs. Mais vu certaines limites qu'ils présentent pour notre objectif, nous avons relâché l'hypothèse de maximisation d'utilité pour une plus souple et selon laquelle un agent (patient) peut choisir un produit (donc hôpital) dès lors que l'utilité que lui procure ce produit a atteint un certain seuil de satisfaction, en considérant certains aspects. Une illustration de cette approche est faite sur trois hôpitaux de l'Hérault pour les séjours dus à l'asthme en 2009 pour calculer l'envergure territorial d'un hôpital donné
Understanding how patients choose hospitals is of utmost importance for both hospitals administrators and healthcare decision makers; the formers for patients incoming tide and the laters for regulations.In this thesis, we present different methods of modelling patients admission data in order to forecast patients incoming tide and compare hospitals attractiveness.The two first method use counting data models with possible spatial dependancy. Illustration is done on patients admission data in Languedoc-Roussillon.The third method uses discrete choice models (RUMs). Due to some limitations of these models according to our goal, we introduce a new approach where we released the assumption of utility maximization for an utility-threshold ; that is to say that an agent (patient) can choose an alternative (hospital) since he thinks that he can obtain a certain level of satisfaction of doing so, according to some aspects. Illustration of the approach is done on 2009 asthma admission data in Hérault
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Le, Duff Franck. "Enrichissement quantitatif et qualitatif de relations conceptuelles des bases de connaissances médicales par extraction et héritage automatique par des méthodes informatiques et probabilistes." Rennes 1, 2006. http://www.theses.fr/2006REN1B094.

Повний текст джерела
Анотація:
Le projet de Système du Langage Unifié Médical (UMLS) vise à élaborer un entrepôt de termes, concepts et rapports entre concepts à partir de plusieurs classifications médicales. Cette thèse décrit la possibilité d'enrichir automatiquement avec des liens "sensés" la base de connaissances UMLS en employant la description des maladies d'autres bases de connaissance, dans notre cas l'ADM (Aide au Diagnostic Médical) et la SNOMED internationale. Malgré les contraintes et les difficultés pour qualifier les liens interconceptuels, les résultats prouvent qu'il est possible de trouver, de créer et de typer de nouveaux liens et de les intégrer ensuite automatiquement dans la base UMLS. Un des intérêts de ce travail est que l'étude automatisée des rapprochements entre bases pourrait être employé avec d'autres bases de connaissances comme des bases de données de systèmes experts et permettre la navigation sémantique dans un réseau de concepts actuellement encore trop dépourvu d'intelligence.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Mougel, Pierre-Nicolas. "Découverte de collections homogènes de sous-graphes denses par des méthodes de fouille de données sous contraintes." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00858751.

Повний текст джерела
Анотація:
Ce travail de thèse concerne la fouille de données sur des graphes attribués. Il s'agit de graphes dans lesquels des propriétés, encodées sous forme d'attributs, sont associées à chaque sommet. Notre objectif est la découverte, dans ce type de données, de sous-graphes organisés en plusieurs groupes de sommets fortement connectés et homogènes au regard des attributs. Plus précisément, nous définissons l'extraction sous contraintes d'ensembles de sous-graphes densément connectés et tels que les sommets partagent suffisamment d'attributs. Pour cela nous proposons deux familles de motifs originales ainsi que les algorithmes justes et complets permettant leur extraction efficace sous contraintes. La première famille, nommée Ensembles Maximaux de Cliques Homogènes, correspond à des motifs satisfaisant des contraintes concernant le nombre de sous-graphes denses, la taille de ces sous-graphes et le nombre d'attributs partagés. La seconde famille, nommée Collections Homogènes de k-cliques Percolées emploie quant à elle une notion de densité plus relaxée permettant d'adapter la méthode aux données avec des valeurs manquantes. Ces deux méthodes sont appliquées à l'analyse de deux types de réseaux, les réseaux de coopérations entre chercheurs et les réseaux d'interactions de protéines. Les motifs obtenus mettent en évidence des structures utiles dans un processus de prise de décision. Ainsi, dans un réseau de coopérations entre chercheurs, l'analyse de ces structures peut aider à la mise en place de collaborations scientifiques entre des groupes travaillant sur un même domaine. Dans le contexte d'un graphe de protéines, les structures exhibées permettent d'étudier les relations entre des modules de protéines intervenant dans des situations biologiques similaires. L'étude des performances en fonction de différentes caractéristiques de graphes attribués réels et synthétiques montre que les approches proposées sont utilisables sur de grands jeux de données.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Selingue, Maxime. "amélioration de la précision de structures sérielles poly-articulées par des méthodes d'apprentissage automatique économes en données." Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE085.

Повний текст джерела
Анотація:
L'évolution des méthodes de production, dans le contexte de l'industrie 4.0, conduit les robots collaboratifs et industriels à être utilisés pour des tâches telles que le perçage, l'usinage, ou l'assemblage.Ces tâches demandent une précision de l'ordre du dixième de millimètre, alors que la précision de ces robots est de l'ordre de un à deux millimètres.Cet état de fait conduit les intégrateurs robotiques à proposer des méthodes de calibration visant à établir un modèle de comportement du robot plus fiable et représentatif du robot réel.Ainsi, les méthodes de calibration analytiques modélisent les défauts affectant la précision des robots industriels, à savoir les défauts géométriques, la compliance des articulations, les erreurs de transmissions et la dérive thermique.Face à la complexité de l'identification expérimentale des paramètres de certains de ces modèles analytiques, des méthodes de calibration hybrides ont été développés.Ces méthodes hybrides couplent un modèle analytique simple avec une approche par apprentissage automatique dont le rôle est de prédire fidèlement les erreurs résiduelles de positionnement (engendrées par la non-exactitude du modèle analytique).Ces défauts peuvent alors être compensées par anticipation, au travers d'un algorithme de compensation.En revanche, ces méthodes demandent beaucoup de temps, de données, et ne sont plus valables lorsque la charge utile du robot change.L'objectif de cette thèse est d'améliorer les méthodes de calibration hybrides pour les rendre applicables dans des contextes industriels.Dans ce sens, plusieurs contributions ont été apportées.D'abord, deux méthodes basées sur des réseaux de neurones permettant, avec très peu de données, d'adapter le modèle hybride (i.e. le réglage d'un jeux de poids spécifique) à une nouvelle charge utile dans un sous-espace de travail du robot.Ces deux méthodes utilisent respectivement un apprentissage par transfert et une interpolation de prédictions.Puis, une méthode de calibration hybride par apprentissage actif utilisant une régression par processus gaussien est présentée.Via cette approche, dans un processus itératif, le système décide des données pertinentes à acquérir de manière autonome, ce qui permet une calibration optimisée en données et en temps
The evolution of production methods in the context of Industry 4.0 has led to the use of collaborative and industrial robots for tasks such as drilling, machining, and assembly. These tasks require an accuracy of around a tenth of a millimeter, whereas the precision of these robots is in the range of one to two millimeters. Robotic integrators had to propose calibration methods aimed at establishing a more reliable and representative model of the robot's behavior in the real world.As a result, analytical calibration methods model the defects affecting the accuracy of industrial robots, including geometric defects, joint compliance, transmission errors, and thermal drift. Given the complexity of experimentally identifying the parameters of some of these analytical models, hybrid calibration methods have been developed. These methods combine an analytical model with a machine learning approach whose role is to accurately predict residual positioning errors (caused by the inaccuracies of the analytical model). These defects can then be compensated for in advance through a compensation algorithm.However, these methods require a significant amount of time and data and are no longer valid when the robot's payload changes. The objective of this thesis is to improve hybrid calibration methods to make them applicable in industrial contexts. In this regard, several contributions have been made.First, two methods based on neural networks that allow the adaptation of the hybrid model to a new payload within a robot's workspace with very little data. These two methods respectively rely on transfer learning and prediction interpolation.Then, a hybrid calibration method using active learning with Gaussian process regression is presented. Through this approach, in an iterative process, the system autonomously decides on relevant data to acquire, enabling optimized calibration in terms of data and time
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Allain, Guillaume. "Prévision et analyse du trafic routier par des méthodes statistiques." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/351/.

Повний текст джерела
Анотація:
La société Mediamobile édite et diffuse de l'information sur le trafic aux usagers. L'objectif de ce travail est l'enrichissement de cette information par la prévision et la complétion des conditions de route. Notre approche s'inspire parfois de la modélisation physique du trafic routier mais fait surtout appel à des méthodes statistiques afin de proposer des solutions automatisables, modulaires et adaptées aux contraintes industrielles. Dans un premier temps, nous décrivons une méthode de prévision de la vitesse de quelques minutes à plusieurs heures. Nous supposons qu'il existe un nombre fini de comportements types du trafic sur le réseau, dus aux déplacements périodiques des usagers. Nous faisons alors l'hypothèse que les courbes de vitesses observées en chaque point du réseau sont issues d'un modèle de mélange. Nous cherchons ensuite à améliorer cette méthode générale de prévision. La prévision à moyen terme fait appel à des variables bâties sur le calendrier. Nous retenons le modèle de mélange des courbes de vitesse et nous proposons également des modèles de régression fonctionnelle pour les courbes de vitesses. Ensuite nous proposons une modélisation par régression locale afin de capturer la dynamique physique du trafic à très court terme. Nous estimons la fonction de noyau à partir des observations du phénomène en intégrant des connaissances a priori sur la dynamique du trafic. La dernière partie est dédiée à l'analyse des vitesses issues de véhicules traceurs. Ces vitesses sont irrégulièrement observées en temps et en espace sur un axe routier. Nous proposons un modèle de régression locale à l'aide de polynômes locaux pour compléter et lisser ces données
The industrial partner of this work is Mediamobile/V-trafic, a company which processes and broadcasts live road-traffic information. The goal of our work is to enhance traffic information with forecasting and spatial extending. Our approach is sometimes inspired by physical modelling of traffic dynamic, but it mainly uses statistical methods in order to propose self-organising and modular models suitable for industrial constraints. In the first part of this work, we describe a method to forecast trafic speed within a time frame of a few minutes up to several hours. Our method is based on the assumption that traffic on the a road network can be summarized by a few typical profiles. Those profiles are linked to the users' periodical behaviors. We therefore make the assumption that observed speed curves on each point of the network are stemming from a probabilistic mixture model. The following parts of our work will present how we can refine the general method. Medium term forecasting uses variables built from the calendar. The mixture model still stands. Additionnaly we use a fonctionnal regression model to forecast speed curves. We then introduces a local regression model in order to stimulate short-term trafic dynamics. The kernel function is built from real speed observations and we integrate some knowledge about traffic dynamics. The last part of our work focuses on the analysis of speed data from in traffic vehicles. These observations are gathered sporadically in time and on the road segment. The resulting data is completed and smoothed by local polynomial regression
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Jonas, Sarah Flora. "Méthodes de comparaisons de deux ou plusieurs groupes de données censurées par intervalle. Avec application en immunologie clinique." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS317/document.

Повний текст джерела
Анотація:
Dans le cadre des analyses des données de survie, la comparaison de plusieurs groupes d’individus, où l'événement d'intérêt est censuré par intervalle, représente un défi méthodologique. Lorsque le suivi des patients au cours de l'étude n'est pas continu, l'événement d'intérêt pourra survenir entre deux dates d'observation; il est dit censuré par intervalle. Des tests de comparaisons des distributions des temps de survie pour plusieurs groupes, adaptés à la censure par intervalle, ont été développés (tests du score, tests de pseudo log-rank pondérés, tests des rangs). C’est dans ce contexte que nous avons proposé deux nouveaux tests de comparaisons de groupes adaptés à des situations particulières de censure par intervalle. Le premier test concerne une situation où l’hypothèse alternative considère que les fonctions de risque instantané se croisent. Le second test concerne une situation où la population étudiée comporte une fraction non à risque pour l’événement d’intérêt. Ces deux tests ont fait l'objet d'une application sur des données réelles d'immunologie clinique
In the context of analysis of survival data, the comparison of several groups of individuals, where the event of interest is interval censored, represents a methodological challenge. When the monitoring of patients during the study is not continuous, the event of interest may occur between two observation dates; it is said "interval censored". Tests of comparisons of survival time distributions for several groups, adapted for interval censoring, have been developed (score tests, weighted pseudo log-rank tests, rank tests). In this context, we have developped two new group comparison tests adapted to the particular situations of interval censoring. The first test apply to a situation where the alternative hypothesis considers that the hazard functions cross. The second test concerns a situation where the study population has a fraction not at risk for the event of interest. Both of these tests have been applied to real clinical immunology dataset
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Debèse, Nathalie. "Recalage de la navigation par apprentissage sur les données bathymètriques." Compiègne, 1992. http://www.theses.fr/1992COMPD538.

Повний текст джерела
Анотація:
L'utilisation d'un sondeur multifaisceaux dans la cartographie des fonds marins souligne l'insuffisance d'une correction de la navigation à l'estime basée uniquement sur l'introduction d'un positionnement par satellite. La fiabilité des cartes bathymétriques nécessite la correction des décalages entre les différentes observations que l'on réalise d'une même zone géographique à chaque passage du navire. L'automatisation de la correction des points navigation s'impose pour réduire le temps passé par les cartographes pour effectuer cette opération, pour obtenir des cartes précises, et enfin pour enrichir les campagnes existantes des données nouvellement acquises. Le problème du recalage se ramène à la recherche d'une isométrie permettant de passer d'une famille de courbes planes à une autre famille dont les paramètres sont estimées à partir de données discrètes, incertaines et entachées d'erreurs. Une modélisation des incertitudes dans un système de voisinage a été introduite dans un test du rapport de vraisemblance pour dégager une classe de transformations admissibles de recalage. Une représentation topographique par un modèle numérique de terrain (facettes triangulaires) permet alors de préciser la correction. Les études de cas proposées montrent que la procédure ainsi élaborée est efficace.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Abel, Nicolas. "Outils et méthodes pour les architectures reconfigurables dynamiquement à grain fin : Synthèse et gestion automatique des flux de données." Cergy-Pontoise, 2006. http://biblioweb.u-cergy.fr/theses/06CERG0301.pdf.

Повний текст джерела
Анотація:
Cette thèse présente des outils et méthodologies de développement destinés aux architectures reconfigurables dynamiquement. On commence par proposer une suite d'outils améliorant la mise en oeuvre de la reconfiguration dynamique : on optimise le stockage des configurations et la durée des reconfigurations grâce à des outils logiciels et matériels. On termine en étudiant les mécanismes de gestion de la zone reconfigurable à partir d'un langage de haut niveau. Ensuite, on s'intéresse particulièrement à la gestion automatique des flux de données. On se base sur un découplage entre les modules de traitement et les modules de gestion des flux de données. Les seconds, sont entièrement pris en charge par les outils de développement et le système de gestion de l'architecture. Ainsi, le système dispose d'une bibliothèque de traitements et de tous les outils permettant de les séquencer en temps réel. L'ensemble des concepts étudiés a été mis en oeuvre en situation réelle sur l'architecture ARDOISE
This thesis presents tools and methodologies dedicated to fine grain dynamically reconfigurable architectures. In the first part, after studying this reconfiguration mode, we describe a tool set improving dynamical reconfiguration implementation. Firstly, we optimize configuration storage and reconfiguration duration proposing software compressing tools and hardware reconfiguration module. We finish studying the system management of the reconfigurable area. The system, developed with a high level language, makes configurations scheduling flexible. In the second part, we focus on the data flow automatic management. We base this on the separation of treatment modules and data flow managing modules. The second is totally directed by the developing tools and the managing system. In this way, the system has a treatment library and all the tools necessary to interconnect and schedule treatments in real time. The whole studied concepts have been implemented on ARDOISE architecture
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Le, floch Edith. "Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112214/document.

Повний текст джерела
Анотація:
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée
Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Marot, Julien. "Méthodes par sous-espaces et d'optimisation : application au traitement d'antenne, à l'analyse d'images, et au traitement de données tensorielles." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30051.

Повний текст джерела
Анотація:
Cette thèse est consacrée aux méthodes par sous-espaces et d'optimisation, développées en traitement d'antenne, analyse d'images, et traitement du signal tensoriel. Des définitions concernant un problème de traitement d'antenne et les méthodes haute résolution sont présentées. Nous proposons une méthode d'optimisation appliquée à la localisation de sources en présence de distortions de phase pour un grand nombre de capteurs. Nous proposons des méthodes rapides pour l'estimation de l'orientation et de l'offset de contours rectilignes, plusieurs méthodes d'optimisation pour l'estimation de contours distordus, approximativement rectilignes ou circulaires. Nous donnons un état de l'art sur les méthodes de traitement du signal multidimensionnel: la troncature de la HOSVD, l'approximation de rang inférieur d'un tenseur, le filtre de Wiener multidimensionnel. Nous proposons une procédure de déploiement nonorthogonal de tenseur, utilisant la méthode présentée dans la première partie
This thesis is devoted to subspace-based and optimization methods, developed in array processing, image processing, tensor signal processing. Definitions concerning an array processing problem and high resolution methods are presented. We propose an optimization method applied to source detection in presence of phase distortions for a high number of sensors. We propose fast subspace-based methods for the estimation of straight line offset and orientation, several optimization methods to estimate distorted contours, nearly straight or circular. We provide a state-of-the art about multiway signal processing: truncation of the HOSVD, lower rank tensor approximation, multiway Wiener filtering. We propose a procedure for nonorthogonal tensor flattening, using the method presented in the first part
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Chakib, Soundouss. "Les essences de géranium : influence pédoclimatique et saisonnière sur les essences marocaines. Classification par les méthodes d'analyse de données." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30076.

Повний текст джерела
Анотація:
Les essences de geranium presentent un grand interet en parfumerie et en cosmetologie, du fait de leur similitude avec les essences de rose. Le present travail a consiste a identifier par l'analyse en couplage chromatographie en phase gazeuse-spectrometrie de masse la majorite des constituants chimiques des essences du maroc et de la reunion. L'analyse de la fraction basique de l'essence de la reunion a revele l'existence de nouveaux composes azotes. Dans la fraction acide de cette essence, nous avons identifie de nouveaux acides en plus de ceux trouves dans la litterature. L'etude comparative de la composition chimique des essences de geranium cultivees dans cinq differentes regions du maroc et recoltees a differentes periodes de l'annee, nous a permis de mettre en evidence l'influence des conditions pedoclimatiques sur la production et la qualite de ces essences. Les resultats obtenus ont ete confirmes par l'application d'une analyse de donnee multidimensionnelle (acp). Il existe des variations significatives dans la composition chimique des essences de diverses origines (reunion, chine, egypte, maroc, tunisie, australie, tadjikistan et madagascar), ce qui nous a permis de determiner des criteres de differenciation entre ces differentes essences. Enfin, ces criteres de differenciation determines nous ont permis de classer en quatre groupes 80 echantillons d'essences de geranium issues soit de nos resultats, soit du commerce, soit de la litterature par les methodes d'analyses multidimensionnelles (acp et afd). Nous avons pu affecter des essences de geranium d'origines connues ou inconnues a chacun de ces groupes. Cette etude apporte une contribution interessante a la classification des essences de geranium d'origines diverses.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Sandt, Christophe. "Identification de micro-organisme pathogènes impliqués dans les infections nosocomiales par spectroscopie infrarouge à transformée de Fourier et méthodes statistiques." Reims, 2003. http://www.theses.fr/2003REIMP204.

Повний текст джерела
Анотація:
Nous avons utilisé la spectroscopie infrarouge à transformée de Fourier (IRTF) pour identifier des micro-organismes pathogènes isolés en milieu clinique. L'intérêt de la technique dans le typage de souches de Candida albicans a été démontré. Trois applications cliniques ont été réalisées : suivi épidémiologique de patients en service de réanimation, confirmation d'un épisode de transmission nosocomiale chez des nouveaux-nés et suivi épidémiologique des souches d'un patient septicémique. Une base de données comprenant 670 spectres de bactéries Gram - et Gram + appartenant aux 18 espèces et 11 genres les plus fréquents en clinique a été construite. Le taux d'identification est de 84% pour les Gram - et de 97% pour les Gram +. L'usage de la microspectroscopie IRTF pour l'identification précoce de micro-organismes a été évalué. Une base de données comprenant 1570 spectres de bactéries appartenant à 160 souches, 15 espèces et 9 genres fréquemment isolés a été réalisée
We have used Fourier transform-infrared spectroscopy (FTIR) in order to identify pathogenic microorganisms isolated in a clinical set-up. We demonstrated the usefulness of the technique in the typing of Candida albicans. By using this method, four clinical applications have been achieved: the epidemiological follow-up of HIV patients and ICU patients, the demonstration of a nosocomial transmission of a C. Albicans strain among neonates in a maternity ward and the follow-up of strains from a patient with recurrent systemic candidiasis. We have built a database containing more than 245 strains of GRAM- and 270 strains of GRAM+ pathogenic bacteria belonging to 11 genera and 18 species. Validation of the database yielded 84. 2% correct identification for GRAM- and 94. 7% correct identification for GRAM+. We used FTIR microspectroscopy to evaluate the early identification of pathogenic bacteria and yeasts. A total of 100 GRAM- and 60 GRAM+ strains, belonging to 9 genera and 15 species were included
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Carles, Olivier. "Système de génération automatique de bases de données pour la simulation de situations de conduite fondée sur l'interaction de ses différents acteurs." Toulouse 3, 2001. http://www.theses.fr/2001TOU30160.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Agnaou, Youssef Joseph. "Analyse statistique de données de croissance humaine : estimation et ajustement paramétriques, non paramétriques, et par réseaux de neurones." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12404.

Повний текст джерела
Анотація:
L'étude des courbes de croissance est abordée, du point de vue statistique par différentes méthodes paramétriques et non-paramétriques. Le travail présenté compare, sur deux familles de données réelles (individuelles et longitudinales) concernant la croissance humaine, les méthodes paramétriques classiques, certains estimateurs à noyau, et l'utilisation de réseaux neuronaux, méthode assez peu utilisée dans ce contexte. Une large annexe présente les bases de cette méthode.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Godoy, Campbell Matias. "Sur le problème inverse de détection d'obstacles par des méthodes d'optimisation." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30220/document.

Повний текст джерела
Анотація:
Cette thèse porte sur l'étude du problème inverse de détection d'obstacle/objet par des méthodes d'optimisation. Ce problème consiste à localiser un objet inconnu oméga situé à l'intérieur d'un domaine borné connu Oméga à l'aide de mesures de bord et plus précisément de données de Cauchy sur une partie Gammaobs de thetaOmega. Nous étudions les cas scalaires et vectoriels pour ce problème en considérant les équations de Laplace et de Stokes. Dans tous les cas, nous nous appuyons sur une résultat d'identifiabilité qui assure qu'il existe un unique obstacle/objet qui correspond à la mesure de bord considérée. La stratégie utilisée dans ce travail est de réduire le problème inverse à la minimisation d'une fonctionnelle coût: la fonctionnelle de Kohn-Vogelius. Cette approche est fréquemment utilisée et permet notamment d'utiliser des méthodes d'optimisation pour des implémentations numériques. Cependant, afin de bien définir la fonctionnelle, cette méthode nécessite de connaître une mesure sur tout le bord extérieur thetaOmega. Ce dernier point nous conduit à étudier le problème de complétion de données qui consiste à retrouver les conditions de bord sur une région inaccessible, i.e. sur thetaOmega\Gammaobs, à partir des données de Cauchy sur la région accessible Gammaobs. Ce problème inverse est également étudié en minimisant une fonctionnelle de type Kohn-Vogelius. La caractère mal posé de ce problème nous amène à régulariser la fonctionnelle via une régularisation de Tikhonov. Nous obtenons plusieurs propriétés théoriques comme des propriétés de convergence, en particulier lorsque les données sont bruitées. En tenant compte de ces résultats théoriques, nous reconstruisons numériquement les données de bord en mettant en oeuvre un algorithme de gradient afin de minimiser la fonctionnelle régularisée. Nous étudions ensuite le problème de détection d'obstacle lorsque seule une mesure de bord partielle est disponible. Nous considérons alors les conditions de bord inaccessibles et l'objet inconnu comme les variables de la fonctionnelle et ainsi, en utilisant des méthodes d'optimisation de forme géométrique, en particulier le gradient de forme de la fonctionnelle de Kohn-Vogelius, nous obtenons la reconstruction numérique de l'inclusion inconnue. Enfin, nous considérons, dans le cas vectoriel bi-dimensionnel, un nouveau degré de liberté en étudiant le cas où le nombre d'objets est inconnu. Ainsi, nous utilisons l'optimisation de forme topologique afin de minimiser la fonctionnelle de Kohn-Vogelius. Nous obtenons le développement asymptotique topologique de la solution des équations de Stokes 2D et caractérisons le gradient topologique de cette fonctionnelle. Nous déterminons alors numériquement le nombre d'obstacles ainsi que leur position. De plus, nous proposons un algorithme qui combine les méthodes d'optimisation de forme topologique et géométrique afin de déterminer numériquement le nombre d'obstacles, leur position ainsi que leur forme
This PhD thesis is dedicated to the study of the inverse problem of obstacle/object detection using optimization methods. This problem consists in localizing an unknown object omega inside a known bounded domain omega by means of boundary measurements and more precisely by a given Cauchy pair on a part Gammaobs of thetaOmega. We cover the scalar and vector scenarios for this problem considering both the Laplace and the Stokes equations. For both cases, we rely on identifiability result which ensures that there is a unique obstacle/object which corresponds to the considered boundary measurements. The strategy used in this work is to reduce the inverse problem into the minimization of a cost-type functional: the Kohn-Vogelius functional. This kind of approach is widely used and permits to use optimization tools for numerical implementations. However, in order to well-define the functional, this approach needs to assume the knowledge of a measurement on the whole exterior boundary thetaOmega. This last point leads us to first study the data completion problem which consists in recovering the boundary conditions on an inaccessible region, i.e. on thetaOmega\Gammaobs, from the Cauchy data on the accessible region Gammaobs. This inverse problem is also studied through the minimization of a Kohn-Vogelius type functional. The ill-posedness of this problem enforces us to regularize the functional via a Tikhonov regularization. We obtain several theoretical properties as convergence properties, in particular when data is corrupted by noise. Based on these theoretical results, we reconstruct numerically the boundary data by implementing a gradient algorithm in order to minimize the regularized functional. Then we study the obstacle detection problem when only partial boundary measurements are available. We consider the inaccessible boundary conditions and the unknown object as the variables of the functional and then, using geometrical shape optimization tools, in particular the shape gradient of the Kohn-Vogelius functional, we perform the numerical reconstruction of the unknown inclusion. Finally, we consider, into the two dimensional vector case, a new degree of freedom by studying the case when the number of objects is unknown. Hence, we use the topological shape optimization in order to minimize the Kohn-Vogelius functional. We obtain the topological asymptotic expansion of the solution of the 2D Stokes equations and characterize the topological gradient for this functional. Then we determine numerically the number and location of the obstacles. Additionally, we propose a blending algorithm which combines the topological and geometrical shape optimization methods in order to determine numerically the number, location and shape of the objects
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Platzer, Auriane. "Mécanique numérique en grandes transformations pilotée par les données : De la génération de données sur mesure à une stratégie adaptative de calcul multiéchelle." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0041.

Повний текст джерела
Анотація:
La mécanique numérique est aujourd'hui au cœur d'un important flux de données. D'un côté, l'identification des lois de comportement utilisées dans les simulations éléments finis repose sur de riches données expérimentales (mesures de champs). D'un autre côté, les calculs multiéchelles fournissent un très grand nombre de valeurs discrètes de champs de déplacement, déformation et contrainte, dont on extrait des connaissances sur la réponse effective du matériau. Entre ces données, la loi de comportement apparaît comme un goulot contraignant le champ des possibles. En rupture avec cette approche, Kirchdoerfer et Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) ont proposé un paradigme de mécanique numérique sans modèle, appelé data-driven computational mechanics. La réponse matériau y est uniquement représentée par une base de données (couples déformation-contrainte). Le problème mécanique est alors reformulé comme une mini- misation sous contrainte de la distance entre (i) l'état déformation-contrainte mécanique de la structure, et (ii) la base de données matériau. Ces travaux de thèse se concentrent sur la question de la couverture de l'espace par les données matériau, notamment dans le cadre des grandes transformations. Ainsi, l'approche data-driven est d'abord étendue à la mécanique non linéaire : nous considérons deux formulations différentes et proposons pour chacune d'elles un solveur éléments finis. Nous explorons ensuite la génération de base de données sur mesure, grâce à une méthode d'échantillonnage mécaniquement motivée. Nous évaluons l'approche au moyen d'analyses éléments finis de structures complexes en grandes déformations. Enfin, nous proposons une première stratégie de calcul multiéchelle pilotée par les données, qui permet d'enrichir de façon adaptative la base de données matériau
Computational mechanics is a field in which a large amount of data is both consumed and produced. On the one hand, the recent developments of experimental measurement techniques have provided rich data for the identification process of constitutive models used in finite element simulations. On the other hand, multiscale analysis produces a huge amount of discrete values of displacements, strains and stresses from which knowledge is extracted on the overall material behavior. The constitutive model then acts as a bottleneck between upstream and downstream material data. In contrast, Kirchdoerfer and Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) proposed a model-free computing paradigm, called data-driven computational mechanics. The material response is then only represented by a database of raw material data (strain-stress pairs). The boundary value problem is thus reformulated as a constrained distance minimization between (i) the mechanical strain-stress state of the body, and (ii) the material database. In this thesis, we investigate the question of material data coverage, especially in the finite strain framework. The data-driven approach is first extended to a geometrically nonlinear setting: two alternative formulations are considered and a finite element solver is proposed for both. Second, we explore the generation of tailored databases using a mechanically meaningful sampling method. The approach is assessed by means of finite element analyses of complex structures exhibiting large deformations. Finally, we propose a prototype multiscale data-driven solver, in which the material database is adaptively enriched
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Neuvial, Pierre. "Contributions à l'analyse statistique des données de puces à ADN." Paris 7, 2008. http://www.theses.fr/2008PA077073.

Повний текст джерела
Анотація:
Cette thèse traite de questions statistiques soulevées par l'analyse de données génomiques de grande dimension, dans le cadre de la recherche contre le cancer. La première partie est consacrée à l'étude des propriétés asymptotiques de procédures de tests multiples visant à contrôler l'espérance (FDR) du taux de fausses découvertes (FDP) parmi les hypothèses rejetées. On introduit un formalisme flexible qui permet de calculer la loi asymptotique du FDP et les conditions de régularité associées pour une vaste famille de procédures de tests multiples, et de comparer la puissance de ces procédures. On s'intéresse ensuite aux liens en termes de contrôle du FDR entre les bornes intrinsèques à trois problèmes de tests multiples: la détection, l'estimation, et la sélection. On relie en particulier la vitesse de convergence dans le problème d'estimation à la régularité de la loi des probabilités critiques au voisinage de 1. La seconde partie est dédiée au développement de méthodes d'analyse des données de puces à ADN en cancérologie. On propose une méthode de prétraitement des données de puces à ADN combinant une régression robuste et un modèle de mélange avec contrainte spatiale, qui permet d'éliminer les biais spatiaux en préservant le signal biologique. On développe ensuite une méthode d'inférence de régulations entre gènes à partir de données d'expression de gènes, qui repose sur des techniques d'apprentissage informatique et de tests multiples. Enfin, on construit un test génomique permettant de déterminer, pour une patiente traitée pour un cancer du sein, si un second cancer survenant sur le même sein est ou non une récidive du premier
This thesis deals with statistical questions raised by the analysis of high-dimensional genomic data for cancer research. In the first part, we study asymptotic properties of multiple testing procedures that aim at controlling the False Discovery Rate (FDR), that is, the expected False Discovery Proportion (FDP) among rejected hypotheses. We develop a versatile formalism to calculate the asymptotic distribution of the FDP an the associated regularity conditions, for a wide range of multiple testing procedures, and compare their asymptotic power. We then study in terms of FDR control connections between intrinsic bounds between three multiple testing problems: detection, estimation and selection. In particular, we connect convergence rates in the estimation problem to the regularity of the p-value distribution near 1. In the second part, we develop statistical methods to study DNA microarrays for cancer research. We propose a microarray normalization method that removes spatial biases while preserving the true biological signal; it combines robust regression with a mixture model with spatial constraints. Then we develop a method to infer gene regulations from gene expression data, which is based on learning and multiple testing theories. Finally, we build a genomic score to predict, for a patient treated for a breast tumor, whether or not a second cancer is a true recurrence of the first cancer
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Priam, Rodolphe. "Méthodes de carte auto-organisatrice par mélange de lois contraintes. Ap^plication à l'exploration dans les tableaux de contingence textuels." Rennes 1, 2003. http://www.theses.fr/2003REN10166.

Повний текст джерела
Анотація:
Cette thèse s'intéresse à l'analyse exploratoire des données multidimensionnelles souvent qualitatives voir textuelles par des modèles particuliers de carte auto-organisatrice de Kohonen. Il s'agit d'effectuer une classification et une projection simultanées des lignes ou colonnes d'une matrice de données. Le résultat de ces méthodes est une réduction sous la forme d'une surface de régression discréte. Nous étudions plus particulièrement les modèles de mélange de lois de probabilités : les paramètres correspondant aux espérances des vecteurs classés sont contraints en les plaçant aux noeuds d'une grille rectangulaire. Après une présentation de ces méthodes, et des algorithmes d'estimation basés sur l'EM (Expectation-Maximization), nous introduisons essentiellement deux nouvelles approches. La première vise à ''généraliser la méthode d'Analyse Factorielle des Correspondances'' aux grandes matrices : l'algorithme CASOM est une classifieur Nai͏̈f de Bayes contraint en un TPEM (Topology Preserving EM) pour tableau de contingence. La seconde consiste en un schéma général d'adaptation des méthodes de segmentation d'image en carte auto-organisatrice. Pour l'illustrer, nous modifions un algorithme de segmentation par champs moyens, et obtenons un algorithme appellé TNEM. Nous utilisons ces méthodes pour aider à la navigation dans un corpus textuel. En effet, nous aboutissons à des critères et des moyens de représentation objectifs.
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Shahzad, Muhammad Kashif. "Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771672.

Повний текст джерела
Анотація:
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Itier, Vincent. "Nouvelles méthodes de synchronisation de nuages de points 3D pour l'insertion de données cachées." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS017/document.

Повний текст джерела
Анотація:
Cette thèse aborde les problèmes liés à la protection de maillages d'objets 3D. Ces objets peuvent, par exemple, être créés à l'aide d'outil de CAD développés par la société STRATEGIES. Dans un cadre industriel, les créateurs de maillages 3D ont besoin de disposer d'outils leur permettant de vérifier l'intégrité des maillages, ou de vérifier des autorisations pour l'impression 3D par exemple. Dans ce contexte nous étudions l'insertion de données cachées dans des maillages 3D. Cette approche permet d'insérer de façon imperceptible et sécurisée de l'information dans un maillage. Il peut s'agir d'un identifiant, de méta-informations ou d'un contenu tiers, par exemple, pour transmettre de façon secrète une texture. L'insertion de données cachées permet de répondre à ces problèmes en jouant sur le compromis entre la capacité, l'imperceptibilité et la robustesse. Généralement, les méthodes d'insertion de données cachées se composent de deux phases, la synchronisation et l'insertion. La synchronisation consiste à trouver et ordonner les éléments disponibles pour l'insertion. L'un des principaux challenges est de proposer une méthode de synchronisation 3D efficace qui définit un ordre sur les composants des maillages. Dans nos travaux, nous proposons d'utiliser les sommets du maillage, plus précisément leur représentation géométrique dans l'espace comme composants de base pour la synchronisation et l'insertion. Nous présentons donc trois nouvelles méthodes de synchronisation de la géométrie des maillages basées sur la construction d'un chemin hamiltonien dans un nuage de sommets. Deux de ces méthodes permettent de manière conjointe de synchroniser les sommets et de cacher un message. Cela est possible grâce à deux nouvelles méthodes d'insertion haute capacité (de $3$ à $24$ bits par sommet) qui s'appuient sur la quantification des coordonnées. Dans ces travaux nous mettons également en évidence les contraintes propres à ce type de synchronisation. Nous discutons des différentes approches proposées dans plusieurs études expérimentales. Nos travaux sont évalués sur différents critères dont la capacité et l'imperceptibilité de la méthode d'insertion. Nous portons également notre attention aux aspects sécurité des méthodes
This thesis addresses issues relating to the protection of 3D object meshes. For instance, these objects can be created using CAD tool developed by the company STRATEGIES. In an industrial context, 3D meshes creators need to have tools in order to verify meshes integrity, or check permission for 3D printing for example.In this context we study data hiding on 3D meshes. This approach allows us to insert information in a secure and imperceptible way in a mesh. This may be an identifier, a meta-information or a third-party content, for instance, in order to transmit secretly a texture. Data hiding can address these problems by adjusting the trade-off between capacity, imperceptibility and robustness. Generally, data hiding methods consist of two stages, the synchronization and the embedding. The synchronization stage consists of finding and ordering available components for insertion. One of the main challenges is to propose an effective synchronization method that defines an order on mesh components. In our work, we propose to use mesh vertices, specifically their geometric representation in space, as basic components for synchronization and embedding. We present three new synchronisation methods based on the construction of a Hamiltonian path in a vertex cloud. Two of these methods jointly perform the synchronization stage and the embedding stage. This is possible thanks to two new high-capacity embedding methods (from 3 to 24 bits per vertex) that rely on coordinates quantization. In this work we also highlight the constraints of this kind of synchronization. We analyze the different approaches proposed with several experimental studies. Our work is assessed on various criteria including the capacity and imperceptibility of the embedding method. We also pay attention to security aspects of the proposed methods
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Van, Den Berghe François. "Assimilation de mesures satellitaires dans des modèles numériques par méthodes de contrôle optimal." Phd thesis, École Nationale Supérieure des Mines de Paris, 1992. http://pastel.archives-ouvertes.fr/pastel-00954478.

Повний текст джерела
Анотація:
Nous nous intéressons aux méthodes permettant d'assimiler les données de télédétection. Il y a principalement deux types de technique : les méthodes séquentielles, issues du filtrage de Kalman et les méthodes variationnelles, basées sur les équations adjointes du contrôle optimal. Les méthodes variationnelles sont récentes et nous essayons de présenter leur intérêt pour la télédétection à l'aide de deux applications. Une première étude est menée sur un modèle numérique d'advection-diffusion. Elle montre la faisabilité numérique de la méthode : il est possible de minimiser une fonction de coût mesurant la distance entre la trajectoire du modèle et des observations réparties à la fois dans le temps et dans l'espace. La deuxième application est réalisée sur des observations effectuées par le diffusiomètre-vent embarqué à bord du satellite Seasat. Son objet est la cartographie des champs de vent à la surface des océans. Sur une période de douze heures, nous assimilons les observations dans un modèle numérique non linéaire, discrétisant l'équation de la vorticité sur un domaine rectangulaire couvrant à peu près tout l'océan Atlantique nord. Une comparaison entre les champs de vent, obtenus par l'assimilation variationnelle, et ceux produits par une assimilation séquentielle, met en évidence la propriété de rétro-propagation de l'information dans le temps que possèdent les équations adjointes. Il en résulte des analyses sensiblement meilleures, surtout en début de période d'assimilation, et une grande cohérence dynamique entre les champs analysés et le modèle numérique.
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Ferraro, Pascal. "Méthodes algorithmiques de comparaison d'arborescences : applications à la comparaison de l'architecture des plantes." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT039H.

Повний текст джерела
Анотація:
Le rôle croissant joué par l'architecture dans la modélisation des plantes a généré le besoin de nouveaux outils d'investigation. Des outils génériques ont ainsi été développés pour visualiser les plantes en 3D, pour modéliser leur croissance, pour mesurer, pour explorer ou pour analyser leur architecture. Dans ce cadre, cette thèse introduit de nouvelles méthodes algorithmiques pour la comparaison de l'architecture des plantes. La définition d'une mesure quantitative de la ressemblance entre architectures de plantes a des applications potentielles importantes en sylviculture, en arboriculture, en horticulture et en agronomie. En modélisation, elle permet d'aborder sous un angle nouveau le problème de l'évaluation des modèles de simulation de la croissance des plantes. Pour prendre en compte de façon précise, l'organisation structurelle des entités d'une plante, i. E. Son architecture, les représentations de type arborescent sont couramment utilisées. Pour assurer une plus grande généralité dans la description de l'architecture des plantes, le programme de modélisation de l'architecture du CIRAD a défini une structure arborescente multi-échelles, basée sur la notion de graphe quotienté. Ce travail a eu pour objectif d'explorer les algorithmes de comparaison entre arborescences, d'en étudier les applications dans les domaines de la biologie végétale et d'envisager différentes extensions. La famille d'algorithmes étudiée s'appuie sur la généralisation des méthodes de calcul de distance entre séquences utilisées, par exemple, pour la comparaison du génome. Leur principe général consiste à reconstruire un graphe cible en appliquant à un graphe initial différentes opérations structurelles, appelées opérations d'édition. Ayant attribué un coût à chaque opération, on recherche alors une suite d'opérations d'édition dont la somme des coûts est minimale. L'étude de la combinatoire de tels problèmes se ramène à la recherche d'une solution optimale dans un espace qui croît exponentiellement avec la taille des données. Pour définir des algorithmes efficaces à la fois en temps et en espace, la solution optimale est construite de façon incrémentale en utilisant des techniques de programmation dynamique. Après avoir proposé un point de vue unifié de différentes distances entre arborescences, nous donnons deux extensions algorithmiques permettant d'envisager le calcul d'une mesure de ressemblance entre arborescences multi-échelles. Nous présentons différentes applications de ces méthodes de comparaison à la comparaison d'architecture de plantes.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Hihi, Jalil. "Évaluation de méthodes d'identification de systèmes non-linéaires en régime permanent : méthode de traitement des données par groupes, identification floue." Nancy 1, 1993. http://www.theses.fr/1993NAN10013.

Повний текст джерела
Анотація:
En vu de la modélisation d'un sous-système d'une machine à papier et de deux systèmes non linéaires simulés, trois approches sont expérimentées: une approche linéaire, la méthode de traitements des données par groupes (GMDH) et la logique floue. Pour l'approche linéaire, nous avons utilisé la classique régression pas à pas et un algorithme de recherche des meilleures variables explicatives (Lamotte et Hocking). La méthode de traitement des données par groupes (Ivakhnenko) fournit des résultats intéressants. Cet algorithme récursif permet d'engendrer un polynôme renfermant un grand nombre de monômes pour représenter le système modélisé. Nous proposons d'utiliser la régression pas à pas pour ne retenir que les termes les plus significatifs. La logique floue permet de représenter simplement les non-linéarités, mais les équations de relation floue, classiquement utilisées en identification, ne fournissent pas de bons résultats lorsqu'on ne fuzzifie pas correctement les variables. Nous avons développé un algorithme (Sugeno) qui intègre toutes les étapes d'une identification floue pour fournir un modèle linguistique à conclusions procédurales: détermination des variables de prémisse et des ensembles flous associés, puis calcul de la conséquence pour chacune des règles. Cet algorithme complexe fournit des modèles un peu moins précis que ceux élabores par MTDG, mais plus simples et, certainement, plus robustes
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Le, Brun Alexia. "Etude d'un ensemble de paramètres liés à la sécheresse de la peau : traitement des données par des méthodes d'analyses multidimensionnelles." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10880.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії