To see the other types of publications on this topic, follow the link: Ensemble de données multimodal.

Dissertations / Theses on the topic 'Ensemble de données multimodal'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Ensemble de données multimodal.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chen, Jianan. "Deep Learning Based Multimodal Retrieval." Electronic Thesis or Diss., Rennes, INSA, 2023. http://www.theses.fr/2023ISAR0019.

Full text
Abstract:
Les tâches multimodales jouent un rôle crucial dans la progression vers l'atteinte de l'intelligence artificielle (IA) générale. L'objectif principal de la recherche multimodale est d'exploiter des algorithmes d'apprentissage automatique pour extraire des informations sémantiques pertinentes, en comblant le fossé entre différentes modalités telles que les images visuelles, le texte linguistique et d'autres sources de données. Il convient de noter que l'entropie de l'information associée à des données hétérogènes pour des sémantiques de haut niveau identiques varie considérablement, ce qui pose un défi important pour les modèles multimodaux. Les modèles de réseau multimodal basés sur l'apprentissage profond offrent une solution efficace pour relever les difficultés découlant des différences substantielles d'entropie de l’information. Ces modèles présentent une précision et une stabilité impressionnantes dans les tâches d'appariement d'informations multimodales à grande échelle, comme la recherche d'images et de textes. De plus, ils démontrent de solides capacités d'apprentissage par transfert, permettant à un modèle bien entraîné sur une tâche multimodale d'être affiné et appliqué à une nouvelle tâche multimodale. Dans nos recherches, nous développons une nouvelle base de données multimodale et multi-vues générative spécifiquement conçue pour la tâche de segmentation référentielle multimodale. De plus, nous établissons une référence de pointe (SOTA) pour les modèles de segmentation d'expressions référentielles dans le domaine multimodal. Les résultats de nos expériences comparatives sont présentés de manière visuelle, offrant des informations claires et complètes
Multimodal tasks play a crucial role in the progression towards achieving general artificial intelligence (AI). The primary goal of multimodal retrieval is to employ machine learning algorithms to extract relevant semantic information, bridging the gap between different modalities such as visual images, linguistic text, and other data sources. It is worth noting that the information entropy associated with heterogeneous data for the same high-level semantics varies significantly, posing a significant challenge for multimodal models. Deep learning-based multimodal network models provide an effective solution to tackle the difficulties arising from substantial differences in information entropy. These models exhibit impressive accuracy and stability in large-scale cross-modal information matching tasks, such as image-text retrieval. Furthermore, they demonstrate strong transfer learning capabilities, enabling a well-trained model from one multimodal task to be fine-tuned and applied to a new multimodal task, even in scenarios involving few-shot or zero-shot learning. In our research, we develop a novel generative multimodal multi-view database specifically designed for the multimodal referential segmentation task. Additionally, we establish a state-of-the-art (SOTA) benchmark and multi-view metric for referring expression segmentation models in the multimodal domain. The results of our comparative experiments are presented visually, providing clear and comprehensive insights
APA, Harvard, Vancouver, ISO, and other styles
2

Wang, Xin. "Gaze based weakly supervised localization for image classification : application to visual recognition in a food dataset." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066577/document.

Full text
Abstract:
Dans cette dissertation, nous discutons comment utiliser les données du regard humain pour améliorer la performance du modèle d'apprentissage supervisé faible dans la classification des images. Le contexte de ce sujet est à l'ère de la technologie de l'information en pleine croissance. En conséquence, les données à analyser augmentent de façon spectaculaire. Étant donné que la quantité de données pouvant être annotées par l'humain ne peut pas tenir compte de la quantité de données elle-même, les approches d'apprentissage supervisées bien développées actuelles peuvent faire face aux goulets d'étranglement l'avenir. Dans ce contexte, l'utilisation de annotations faibles pour les méthodes d'apprentissage à haute performance est digne d'étude. Plus précisément, nous essayons de résoudre le problème à partir de deux aspects: l'un consiste à proposer une annotation plus longue, un regard de suivi des yeux humains, comme une annotation alternative par rapport à l'annotation traditionnelle longue, par exemple boîte de délimitation. L'autre consiste à intégrer l'annotation du regard dans un système d'apprentissage faiblement supervisé pour la classification de l'image. Ce schéma bénéficie de l'annotation du regard pour inférer les régions contenant l'objet cible. Une propriété utile de notre modèle est qu'elle exploite seulement regardez pour la formation, alors que la phase de test est libre de regard. Cette propriété réduit encore la demande d'annotations. Les deux aspects isolés sont liés ensemble dans nos modèles, ce qui permet d'obtenir des résultats expérimentaux compétitifs
In this dissertation, we discuss how to use the human gaze data to improve the performance of the weak supervised learning model in image classification. The background of this topic is in the era of rapidly growing information technology. As a consequence, the data to analyze is also growing dramatically. Since the amount of data that can be annotated by the human cannot keep up with the amount of data itself, current well-developed supervised learning approaches may confront bottlenecks in the future. In this context, the use of weak annotations for high-performance learning methods is worthy of study. Specifically, we try to solve the problem from two aspects: One is to propose a more time-saving annotation, human eye-tracking gaze, as an alternative annotation with respect to the traditional time-consuming annotation, e.g. bounding box. The other is to integrate gaze annotation into a weakly supervised learning scheme for image classification. This scheme benefits from the gaze annotation for inferring the regions containing the target object. A useful property of our model is that it only exploits gaze for training, while the test phase is gaze free. This property further reduces the demand of annotations. The two isolated aspects are connected together in our models, which further achieve competitive experimental results
APA, Harvard, Vancouver, ISO, and other styles
3

Costa, Daniel Moura Martins da. "Ensemble baseado em métodos de Kernel para reconhecimento biométrico multimodal." Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-28072016-190335/.

Full text
Abstract:
Com o avanço da tecnologia, as estratégias tradicionais para identificação de pessoas se tornaram mais suscetíveis a falhas, de forma a superar essas dificuldades algumas abordagens vêm sendo propostas na literatura. Dentre estas abordagens destaca-se a Biometria. O campo da Biometria abarca uma grande variedade de tecnologias usadas para identificar e verificar a identidade de uma pessoa por meio da mensuração e análise de aspectos físicos e/ou comportamentais do ser humano. Em função disso, a biometria tem um amplo campo de aplicações em sistemas que exigem uma identificação segura de seus usuários. Os sistemas biométricos mais populares são baseados em reconhecimento facial ou de impressões digitais. Entretanto, existem outros sistemas biométricos que utilizam a íris, varredura de retina, voz, geometria da mão e termogramas faciais. Nos últimos anos, o reconhecimento biométrico obteve avanços na sua confiabilidade e precisão, com algumas modalidades biométricas oferecendo bom desempenho global. No entanto, mesmo os sistemas biométricos mais avançados ainda enfrentam problemas. Recentemente, esforços têm sido realizados visando empregar diversas modalidades biométricas de forma a tornar o processo de identificação menos vulnerável a ataques. Biometria multimodal é uma abordagem relativamente nova para representação de conhecimento biométrico que visa consolidar múltiplas modalidades biométricas. A multimodalidade é baseada no conceito de que informações obtidas a partir de diferentes modalidades se complementam. Consequentemente, uma combinação adequada dessas informações pode ser mais útil que o uso de informações obtidas a partir de qualquer uma das modalidades individualmente. As principais questões envolvidas na construção de um sistema biométrico unimodal dizem respeito à definição das técnicas de extração de característica e do classificador. Já no caso de um sistema biométrico multimodal, além destas questões, é necessário definir o nível de fusão e a estratégia de fusão a ser adotada. O objetivo desta dissertação é investigar o emprego de ensemble para fusão das modalidades biométricas, considerando diferentes estratégias de fusão, lançando-se mão de técnicas avançadas de processamento de imagens (tais como transformada Wavelet, Contourlet e Curvelet) e Aprendizado de Máquina. Em especial, dar-se-á ênfase ao estudo de diferentes tipos de máquinas de aprendizado baseadas em métodos de Kernel e sua organização em arranjos de ensemble, tendo em vista a identificação biométrica baseada em face e íris. Os resultados obtidos mostraram que a abordagem proposta é capaz de projetar um sistema biométrico multimodal com taxa de reconhecimento superior as obtidas pelo sistema biométrico unimodal.
With the advancement of technology, traditional strategies for identifying people become more susceptible to failure, in order to overcome these difficulties some approaches have been proposed in the literature. Among these approaches highlights the Biometrics. The field of Biometrics encompasses a wide variety of technologies used to identify and verify the person\'s identity through the measurement and analysis of physiological and behavioural aspects of the human body. As a result, biometrics has a wide field of applications in systems that require precise identification of their users. The most popular biometric systems are based on face recognition and fingerprint matching. Furthermore, there are other biometric systems that utilize iris and retinal scan, speech, face, and hand geometry. In recent years, biometrics authentication has seen improvements in reliability and accuracy, with some of the modalities offering good performance. However, even the best biometric modality is facing problems. Recently, big efforts have been undertaken aiming to employ multiple biometric modalities in order to make the authentication process less vulnerable to attacks. Multimodal biometrics is a relatively new approach to biometrics representation that consolidate multiple biometric modalities. Multimodality is based on the concept that the information obtained from different modalities complement each other. Consequently, an appropriate combination of such information can be more useful than using information from single modalities alone. The main issues involved in building a unimodal biometric System concern the definition of the feature extraction technique and type of classifier. In the case of a multimodal biometric System, in addition to these issues, it is necessary to define the level of fusion and fusion strategy to be adopted. The aim of this dissertation is to investigate the use of committee machines to fuse multiple biometric modalities, considering different fusion strategies, taking into account advanced methods in machine learning. In particular, it will give emphasis to the analyses of different types of machine learning methods based on Kernel and its organization into arrangements committee machines, aiming biometric authentication based on face, fingerprint and iris. The results showed that the proposed approach is capable of designing a multimodal biometric System with recognition rate than those obtained by the unimodal biometrics Systems.
APA, Harvard, Vancouver, ISO, and other styles
4

Larsson, Sanna. "Kommunikation - vad är det? : En studie av musikalisk kommunikation i ensemblesammanhang." Thesis, Karlstads universitet, Institutionen för konstnärliga studier, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-33627.

Full text
Abstract:
Föreliggande arbete inriktar sig på kommunikation mellan sångare och medmusiker i ensemblesammanhang utifrån det multimodala och designteoretiska perspektivets syn på kommunikation och lärandeförutsättningar. Med hjälp av videoobservationer av min egen kommunikation i en ensemble på högskolenivå har jag analyserat fram vilka olika semiotiska resurser som används samt intentionerna bakom dem. Resultatet visar att kommunikationen ensemblemedlemmarna emellan tillkommer först efter en tid in i lärandeprocessen och att det, för egen del, är sången som verkar som den främsta kommunikatören i det här sammanhanget.  Dynamik, tydlighet och lekfullhet skvallrar om säkerhet eller osäkerhet i form och melodi samt fungerar som en vägledning om var jag befinner mig i lärandeprocessen. I diskussionen tar jag bland annat upp hur den första ensemblelektionen byggs upp i enighet med det multimodala perspektivets syn på bra lärandeförutsättningar samt vad kroppsspråk har för betydelse för kommunikation i ensemblesammanhang.
The study focuses on how singers communicate with their fellow musicians in music ensembles considering the multimodal perspective of communication and learning conditions. With the help of video recordings of my own communication within an ensemble I have analysed which semiotic resources that are used and my underlying intentions with them. The result shows that the communication between the group members first are established after a while into the learning process and that the singing part shows to be the prime communicator for me in this case where dynamic, articulating and playfulness indicate security or insecurity about the form of the song and the melody. It also works as a guide to where I am at in the learning process. In the chapter on discussion I present, among other things, how the first ensemble lesson is created due to the multimodal perspective on favourable learning conditions and also the importance of body language for favourable communication in music ensembles.
APA, Harvard, Vancouver, ISO, and other styles
5

Lösegård, Linus. "”Det är inte bara ord som används” : En studie av musiklärares sätt att kommunicera med sina elever i undervisning av ensemble." Thesis, Karlstads universitet, Musikhögskolan Ingesund, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-28917.

Full text
Abstract:
Föreliggande arbete inriktar sig på lärares sätt att kommunicera i undervisning av ensemble där de bemöter flera elever samtidigt. Med hjälp av videoobservationer av fyra lärare som bedriver undervisning av mindre ensembler på gymnasiet har jag analyserat fram vilka kommunikationssätt som används samt hur de används. Resultatet visar att lärarna använder sig av så väl verbal som icke-verbal kommunikation i sin undervisning. Via flertalet multimodala och semiotiska resurser kommunicerar musiklärarna med sina elever under lektionens gång. De kommunikationsspråk som förekommer är ett socialt, humoristiskt, auktoritärt, gestaltande, kunnigt och målande språk. I diskussionen tar jag bland annat upp hur lärarna i undersökningen valt att designa sin undervisning utifrån situationerna om spel och i spel, samt vad detta ger för förutsättningar för dem själva och deras elever.
The study focuses on how teachers communicate when teaching music ensembles in which they meet several students simultaneously. With the help of recorded video lessons of four teachers while teaching small ensembles at the high school level, I have analysed the means of communication and how these are applied. The results show that teachers use verbal as well as nonverbal communication in their teaching. They communicate with their students during the lesson via several multimodal semiotic resources. The language of communication that results is a social, humorous, authoritative, creative, knowledgeable and vivid language. In the chapter on discussion, I present among other things, how the teachers in the study chose to design their education based on the situations regarding performance and through performance, and the conditions thus created for themselves and their students.
APA, Harvard, Vancouver, ISO, and other styles
6

Aron, Michael. "Acquisition et modélisation de données articulatoires dans un contexte multimodal." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00432124.

Full text
Abstract:
La connaissance des positions et des mouvements des articulateurs (lèvres, palais, langue...) du conduit vocal lors de la phonation est un enjeu crucial pour l'étude de la parole. Puisqu'il n'existe pas encore de système permettant l'acquisition de ces positions et de ces mouvements, ce travail de thèse s'intéresse à la fusion de plusieurs modalités d'imagerie et de capteurs de localisation pour l'acquisition des positions des articulateurs dans l'espace et dans le temps. Nous décrivons un ensemble de protocoles et de méthodes pour obtenir et fusionner automatiquement un important volume de données échographiques (imageant en 2D la dynamique de la langue), stéréoscopiques (imageant en 3D la dynamique des lèvres), de capteurs électromagnétiques (capturant des points 3D de la langue et du visage), et d'Imagerie par Résonance Magnétique (IRM) pour acquérir en 3D l'ensemble des articulateurs en position statique. Nos contributions concernent plus particulièrement la synchronisation temporelle, le recalage spatial des données et l'extraction automatique des formes à partir des données (suivi de la langue dans les images échographiques). Nous évaluons la précision sur chaque donnée extraite, ainsi que sur l'ensemble des données fusionnées. Nous les validons enfin sur un modèle articulatoire existant. Ces travaux permettent l'obtention de données bien fondées pour la mise en place et l'étude de modèles articulatoires pour des applications en parole.
APA, Harvard, Vancouver, ISO, and other styles
7

Aron, Michaël. "Acquisition et modélisation de données articulatoires dans un contexte multimodal." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10097/document.

Full text
Abstract:
La connaissance des positions et des mouvements des articulateurs (lèvres, palais, langue...) du conduit vocal lors de la phonation est un enjeu crucial pour l’étude de la parole. Puisqu’il n’existe pas encore de système permettant l’acquisition de ces positions et de ces mouvements, ce travail de thèse s’intéresse à la fusion de plusieurs modalités d’imagerie et de capteurs de localisation pour l’acquisition des positions des articulateurs dans l’espace et dans le temps. Nous décrivons un ensemble de protocoles et de méthodes pour obtenir et fusionner automatiquement un important volume de données échographiques (imageant en 2D la dynamique de la langue), stéréoscopiques (imageant en 3D la dynamique des lèvres), de capteurs électromagnétiques (capturant des points 3D de la langue et du visage), et d’Imagerie par Résonance Magnétique (IRM) pour acquérir en 3D l’ensemble des articulateurs en position statique. Nos contributions concernent plus particulièrement la synchronisation temporelle, le recalage spatial des données et l’extraction automatique des formes à partir des données (suivi de la langue dans les images échographiques). Nous évaluons la précision sur chaque donnée extraite, ainsi que sur l’ensemble des données fusionnées. Nous les validons enfin sur un modèle articulatoire existant. Ces travaux permettent l’obtention de données bien fondées pour la mise en place et l’étude de modèles articulatoires pour des applications en parole
There is no single technique that will allow all relevant behaviour of the speech articulators (lips, tongue, palate...) to be spatially ant temporally acquired. Thus, this thesis investigates the fusion of multimodal articulatory data. A framework is described in order to acquire and fuse automatically an important database of articulatory data. This includes: 2D Ultrasound (US) data to recover the dynamic of the tongue, stereovision data to recover the 3D dynamic of the lips, electromagnetic sensors that provide 3D position of points on the face and the tongue, and 3D Magnetic Resonance Imaging (MRI) that depict the vocal tract for various sustained articulations. We investigate the problems of the temporal synchronization and the spatial registration between all these modalities, and also the extraction of the shape articulators from the data (tongue tracking in US images). We evaluate the uncertainty of our system by quantifying the spatial and temporal inaccuracies of the components of the system, both individually and in combination. Finally, the fused data are evaluated on an existing articulatory model to assess their quality for an application in speech production
APA, Harvard, Vancouver, ISO, and other styles
8

Bato, Mary Grace. "Vers une assimilation des données de déformation en volcanologie." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU018/document.

Full text
Abstract:
Le suivi de la mise en place du magma à faible profondeur et de sa migration vers la surface est crucial pour prévoir les éruptions volcaniques.Avec les progrès récents de l'imagerie SAR et le nombre croissant de réseaux GNSS continus sur les volcans, il est maintenant possible de fournir une évolution continue et spatialement étendue des déplacements de surface pendant les périodes inter-éruptives. Pour les volcans basaltiques, ces mesures combinées à des modèles dynamiques simples peuvent être exploitées pour caractériser et contraindre la mise en pression d'un ou de plusieurs réservoirs magmatiques, ce qui fournit une meilleure information prédictive sur l'emplacement du magma à faible profondeur. L'assimilation de données—un processus séquentiel qui combine au mieux les modèles et les observations, en utilisant parfois une information a priori basée sur les statistiques des erreurs, pour prédire l'état d'un système dynamique—a récemment gagné en popularité dans divers domaines des géosciences. Dans cette thèse, je présente la toute première application de l'assimilation de données en volcanologie en allant des tests synthétiques à l’utilisation de données géodésiques réelles.La première partie de ce travail se concentre sur le développement de stratégies afin d'évaluer le potentiel de l’assimilation de données. En particulier, le Filtre de Kalman d'Ensemble a été utilisé avec un modèle dynamique simple à deux chambres et de données géodésiques synthétiques pour aborder les points suivants : 1) suivi de l'évolution de la pression magmatique en profondeur et des déplacements de surface et estimation des paramètres statiques incertains du modèle, 2) assimilation des données GNSS et InSAR, 3) mise en évidence des avantages ou des inconvénients de l'EnKF par rapport à une technique d'inversion bayésienne. Les résultats montrent que l’EnKF fonctionne de manière satisfaisante et que l'assimilation de données semble prometteuse pour la surveillance en temps réel des volcans.La deuxième partie de la thèse est dédiée à l'application de la stratégie mise au point précédemment à l’exploitation des données GNSS inter-éruptives enregistrées de 2004 à 2011 au volcan Grímsvötn en Islande, afin de tester notre capacité à prédire la rupture d'une chambre magmatique en temps réel. Nous avons introduit ici le concept de ``niveau critique'' basé sur l’estimation de la probabilité d'une éruption à chaque pas de temps. Cette probabilité est définie à partir de la proportion d'ensembles de modèles qui dépassent un seuil critique, initialement assigné selon une distribution donnée. Nos résultats montrent que lorsque 25 +/- 1 % des ensembles du modèle ont dépassé la surpression critique une éruption est imminente. De plus, dans ce chapitre, nous élargissons également les tests synthétiques précédents en améliorant la stratégie EnKF d'assimilation des données géodésiques pour l'adapter à l’utilisation de données réelles en nombre limité. Les outils de diagnostiques couramment utilisés en assimilation de données sont mis en oeuvre et présentés.Enfin, je démontre qu'en plus de son intérêt pour prédire les éruptions volcaniques, l'assimilation séquentielle de données géodésiques basée sur l'utilisation de l'EnKF présente un potentiel unique pour apporter une information sur l'alimentation profonde du système volcanique. En utilisant le modèle dynamique à deux réservoirs pour le système de plomberie de Grímsvötn et en supposant une géométrie fixe et des propriétés magmatiques invariantes, nous mettons en évidence que l'apport basal en magma sous Grímsvötn diminue de 85 % au cours des 10 mois précédant le début de l'événement de rifting de Bárdarbunga. La perte d'au moins 0.016 km3 dans l'approvisionnement en magma de Grímsvötn est interprétée comme une conséquence de l'accumulation de magma sous Bárdarbunga et de l'alimentation consécutive de l'éruption Holuhraun à 41 km de distance
Tracking magma emplacement at shallow depth as well as its migration towards the Earth's surface is crucial to forecast volcanic eruptions.With the recent advances in Interferometric Synthetic Aperture Radar (InSAR) imaging and the increasing number of continuous Global Navigation Satellite System (GNSS) networks recorded on volcanoes, it is now possible to provide continuous and spatially extensive evolution of surface displacements during inter-eruptive periods. For basaltic volcanoes, these measurements combined with simple dynamical models can be exploited to characterise and to constrain magma pressure building within one or several magma reservoirs, allowing better predictive information on the emplacement of magma at shallow depths. Data assimilation—a sequential time-forward process that best combines models and observations, sometimes a priori information based on error statistics, to predict the state of a dynamical system—has recently gained popularity in various fields of geoscience (e.g. ocean-weather forecasting, geomagnetism and natural resources exploration). In this dissertation, I present the very first application of data assimilation in volcanology from synthetic tests to analyzing real geodetic data.The first part of this work focuses on the development of strategies in order to test the applicability and to assess the potential of data assimilation, in particular, the Ensemble Kalman Filter (EnKF) using a simple two-chamber dynamical model (Reverso2014) and artificial geodetic data. Synthetic tests are performed in order to address the following: 1) track the magma pressure evolution at depth and reconstruct the synthetic ground surface displacements as well as estimate non-evolving uncertain model parameters, 2) properly assimilate GNSS and InSAR data, 3) highlight the strengths and weaknesses of EnKF in comparison with a Bayesian-based inversion technique (e.g. Markov Chain Monte Carlo). Results show that EnKF works well with the synthetic cases and there is a great potential in utilising data assimilation for real-time monitoring of volcanic unrest.The second part is focused on applying the strategy that we developed through synthetic tests in order to forecast the rupture of a magma chamber in real time. We basically explored the 2004-2011 inter-eruptive dataset at Grímsvötn volcano in Iceland. Here, we introduced the concept of “eruption zones” based on the evaluation of the probability of eruption at each time step estimated as the percentage of model ensembles that exceeded their failure overpressure values initially assigned following a given distribution. Our results show that when 25 +/- 1% of the model ensembles exceeded the failure overpressure, an actual eruption is imminent. Furthermore, in this chapter, we also extend the previous synthetic tests by further enhancing the EnKF strategy of assimilating geodetic data in order to adapt to real world problems such as, the limited amount of geodetic data available to monitor ice-covered active volcanoes. Common diagnostic tools in data assimilation are presented.Finally, I demonstrate that in addition to the interest of predicting volcanic eruptions, sequential assimilation of geodetic data on the basis of EnKF shows a unique potential to give insights into volcanic system roots. Using the two-reservoir dynamical model for Grímsvötn 's plumbing system and assuming a fixed geometry and constant magma properties, we retrieve the temporal evolution of the basal magma inflow beneath Grímsvötn that drops up to 85% during the 10 months preceding the initiation of the Bárdarbunga rifting event. The loss of at least 0.016 km3 in the magma supply of Grímsvötn is interpreted as a consequence of magma accumulation beneath Bárdarbunga and subsequent feeding of the Holuhraun eruption 41 km away
APA, Harvard, Vancouver, ISO, and other styles
9

Pinson, Franck. "Ajustement de primitives d'objets de forme libre sur un ensemble de données réelles." Compiègne, 1989. http://www.theses.fr/1989COMPD179.

Full text
Abstract:
De nombreuses applications dans différents domaines scientifiques ou techniques nécessitent l’utilisation d'informations contenues dans des données présentées sous la forme d'un ensemble de points dans l'espace. L'extraction d’informations, à partir de données de ce type, pose de nombreux problèmes lorsque, par exemple, l'ensemble de points est de taille importante ou n'est pas structuré. Nous présentons dans ce mémoire une méthode permettent d'ajuster rapidement des primitives de forme libre sur des ensembles de points, à partir de courbes ou de surfaces de désignation. Les primitives ainsi obtenues fournissent alors un modèle permettent d'associer une structure à l'ensemble initial de points et d'en extraire des informations pertinentes. Les principes généraux de l’approche ont déjà été décrits dans un cadre plus général de modélisation géométrique d'organes du corps humain. Elle se compose d'une phase interactive, au niveau de laquelle un utilisateur effectue la désignation d'un ensemble de points à partir d'une primitive de forme libre et d'une phase automatique réalisant l'adaptation de la primitive (définie par des fonctions B-Splines cubiques uniformes) à l’ensemble de points désignés. Nous nous intéressons dans cette étude, à cette phase automatique d'adaptation. Nous étudions tout d'abord le problème de l'approximation d'un ensemble de points de données par une fonction. Nous faisons un rappel des méthodes classiques d'approximation que nous replaçons dans leur contexte respectif. Nous présentons ensuite, de manière globale l'approche proposée et la démarche adoptée pour résoudre ce problème d'adaptation. Elle se décompose en trois étapes, appelées respectivement « sélection », « normalisation » et « ajustement » qui sont décrites ensuite de manière détaillée. La première consiste en une sélection automatique de l’ensemble de points désignés, en fonction de la qualité de la désignation effectuée. La seconde réalise l’adaptation de la « complexité » de la primitive de désignation à celle de l’ensemble de points désignés. La troisième étape effectue l’ajustement de la primitive sur l’ensemble de points désignés. Nous avons étudié, pour cela, une méthode d’ajustement originale, permettant d’obtenir rapidement une solution, et donc utilisable dans un contexte interactif. Cette approche a été étudiée dans le cadre d’un projet de modélisation interactive d’organes ou de régions anatomiques du corps humain.
APA, Harvard, Vancouver, ISO, and other styles
10

Lê, Thanh Vu. "Visualisation interactive 3D pour un ensemble de données géographiques de très grande taille." Pau, 2011. http://www.theses.fr/2011PAUU3005.

Full text
Abstract:
La visualisation temps réel du terrain reste depuis longtemps un domaine de recherche actif dans de nombreuses applications informatiques comme les systèmes d’information géographique (SIG), les jeux en 3D ou la réalité virtuelle. L’évolution des techniques d’acquisitions de données et l’amélioration des techniques de visualisation nous apportent une augmentation considérable dans la résolution des données pour les modèles numérique de terrain (MNT) et dans les nouvelles méthodes d’affichage pour représenter ces informations. Dans cette thèse, nous présentons notre framework de rendu de terrain que nous résumons ici en plusieurs contributions : notre première contribution consiste en une architecture simple et efficace qui permet de visualiser des terrains de très grande taille. La méthode utilisée permet de travailler hors mémoire centrale en utilisant une structure de données de type quadtree tout en étant capable de garder une précision de la géométrie et de la couleur au niveau pixel grâce aux différents critères de subdivision. Notre architecture sépare la gestion des données raster sur le CPU et l’affichage en 3D effectuée sur le GPU. Notre deuxième contribution est une méthode originale pour enlever les artéfacts qui apparaissent sur la jointure entre la frontière des blocs de quadtree, nous générons une surface continue sans avoir besoin d’utiliser de maillages supplémentaires. Notre dernière contribution est une méthode efficace adaptée avec notre structure de données pour le geomorphing, cette dernière peut être implémentée entièrement sur le GPU. Par rapport aux méthodes existantes, nos méthodes présentent de nombreux avantages : il n’y a pas de gestion de maillage dans la structure de données ; la complexité du terrain est contrôlable jusqu’au niveau du pixel et dépend de la projection d’erreur métrique, le terrain de basse précision géométrique obtient toujours une bonne précision en ce qui concerne la silhouette des objets grâce à la technique dite du normal ; une grande vitesse d’interaction et de rendu grâce au chargement de données à la demande ; et enfin une transformation similaire pour la géométrie et la texture qui facilite la gestion de données par le CPU
Real-time terrain rendering remains an active area of research for a lot of modern computer based applications such as geographic information systems (GIS), interactive 3D games, flights simulators or virtual reality. The technological breakthroughs in data aquisition, coupled with recent advances in display technology have simultaneously led to substantial increases in resolution of both the Digital Elevation Models (DEM) and the various displays used to present this information. In this phD, we have presented a new out-of-core terrain visualization algorithm that achieves per-pixel accurate shading of large textured elevation maps in real-time : our first contribution is the LOD scheme which is based on a small precomputed quadtree of geometric errors, whose nodes are selected for asynchronous loading and rendering depending on a projection in screenspace of those errors. The terrain data and its color texture are manipulated by the CPU in a unified manner as a collection of raster image patches, whose dimensions depends on their screen-space occupancy ; our second contribution is a novel method to remove artifacts that appear on the border between quadtree blocks, we generate a continuous surface without needing additional mesh ; our latest contribution is an effective method adapted to our data structure for the geomorphing, it can be implemented entirely on the GPU. The presented framework exhibits several interesting features over other existing techniques : there is no mesh manipulation or mesh data structures required ; terrain geometric complexity only depends on projected elevation error views from above result in very coarse meshes), lower geometric complexity degrades terrain silhouettes but not details brought in through normal map shading, real-time rendering with support for progressive data loading ; and geometric information and color textures are similarly and efficiently handled as raster data by the CPU. Due to simplified data structures, the system is compact, CPU and GPU efficient and is simple to implement
APA, Harvard, Vancouver, ISO, and other styles
11

Drouet, d'Aubigny Gérard. "L'analyse multidimensionnelle des données de dissimilarité : [thèse soutenue sur un ensemble de travaux]." Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332393.

Full text
Abstract:
Trois objectifs sont poursuivis. Nous définissons d'abord un cadre algébrique suffisamment général pour unifier les deux classes de methodes d'analyse des donnees de dissimilarite connues. Le langage de la géométrie affine nous permet de montrer les correspondances entre les présentations française et anglo-américaine des méthodes tautologiques et d'enrichir la méthodologie par l'apport de méthodes issues de la tradition factorialiste et la proposition d'outils d'aide à l'interprétation des résultats. Les relations de dualité mises en évidence permettent de rendre compte des liens et différences entre ces méthodes et les techniques d'ajustement de modelés de description euclidienne des données de dissimilarite, dites de codage multidimensionnel. De plus une interprétation en terme de regression ridge du problème ainsi qu'une analogie aux methodes d'etude des réseaux électriques sont exploites. En deuxième lieu, nous étudions en détail l'introduction de contraintes. Tout d'abord les contraintes de configuration est replace dans le cadre du formalisme statistique d'analyse multivariée des courbes de croissance, et les méthodes sont affinées en conséquence. Le recourt au formalisme tensoriel permet de plus des solutions plus simples, des interprétations plus classiques des méthodes et la proposition d'évaluation de la qualité des solutions. Enfin nous proposons une méthodologie d'analyse des données de dissimilarite structurées, issue de plans d'expérience
APA, Harvard, Vancouver, ISO, and other styles
12

Rabah, Mazouzi. "Approches collaboratives pour la classification des données complexes." Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080079.

Full text
Abstract:
La présente thèse s'intéresse à la classification collaborative dans un contexte de données complexes, notamment dans le cadre du Big Data, nous nous sommes penchés sur certains paradigmes computationels pour proposer de nouvelles approches en exploitant des technologies de calcul intensif et large echelle. Dans ce cadre, nous avons mis en oeuvre des classifieurs massifs, au sens où le nombre de classifieurs qui composent le multi-classifieur peut être tres élevé. Dans ce cas, les méthodes classiques d'interaction entre classifieurs ne demeurent plus valables et nous devions proposer de nouvelles formes d'interactions, qui ne se contraignent pas de prendre la totalité des prédictions des classifieurs pour construire une prédiction globale. Selon cette optique, nous nous sommes trouvés confrontés à deux problèmes : le premier est le potientiel de nos approches à passer à l'echelle. Le second, relève de la diversité qui doit être créée et maintenue au sein du système, afin d'assurer sa performance. De ce fait, nous nous sommes intéressés à la distribution de classifieurs dans un environnement de Cloud-computing, ce système multi-classifieurs est peut etre massif et ses propréités sont celles d'un système complexe. En terme de diversité des données, nous avons proposé une approche d'enrichissement de données d'apprentissage par la génération de données de synthèse, à partir de modèles analytiques qui décrivent une partie du phenomène étudié. Aisni, la mixture des données, permet de renforcer l'apprentissage des classifieurs. Les expérientations menées ont montré un grand potentiel pour l'amélioration substantielle des résultats de classification
This thesis focuses on the collaborative classification in the context of complex data, in particular the context of Big Data, we used some computational paradigms to propose new approaches based on HPC technologies. In this context, we aim at offering massive classifiers in the sense that the number of elementary classifiers that make up the multiple classifiers system can be very high. In this case, conventional methods of interaction between classifiers is no longer valid and we had to propose new forms of interaction, where it is not constrain to take all classifiers predictions to build an overall prediction. According to this, we found ourselves faced with two problems: the first is the potential of our approaches to scale up. The second, is the diversity that must be created and maintained within the system, to ensure its performance. Therefore, we studied the distribution of classifiers in a cloud-computing environment, this multiple classifiers system can be massive and their properties are those of a complex system. In terms of diversity of data, we proposed a training data enrichment approach for the generation of synthetic data from analytical models that describe a part of the phenomenon studied. so, the mixture of data reinforces learning classifiers. The experimentation made have shown the great potential for the substantial improvement of classification results
APA, Harvard, Vancouver, ISO, and other styles
13

Barbe, Philippe. "Ensemble d'information de marché et détermination des taux de change : l'apport des données d'enquête." Bordeaux 4, 1997. http://www.theses.fr/1997BOR40011.

Full text
Abstract:
L'objectif de cette these est d'etudier le comportement des operateurs du marche des changes lorsque ces derniers ne disposent pas d'un modele de reference pour traiter l'information disponible et former leurs anticipations de cours. Nous relachons donc l'hypothese d'anticipations rationnelles pour les taux de change. La question est alors de savoir comment les agents forment leur ensemble d'information, en d'autres termes comment ils selectionnent l'information pour prevoir les cours de change futurs. Le cadre methodologique retenu repose sur l'utilisation des donnees d'enquetes et sur un concept de rationalite adapte a l'environnement des agents, l'hypothese de rationalite economique des anticipations. Nos resultats sont les suivants. Tout d'abord, l'ensemble d'information de marche est constitue d'une composante fondamentale et d'une composante technique (partie 1). La composante fondamentale est elaboree a partir de l'analyse des indicateurs economiques. Elle domine la fonction d'anticipation a court terme, lors des publications de chiffres, et a long terme. La composante technique guide les operateurs a court terme en l'absence d'information fondamentale. Par la suite (partie 2), l'analyse des anticipations de marche a permis de confirmer, en premier lieu, les caracteres mimetiques et autorealisateurs de ces variables a court terme, et leur heterogeneite a plus long terme. Cette difference de nature des anticipations s'accompagne logiquement d'une difference des performances predictives : si les operateurs apparaissent capables de prevoir avec une grande precision l'evolution des taux de change a court terme, en revanche a moyen et long terme, ce pouvoir est pratiquement nul. Pour ces horizons, les anticipations de marche sont en effet systematiquement biaisees
The object of this thesis is to study the functionning of the foreign exchange market when agents don't know the "true model". So we reject the rational expectations hypothesis for exchange rate. Therefore, it is important to know how agents on the market form their information set. To answer to this question, we adopt a methodology based on survey data, and a concept of restricted rationality, the economically rational expectations. Our results are the following. First of all, the market information set has two components, a fundamental component and a technical component. The first component is based on economic indicators analysis and command the anticipation function when data are available on the market. The second component is important when fondamental information are not available. Furthermore, the analysis of market expectations shows that these variables are self-fulfilling in short-term and more heterogeneous in long-term
APA, Harvard, Vancouver, ISO, and other styles
14

Farchi, Alban. "On the localisation of ensemble data assimilation methods." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1034.

Full text
Abstract:
L’assimilation de données est la discipline permettant de combiner des observations d’un système dynamique avec un modèle numérique simulant ce système, l'objectif étant d'améliorer la connaissance de l'état du système. Le principal domaine d'application de l'assimilation de données est la prévision numérique du temps. Les techniques d'assimilation sont implémentées dans les centres opérationnels depuis plusieurs décennies et elles ont largement contribué à améliorer la qualité des prédictions. Une manière efficace de réduire la dimension des systèmes d'assimilation de données est d'utiliser des méthodes ensemblistes. La plupart de ces méthodes peuvent être regroupées en deux classes~: le filtre de Kalman d'ensemble (EnKF) et le filtre particulaire (PF). Le succès de l'EnKF pour des problèmes géophysiques de grande dimension est largement dû à la localisation. La localisation repose sur l'hypothèse que les corrélations entre variables d'un système dynamique décroissent très rapidement avec la distance. Dans cette thèse, nous avons étudié et amélioré les méthodes de localisation pour l'assimilation de données ensembliste. La première partie est dédiée à l'implémentation de la localisation dans le PF. Nous passons en revue les récents développements concernant la localisation dans le PF et nous proposons une classification théorique des algorithmes de type PF local. Nous insistons sur les avantages et les inconvénients de chaque catégorie puis nous proposons des solutions pratiques aux problèmes que posent les PF localisés. Les PF locaux sont testés et comparés en utilisant des expériences jumelles avec des modèles de petite et moyenne dimension. Finalement, nous considérons le cas de la prédiction de l'ozone troposphérique en utilisant des mesures de concentration. Plusieurs algorithmes, dont des PF locaux, sont implémentés et appliqués à ce problème et leurs performances sont comparées.La deuxième partie est dédiée à l'implémentation de la localisation des covariances dans l'EnKF. Nous montrons comment la localisation des covariances peut être efficacement implémentée dans l'EnKF déterministe en utilisant un ensemble augmenté. L'algorithme obtenu est testé au moyen d'expériences jumelles avec un modèle de moyenne dimension et des observations satellitaires. Finalement, nous étudions en détail la cohérence de l'EnKF déterministe avec localisation des covariances. Une nouvelle méthode est proposée puis comparée à la méthode traditionnelle en utilisant des simulation jumelles avec des modèles de petite dimension
Data assimilation is the mathematical discipline which gathers all the methods designed to improve the knowledge of the state of a dynamical system using both observations and modelling results of this system. In the geosciences, data assimilation it mainly applied to numerical weather prediction. It has been used in operational centres for several decades, and it has significantly contributed to the increase in quality of the forecasts.Ensemble methods are powerful tools to reduce the dimension of the data assimilation systems. Currently, the two most widespread classes of ensemble data assimilation methods are the ensemble Kalman filter (EnKF) and the particle filter (PF). The success of the EnKF in high-dimensional geophysical systems is largely due to the use of localisation. Localisation is based on the assumption that correlations between state variables in a dynamical system decrease at a fast rate with the distance. In this thesis, we have studied and improved localisation methods for ensemble data assimilation.The first part is dedicated to the implementation of localisation in the PF. The recent developments in local particle filtering are reviewed, and a generic and theoretical classification of local PF algorithms is introduced, with an emphasis on the advantages and drawbacks of each category. Alongside the classification, practical solutions to the difficulties of local particle filtering are suggested. The local PF algorithms are tested and compared using twin experiments with low- to medium-order systems. Finally, we consider the case study of the prediction of the tropospheric ozone using concentration measurements. Several data assimilation algorithms, including local PF algorithms, are applied to this problem and their performances are compared.The second part is dedicated to the implementation of covariance localisation in the EnKF. We show how covariance localisation can be efficiently implemented in the deterministic EnKF using an augmented ensemble. The proposed algorithm is tested using twin experiments with a medium-order model and satellite-like observations. Finally, the consistency of the deterministic EnKF with covariance localisation is studied in details. A new implementation is proposed and compared to the original one using twin experiments with low-order models
APA, Harvard, Vancouver, ISO, and other styles
15

Pomorski, Denis. "Apprentissage automatique symbolique/numérique : construction et évaluation d'un ensemble de règles à partir des données." Lille 1, 1991. http://www.theses.fr/1991LIL10117.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du thème : Analyse et Surveillance des Processus Industriels Complexes, développé au Laboratoire d'Automatique et d'Information Industrielle de Lille (LAIL-URA 1440). Nous considérons des systèmes pour lesquels aucun modèle de comportement n'est disponible. Leur surveillance passe alors par l'établissement d'un modèle statistique, élaboré à partir de l'analyse des données relevées sur le processus. Après avoir présenté deux systèmes (ID3 et INDUCE) très utilisés en apprentissage, nous caractérisons les propriétés (cohérence, complétude. . . ) d'un ensemble de règles obtenues par une procédure d'apprentissage, et nous proposons des critères permettant d'évaluer ces règles. Nous distinguons deux procédures de construction de règles plus générales: l'agrégation et le prolongement. Nous donnons, pour ces deux cas, des moyens d'évaluation des résultats obtenus reposant sur différentes hypothèses (monde clos, non contradiction, continuité). Nous proposons dès lors la construction d'un modèle explicatif par généralisation des règles constituant le modèle atomique (représentant le comportement déterministe du processus). Nous développons des méthodes d'induction utilisant une représentation globale (construction de partitions) basées sur un critère entropique (issu de la théorie de l'information), et une représentation locale (prise en compte de parties)
APA, Harvard, Vancouver, ISO, and other styles
16

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques." Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Full text
Abstract:
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
APA, Harvard, Vancouver, ISO, and other styles
17

Faucon, Jean-Christophe. "Etudes statistiques et des relations structure-écotoxicité appliquées aux données écotoxicologiques d'un ensemble hétérogène de substances nouvelles." Caen, 1998. http://www.theses.fr/1998CAEN4002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Asgari, Fereshteh. "Inferring user multimodal trajectories from cellular network metadata in metropolitan areas." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0005/document.

Full text
Abstract:
Dans cette thèse, nous avons étudier une méthode de classification et d'évaluation des modalités de transport utilisées par les porteurs de mobile durant leurs trajets quotidiens. Les informations de mobilité sont collectées par un opérateur au travers des logs du réseau téléphonique mobile qui fournissent des informations sur les stations de base qui ont été utilisées par un mobile durant son trajet. Les signaux (appels/SMS/3G/4G) émis par les téléphones sont une source d'information pertinente pour l'analyse de la mobilité humaine, mais au-delà de ça, ces données représentent surtout un moyen de caractériser les habitudes et les comportements humains. Bien que l'analyse des metadata permette d'acquérir des informations spatio-temporelles à une échelle sans précédent, ces données présentent aussi de nombreuses problématiques à traiter afin d'en extraire une information pertinente. Notre objectif dans cette thèse est de proposer une solution au problème de déduire la trajectoire réelle sur des réseaux de transport à partir d'observations de position obtenues grâce à l'analyse de la signalisation sur les réseaux cellulaires. Nous proposons « CT-Mapper" pour projecter les données de signalisation cellulaires recueillies auprès de smartphone sur le réseau de transport multimodal. Notre algorithme utilise un modèle de Markov caché et les propriétés topologiques des différentes couches de transport. Ensuite, nous proposons « LCT-Mapper » un algorithme qui permet de déduire le mode de transport utilisé. Pour évaluer nos algorithmes, nous avons reconstruit les réseaux de transport de Paris et de la région (Ile-de-France). Puis nous avons collecté un jeu de données de trajectoires réelles recueillies auprès d'un groupe de volontaires pendant une période de 1 mois. Les données de signalisation cellulaire de l'utilisateur ont été fournies par un opérateur français pour évaluer les performances de nos algorithmes à l'aide de données GPS. Pour conclure, nous avons montré dans ce travail qu'il est possible d'en déduire la trajectoire multimodale des utilisateurs d'une manière non supervisée. Notre réalisation permet d'étudier le comportement de mobilité multimodale de personnes et d'explorer et de contrôler le flux de la population sur le réseau de transport multicouche
Around half of the world population is living in cities where different transportation networks are cooperating together to provide some efficient transportation facilities for individuals. To improve the performance of the multimodal transportation network it is crucial to monitor and analyze the multimodal trajectories, however obtaining the multimodal mobility data is not a trivial task. GPS data with fine accuracy, is extremely expensive to collect; Additionally, GPS is not available in tunnels and underground. Recently, thanks to telecommunication advancement cellular dataset such as Call Data Records (CDRs), is a great resource of mobility data, nevertheless, this kind of dataset is noisy and sparse in time. Our objective in this thesis is to propose a solution to this challenging issue of inferring real trajectory and transportation layer from wholly cellular observation. To achieve these objectives, we use Cellular signalization data which is more frequent than CDRs and despite their spatial inaccuracy, they provide a fair source of multimodal trajectory data. We propose 'CT-Mapper’ to map cellular signalization data collected from smart phones over the multimodal transportation network. Our proposed algorithm uses Hidden Markov Model property and topological properties of different transportation layers to model an unsupervised mapping algorithm which maps sparse cellular trajectories on multilayer transportation network. Later on, we propose ‘LCT-Mapper’ an algorithm to infer the main mode of trajectories. The area of study in this research work is Paris and region (Ile-de-France); we have modeled and built the multimodal transportation network database. To evaluate our proposed algorithm, we use real trajectories data sets collected from a group of volunteers for a period of 1 month. The user's cellular signalization data was provided by a french operator to assess the performance of our proposed algorithms using GPS data as ground truth. An extensive set of evaluation has been performed to validate the proposed algorithms. To summarize, we have shown in this work that it is feasible to infer the multimodal trajectory of users in an unsupervised manner. Our achievement makes it possible to investigate the multimodal mobility behavior of people and explore and monitor the population flow over multilayer transportation network
APA, Harvard, Vancouver, ISO, and other styles
19

Raharjo, Agus Budi. "Reliability in ensemble learning and learning from crowds." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0606.

Full text
Abstract:
La combinaison de plusieurs annotateurs experts est considérée pour prendre des décisions fiables dans le cas de données non étiquetées, bien que l’estimation des annotations d’experts ne soit pas une tâche facile en raison de divers niveaux de performance. Dans l’apprentissage supervisé, la performance contrastée des annotateurs peut se produire dans l’apprentissage ensembliste ou lorsque les vérités terrains sont absente. Dans l’apprentissage ensembliste, lorsque les données d'entraînement sont disponibles, différents classificateurs de base comme annotateurs fournissent des prévisions incertaines dans la phase de test. Alors que dans un cas où il n’y a pas des vérités terrains dans la phase d'entraînement, nous considérons les étiquettes proposées par plusieurs annotateurs sur les foules comme une pseudo-vérité de fond. Dans cette thèse, la première contribution basée sur le vote pondéré dans l’apprentissage ensembliste est proposée pour fournir des prédictions de combinaison fiables. Notre algorithme transforme les scores de confiance obtenus pendant le processus d'apprentissage en scores fiables. Lorsqu’il est difficile de trouver des experts comme les vérités terrains, une approche fondée sur l'estimation du maximum de vraisemblance et l'espérance-maximisation est proposée comme deuxième contribution pour sélectionner des annotateurs fiables. De plus, nous optimisons le temps de calcul de nos cadres afin d’adapter un grand nombre de données. Enfin, nos contributions visent à fournir des décisions fiables compte tenu des prédictions incertaines des classificateurs dans l’apprentissage ensembliste ou des annotations incertaines dans l’apprentissage de la foule
The combination of several human expert labels is generally used to make reliable decisions. However, using humans or learning systems to improve the overall decision is a crucial problem. Indeed, several human experts or machine learning have not necessarily the same performance. Hence, a great effort is made to deal with this performance problem in the presence of several actors, i.e., humans or classifiers. In this thesis, we present the combination of reliable classifiers in ensemble learning and learning from crowds. The first contribution is a method, based on weighted voting, which allows selecting a reliable combination of classifications. Our algorithm RelMV transforms confidence scores, obtained during the training phase, into reliable scores. By using these scores, it determines a set of reliable candidates through both static and dynamic selection process. When it is hard to find expert labels as ground truth, we propose an approach based on Bayesian and expectation-maximization (EM) as our second contribution. The aim is to evaluate the reliability degree of each annotator and to aggregate the appropriate labels carefully. We optimize the computation time of the algorithm in order to adapt a large number of data collected from crowds. The obtained outcomes show better accuracy, stability, and computation time compared to the previous methods. Also, we conduct an experiment considering the melanoma diagnosis problem using a real-world medical dataset consisting of a set of skin lesions images, which is annotated by multiple dermatologists
APA, Harvard, Vancouver, ISO, and other styles
20

Nadal, Robert. "Analyse des données astronomiques contenues dans le "Commentaire" d'Hipparque : [thèse en partie soutenue sur un ensemble de travaux]." Toulouse 3, 1990. http://www.theses.fr/1990TOU30197.

Full text
Abstract:
Hipparque est un astronome grec du 2eme siecle avant notre ere, connu pour avoir decouvert le phenomene de precession des equinoxes et dresse le premier catalogue d'etoiles. De son uvre il ne reste que le commentaire, ou il decrit les constellations en donnant le lever, le coucher et la culmination simultanee d'etoiles et de points de l'ecliptique. L'analyse des donnees numeriques fournies par hipparque a ete faite en partant de l'hypothese qu'il s'etait aide d'une sphere solide pour rediger son ouvrage. Un modele mathematique de cet instrument a permis d'en determiner les caracteristiques essentielles: obliquite de l'ecliptique trace sur le globe (2343), inclinaison de l'axe de rotation (latitude 3615), epaisseur de l'armille meridienne (0,5), dimension des etoiles sur le globe (1,7). L'epoque d'observation des etoiles (140) a ete determinee a partir des coordonnees equatoriales deduites pour 78 etoiles citees dans le texte. Leurs positions ont peut-etre figure dans le catalogue perdu d'hipparque. Des precisions ont ete apportees sur la maniere de travailler des anciens: hipparque utilise l'arrondi scientifique et effectue la lecture des longitudes ou la visee des etoiles au meridien des deux cotes de l'armille. D'autres hypotheses, dont celle d'un calcul des longitudes par interpolation a partir de tables d'ascensions droites et obliques, ont ete envisagees. Elles rendent moins bien compte des donnees numeriques d'hipparque et l'hypothese de la sphere solide reste la plus plausible
APA, Harvard, Vancouver, ISO, and other styles
21

Afli, Haithem. "La Traduction automatique statistique dans un contexte multimodal." Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1012/document.

Full text
Abstract:
Les performances des systèmes de traduction automatique statistique dépendent de la disponibilité de textes parallèles bilingues, appelés aussi bitextes. Cependant, les textes parallèles librement disponibles sont aussi des ressources rares : la taille est souvent limitée, la couverture linguistique insuffisante ou le domaine des textes n’est pas approprié. Il y a relativement peu de paires de langues pour lesquelles des corpus parallèles de tailles raisonnables sont disponibles pour certains domaines. L’une des façons pour pallier au manque de données parallèles est d’exploiter les corpus comparables qui sont plus abondants. Les travaux précédents dans ce domaine n’ont été appliqués que pour la modalité texte. La question que nous nous sommes posée durant cette thèse est de savoir si un corpus comparable multimodal permet d’apporter des solutions au manque de données parallèles dans le domaine de la traduction automatique.Dans cette thèse, nous avons étudié comment utiliser des ressources provenant de différentes modalités (texte ou parole) pour le développement d’un système de traduction automatique statistique. Une première partie des contributions consisteà proposer une technique pour l’extraction des données parallèles à partir d’un corpus comparable multimodal (audio et texte). Les enregistrements sont transcrits avec un système de reconnaissance automatique de la parole et traduits avec unsystème de traduction automatique. Ces traductions sont ensuite utilisées comme requêtes d’un système de recherche d’information pour sélectionner des phrases parallèles sans erreur et générer un bitexte. Dans la deuxième partie des contributions, nous visons l’amélioration de notre méthode en exploitant les entités sous-phrastiques créant ainsi une extension à notre système en vue de générer des segments parallèles. Nous améliorons aussi le module de filtrage. Enfin, nous présentons plusieurs manières d’aborder l’adaptation des systèmes de traduction avec les données extraites.Nos expériences ont été menées sur les données des sites web TED et Euronews qui montrent la faisabilité de nos approches
The performance of Statistical Machine Translation Systems statistics depends on the availability of bilingual parallel texts, also known as bitexts. However, freely available parallel texts are also a sparse resource : the size is often limited, languistic coverage insufficient or the domain of texts is not appropriate. There are relatively few pairs of languages for which parallel corpora sizes are available for some domains. One way to overcome the lack of parallel data is to exploit comparable corpus that are more abundant. Previous work in this area have been applied for the text modality. The question we asked in this thesis is : can comparable multimodal corpus allows us to make solutions to the lack of parallel data in machine translation? In this thesis, we studied how to use resources from different modalities (text or speech) for the development of a Statistical machine translation System. The first part of the contributions is to provide a method for extracting parallel data from a comparable multimodal corpus (text and audio). The audio data are transcribed with an automatic speech recognition system and translated with a machine translation system. These translations are then used as queries to select parallel sentences and generate a bitext. In the second part of the contribution, we aim to improve our method to exploit the sub-sentential entities creating an extension of our system to generate parallel segments. We also improve the filtering module. Finally, we présent several approaches to adapt translation systems with the extracted data. Our experiments were conducted on data from the TED and Euronews web sites which show the feasibility of our approaches
APA, Harvard, Vancouver, ISO, and other styles
22

Feng, Wei. "Investigation of training data issues in ensemble classification based on margin concept : application to land cover mapping." Thesis, Bordeaux 3, 2017. http://www.theses.fr/2017BOR30016/document.

Full text
Abstract:
La classification a été largement étudiée en apprentissage automatique. Les méthodes d’ensemble, qui construisent un modèle de classification en intégrant des composants d’apprentissage multiples, atteignent des performances plus élevées que celles d’un classifieur individuel. La précision de classification d’un ensemble est directement influencée par la qualité des données d’apprentissage utilisées. Cependant, les données du monde réel sont souvent affectées par les problèmes de bruit d’étiquetage et de déséquilibre des données. La marge d'ensemble est un concept clé en apprentissage d'ensemble. Elle a été utilisée aussi bien pour l'analyse théorique que pour la conception d'algorithmes d'apprentissage automatique. De nombreuses études ont montré que la performance de généralisation d'un classifieur ensembliste est liée à la distribution des marges de ses exemples d'apprentissage. Ce travail se focalise sur l'exploitation du concept de marge pour améliorer la qualité de l'échantillon d'apprentissage et ainsi augmenter la précision de classification de classifieurs sensibles au bruit, et pour concevoir des ensembles de classifieurs efficaces capables de gérer des données déséquilibrées. Une nouvelle définition de la marge d'ensemble est proposée. C'est une version non supervisée d'une marge d'ensemble populaire. En effet, elle ne requière pas d'étiquettes de classe. Les données d'apprentissage mal étiquetées sont un défi majeur pour la construction d'un classifieur robuste que ce soit un ensemble ou pas. Pour gérer le problème d'étiquetage, une méthode d'identification et d'élimination du bruit d'étiquetage utilisant la marge d'ensemble est proposée. Elle est basée sur un algorithme existant d'ordonnancement d'instances erronées selon un critère de marge. Cette méthode peut atteindre un taux élevé de détection des données mal étiquetées tout en maintenant un taux de fausses détections aussi bas que possible. Elle s'appuie sur les valeurs de marge des données mal classifiées, considérant quatre différentes marges d'ensemble, incluant la nouvelle marge proposée. Elle est étendue à la gestion de la correction du bruit d'étiquetage qui est un problème plus complexe. Les instances de faible marge sont plus importantes que les instances de forte marge pour la construction d'un classifieur fiable. Un nouvel algorithme, basé sur une fonction d'évaluation de l'importance des données, qui s'appuie encore sur la marge d'ensemble, est proposé pour traiter le problème de déséquilibre des données. Cette méthode est évaluée, en utilisant encore une fois quatre différentes marges d'ensemble, vis à vis de sa capacité à traiter le problème de déséquilibre des données, en particulier dans un contexte multi-classes. En télédétection, les erreurs d'étiquetage sont inévitables car les données d'apprentissage sont typiquement issues de mesures de terrain. Le déséquilibre des données d'apprentissage est un autre problème fréquent en télédétection. Les deux méthodes d'ensemble proposées, intégrant la définition de marge la plus pertinente face à chacun de ces deux problèmes majeurs affectant les données d'apprentissage, sont appliquées à la cartographie d'occupation du sol
Classification has been widely studied in machine learning. Ensemble methods, which build a classification model by integrating multiple component learners, achieve higher performances than a single classifier. The classification accuracy of an ensemble is directly influenced by the quality of the training data used. However, real-world data often suffers from class noise and class imbalance problems. Ensemble margin is a key concept in ensemble learning. It has been applied to both the theoretical analysis and the design of machine learning algorithms. Several studies have shown that the generalization performance of an ensemble classifier is related to the distribution of its margins on the training examples. This work focuses on exploiting the margin concept to improve the quality of the training set and therefore to increase the classification accuracy of noise sensitive classifiers, and to design effective ensemble classifiers that can handle imbalanced datasets. A novel ensemble margin definition is proposed. It is an unsupervised version of a popular ensemble margin. Indeed, it does not involve the class labels. Mislabeled training data is a challenge to face in order to build a robust classifier whether it is an ensemble or not. To handle the mislabeling problem, we propose an ensemble margin-based class noise identification and elimination method based on an existing margin-based class noise ordering. This method can achieve a high mislabeled instance detection rate while keeping the false detection rate as low as possible. It relies on the margin values of misclassified data, considering four different ensemble margins, including the novel proposed margin. This method is extended to tackle the class noise correction which is a more challenging issue. The instances with low margins are more important than safe samples, which have high margins, for building a reliable classifier. A novel bagging algorithm based on a data importance evaluation function relying again on the ensemble margin is proposed to deal with the class imbalance problem. In our algorithm, the emphasis is placed on the lowest margin samples. This method is evaluated using again four different ensemble margins in addressing the imbalance problem especially on multi-class imbalanced data. In remote sensing, where training data are typically ground-based, mislabeled training data is inevitable. Imbalanced training data is another problem frequently encountered in remote sensing. Both proposed ensemble methods involving the best margin definition for handling these two major training data issues are applied to the mapping of land covers
APA, Harvard, Vancouver, ISO, and other styles
23

Chlaily, Saloua. "Modèle d'interaction et performances du traitement du signal multimodal." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT026/document.

Full text
Abstract:
Bien que le traitement conjoint des mesures multimodales soit supposé conduire à de meilleures performances que celles obtenues en exploitant une seule modalité ou plusieurs modalités indépendamment, il existe des exemples en littérature qui prouvent que c'est pas toujours vrai. Dans cette thèse, nous analysons rigoureusement, en termes d'information mutuelle et d'erreur d'estimation, les différentes situations de l'analyse multimodale afin de déterminer les conditions conduisant à des performances optimales.Dans la première partie, nous considérons le cas simple de deux ou trois modalités, chacune étant associée à la mesure bruitée d'un signal, avec des liens entre modalités matérialisés par les corrélations entre les parties utiles du signal et par les corrélations les bruits. Nous montrons comment les performances obtenues sont améliorées avec l'exploitation des liens entre les modalités. Dans la seconde partie, nous étudions l'impact sur les performances d'erreurs sur les liens entre modalités. Nous montrons que ces fausses hypothèses dégradent les performances, qui peuvent alors devenir inférieure à celles atteintes avec une seule modalité.Dans le cas général, nous modélisons les multiples modalités comme un canal gaussien bruité. Nous étendons alors des résultats de la littérature en considérant l'impact d'erreurs sur les densités de probabilité du signal et du bruit sur l'information transmise par le canal. Nous analysons ensuite cette relation dans la cas d'un modèle simple de deux modalités. Nos résultats montrent en particulier le fait inattendu qu'une double inadéquation du bruit et du signal peuvent parfois se compenser et ainsi conduire à de très bonnes performances
The joint processing of multimodal measurements is supposed to lead to better performances than those obtained using a single modality or several modalities independently. However, in literature, there are examples that show that is not always true. In this thesis, we analyze, in terms of mutual information and estimation error, the different situations of multimodal analysis in order to determine the conditions to achieve the optimal performances.In the first part, we consider the simple case of two or three modalities, each associated with noisy measurement of a signal. These modalities are linked through the correlations between the useful parts of the signal and the correlations between the noises. We show that the performances are improved if the links between the modalities are exploited. In the second part, we study the impact on performance of wrong links between modalities. We show that these false assumptions decline the performance, which can become lower than the performance achieved using a single modality.In the general case, we model the multiple modalities as a noisy Gaussian channel. We then extend literature results by considering the impact of the errors on signal and noise probability densities on the information transmitted by the channel. We then analyze this relationship in the case of a simple model of two modalities. Our results show in particular the unexpected fact that a double mismatch of the noise and the signal can sometimes compensate for each other, and thus lead to very good performances
APA, Harvard, Vancouver, ISO, and other styles
24

Guillaumin, Matthieu. "Données multimodales pour l'analyse d'image." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00522278/en/.

Full text
Abstract:
La présente thèse s'intéresse à l'utilisation de méta-données textuelles pour l'analyse d'image. Nous cherchons à utiliser ces informations additionelles comme supervision faible pour l'apprentissage de modèles de reconnaissance visuelle. Nous avons observé un récent et grandissant intérêt pour les méthodes capables d'exploiter ce type de données car celles-ci peuvent potentiellement supprimer le besoin d'annotations manuelles, qui sont coûteuses en temps et en ressources. Nous concentrons nos efforts sur deux types de données visuelles associées à des informations textuelles. Tout d'abord, nous utilisons des images de dépêches qui sont accompagnées de légendes descriptives pour s'attaquer à plusieurs problèmes liés à la reconnaissance de visages. Parmi ces problèmes, la vérification de visages est la tâche consistant à décider si deux images représentent la même personne, et le nommage de visages cherche à associer les visages d'une base de données à leur noms corrects. Ensuite, nous explorons des modèles pour prédire automatiquement les labels pertinents pour des images, un problème connu sous le nom d'annotation automatique d'image. Ces modèles peuvent aussi être utilisés pour effectuer des recherches d'images à partir de mots-clés. Nous étudions enfin un scénario d'apprentissage multimodal semi-supervisé pour la catégorisation d'image. Dans ce cadre de travail, les labels sont supposés présents pour les données d'apprentissage, qu'elles soient manuellement annotées ou non, et absentes des données de test. Nos travaux se basent sur l'observation que la plupart de ces problèmes peuvent être résolus si des mesures de similarité parfaitement adaptées sont utilisées. Nous proposons donc de nouvelles approches qui combinent apprentissage de distance, modèles par plus proches voisins et méthodes par graphes pour apprendre, à partir de données visuelles et textuelles, des similarités visuelles spécifiques à chaque problème. Dans le cas des visages, nos similarités se concentrent sur l'identité des individus tandis que, pour les images, elles concernent des concepts sémantiques plus généraux. Expérimentalement, nos approches obtiennent des performances à l'état de l'art sur plusieurs bases de données complexes. Pour les deux types de données considérés, nous montrons clairement que l'apprentissage bénéficie de l'information textuelle supplémentaire résultant en l'amélioration de la performance des systèmes de reconnaissance visuelle.
APA, Harvard, Vancouver, ISO, and other styles
25

Guillaumin, Matthieu. "Données multimodales pour l'analyse d'image." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM048.

Full text
Abstract:
La présente thèse s'intéresse à l'utilisation de méta-données textuelles pour l'analyse d'image. Nous cherchons à utiliser ces informations additionelles comme supervision faible pour l'apprentissage de modèles de reconnaissance visuelle. Nous avons observé un récent et grandissant intérêt pour les méthodes capables d'exploiter ce type de données car celles-ci peuvent potentiellement supprimer le besoin d'annotations manuelles, qui sont coûteuses en temps et en ressources. Nous concentrons nos efforts sur deux types de données visuelles associées à des informations textuelles. Tout d'abord, nous utilisons des images de dépêches qui sont accompagnées de légendes descriptives pour s'attaquer à plusieurs problèmes liés à la reconnaissance de visages. Parmi ces problèmes, la vérification de visages est la tâche consistant à décider si deux images représentent la même personne, et le nommage de visages cherche à associer les visages d'une base de données à leur noms corrects. Ensuite, nous explorons des modèles pour prédire automatiquement les labels pertinents pour des images, un problème connu sous le nom d'annotation automatique d'image. Ces modèles peuvent aussi être utilisés pour effectuer des recherches d'images à partir de mots-clés. Nous étudions enfin un scénario d'apprentissage multimodal semi-supervisé pour la catégorisation d'image. Dans ce cadre de travail, les labels sont supposés présents pour les données d'apprentissage, qu'elles soient manuellement annotées ou non, et absentes des données de test. Nos travaux se basent sur l'observation que la plupart de ces problèmes peuvent être résolus si des mesures de similarité parfaitement adaptées sont utilisées. Nous proposons donc de nouvelles approches qui combinent apprentissage de distance, modèles par plus proches voisins et méthodes par graphes pour apprendre, à partir de données visuelles et textuelles, des similarités visuelles spécifiques à chaque problème. Dans le cas des visages, nos similarités se concentrent sur l'identité des individus tandis que, pour les images, elles concernent des concepts sémantiques plus généraux. Expérimentalement, nos approches obtiennent des performances à l'état de l'art sur plusieurs bases de données complexes. Pour les deux types de données considérés, nous montrons clairement que l'apprentissage bénéficie de l'information textuelle supplémentaire résultant en l'amélioration de la performance des systèmes de reconnaissance visuelle
This dissertation delves into the use of textual metadata for image understanding. We seek to exploit this additional textual information as weak supervision to improve the learning of recognition models. There is a recent and growing interest for methods that exploit such data because they can potentially alleviate the need for manual annotation, which is a costly and time-consuming process. We focus on two types of visual data with associated textual information. First, we exploit news images that come with descriptive captions to address several face related tasks, including face verification, which is the task of deciding whether two images depict the same individual, and face naming, the problem of associating faces in a data set to their correct names. Second, we consider data consisting of images with user tags. We explore models for automatically predicting tags for new images, i. E. Image auto-annotation, which can also used for keyword-based image search. We also study a multimodal semi-supervised learning scenario for image categorisation. In this setting, the tags are assumed to be present in both labelled and unlabelled training data, while they are absent from the test data. Our work builds on the observation that most of these tasks can be solved if perfectly adequate similarity measures are used. We therefore introduce novel approaches that involve metric learning, nearest neighbour models and graph-based methods to learn, from the visual and textual data, task-specific similarities. For faces, our similarities focus on the identities of the individuals while, for images, they address more general semantic visual concepts. Experimentally, our approaches achieve state-of-the-art results on several standard and challenging data sets. On both types of data, we clearly show that learning using additional textual information improves the performance of visual recognition systems
APA, Harvard, Vancouver, ISO, and other styles
26

Létourneau, François. "Analyse du potentiel de l'approche entrepôt de données pour l'intégration des métadonnées provenant d'un ensemble de géorépertoires disponibles sur Internet." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0007/MQ31752.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Le, Brun Alexia. "Etude d'un ensemble de paramètres liés à la sécheresse de la peau : traitement des données par des méthodes d'analyses multidimensionnelles." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10880.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

LEBRUN, ALEXIA MARIE. "Etude d'un ensemble de paramètres liés a la sécheresse de la peau : traitements des données par des méthodes d'analyses multidimensionnelles." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10885.

Full text
Abstract:
Cette etude est l'analyse statistique a l'aide des methodes de l'analyse multidimensionnelle des donnees, des resultats de deux series d'experiences sur la peau des jambes et du visage. L'objectif de ce travail est : de traiter toutes les variables (= mesures) simultanement pour chaque serie d'experiences, d'etablir les liens entre les differentes variables, de caracteriser les types de peaux etudies et l'effet du vieillissement
APA, Harvard, Vancouver, ISO, and other styles
29

Le, Brun Alexia. "Étude d'un ensemble de paramètres liés à la sécheresse de la peau : traitements des données par des méthodes d'analyses multidimensionnelles." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10689.

Full text
Abstract:
Cette etude est l'analyse statistique a l'aide des methodes de l'analyse multidimensionnelle des donnees, des resultats de deux series d'experiences sur la peau des jambes et du visage. L'objectif de ce travail est : de traiter toutes les variables (= mesures) simultanement pour chaque serie d'experiences, d'etablir les liens entre les differentes variables, de caracteriser les types de peaux etudies et l'effet du vieillissement
APA, Harvard, Vancouver, ISO, and other styles
30

Bergou, El Houcine. "Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0114/document.

Full text
Abstract:
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b
The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b
APA, Harvard, Vancouver, ISO, and other styles
31

Séraphin, John. "Réalisation d'un intranet : cohérence d'un ensemble réparti et communicant, autour d'une architecture réflexive." Paris 5, 1998. http://www.theses.fr/1998PA05S007.

Full text
Abstract:
Un intranet permet de déployer les applications client-serveur sur l'ensemble des postes de l'entreprise. Il concerne cependant des centaines de personnes, peu familières des technologies et de l'approche hypertexte. Les problèmes de cohérence et de persistance des liens, des modèles de documents, des feuilles de style, d'administration et d'exploitation de l'ensemble, s'avèrent alors d'une acuité inconnue sur l'internet. Nous présentons ici une architecture de base, réflexive, orientée-documents et commune a un intranet qui associe dans sa phase actuelle le web, les bases de données, un métalangage de manipulation de description et des techniques issues de l'intelligence artificielle, pour proposer aux utilisateurs connectes au réseau d'entreprise un accès fiable et uniforme a un ensemble facilement extensible de données locales ou transversales. Ricercar met en place un ensemble de bases de métadonnées fédérées qui décrivent et référencent les objets disponibles. Les serveurs web associes à ces bases composent ainsi dynamiquement les documents correspondants, indépendamment du serveur interroge ou de la localisation effective de ces données. Cette architecture garantit la qualité de service en assurant notamment la permanence des url publiées et la génération dynamique de la structure (l'arborescence) d'un serveur. Elle propose un modèle de navigation uniforme, géré l'authentification et les accès des utilisateurs et, enfin, autorise une surveillance d'ensemble ainsi que des statistiques de fréquentation modulaires et significatives. Suite a ses différents amorçages, Ricercar enregistre, dans cette même base repartie, la description et les références de ses propres données ainsi que celle des méta-scripts utilises pour générer dynamiquement les documents de l'intranet. Cette réflexivité, qui lui permet de manipuler et d'enrichir ses structures, en fait ainsi un système ouvert et adaptatif. Nous analysons donc les spécificités techniques et organisationnelles qui singularisent à notre sens l'intranet par rapport à l'internet ainsi que leur implémentation dans Ricercar, compare à un orb, dont nous présenterons les applications concrètes ainsi que les différentes perspectives d'évolution.
APA, Harvard, Vancouver, ISO, and other styles
32

Vielzeuf, Valentin. "Apprentissage neuronal profond pour l'analyse de contenus multimodaux et temporels." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC229/document.

Full text
Abstract:
Notre perception est par nature multimodale, i.e. fait appel à plusieurs de nos sens. Pour résoudre certaines tâches, il est donc pertinent d’utiliser différentes modalités, telles que le son ou l’image.Cette thèse s’intéresse à cette notion dans le cadre de l’apprentissage neuronal profond. Pour cela, elle cherche à répondre à une problématique en particulier : comment fusionner les différentes modalités au sein d’un réseau de neurones ?Nous proposons tout d’abord d’étudier un problème d’application concret : la reconnaissance automatique des émotions dans des contenus audio-visuels.Cela nous conduit à différentes considérations concernant la modélisation des émotions et plus particulièrement des expressions faciales. Nous proposons ainsi une analyse des représentations de l’expression faciale apprises par un réseau de neurones profonds.De plus, cela permet d’observer que chaque problème multimodal semble nécessiter l’utilisation d’une stratégie de fusion différente.C’est pourquoi nous proposons et validons ensuite deux méthodes pour obtenir automatiquement une architecture neuronale de fusion efficace pour un problème multimodal donné, la première se basant sur un modèle central de fusion et ayant pour visée de conserver une certaine interprétation de la stratégie de fusion adoptée, tandis que la seconde adapte une méthode de recherche d'architecture neuronale au cas de la fusion, explorant un plus grand nombre de stratégies et atteignant ainsi de meilleures performances.Enfin, nous nous intéressons à une vision multimodale du transfert de connaissances. En effet, nous détaillons une méthode non traditionnelle pour effectuer un transfert de connaissances à partir de plusieurs sources, i.e. plusieurs modèles pré-entraînés. Pour cela, une représentation neuronale plus générale est obtenue à partir d’un modèle unique, qui rassemble la connaissance contenue dans les modèles pré-entraînés et conduit à des performances à l'état de l'art sur une variété de tâches d'analyse de visages
Our perception is by nature multimodal, i.e. it appeals to many of our senses. To solve certain tasks, it is therefore relevant to use different modalities, such as sound or image.This thesis focuses on this notion in the context of deep learning. For this, it seeks to answer a particular problem: how to merge the different modalities within a deep neural network?We first propose to study a problem of concrete application: the automatic recognition of emotion in audio-visual contents.This leads us to different considerations concerning the modeling of emotions and more particularly of facial expressions. We thus propose an analysis of representations of facial expression learned by a deep neural network.In addition, we observe that each multimodal problem appears to require the use of a different merge strategy.This is why we propose and validate two methods to automatically obtain an efficient fusion neural architecture for a given multimodal problem, the first one being based on a central fusion network and aimed at preserving an easy interpretation of the adopted fusion strategy. While the second adapts a method of neural architecture search in the case of multimodal fusion, exploring a greater number of strategies and therefore achieving better performance.Finally, we are interested in a multimodal view of knowledge transfer. Indeed, we detail a non-traditional method to transfer knowledge from several sources, i.e. from several pre-trained models. For that, a more general neural representation is obtained from a single model, which brings together the knowledge contained in the pre-trained models and leads to state-of-the-art performances on a variety of facial analysis tasks
APA, Harvard, Vancouver, ISO, and other styles
33

Boubaker, Aimen. "Modelisation des composants mono-electroniques : Single-Electron Transistor et Single-Electron Memory." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0046/these.pdf.

Full text
Abstract:
[Ce travail concerne le développement des mémoires à un électron de type SET/SEM pour les technologies CMOS silicium. Le premier chapitre du manuscrit est consacré à la présentation d' une revue bibliographique des phénomènes apparaissant dans les nanodispositifs électroniques (effets quantiques, blocage de Coulomb) de type transistors et mémoires à un électron. Dans le deuxième chapitre, nous nous intéressons aux diffë rents modèles électriques proposés pour les SETs. Grâce à des simulations numériques développées sous SPICE, nous avons approfondi notre compréhension du fonctionnement des SETs dans quelques exemples d'applications. Il s' agissait notamment de comparer les modèles dans le cas de SETs métalliques et semiconducteurs. Le troisième chapitre concerne la définition de l' architecture mémoire à un électron de type SET/SEM que nous proposons d'étudier. Après avoir présenté le concept de la structure SET/SEM, et expliqué le principe de fonctionnement dans les modes de lecture et de programmation, nous détaillons les résultats de simulations des caractéristiques du dispositif proposé. Après avoir opté pour une mémoire utilisant deux îlots métalliques pour les opérations de stockage de charge et de lecture respectivement, nous avons utilisé le logiciel SIMON afi n de proposer une architecture optimisée. Les travaux de simulations de l'architecture SET/SEM nous ont permis de calculer les éléments de circuits du modèle électrique équivalent permettant un fonctionnement optimal de la mémoire. Un aspect fondamental pour cette étude était en effet d'optimiser le décalage OVg des caractéristiques Ig-Vg observé lors de l' injection d'électrons uniques dans le point mémoire. Finalement, nous avons démontré qu'un décalage de quelques dizaines de m V/ électron était possible dans notre architecture. Dans le quatrième chapitre, nous présentons une étude détaillée des mécanismes de transport dans le bloc de mémorisation. Un modèle électrique de la cinétique de charge et décharge a été utilisé en prenant en compte l'effet du champ électrique. Finalement, nous avons étudié l' influence des paramètres technologiques comme les épaisseurs d'oxyde et la surface de l' îlot de mémorisation afin de proposer un dimensionnement de l'architecture SET/SEM. Ces simulations faites dans un premier temps à partir du système Ti / Tiüx utilisé dans la technologie nanodamascène développée à l'Université de Sherbrooke, ont pu dans un second temps être étendues à d'autres systèmes de matériaux afin de pro poser les matériaux présentant les meilleurs temps de rétention théoriques. Après avoir comparé les simulations d'îlots métalliques en Pt, Au, TiSi2, NiSi et Ti, nos travaux montrent que titane associé au Ti02 présente les meilleurs temps de rétention à 85% y compris à des températures aussi élevées que 430K qui représente actuellement la température maximale de fonctionnement des SETs réalisés à l'uni versité de Sherbrooke. ]
[This work concerns the study of SET/SEM single electron memories for CMOS technologies. The first part presents a review of quantum and Coulomb blockade effects in electronic nanodevices. In a second part, we present the main electrical models proposed for single electron devices. A comparison between semiconductor-based and metall ic-based single electron transistors. The third part of the thesis presents the SET/SEM memory structure on the basis of SIMON simulations. The device consists on the coupling of a metallic SET operating at high temperature with a metalli c memory node. Finnaly, an optimized memory device has been proposed in the Ti/Tiüx system. The proposed memory is able to write and erase a discrete number of electrons varying from 0 to 7 at room temperature. This opens the possibility of multilevel memory circuits. Finally, we have studied the data retenti on performances of the memory in the last part of this thesis. After the first simulations with the Ti/Tiüx materials system, we have simulated various metallic systems such as Pt, Au, TiSi2, and NiSi. We have shown that finally, the Ti/Ti02 systems gives the best data retention performances even at high temperatures, up to 430K. . ]
APA, Harvard, Vancouver, ISO, and other styles
34

Balakrishnan, Arjun. "Integrity Analysis of Data Sources in Multimodal Localization System." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG060.

Full text
Abstract:
Les véhicules intelligents sont un élément clé pour des systèmes de transport plus sûrs, efficaces et accessibles à travers le monde. En raison de la multitude de sources de données et de processus associés aux véhicules intelligents, la fiabilité de l'ensemble du système dépend fortement de la possibilité d'erreurs ou de mauvaises performances observées dans ses composants. Dans notre travail, nous nous intéressons à la tâche critique de localisation des véhicules intelligents et relevons les défis de la surveillance de l'intégrité des sources de données utilisées dans la localisation. La contribution clé de notre recherche est la proposition d'un nouveau protocole d'intégrité en combinant les concepts d'intégrité des systèmes d'information et les concepts d'intégrité existants dans les Systèmes de Transport Intelligents (STI). Un cadre de surveillance de l'intégrité basé sur le protocole d'intégrité proposé qui peut gérer les problèmes de localisation multimodale est développé. Dans la première étape, une preuve de concept pour ce cadre est développée sur la base d'une estimation de cohérence croisée des sources de données à l'aide de modèles polynomiaux. Sur la base des observations de la première étape, une représentation des données «Feature Grid» est proposée dans la deuxième étape et un prototype généralisé pour le cadre est mis en œuvre. Le cadre est testé sur les autoroutes ainsi que dans des scénarios urbains complexes pour démontrer que le cadre proposé est capable de fournir des estimations d'intégrité continue des sources de données multimodales utilisées dans la localisation intelligente des véhicules
Intelligent vehicles are a key component in humanity’s vision for safer, efficient, and accessible transportation systems across the world. Due to the multitude of data sources and processes associated with Intelligent vehicles, the reliability of the total system is greatly dependent on the possibility of errors or poor performances observed in its components. In our work, we focus on the critical task of localization of intelligent vehicles and address the challenges in monitoring the integrity of data sources used in localization. The primary contribution of our research is the proposition of a novel protocol for integrity by combining integrity concepts from information systems with the existing integrity concepts in the field of Intelligent Transport Systems (ITS). An integrity monitoring framework based on the theorized integrity protocol that can handle multimodal localization problems is formalized. As the first step, a proof of concept for this framework is developed based on cross-consistency estimation of data sources using polynomial models. Based on the observations from the first step, a 'Feature Grid' data representation is proposed in the second step and a generalized prototype for the framework is implemented. The framework is tested in highways as well as complex urban scenarios to demonstrate that the proposed framework is capable of providing continuous integrity estimates of multimodal data sources used in intelligent vehicle localization
APA, Harvard, Vancouver, ISO, and other styles
35

Samper, González Jorge Alberto. "Learning from multimodal data for classification and prediction of Alzheimer's disease." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS361.

Full text
Abstract:
La maladie d’Alzheimer (MA) est la première cause de démence dans le monde, touchant plus de 20 millions de personnes. Son diagnostic précoce est essentiel pour assurer une prise en charge adéquate des patients ainsi que pour développer et tester de nouveaux traitements. La MA est une maladie complexe qui nécessite différentes mesures pour être caractérisée : tests cognitifs et cliniques, neuroimagerie, notamment l’imagerie par résonance magnétique (IRM) et la tomographie par émission de positons (TEP), génotypage, etc. Il y a un intérêt à explorer les capacités discriminatoires et prédictives à un stade précoce de ces différents marqueurs, qui reflètent différents aspects de la maladie et peuvent apporter des informations complémentaires. L’objectif de cette thèse de doctorat était d’évaluer le potentiel et d’intégrer différentes modalités à l’aide de méthodes d’apprentissage statistique, afin de classifier automatiquement les patients atteints de la MA et de prédire l’évolution de la maladie dès ses premiers stades. Plus précisément, nous visions à progresser vers une future application de ces approches à la pratique clinique. La thèse comprend trois études principales. La première porte sur le diagnostic différentiel entre différentes formes de démence à partir des données IRM. Cette étude a été réalisée à l’aide de données de routine clinique, ce qui a permis d’obtenir un scénario d’évaluation plus réaliste. La seconde propose un nouveau cadre pour l’évaluation reproductible des algorithmes de classification de la MA à partir des données IRM et TEP. En effet, bien que de nombreuses approches aient été proposées dans la littérature pour la classification de la MA, elles sont difficiles à comparer et à reproduire. La troisième partie est consacrée à la prédiction de l’évolution de la maladie d’Alzheimer chez les patients atteints de troubles cognitifs légers par l’intégration de données multimodales, notamment l’IRM, la TEP, des évaluations cliniques et cognitives, et le génotypage. En particulier, nous avons systématiquement évalué la valeur ajoutée de la neuroimagerie par rapport aux seules données cliniques/cognitives. Comme la neuroimagerie est plus coûteuse et moins répandue, il est important de justifier son utilisation dans les algorithmes de classification
Alzheimer's disease (AD) is the first cause of dementia worldwide, affecting over 20 million people. Its diagnosis at an early stage is essential to ensure a proper care of patients, and to develop and test novel treatments. AD is a complex disease that has to be characterized by the use of different measurements: cognitive and clinical tests, neuroimaging including magnetic resonance imaging (MRI) and positron emission tomography (PET), genotyping, etc. There is an interest in exploring the discriminative and predictive capabilities of these diverse markers, which reflect different aspects of the disease and potentially carry complementary information, from an early stage of the disease. The objective of this PhD thesis was thus to assess the potential and to integrate multiple modalities using machine learning methods, in order to automatically classify patients with AD and predict the development of the disease from the earliest stages. More specifically, we aimed to make progress toward the translation of such approaches toward clinical practice. The thesis comprises three main studies. The first one tackles the differential diagnosis between different forms of dementia from MRI data. This study was performed using clinical routine data, thereby providing a more realistic evaluation scenario. The second one proposes a new framework for reproducible evaluation of AD classification algorithms from MRI and PET data. Indeed, while numerous approaches have been proposed for AD classification in the literature, they are difficult to compare and to reproduce. The third part is devoted to the prediction of progression to AD in patients with mild cognitive impairment through the integration of multimodal data, including MRI, PET, clinical/cognitive evaluations and genotyping. In particular, we systematically assessed the added value of neuroimaging over clinical/cognitive data only. Since neuroimaging is more expensive and less widely available, this is important to justify its use as input of classification algorithms
APA, Harvard, Vancouver, ISO, and other styles
36

Yang, Yin. "Study of variational ensemble methods for image assimilation." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S118/document.

Full text
Abstract:
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière
The hybrid methods combing the 4D variational method and the ensemble Kalman filter provide a flexible framework. In such framework the potential advantages with respect to each method (e.g. the flow-dependent background error covariance, the ability to explicitly get the analysis error covariance matrix, the iterative minimization procedure and the simultaneously assimilation of all observations with in a time span etc.) can be retained. In this thesis, an enhanced ensemble-based 4DVar scheme is proposed and has been analyzed in detail in the case of the 2D shallow water model. Several variations related to this method are introduced and tested. We proposed a new nested loop scheme in which the background error covariance matrix is updated for each outer loop. We also devised different ensemble update schemes together with two localization schemes. And we exploited the links between the analysis error covariance matrix and the inverse Hessian of our 4D cost function. All these variants have been tested with the real Kinect-captured image data and synthetic image data associated with a SQG (Surface Quasi-Geostrophic) model, respectively. At the second stage, a parameter estimation scheme of our proposed ensemble-based variational method is devised. Such formulation allows the parameter estimation of an uncertainty subgrid stress tensor. And this uncertainty subgrid stress tensor is derived from a perspective of flow phenomenon driven by a stochastic process. Finally, a first effort is made to assimilation high-resolution image data with the dynamical model running on a much coarser grid
APA, Harvard, Vancouver, ISO, and other styles
37

Oger, Niels. "Observation adaptative : limites de la prévision et du contrôle des incertitudes." Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/14491/1/oger.pdf.

Full text
Abstract:
L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF.
APA, Harvard, Vancouver, ISO, and other styles
38

Marty, Jean-Charles. "Evolution thermique de la lithosphère océanique : analyse des données altimétriques SEASAT et des donnees topographiques : [thèse en partie soutenue sur un ensemble de travaux]." Toulouse 3, 1990. http://www.theses.fr/1990TOU30005.

Full text
Abstract:
Depuis la formulation de la theorie de la tectonique des plaques, il est admis que dans la lithosphere, la chaleur est transportee par conduction depuis des profondeurs de 100-125 kilometres. Les zones de fracture separent deux portions de plaque d'ages differents, donc de structure thermique differente. Le saut de geoide observe perpendiculairement a une zone de fracture grace aux donnees du satellite seasat, a ete analyse le long de douze grandes zones de fracture dans le pacifique et l'atlantique, en fonction de l'age moyen de la plaque. Cela a permis de montrer que les modeles de refroidissement conductif sont incapables d'expliquer les observations, sauf si l'on admet qu'une partie de la chaleur du manteau est transportee par convection dans une couche peu epaisse sous la lithosphere, appelee zone a faible viscosite. D'autre part, l'analyse sur tous les oceans de la subsidence du plancher oceanique quand l'age augmente a permis de montrer: a) que le modele classique d'evolution thermique explique bien les donnees, b) que le taux de subsidence varie beaucoup d'une region a l'autre, c) qu'il existe une correlation entre la profondeur de la dorsale et le taux de subsidence: les regions de faible profondeur de dorsale subsident plus vite et reciproquement
APA, Harvard, Vancouver, ISO, and other styles
39

Anzid, Hanan. "Fusion de données multimodales par combinaison de l’incertain et de modèles de perception." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK046.

Full text
Abstract:
L’idée générale consiste à utiliser conjointement des informations multiples hétérogènes portant sur le même problème entachées d’imperfections et provenant de plusieurs sources afin d’améliorer la connaissance d’une situation donnée. La visualisation adaptée des images pour l’aide à la prise de décision en utilisant les informations perceptuelles porté par les cartes de saillance
The general idea is to use together heterogeneous multiple information on the same problem tainted by imperfections and coming from several sources in order to improve the knowledge of a given situation. Appropriate visualization of the images to aid in decision making using the perceptual information carried by the salience maps
APA, Harvard, Vancouver, ISO, and other styles
40

Al-Najdi, Atheer. "Une approche basée sur les motifs fermés pour résoudre le problème de clustering par consensus." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4111/document.

Full text
Abstract:
Le clustering est le processus de partitionnement d’un ensemble de données en groupes, de sorte que les instances du même groupe sont plus semblables les unes aux autres qu’avec celles de tout autre groupe. De nombreux algorithmes de clustering ont été proposés, mais aucun d’entre eux ne s’avère fournir une partitiondes données pertinente dans toutes les situations. Le clustering par consensus vise à améliorer le processus de regroupement en combinant différentes partitions obtenues à partir de divers algorithmes afin d’obtenir une solution de consensus de meilleure qualité. Dans ce travail, une nouvelle méthode de clustering par consensus, appelée MultiCons, est proposée. Cette méthode utilise la technique d’extraction des itemsets fréquents fermés dans le but de découvrir les similitudes entre les différentes solutions de clustering dits de base. Les similitudes identifiées sont représentées sous une forme de motifs de clustering, chacun définissant un accord entre un ensemble de clusters de bases sur le regroupement d’un ensemble d’instances. En traitant ces motifs par groupes, en fonction du nombre de clusters de base qui définissent le motif, la méthode MultiCons génère une solution de consensus pour chaque groupe, générant par conséquence plusieurs consensus candidats. Ces différentes solutions sont ensuite représentées dans une structure arborescente appelée arbre de consensus, ouConsTree. Cette représentation graphique facilite la compréhension du processus de construction des multiples consensus, ainsi que les relations entre les instances et les structures d’instances dans l’espace de données
Clustering is the process of partitioning a dataset into groups, so that the instances in the same group are more similar to each other than to instances in any other group. Many clustering algorithms were proposed, but none of them proved to provide good quality partition in all situations. Consensus clustering aims to enhance the clustering process by combining different partitions obtained from different algorithms to yield a better quality consensus solution. In this work, a new consensus clustering method, called MultiCons, is proposed. It uses the frequent closed itemset mining technique in order to discover the similarities between the different base clustering solutions. The identified similarities are presented in a form of clustering patterns, that each defines the agreement between a set of base clusters in grouping a set of instances. By dividing these patterns into groups based on the number of base clusters that define the pattern, MultiCons generates a consensussolution from each group, resulting in having multiple consensus candidates. These different solutions are presented in a tree-like structure, called ConsTree, that facilitates understanding the process of building the multiple consensuses, and also the relationships between the data instances and their structuring in the data space. Five consensus functions are proposed in this work in order to build a consensus solution from the clustering patterns. Approach 1 is to just merge any intersecting clustering patterns. Approach 2 can either merge or split intersecting patterns based on a proposed measure, called intersection ratio
APA, Harvard, Vancouver, ISO, and other styles
41

Guillaume, Cécile. "Liens entre émotions et mémoire chez le jeune adulte et dans le vieillissement normal : données comportementales et électrophysiologiques : [thèse soutenue sur un ensemble de travaux]." Caen, 2009. http://www.theses.fr/2009CAEN1537.

Full text
Abstract:
L'objectif de cette thèse est de préciser l'effet des émotions sur trois systèmes de mémoire (mémoire épisodique, sémantique et perceptive) dans le fonctionnement normal (sujets jeunes et âgés). De nombreuses études ont montré que les émotions ont un effet bénéfique sur la mémoire épisodique mais les autres systèmes ont été peu explorés ; de plus ces résultats ont été observés chez les sujets jeunes mais ils sont moins clairs chez les sujets âgés. Notre première étude menée chez des sujets jeunes a montré que l'effet des émotions de faible intensité (visages émotionnels) sur la mémoire est peu marqué : seules les émotions négatives ont un effet bénéfique sur la mémoire épisodique et la mémoire perceptive, les émotions positives ayant au contraire un effet perturbateur sur la mémoire épisodique. Concernant le vieillissement et ses effets sur la mémoire, nous avons montré que des modifications de l'activité cérébrale peuvent survenir dès 50 ans, bien avant les premières modifications comportementales. De plus, l'analyse des potentiels évoqués a montré que tous les processus mnésiques ne sont pas sensibles à l'âge de la même manière. Enfin, nous avons montré dans une troisième étude que l'effet des émotions s'inverse en partie avec l'âge : les performances en mémoire sémantique sont améliorées par les émotions positives alors que les performances en mémoire épisodique déclinent davantage pour les visages négatifs, l'effet restant inchangé pour la mémoire perceptive. L'ensemble de ces résultats suggère que l'effet des émotions pourrait être distinct selon le système de mémoire et que cet effet évolue avec l'âge pour la mémoire épisodique et la mémoire sémantique
APA, Harvard, Vancouver, ISO, and other styles
42

Fourty, Thierry. "Estimation du contenu biochimique d'un couvert végétal à partir de données haute résolution spectrale acquises au niveau satellitaire : [thèse soutenue sur un ensemble de travaux]." Toulouse 3, 1996. http://www.theses.fr/1996TOU30213.

Full text
Abstract:
Comprendre les cycles bio-geo-chimiques des ecosystemes terrestres, et au dela les effets des changements globaux, necessite la connaissance des teneurs des composes biochimiques foliaires (proteines, lignine, cellulose, etc). Puisque ces composes participent a l'elaboration de la signature spectrale, l'objectif de cette these etait de cerner les potentialites de la teledetection satellitaire infrarouge haute resolution spectrale pour estimer le contenu biochimique des couverts vegetaux. Pour cela, nous avons developpe et valide des modeles analytiques ou semi-analytiques valables bases sur l'analyse de la relation entre la composition biochimique et les proprietes spectrales de feuilles de nombreuse espece vegetales. Nous avons travaille successivement a deux echelles, celui de la feuille et celui du couvert satellite (couvert vegetal et effets atmospheriques). Au niveau de la feuille, deux approches ont ete envisagees, une approche analytique (inversion du modele prospect) et une approche empirique (regression multiple). Les resultats sont comparables et montrent que seules les estimations des teneurs en eau et matiere seche sont fiables et robustes. Au niveau satellitaire, grace a des donnees radiometriques simulees a partir de modeles de transfert radiatif de sol, de feuille, de couvert et d'atmosphere et transformees pour correspondre aux caracteristiques du futur capteur prism, nous avons developpe un algorithme empirique d'extraction du contenu biochimique (eau et matiere seche) combinant modeles lineaires et neuronaux. Les resultats montrent qu'une dizaine de bandes spectrales suffisent pour fournir de bonnes estimations du contenu en eau et matiere seche (g. Par surface de couvert). Cependant, la precision des estimations reste tres sensible a la resolution radiometrique du capteur, contrairement a la resolution spectrale. L'utilisation de la haute resolution spectrale infrarouge au niveau satellitaire nous apparait limitee a l'estimation de la teneur en eau et en matiere seche integree sur l'ensemble du couvert
APA, Harvard, Vancouver, ISO, and other styles
43

Masri, Ali. "Multi-Network integration for an Intelligent Mobility." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV091/document.

Full text
Abstract:
Les systèmes de transport sont un des leviers puissants du progrès de toute société. Récemment les modes de déplacement ont évolué significativement et se diversifient. Les distances quotidiennement parcourues par les citoyens ne cessent d'augmenter au cours de ces dernières années. Cette évolution impacte l'attractivité et la compétitivité mais aussi la qualité de vie grandement dépendante de l'évolution des mobilités des personnes et des marchandises. Les gouvernements et les collectivités territoriales développent de plus en plus des politiques d'incitation à l'éco-mobilité. Dans cette thèse nous nous concentrons sur les systèmes de transport public. Ces derniers évoluent continuellement et offrent de nouveaux services couvrant différents modes de transport pour répondre à tous les besoins des usagers. Outre les systèmes de transports en commun, prévus pour le transport de masse, de nouveaux services de mobilité ont vu le jour, tels que le transport à la demande, le covoiturage planifié ou dynamique et l'autopartage ou les vélos en libre-service. Ils offrent des solutions alternatives de mobilité et pourraient être complémentaires aux services traditionnels. Cepandant, ces services sont à l'heure actuelle isolés du reste des modes de transport et des solutions multimodales. Ils sont proposés comme une alternative mais sans intégration réelle aux plans proposés par les outils existants. Pour permettre la multimodalité, le principal challenge de cette thèse est l'intégration de données et/ou de services provenant de systèmes de transports hétérogènes. Par ailleurs, le concept de données ouvertes est aujourd'hui adopté par de nombreuses organisations publiques et privées, leur permettant de publier leurs sources de données sur le Web et de gagner ainsi en visibilité. On se place dans le contexte des données ouvertes et des méthodes et outils du web sémantique pour réaliser cette intégration, en offrant une vue unifiée des réseaux et des services de transport. Les verrous scientifiques auxquels s'intéresse cette thèse sont liés aux problèmes d'intégration à la fois des données et des services informatiques des systèmes de transport sous-jacents
Multimodality requires the integration of heterogeneous transportation data and services to construct a broad view of the transportation network. Many new transportation services (e.g. ridesharing, car-sharing, bike-sharing) are emerging and gaining a lot of popularity since in some cases they provide better trip solutions.However, these services are still isolated from the existing multimodal solutions and are proposed as alternative plans without being really integrated in the suggested plans. The concept of open data is raising and being adopted by many companies where they publish their data sources to the web in order to gain visibility. The goal of this thesis is to use these data to enable multimodality by constructing an extended transportation network that links these new services to existing ones.The challenges we face mainly arise from the integration problem in both transportation services and transportation data
APA, Harvard, Vancouver, ISO, and other styles
44

Bonan, Bertrand. "Assimilation de données pour l'initialisation et l'estimation de paramètres d'un modèle d'évolution de calotte polaire." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00930097.

Full text
Abstract:
L'évolution des calottes polaires est régie à la fois par une dynamique d'écoulement complexe et par des mécanismes tel le glissement à la base, la température de la glace ou le bilan de masse en surface. De plus, de nombreuses boucles de rétroactions sont constatées entre les différents phénomènes impliquées. Tout ceci rend la modélisation de cette évolution complexe. Malgré tout, un certain nombre de modèles ont été développés dans cette optique. Ceux-ci font tous intervenir des paramètres influents qui dans certains cas sont peu ou pas connus. Ils nécessitent donc d'être correctement spécifiés. L'assimilation de données peut permettre une meilleure estimation de ces paramètres grâce à l'utilisation d'observations qui sont peu nombreuses en glaciologie. Dans cette thèse, nous nous intéressons à la mise en place de systèmes d'assimilation performants pour deux problèmes inverses concernant l'évolution des calottes polaires. Pour mieux nous concentrer sur ce point, nous avons travaillé avec un modèle d'évolution de calotte simplifié (appelé Winnie) qui, cependant, représente bien la plupart des processus complexes de la dynamique de la glace, et permet de travailler à différentes échelles de temps. Dans un premier temps, nous mettons en place une approche 4D-Var pour la reconstruction de l'évolution d'un paramètre climatique influant sur l'évolution d'une calotte sur une échelle de temps typique de 20 000 ans. Elle nécessite notamment l'écriture du code adjoint du modèle. Dans un second temps, nous nous intéressons au problème du spin-up. Ce problème de calibration du modèle pour des simulations à échelle de temps courtes (pas plus de 100 ans) consiste plus particulièrement en la reconstruction conjointe de l'état initial, de la topographie du socle rocheux et des paramètres de glissement basal. Nous développons ici une approche filtre de Kalman d'ensemble pour résoudre ce problème.
APA, Harvard, Vancouver, ISO, and other styles
45

Bendriss, Sabri. "Contribution à l'analyse et la conception d'un système d'information pour la gestion de la traçabilité des marchandises dans un contexte de transport multimodal." Le Havre, 2009. http://www.theses.fr/2009LEHA0024.

Full text
Abstract:
Une des solutions permettant de réguler et rationaliser le déplacement physique des marchandises est de réussir à synchroniser le flux physique avec son pendant informationnel tout au long des différents maillons constituant la chaîne de transport. Dans cette optique, une solution de suivi et de traçabilité des marchandises ne peut que contribuer à une meilleure maîtrise des flux. Dans ce mémoire, nous proposons une approche de modélisation des données de la traçabilité des marchandises basée sur des approches de recherche innovantes (PLM, Produit intelligent, Systèmes centrés sur le produit) et tenant compte des possibilités offertes par l’usage des NTIC en terme de partage des données, d’auto-identification et de géolocalisation. Par la suite, afin d'intégrer nos données avec le reste des données de la chaîne de transport mais aussi afin de faciliter l'échange et le partage des données, nous proposons une modélisation et le développement d’une plateforme d'intermédiation générique basée sur la logique des web services. Répondant à des critères d’interopérabilité et d’intégrabilité le résultat permet, à travers des mécanismes d’échange et de sauvegarde des données, de suivre et de resituer le cycle de vie des marchandises dans son intégralité
One of solutions to regulate and rationalize the physical displacement of goods is to succeed to synchronize the physical flow with its informational counterpart throughout the various links constituting the transport chain. In this context, a solution of goods tracking and tracing can contribute to a better mastery of flows. In this memory, we propose a data modeling approach for goods traceability based on innovative research approaches (PLM, Intelligent product, Product centered systems) and taking into account the possibilities offered by the use of NICT in terms of data sharing, auto-identification and geolocation. Then, in order to integrate our traceability data with the other transport chain data, but also in order to facilitate the sharing and the exchange of our data, we propose a modeling and the development of an intermediation platform based on the web services logic. Meeting criteria of interoperability and integrability, the result allows through mechanisms for exchange and saving data to follow and to restore goods lifecycle in its entirety
APA, Harvard, Vancouver, ISO, and other styles
46

Benkaraache, Taoufik. "Problèmes de validité en classification hiérarchique et quelques généralisations aux ultramétriques à valeurs dans un ensemble ordonné." Grenoble 1, 1993. http://www.theses.fr/1993GRE10102.

Full text
Abstract:
La validité des résultats est une étape cruciale en classification. Le premier chapitre de cette thèse regroupe d'importants éléments bibliographiques permettant de cerner le problème de validité des classifications hiérarchiques (partitions, hiérarchies et classes individuelles) et de tester la non-classifiabilité des données (tests de tendance). Les hiérarchies font l'objet d'une étude plus poussée dans le deuxième chapitre: après un bref aperçu sur la complexité et la comparaison pour les différents types de hiérarchies, on consacre une grande partie à l'étude des hiérarchies stratifiées [HS] (où seul l'ordre d'apparition des classes importe). On présente un indice de complexité simple et quelques indices de comparaison pour ce type de hiérarchies. Plusieurs propriétés intéressantes des HS sont alors mises en évidence. Le troisième chapitre présente des résultats obtenus en majorité par simulation, ceci pour combler le vide occasionné (dans le chapitre précédent) par le manque de quelques résultats théoriques comme la distribution de notre indice de complexité. Les hiérarchies indicées ordinaires (qui sont en bijection avec les ultramétriques à valeurs dans un ensemble totalement ordonné) ne sont qu'un cas particulier des L-hiérarchies (qui sont en bijection avec les ultramétriques à valeurs dans un ensemble L ordonné). Le quatrième chapitre étend la notion de complexité précédente au cas des L-hiérarchies et généralise aussi le calcul des approximations ultramétriques habituelles au cas d'une L-dissimilarité
APA, Harvard, Vancouver, ISO, and other styles
47

Haussaire, Jean-Matthieu. "Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1097/document.

Full text
Abstract:
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique
Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
APA, Harvard, Vancouver, ISO, and other styles
48

Nkoumbou, Charles. "I. Étude géologique des Monts Roumpi : un ensemble plutonique et volcanique de la "Ligne du Cameroun"II. Données pétrologiques sur les néphélinites du Mont Etinde (Cameroun)." Nancy 1, 1990. http://docnum.univ-lorraine.fr/public/SCD_T_1990_0460_NKOUMBOU.pdf.

Full text
Abstract:
Les monts Rumpi (sud-ouest Cameroun) sont constitués de roches plutoniques et volcaniques qui regroupent et reposent sur un substratum métamorphique et granitique. La géochronologie potassium-argon a été réalisée sur toutes les séries de roches. La série plutonique alcaline et ultime (gabbros-diorites-syénites) s'est différenciée par cristallisation fractionnée. La stratigraphie montre deux séries volcaniques allant des laves basiques alcalines aux laves felsiques hyperalcalines puis aux laves felsiques à kaersitite. La minéralogie, la géochimie et les équations de balance de masse indiquent une différenciation par cristallisation fractionnée. La source mantellique était enrichie en terres rares légères. Le montetinde a été cartographié et daté. Les caractéristiques pétrographiques, minéralogiques et géochimiques de ces laves nephelinitiques montrent qu'elles appartiennent à deux séries ou la cristallisation fractionnée a été, sporadiquement, perturbée par des réactions minéral-liquide et par des transferts d'éléments par des fluides. La source mantellique, chimiquement hétérogène, était enrichie en terres légères et était localisée en grande profondeur.
APA, Harvard, Vancouver, ISO, and other styles
49

Lassalle, Pierre. "Etude du passage à l'échelle des algorithmes de segmentation et de classification en télédétection pour le traitement de volumes massifs de données." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30261/document.

Full text
Abstract:
Les récentes missions spatiales d'observation de la Terre fourniront des images optiques à très hautes résolutions spatiale, spectrale et temporelle générant des volumes de données massifs. L'objectif de cette thèse est d'apporter de nouvelles solutions pour le traitement efficace de grands volumes de données ne pouvant être contenus en mémoire. Il s'agit de lever les verrous scientifiques en développant des algorithmes efficaces qui garantissent des résultats identiques à ceux obtenus dans le cas où la mémoire ne serait pas une contrainte. La première partie de la thèse se consacre à l'adaptation des méthodes de segmentation pour le traitement d'images volumineuses. Une solution naïve consiste à découper l'image en tuiles et à appliquer la segmentation sur chaque tuile séparément. Le résultat final est reconstitué en regroupant les tuiles segmentées. Cette stratégie est sous-optimale car elle entraîne des modifications par rapport au résultat obtenu lors de la segmentation de l'image sans découpage. Une étude des méthodes de segmentation par fusion de régions a conduit au développement d'une solution permettant la segmentation d'images de taille arbitraire tout en garantissant un résultat identique à celui obtenu avec la méthode initiale sans la contrainte de la mémoire. La faisabilité de la solution a été vérifiée avec la segmentation de plusieurs scènes Pléiades à très haute résolution avec des tailles en mémoire de l'ordre de quelques gigaoctets. La seconde partie de la thèse se consacre à l'étude de l'apprentissage supervisé lorsque les données ne peuvent être contenues en mémoire. Dans le cadre de cette thèse, nous nous focalisons sur l'algorithme des forêts aléatoires qui consiste à établir un comité d'arbres de décision. Plusieurs solutions ont été proposées dans la littérature pour adapter cet algorithme lorsque les données d'apprentissage ne peuvent être stockées en mémoire. Cependant, ces solutions restent soit approximatives, car la contrainte de la mémoire réduit à chaque fois la visibilité de l'algorithme à une portion des données d'apprentissage, soit peu efficaces, car elles nécessitent de nombreux accès en lecture et écriture sur le disque dur. Pour pallier ces problèmes, nous proposons une solution exacte et efficace garantissant une visibilité de l'algorithme sur l'ensemble des données d'apprentissage. L'exactitude des résultats est vérifiée et la solution est testée avec succès sur de grands volumes de données d'apprentissage
Recent Earth observation spatial missions will provide very high spectral, spatial and temporal resolution optical images, which represents a huge amount of data. The objective of this research is to propose innovative algorithms to process efficiently such massive datasets on resource-constrained devices. Developing new efficient algorithms which ensure identical results to those obtained without the memory limitation represents a challenging task. The first part of this thesis focuses on the adaptation of segmentation algorithms when the input satellite image can not be stored in the main memory. A naive solution consists of dividing the input image into tiles and segment each tile independently. The final result is built by grouping the segmented tiles together. Applying this strategy turns out to be suboptimal since it modifies the resulting segments compared to those obtained from the segmentation without tiling. A deep study of region-merging segmentation algorithms allows us to develop a tile-based scalable solution to segment images of arbitrary size while ensuring identical results to those obtained without tiling. The feasibility of the solution is shown by segmenting different very high resolution Pléiades images requiring gigabytes to be stored in the memory. The second part of the thesis focuses on supervised learning methods when the training dataset can not be stored in the memory. In the frame of the thesis, we decide to study the Random Forest algorithm which consists of building an ensemble of decision trees. Several solutions have been proposed to adapt this algorithm for processing massive training datasets, but they remain either approximative because of the limitation of memory imposes a reduced visibility of the algorithm on a small portion of the training datasets or inefficient because they need a lot of read and write access on the hard disk. To solve those issues, we propose an exact solution ensuring the visibility of the algorithm on the whole training dataset while minimizing read and write access on the hard disk. The running time is analysed by varying the dimension of the training dataset and shows that our proposed solution is very competitive with other existing solutions and can be used to process hundreds of gigabytes of data
APA, Harvard, Vancouver, ISO, and other styles
50

Daget, Nicolas. "Estimation d'ensemble des paramètres des covariances d'erreur d'ébauche dans un système d'assimilation variationnelle de données océaniques." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/251/1/Daget_Nicolas.pdf.

Full text
Abstract:
Dans cette thèse, une méthode d'ensemble est utilisée pour estimer les paramètres du modèle de covariance d'erreur d'ébauche dans un système d'assimilation de données variationnel (3D-Var) appliqué à une configuration globale du modèle de circulation océanique OPA. L'ensemble est obtenu en perturbant les champs de forçage de surface (tension de vents, flux d'eau douce et de chaleur) et les observations (profils de température et de salinité in situ) utilisées durant le processus d'assimilation. Ce travail de thèse s'intéresse particulièrement aux possibilités offertes par l'ensemble d'estimer au cours du temps les variances d'erreur d'ébauche de température et de salinité dépendants de l'écoulement. Deux formulations des variances d'erreur d'ébauche dépendant de l'écoulement ont été étudiées. La première est estimée à partir de l'ensemble tandis que la seconde est paramétrée en fonction du gradient vertical de température et de salinité d'ébauche. L'étude de sensibilité de l'analyse à ces deux formulations des variances d'erreur d'ébauche a été effectuée grâce à la comparaison d'expériences 3D-Var sur la période 1993-2000. Ces deux expériences 3D-Var permettent de réduire de manière significative l'écart aux observations assimilées comparativement à une expérience de contrôle (sans assimilation). L'impact de la formulation des variances d'erreur d'ébauche sur les statistiques d'innovation est similaire au-dessous de 150 mètres de profondeur. Au-dessus, où les tests de cohérence statistique suggèrent que les estimations d'ensemble des variances d'erreur d'ébauche sont sous-estimées, la formulation des variances d'erreur d'ébauche paramétrées présente des résultats légèrement meilleurs. Toutefois, la croissance d'erreur de température et de salinité entre les cycles d'assimilation est nettement réduite à l'aide des estimations d'ensemble des variances d'erreur d'ébauche ce qui laisse supposer que l'état analysé est mieux équilibré. Les anomalies de hauteur de mer dans la région du Gulf Stream et les vitesses zonales dans le Pacifique tropical, champs non directement contraints par les observations, sont nettement améliorés en utilisant les variances d'erreur d'ébauche estimés par l'ensemble plutôt que celles paramétrées. La comparaison avec l'expérience de contrôle est moins concluante et indique que lorsque certains aspects des ces variables sont améliorés (anomalie de hauteur de mer et courants dans le centre et l'Est du Pacifique), d'autres sont dégradés (anomalies de hauteur de mer dans le Gulf Stream et courants dans l'Ouest du Pacifique. .
In this thesis, an ensemble method has been designed and used to estimate parameters of the background-error covariance model in a three-dimensional variational data assimilation (3D-Var) system of a global version of the OPA ocean general circulation model. The ensemble is created by perturbing the surface forcing fields (windstress, fresh-water and heat flux) and the observations (temperature and salinity profiles) used in the assimilation process. This thesis work focused on the use of the ensemble to provide flow-dependent estimates of the background-error standard deviations (sigma b) for temperature and salinity. Cycled 3D-Var experiments were performed over the period 1993-2000 to test the sensitivity of the analyses to the ensemble sigma b formulation and to a simpler flow-dependent formulation of sigma b based on an empirical parameterization in terms of the vertical gradients of the background temperature and salinity fields. Both 3D-Var experiments produce a significant improvement in the fit to the temperature and salinity data compared to that from a control experiment in which no data were assimilated. Comparing innovation statistics from the two sigma b formulations shows that both formulations produce similar results except in the upper 150 m where the parameterized sigma b are slightly better. There, statistical consistency checks indicate that the ensemble sigma b are underestimated. The temperature and salinity error growth between cycles, however, is shown to be much reduced with the ensemble sigma b, suggesting that the analyses produced with the ensemble sigma b are in better balance than those produced with the parameterized sigma b. Sea surface height (SSH) anomalies in the northwest Atlantic and zonal velocities in the equatorial Pacific, which are fields not directly constrained by the observations, are clearly better with the ensemble sigma b than with the parameterized sigma b when compared to independent data. Comparisons with the control are less conclusive, and indicate that, while some aspects of those variables are improved (SSH anomalies and currents in the central and eastern Pacific), other aspects are degraded (SSH anomalies in the northwest Atlantic, currents in the western Pacific). .
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography