Siga este link para ver outros tipos de publicações sobre o tema: Inversions statistiques.

Teses / dissertações sobre o tema "Inversions statistiques"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 27 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Inversions statistiques".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Boucher, Eulalie. "Designing Deep-Learning models for surface and atmospheric retrievals from the IASI infrared sounder". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS145.

Texto completo da fonte
Resumo:
L'observation de la Terre est essentielle pour comprendre et surveiller le comportement complexe de notre planète. Les satellites, équipés d'un certain nombre de capteurs sophistiqués, constituent une plateforme clé à cet égard, offrant une opportunité d'observer la Terre à l'échelle globale et de manière continue. Les techniques d'apprentissage automatique (ML) sont utilisées depuis plusieurs décennies, dans la communauté de la télédétection, pour traiter la grande quantité de données générées quotidiennement par les systèmes d'observation de la Terre. La révolution apportée par les nouvelles techniques de Deep Learning (DL) a toutefois ouvert de nouvelles possibilités pour l'exploitation des observations satellitaires. Cette thèse vise à montrer que des techniques de traitement d'images telles que les réseaux neuronaux convolutifs (CNN), à condition qu'elles soient bien maîtrisées, ont le potentiel d'améliorer l'estimation des paramètres atmosphériques et de surface de la Terre. En considérant les observations à l'échelle de l'image plutôt qu'à l'échelle du pixel, les dépendances spatiales peuvent être prises en compte. De telles techniques sont utilisées dans cette thèse pour l'estimation des températures de surface et atmosphériques, ainsi que pour la détection et la classification des nuages à partir des observations de l'Interféromètre Atmosphérique de Sondage dans l'Infrarouge (IASI). IASI, qui est placé à bord des satellites en orbite polaire Metop, est un sondeur hyperspectral collectant des données sur une large gamme de longueurs d'onde dans l'infrarouge. Chacune est adaptée à l'identification des constituants atmosphériques à différents niveaux de l'atmosphère, ou de paramètres de surface. En plus d'améliorer la qualité des restitutions, de telles méthodes d'Intelligence Artificielle (IA) sont capables de traiter des images contenant des données manquantes, de mieux estimer les événements extrêmes (souvent négligés par les techniques statistiques traditionnelles) et d'estimer les incertitudes des restitutions. Cette thèse montre pourquoi les méthodes d'IA, et en particulier les CNN avec convolutions partielles, devraient constituer l'approche privilégiée pour l'exploitation des observations provenant de nouvelles missions satellitaires telles que IASI-NG ou MTG-S IRS
Observing the Earth is vital to comprehend and monitor the complex behaviour of our planet. Satellites, equipped with a number of sophisticated sensors, serve as a key platform for this, offering an opportunity to observe the Earth globally and continuously. Machine Learning (ML) techniques have been used in the remote sensing community for several decades to deal with the vast amount of data generated daily by Earth observation systems. The revolution brought about by novel Deep Learning (DL) techniques has however opened up new possibilities for the exploitation of satellite observations. This research aims to show that image-processing techniques such as Convolutional Neural Networks (CNNs), provided that they are well mastered, have the potential to improve the estimation of the Earth's atmospheric and surface parameters. By looking at the observations at the image scale rather than at the pixel scale, spatial dependencies can be taken into account. Such techniques will be used for the retrieval of surface and atmospheric temperatures, as well as cloud detection and classification from the Infrared Atmospheric Sounding Interferometer (IASI) observations. IASI, onboard the polar orbiting satellites Metop, is a hyperspectral sounder gathering data across a broad range of infrared wavelengths that are suitable to identify atmospheric constituents for a range of atmospheric vertical levels, as well as surface parameters. In addition to improving the quality of the retrievals, such Artificial Intelligence (AI) methods are capable of dealing with images that contain missing data, better estimating extreme events (often overlooked by traditional ML techniques) and estimating retrieval uncertainties. This thesis shows why AI methods should be the preferred approach for the exploitation of observations coming from new satellite missions such as IASI-NG or MTG-S IRS
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Smith, Pascalle. "Modélisation des cultures européennes au sein de la biosphère : phénologie, productivité et flux de CO2". Paris 6, 2008. http://www.theses.fr/2008PA066250.

Texto completo da fonte
Resumo:
L'extension des surfaces cultivées et l'intensification de leur gestion, en réponse à la demande croissante en produits agricoles, transforment les propriétés des continents depuis plusieurs centaines d'années. Or les surfaces continentales sont un maillon des grands cycles hydrologique, énergétique et de carbone de la planète. Les cultures occupent actuellement 35% de la superficie de l'Europe de l'Ouest. Leur fonctionnement spécifique (sélection génétique, semis, irrigation, fertilisation, récolte. . . ) n'était jusqu'à récemment pas pris en compte dans les modèles de biosphère, mais leur effet sur ces cycles est important et incertain. Cette thèse vise à quantifier la contribution des cultures au bilan de carbone européen. On poursuit et évalue l'amélioration, à l’échelle de l’Europe, de la représentation des surfaces cultivées dans le modèle de biosphère ORCHIDEE associé au modèle de cultures STICS. La comparaison des simulations d’ORCHIDEE-STICS aux indices de végétation satellitaires montre que le cycle saisonnier des cultures est mieux simulé. Par conséquent on simule plus réalistement la productivité annuelle moyenne des cultures et sa variabilité inter-annuelle et spatiale observées dans les statistiques agricoles. La chute de productivité comme lors de l'été caniculaire de 2003 est à l'origine d'une source de carbone pour l'atmosphère qui a annulé une partie des bénéfices du puits biosphérique européen. La source estimée avec ORCHIDEE-STICS est en bon accord avec les estimations atmosphériques inverses et contribue à augmenter d'un quart les émissions de CO2 par les activités humaines en Europe. Ce travail montre l'importance et quantifie l'effet de mieux prendre en compte les cultures dans un modèle de biosphère sur les composantes du bilan carbone de la végétation, à l'échelle européenne. Il ouvre la voie à de nombreuses études de l'effet non seulement biogéochimique mais aussi biophysique des surfaces cultivées sur le système climatique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Camps, Pierre. "Comportement du champ magnétique de la terre au cours de ses renversements : étude d'un exemple, variations ultra rapides et caractéristiques statistiques globales". Montpellier 2, 1994. http://www.theses.fr/1994MON20203.

Texto completo da fonte
Resumo:
Le comportement du champ magnetique terrestre (cmt) au cours de ses renversements de polarite est en premier lieu etudie a partir d'une sequence volcanique plincene echantillonnee en georgie (cei). De nouvelles investigations paleomagnetiques sur certaines coulees de laves ayant enregistre la transition de la steens mountain (oregon) restent globalement compatibles avec l'hypothese des variations ultra-rapides du cmt au cours de ses renversements. Enfin, une compilation de directions transitionnelles nous a permis de decrire et modeliser les caracteristiques statistiques globales du cmt. Cette analyse conclut en faveur d'une distribution aleatoire des pgvs transitionnels compatible avec un modele de renversement ou la composante dipolaire du cmt s'annule progressivement et croit dans le sens oppose tandis que le champ non dipole reste inchange
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Nier, Vincent Philippe. "Estimation statistique des propriétés physiques de monocouches cellulaires". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066233/document.

Texto completo da fonte
Resumo:
Les cellules épithéliales forment des tissus cohésifs, sous forme de monocouches que l'on retrouve dans les poumons, les reins ou la peau. Travaillant à partir d'expériences in vitro, nous avons caractérisé le comportement mécanique de monocouches cellulaires. Nous avons étudié la fermeture de blessures circulaires sur un substrat non adhésif. En comparant différents modèles, nous avons montré comment la fermeture est possible grâce à un cable contractile d'acto-myosine et aux fluctuations de la tension du tissu. La Microscopie des Forces de Traction (TFM) permet de mesurer les forces que les cellules exercent sur leur substrat. A partir de cette mesure et en utilisant l'équilibre des forces, nous avons développé une méthode qui résout ce problème sous-déterminé par inversion bayésienne et permet d'obtenir le champ des contraintes internes au tissu. En appliquant cette méthode sur des images (BISM: Microscopie des contraintes par inversion bayésienne) et en l'adaptant à l'aide d'un filtre de Kalman sur des films (KISM: Microscopie des contraintes par inversion de Kalman), nous avons inféré le tenseur des contraintes de monocouches cellulaires sans faire aucune hypothèse sur la rhéologie du tissu. Enfin, nous avons estimé les contraintes directement depuis les déplacements du substrat, sans passer par les forces de tractions et donc en réduisant le nombre d'inversions de matrice (BISMu: Microscopie des contraintes par inversion bayésienne à partir des déplacements du substrat)
Epithelial cells are known to form cohesive monolayers, a form of tissue organization encountered in the lung, the kidney or the skin. From in vitro experiments, we have characterized the mechanical properties of cell monolayers. We have studied the closure of circular wounds over a nonadhesive substrate. Comparing different models, we have shown how closure is possible thanks to a contractile acto-myosin cable and to fluctuations of the tissue tension. Traction Force Microscopy (TFM) allows to measure the forces that cells exert on their substrate. Starting from this measurement and using the force balance equations, we have solved this underdetermined problem by Bayesian inversion and obtained the internal stress field of the tissue. Applying this method on single images (BISM: Bayesian Inversion Stress Microscopy), and adapting it with a Kalman filter for movies (KISM: Kalman Inversion Stress Microscopy) we have inferred the stress tensor of cell monolayers, without making any hypothesis on the tissue rheology. Finally, we have estimated the stresses directly from the substrate displacements, without computing the traction forces and thus reducing the number of matrix inversions (BISMu: Bayesian Inversion Stress Microscopy from substrate displacements)
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Arnst, Maarten. "Inversion of probabilistic models of structures using measured transfer functions". Châtenay-Malabry, Ecole centrale de Paris, 2007. http://www.theses.fr/2007ECAP1037.

Texto completo da fonte
Resumo:
L'objectif de la thèse est de développer une méthodologie d’identification expérimentale de modèles probabilistes qui prédisent le comportement dynamique de structures. Nous focalisons en particulier sur l’inversion de modèles probabilistes à paramétrage minimal, introduits par Soize, à partir de fonctions de transfert expérimentales. Nous montrons d’abord que les méthodes classiques d’estimation de la théorie des statistiques mathématiques, telle que la méthode du maximum de vraisemblance, ne sont pas bien adaptées pour aborder ce problème. En particulier, nous montrons que des difficultés numériques, ainsi que des problèmes conceptuels dus au risque d’une mauvaise spécification des modèles, peuvent entraver l’application des méthodes classiques. Ces difficultés nous motivent à formuler l’inversion de modèles probabilistes alternativement comme la minimisation, par rapport aux paramètres recherchés, d’une fonction objectif, mesurant une distance entre les données expérimentales et le modèle probabiliste. Nous proposons deux principes de construction pour la définition de telles distances, basé soit sur la fonction de logvraisemblance, soit l’entropie relative. Nous montrons comment la limitation de ces distances aux lois marginales d’ordre bas permet de surmonter les difficultés mentionnées plus haut. La méthodologie est appliquée à des exemples avec des données simulées et à un problème en ingénierie civile et environnementale avec des mesures réelles
The aim of this thesis is to develop a methodology for the experimental identification of probabilistic models for the dynamical behaviour of structures. The inversion of probabilistic structural models with minimal parameterization, introduced by Soize, from measured transfer functions is in particular considered. It is first shown that the classical methods of estimation from the theory of mathematical statistics, such as the method of maximum likelihood, are not well-adapted to formulate and solve this inverse problem. In particular, numerical difficulties and conceptual problems due to model misspecification are shown to prohibit the application of the classical methods. The inversion of probabilistic structural models is then formulated alternatively as the minimization, with respect to the parameters to be identified, of an objective function measuring a distance between the experimental data and the probabilistic model. Two principles of construction for the definition of this distance are proposed, based on either the loglikelihood function, or the relative entropy. The limitation of the distance to low-order marginal laws is demonstrated to allow to circumvent the aforementioned difficulties. The methodology is applied to examples featuring simulated data and to a civil and environmental engineering case history featuring real experimental data
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Ars, Sébastien. "Caractérisation des émissions de méthane à l'échelle locale à l'aide d'une méthode d'inversion statistique basée sur un modèle gaussien paramétré avec les données d'un gaz traceur". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV030/document.

Texto completo da fonte
Resumo:
L'augmentation des concentrations de méthane dans l'atmosphère, directement imputable aux activités anthropiques, induit une accentuation de l'effet de serre et une dégradation de la qualité de l'air. Il existe encore à l'heure actuelle de grandes incertitudes concernant les estimations des émissions des dfférentes sources de méthane à l'échellelocale. Une meilleure caractérisation de ces sources permettrait de mettre en place des politiques d'adaptation et d'att énuation efficaces afin de réduire ces émissions. Nous avons développé une nouvelle méthode de quantificationdes émissions de méthane à l'échelle locale basée sur la combinaison de mesures atmosphériques mobiles et d'un modèle gaussien dans le cadre d'une inversion statistique. Les concentrations atmosphériques du méthane sont mesuréesainsi que celles d'un gaz traceur émis à un flux connu. Ces concentrations en gaz traceur sont utilisées pour sélectionnerla classe de stabilité représentant le mieux les conditions atmosphériques dans le modèle gaussien ainsi qu'à paramétrerl'erreur associée aux mesures et au modèle dans l'inversion statistique. Dans un premier temps, cette nouvelle méthoded'estimation des émissions de méthane a été testée grâce à des émissions contrôlées de traceur et de méthane dontles sources ont été positionnées suivant différentes configurations. J'ai ensuite appliqué cette méthode à deux sites réels connus pour leurs émissions de méthane, une exploitation agricole et une installation de distribution de gaz, afin de tester son applicabilité et sa robustesse dans des conditions plus complexes de répartition des sources de méthane. Cette méthode a permis d'obtenir des estimations des émissions totales des sites robustes prenant en compte la localisation du traceur par rapport aux sources de méthane. L'estimation séparéedes émissions des différentes sources d'un site s'est révélée fortement dépendante des conditions météorologiques durant les mesures. Je me suis ensuite focalisé sur les émissions de méthane associées au secteur des déchets en réalisant un certain nombre de campagnes de mesures au sein d'installations de stockagedes déchets non dangereux et de stations d'épuration. Les résultats obtenus pour ces différents sites montrent la grandevariabilité des émissions de méthane dans le secteur des déchets
The increase of atmospheric methane concentrations since the beginning of the industrial era is directly linked to anthropogenic activities. This increase is partly responsible for the enhancement of the greenhouse effect leading to a rise of Earth's surface temperatures and a degradation of air quality. There are still considerable uncertainties regarding methane emissions estimates from many sources at local scale. A better characterization of these sources would help the implementation of effective adaptation and mitigation policies to reduce these emissions.To do so, we have developed a new method to quantify methane emissions from local sites based on the combination of mobile atmospheric measurements, a Gaussian model and a statistical inversion. These atmospheric measurements are carried out within the framework of the tracer method, which consists in emitting a gas co-located with the methane source at a known flow. An estimate of methane emissions can be given by measuring the tracer and methane concentrations through the emission plume coming from the site. This method presents some limitations especially when several sources and/or extended sources can be found on the studied site. In these conditions, the colocation of the tracer and methane sources is difficult. The Gaussian model enables to take into account this bad collocation. It also gives a separate estimate of each source of a site when the classical tracer release method only gives an estimate of its total emissions. The statistical inversion enables to take into account the uncertainties associated with the model and the measurements.The method is based on the use of the measured tracer gas concentrations to choose the stability class of the Gaussian model that best represents the atmospheric conditions during the measurements. These tracer data are also used to parameterize the error associated with the measurements and the model in the statistical inversion. We first tested this new method with controlled emissions of tracer and methane. The tracer and methane sources were positioned in different configurations in order to better understand the contributions of this method compared to the traditional tracer method. These tests have demonstrated that the statistical inversion parameterized by the tracer gas data gives better estimates of methane emissions when the tracer and methane sources are not perfectly collocated or when there are several sources of methane.In a second time, I applied this method to two sites known for their methane emissions, namely a farm and a gas distribution facility. These measurements enabled us to test the applicability and robustness of the method under more complex methane source distribution conditions and gave us better estimates of the total methane emissions of these sites that take into account the location of the tracer regarding methane sources. Separate estimates of every source within the site are highly dependent on the meteorological conditions during the measurements. The analysis of the correlations on the posterior uncertainties between the different sources gives a diagnostic of the separability of the sources.Finally I focused on methane emissions associated with the waste sector. To do so, I carried out several measurement campaigns in landfills and wastewater treatment plants and I also used data collected on this type of sites during other projects. I selected the most suitable method to estimate methane emissions of each site and the obtained estimates for each one of these sites show the variability of methane emissions in the waste sector
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Romary, Thomas. "Inversion des modèles stochastiques de milieux hétérogènes". Paris 6, 2008. https://tel.archives-ouvertes.fr/tel-00395528.

Texto completo da fonte
Resumo:
Le problème du calage d'historique en ingénierie de réservoir est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques. Typiquement, la résolution de ce problème passe par la génération d'un échantillon représentatif de la distribution conditionnelle. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres. La dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension. Dans une première partie, nous présentons une méthode de paramétrisation optimale de certains modèles géostatistiques, à partir de leur décomposition de Karhunen-Loève. Nous en décrivons les fondements théoriques, puis, sur des applications aux modèles courants en géostatistique pétrolière, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Ars, Sébastien. "Caractérisation des émissions de méthane à l'échelle locale à l'aide d'une méthode d'inversion statistique basée sur un modèle gaussien paramétré avec les données d'un gaz traceur". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV030.

Texto completo da fonte
Resumo:
L'augmentation des concentrations de méthane dans l'atmosphère, directement imputable aux activités anthropiques, induit une accentuation de l'effet de serre et une dégradation de la qualité de l'air. Il existe encore à l'heure actuelle de grandes incertitudes concernant les estimations des émissions des dfférentes sources de méthane à l'échellelocale. Une meilleure caractérisation de ces sources permettrait de mettre en place des politiques d'adaptation et d'att énuation efficaces afin de réduire ces émissions. Nous avons développé une nouvelle méthode de quantificationdes émissions de méthane à l'échelle locale basée sur la combinaison de mesures atmosphériques mobiles et d'un modèle gaussien dans le cadre d'une inversion statistique. Les concentrations atmosphériques du méthane sont mesuréesainsi que celles d'un gaz traceur émis à un flux connu. Ces concentrations en gaz traceur sont utilisées pour sélectionnerla classe de stabilité représentant le mieux les conditions atmosphériques dans le modèle gaussien ainsi qu'à paramétrerl'erreur associée aux mesures et au modèle dans l'inversion statistique. Dans un premier temps, cette nouvelle méthoded'estimation des émissions de méthane a été testée grâce à des émissions contrôlées de traceur et de méthane dontles sources ont été positionnées suivant différentes configurations. J'ai ensuite appliqué cette méthode à deux sites réels connus pour leurs émissions de méthane, une exploitation agricole et une installation de distribution de gaz, afin de tester son applicabilité et sa robustesse dans des conditions plus complexes de répartition des sources de méthane. Cette méthode a permis d'obtenir des estimations des émissions totales des sites robustes prenant en compte la localisation du traceur par rapport aux sources de méthane. L'estimation séparéedes émissions des différentes sources d'un site s'est révélée fortement dépendante des conditions météorologiques durant les mesures. Je me suis ensuite focalisé sur les émissions de méthane associées au secteur des déchets en réalisant un certain nombre de campagnes de mesures au sein d'installations de stockagedes déchets non dangereux et de stations d'épuration. Les résultats obtenus pour ces différents sites montrent la grandevariabilité des émissions de méthane dans le secteur des déchets
The increase of atmospheric methane concentrations since the beginning of the industrial era is directly linked to anthropogenic activities. This increase is partly responsible for the enhancement of the greenhouse effect leading to a rise of Earth's surface temperatures and a degradation of air quality. There are still considerable uncertainties regarding methane emissions estimates from many sources at local scale. A better characterization of these sources would help the implementation of effective adaptation and mitigation policies to reduce these emissions.To do so, we have developed a new method to quantify methane emissions from local sites based on the combination of mobile atmospheric measurements, a Gaussian model and a statistical inversion. These atmospheric measurements are carried out within the framework of the tracer method, which consists in emitting a gas co-located with the methane source at a known flow. An estimate of methane emissions can be given by measuring the tracer and methane concentrations through the emission plume coming from the site. This method presents some limitations especially when several sources and/or extended sources can be found on the studied site. In these conditions, the colocation of the tracer and methane sources is difficult. The Gaussian model enables to take into account this bad collocation. It also gives a separate estimate of each source of a site when the classical tracer release method only gives an estimate of its total emissions. The statistical inversion enables to take into account the uncertainties associated with the model and the measurements.The method is based on the use of the measured tracer gas concentrations to choose the stability class of the Gaussian model that best represents the atmospheric conditions during the measurements. These tracer data are also used to parameterize the error associated with the measurements and the model in the statistical inversion. We first tested this new method with controlled emissions of tracer and methane. The tracer and methane sources were positioned in different configurations in order to better understand the contributions of this method compared to the traditional tracer method. These tests have demonstrated that the statistical inversion parameterized by the tracer gas data gives better estimates of methane emissions when the tracer and methane sources are not perfectly collocated or when there are several sources of methane.In a second time, I applied this method to two sites known for their methane emissions, namely a farm and a gas distribution facility. These measurements enabled us to test the applicability and robustness of the method under more complex methane source distribution conditions and gave us better estimates of the total methane emissions of these sites that take into account the location of the tracer regarding methane sources. Separate estimates of every source within the site are highly dependent on the meteorological conditions during the measurements. The analysis of the correlations on the posterior uncertainties between the different sources gives a diagnostic of the separability of the sources.Finally I focused on methane emissions associated with the waste sector. To do so, I carried out several measurement campaigns in landfills and wastewater treatment plants and I also used data collected on this type of sites during other projects. I selected the most suitable method to estimate methane emissions of each site and the obtained estimates for each one of these sites show the variability of methane emissions in the waste sector
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Romary, Thomas. "INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00395528.

Texto completo da fonte
Resumo:
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Han, Bin. "Gamma positivity in enumerative combinatorics". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1115/document.

Texto completo da fonte
Resumo:
La positivité gamma d’une suite combinatoire unifie à la fois l’unimodalité et la symétrie de cette suite. Trouver des nouvelles familles d’objets dont les polynômes énumératives ont une positivité gamma est un défi et un sujet important en combinatoire et géométrie. Il a attiré beaucoup d’attention ces derniers temps en raison de la conjecture de Gal, qui affirme que le gamma-vecteur a des coefficients positifs pour n’importe quel polytope simple. Souvent, le h-polynôme pour les polytopes simpliciaux de signification combinatoire peut être donné en tant que fonction génératrice sur un ensemble d’objets combinatoires apparentés par rapport à une statistique telle que le nombre des descentes, dont les polynômes énumératifs sur les permutations sont des polynômes Eulériens. Ce travail traite des propriétés gamma de plusieurs polynômes énumératifs de permutations tels que les polynômes Eulériens et les polynômes de Narayana. Cette thèse contient cinq chapitres
The gamma positivity of a combinatorial sequence unifies both unimodality and symmetry. Finding new family of objets whose enumerative sequences have gamma positivity is a challenge and important topic in recent years. it has received considerable attention in recent times because of Gal’s conjecture, which asserts that the gamma-vector has nonnegative entries for any flag simple polytope. Often times, the h-polynomial for simplicial polytopes of combinatorial signification can be given as a generating function over a related set of combinatorial objects with respect to some statistic like the descent numbers, whose enumerative polynomials on permutations are Eulerian polynomials.This work deals with the gamma properties of several enumerative polynomials of permutation such as Eulerian polynomials and Narayana polynomials. This thesis contains five chapters
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Bӑrbos, Andrei-Cristian. "Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion". Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0002/document.

Texto completo da fonte
Resumo:
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats
The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Harmouzi, Ouassima. "Reconnaissance détaillée de la partie nord-est du Bassin de Saïss (Maroc) : interprétation de sondages électriques verticaux par combinaison des méthodes statistique, géostatistique et d'inversion". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14030/document.

Texto completo da fonte
Resumo:
La prospection géoélectrique est largement utilisée au Maroc pour des reconnaissances hydrogéologique. Le but de ce travail et de proposer de nouvelles techniques d’interprétation des sondages électriques verticaux en un temps réduit, et aussi de bien exploiter une base de données de sondages électriques, par l’établissement entre autre des images 2D horizontales et verticales de l’estimation de la distribution des résistivités électriques apparentes (modélisation géostatistique, inversion, etc.). Dans le but de caractériser électriquement le secteur d’étude (nord-est du Bassin de Saïss), une analyse statistique des résistivités apparentes de sondages électriques verticaux a été réalisée. Cette simple analyse descriptive est suivie par une étude statistique multidirectionnelle : analyse en composantes principales (ACP) et par une classification hiérarchique ascendante (CHA). (...) Les résultats des analyses statistiques et géostatistiques complétés par les inversions des sondages moyens pas classe, ont mis en évidence la fiabilité de ces techniques pour l’interprétation d’un nombre important de sondages électriques au lieu de la méthode ordinaire qui se base sur l’inversion des sondages un par un et les corréler ultérieurement pour construire la structure globale du domaine étudié. Avec les techniques utilisées, dans le cadre de ce travail, des résultats très satisfaisants en un temps plus réduit sont obtenus. Les profils étudiés et inversés à l’aide du logiciel RES2Dinv montrent tous les trois grandes structures définies auparavant (Résistant-Conductrice-Résistant), par contre on note des variations intra formations. De plus, l’organisation spatiale des formations permet de confirmer l’existence de failles cohérentes avec la structure en horst et graben du bassin
The Geoelectric prospection is usually used in Morocco for hydrogeological recognition. The purpose of this work is to propose new techniques for interpreting vertical electric soundings in a reduced time, and also to fully exploit a database of stored electrical soundings by the establishment, amongst other things, of the horizontal and vertical 2D images, estimating the distribution of apparent electrical resistivity (geostatistic modeling, inversion, etc.). In order to characterize electrically the study area (north-east of the Saïss Basin), a statistical analysis of apparent resistivity of vertical electric soundings was performed. This simple descriptive analysis is followed by a statistical analysis (principal component analysis PCA and ascending hierarchical classification HAC.) (...)The results of statistical analysis and geostatistical supplemented by inversion of the average electric sounding per class, highlighted the reliability of these techniques to the interpretation of a large number of electrical soundings instead of the usual method which is based on the inversion of the electrical sounding one by one and correlate them later, to build the global structure of the area studied. With the techniques used in this work, very satisfactory results in a more reduced time, for interpreting vertical electric soundings, are obtained. VIThe studied profiles and inverted using the software RES2Dinv show all three structures defined previously (Resistant – Conductive - resistant), on the other hand, there are variations within the same formation. In addition, the spatial organization of the formation makes it possible to confirm the existence of faults coherent with the structure in horst and graben basin
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Ben, youssef Atef. "Contrôle de têtes parlantes par inversion acoustico-articulatoire pour l'apprentissage et la réhabilitation du langage". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00721957.

Texto completo da fonte
Resumo:
Les sons de parole peuvent être complétés par l'affichage des articulateurs sur un écran d'ordinateur pour produire de la parole augmentée, un signal potentiellement utile dans tous les cas où le son lui-même peut être difficile à comprendre, pour des raisons physiques ou perceptuelles. Dans cette thèse, nous présentons un système appelé retour articulatoire visuel, dans lequel les articulateurs visibles et non visibles d'une tête parlante sont contrôlés à partir de la voix du locuteur. La motivation de cette thèse était de développer un tel système qui pourrait être appliqué à l'aide à l'apprentissage de la prononciation pour les langues étrangères, ou dans le domaine de l'orthophonie. Nous avons basé notre approche de ce problème d'inversion sur des modèles statistiques construits à partir de données acoustiques et articulatoires enregistrées sur un locuteur français à l'aide d'un articulographe électromagnétique (EMA). Notre approche avec les modèles de Markov cachés (HMMs) combine des techniques de reconnaissance automatique de la parole et de synthèse articulatoire pour estimer les trajectoires articulatoires à partir du signal acoustique. D'un autre côté, les modèles de mélanges gaussiens (GMMs) estiment directement les trajectoires articulatoires à partir du signal acoustique sans faire intervenir d'information phonétique. Nous avons basé notre évaluation des améliorations apportées à ces modèles sur différents critères : l'erreur quadratique moyenne (RMSE) entre les coordonnées EMA originales et reconstruites, le coefficient de corrélation de Pearson, l'affichage des espaces et des trajectoires articulatoires, aussi bien que les taux de reconnaissance acoustique et articulatoire. Les expériences montrent que l'utilisation d'états liés et de multi-gaussiennes pour les états des HMMs acoustiques améliore l'étage de reconnaissance acoustique des phones, et que la minimisation de l'erreur générée (MGE) dans la phase d'apprentissage des HMMs articulatoires donne des résultats plus précis par rapport à l'utilisation du critère plus conventionnel de maximisation de vraisemblance (MLE). En outre, l'utilisation du critère MLE au niveau de mapping direct de l'acoustique vers l'articulatoire par GMMs est plus efficace que le critère de minimisation de l'erreur quadratique moyenne (MMSE). Nous constatons également trouvé que le système d'inversion par HMMs est plus précis celui basé sur les GMMs. Par ailleurs, des expériences utilisant les mêmes méthodes statistiques et les mêmes données ont montré que le problème de reconstruction des mouvements de la langue à partir des mouvements du visage et des lèvres ne peut pas être résolu dans le cas général, et est impossible pour certaines classes phonétiques. Afin de généraliser notre système basé sur un locuteur unique à un système d'inversion de parole multi-locuteur, nous avons implémenté une méthode d'adaptation du locuteur basée sur la maximisation de la vraisemblance par régression linéaire (MLLR). Dans cette méthode MLLR, la transformation basée sur la régression linéaire qui adapte les HMMs acoustiques originaux à ceux du nouveau locuteur est calculée de manière à maximiser la vraisemblance des données d'adaptation. Finalement, cet étage d'adaptation du locuteur a été évalué en utilisant un système de reconnaissance automatique des classes phonétique de l'articulation, dans la mesure où les données articulatoires originales du nouveau locuteur n'existent pas. Finalement, en utilisant cette procédure d'adaptation, nous avons développé un démonstrateur complet de retour articulatoire visuel, qui peut être utilisé par un locuteur quelconque. Ce système devra être évalué de manière perceptive dans des conditions réalistes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

El, Amri Mohamed. "Analyse d'incertitudes et de robustesse pour les modèles à entrées et sorties fonctionnelles". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM015.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est de résoudre un problème d'inversion sous incertitudes de fonctions coûteuses à évaluer dans le cadre du paramétrage du contrôle d'un système de dépollution de véhicules.L'effet de ces incertitudes est pris en compte au travers de l'espérance de la grandeur d'intérêt. Une difficulté réside dans le fait que l'incertitude est en partie due à une entrée fonctionnelle connue à travers d'un échantillon donné. Nous proposons deux approches basées sur une approximation du code coûteux par processus gaussiens et une réduction de dimension de la variable fonctionnelle par une méthode de Karhunen-Loève.La première approche consiste à appliquer une méthode d'inversion de type SUR (Stepwise Uncertainty Reduction) sur l'espérance de la grandeur d'intérêt. En chaque point d'évaluation dans l'espace de contrôle, l'espérance est estimée par une méthode de quantification fonctionnelle gloutonne qui fournit une représentation discrète de la variable fonctionnelle et une estimation séquentielle efficace à partir de l'échantillon donné de la variable fonctionnelle.La deuxième approche consiste à appliquer la méthode SUR directement sur la grandeur d'intérêt dans l'espace joint des variables de contrôle et des variables incertaines. Une stratégie d'enrichissement du plan d'expériences dédiée à l'inversion sous incertitudes fonctionnelles et exploitant les propriétés des processus gaussiens est proposée.Ces deux approches sont comparées sur des fonctions jouets et sont appliquées à un cas industriel de post-traitement des gaz d'échappement d'un véhicule. La problématique est de déterminer les réglages du contrôle du système permettant le respect des normes de dépollution en présence d'incertitudes, sur le cycle de conduite
This thesis deals with the inversion problem under uncertainty of expensive-to-evaluate functions in the context of the tuning of the control unit of a vehicule depollution system.The effect of these uncertainties is taken into account through the expectation of the quantity of interest. The problem lies in the fact that the uncertainty is partly due to a functional variable only known through a given sample. We propose two approaches to solve the inversion problem, both methods are based on Gaussian Process modelling for expensive-to-evaluate functions and a dimension reduction of the functional variable by the Karhunen-Loève expansion.The first methodology consists in applying a Stepwise Uncertainty Reduction (SUR) method on the expectation of the quantity of interest. At each evaluation point in the control space, the expectation is estimated by a greedy functional quantification method that provides a discrete representation of the functional variable and an effective sequential estimate from the given sample.The second approach consists in applying the SUR method directly to the quantity of interest in the joint space. Devoted to inversion under functional uncertainties, a strategy for enriching the experimental design exploiting the properties of Gaussian processes is proposed.These two approaches are compared on toy analytical examples and are applied to an industrial application for an exhaust gas post-treatment system of a vehicle. The objective is to identify the set of control parameters that leads to meet the pollutant emission norms under uncertainties on the driving cycle
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Văcar, Cornelia Paula. "Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0131/document.

Texto completo da fonte
Resumo:
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence
This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Croix, Jean-Charles. "A new decomposition of Gaussian random elements in Banach spaces with application to Bayesian inversion". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEM019.

Texto completo da fonte
Resumo:
L'inférence est une activité fondamentale en sciences et en ingénierie: elle permet de confronter et d'ajuster des modèles théoriques aux données issues de l'expérience. Ces mesures étant finies par nature et les paramètres des modèles souvent fonctionnels, ilest nécessaire de compenser cette perte d'information par l'ajout de contraintes externes au problème, via les méthodes de régularisation. La solution ainsi associée satisfait alors un compromis entre d'une part sa proximité aux données, et d'autre part une forme de régularité.Depuis une quinzaine d'années, ces méthodes intègrent un formalisme probabiliste, ce qui permet la prise en compte d'incertitudes. La régularisation consiste alors à choisir uµe mesure de probabilité sur les paramètres du modèle, expliciter le lien entre données et paramètres et déduire une mise-à-jour de la mesure initiale. Cette probabilité a posteriori, permet alors de déterminer un ensemble de paramètres compatibles avec les données tou en précisant leurs vraisemblances respectives, même en dimension infinie.Dans le cadre de cette thèse, la question de l'approximation de tels problèmes est abordée. En effet, l'utilisation dt lois infini-dimensionnelles, bien que théoriquement attrayante, nécessite souvent une discrétisation pour l'extraction d'information (calcul d'estimateurs, échantillonnage). Lorsque la mesure a priori est Gaussienne, la décomposition de Karhunen-Loève est une réponse à cette question. Le résultat principal de cette thèse est sa généralisation aux espaces de Banach, beaucoup plus naturels et moins restrictifs que les espaces de Hilbert. Les autres travaux déveloonés concernent son utilisation dans des applications avec données réelles
Nferring is a fundamental task in science and engineering: it gives the opportunity to compare theory to experimental data. Since measurements are finite by nature whereas parameters are often functional, it is necessary to offset this loss of information with external constraints, by regularization.The obtained solution then realizes a trade-off between proximity to data on one side and regularity on the other.For more than fifteen years, these methods include a probabilistic thinking, taking uncertainty into account. Regularization now consists in choosing a prior probability measure on the parameter space and explicit a link between data and parameters to deduce an update of the initial belief. This posterior distribution informs on how likely is a set of parameters, even in infinite dimension.In this thesis, approximation of such methods is studied. Indeed, infinite dimensional probability measures, while being attractive theoretically, often require a discretization to actually extract information (estimation, sampling). When they are Gaussian, the Karhunen-Loève decomposition gives a practical method to do so, and the main result of this thesis is to provide a generalization to Banach spaces, much more natural and less restrictive. The other contributions are related to its practical use with in a real-world example
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Ben, Youssef Atef. "Contrôle de têtes parlantes par inversion acoustico-articulatoire pour l’apprentissage et la réhabilitation du langage". Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT088/document.

Texto completo da fonte
Resumo:
Les sons de parole peuvent être complétés par l'affichage des articulateurs sur un écran d'ordinateur pour produire de la parole augmentée, un signal potentiellement utile dans tous les cas où le son lui-même peut être difficile à comprendre, pour des raisons physiques ou perceptuelles. Dans cette thèse, nous présentons un système appelé retour articulatoire visuel, dans lequel les articulateurs visibles et non visibles d'une tête parlante sont contrôlés à partir de la voix du locuteur. La motivation de cette thèse était de développer un tel système qui pourrait être appliqué à l'aide à l'apprentissage de la prononciation pour les langues étrangères, ou dans le domaine de l'orthophonie. Nous avons basé notre approche de ce problème d'inversion sur des modèles statistiques construits à partir de données acoustiques et articulatoires enregistrées sur un locuteur français à l'aide d'un articulographe électromagnétique (EMA). Notre approche avec les modèles de Markov cachés (HMMs) combine des techniques de reconnaissance automatique de la parole et de synthèse articulatoire pour estimer les trajectoires articulatoires à partir du signal acoustique. D'un autre côté, les modèles de mélanges gaussiens (GMMs) estiment directement les trajectoires articulatoires à partir du signal acoustique sans faire intervenir d'information phonétique. Nous avons basé notre évaluation des améliorations apportées à ces modèles sur différents critères : l'erreur quadratique moyenne (RMSE) entre les coordonnées EMA originales et reconstruites, le coefficient de corrélation de Pearson, l'affichage des espaces et des trajectoires articulatoires, aussi bien que les taux de reconnaissance acoustique et articulatoire. Les expériences montrent que l'utilisation d'états liés et de multi-gaussiennes pour les états des HMMs acoustiques améliore l'étage de reconnaissance acoustique des phones, et que la minimisation de l'erreur générée (MGE) dans la phase d'apprentissage des HMMs articulatoires donne des résultats plus précis par rapport à l'utilisation du critère plus conventionnel de maximisation de vraisemblance (MLE). En outre, l'utilisation du critère MLE au niveau de mapping direct de l'acoustique vers l'articulatoire par GMMs est plus efficace que le critère de minimisation de l'erreur quadratique moyenne (MMSE). Nous constatons également trouvé que le système d'inversion par HMMs est plus précis celui basé sur les GMMs. Par ailleurs, des expériences utilisant les mêmes méthodes statistiques et les mêmes données ont montré que le problème de reconstruction des mouvements de la langue à partir des mouvements du visage et des lèvres ne peut pas être résolu dans le cas général, et est impossible pour certaines classes phonétiques. Afin de généraliser notre système basé sur un locuteur unique à un système d'inversion de parole multi-locuteur, nous avons implémenté une méthode d'adaptation du locuteur basée sur la maximisation de la vraisemblance par régression linéaire (MLLR). Dans cette méthode MLLR, la transformation basée sur la régression linéaire qui adapte les HMMs acoustiques originaux à ceux du nouveau locuteur est calculée de manière à maximiser la vraisemblance des données d'adaptation. Finalement, cet étage d'adaptation du locuteur a été évalué en utilisant un système de reconnaissance automatique des classes phonétique de l'articulation, dans la mesure où les données articulatoires originales du nouveau locuteur n'existent pas. Finalement, en utilisant cette procédure d'adaptation, nous avons développé un démonstrateur complet de retour articulatoire visuel, qui peut être utilisé par un locuteur quelconque. Ce système devra être évalué de manière perceptive dans des conditions réalistes
Speech sounds may be complemented by displaying speech articulators shapes on a computer screen, hence producing augmented speech, a signal that is potentially useful in all instances where the sound itself might be difficult to understand, for physical or perceptual reasons. In this thesis, we introduce a system called visual articulatory feedback, in which the visible and hidden articulators of a talking head are controlled from the speaker's speech sound. The motivation of this research was to develop such a system that could be applied to Computer Aided Pronunciation Training (CAPT) for learning of foreign languages, or in the domain of speech therapy. We have based our approach to this mapping problem on statistical models build from acoustic and articulatory data. In this thesis we have developed and evaluated two statistical learning methods trained on parallel synchronous acoustic and articulatory data recorded on a French speaker by means of an electromagnetic articulograph. Our Hidden Markov models (HMMs) approach combines HMM-based acoustic recognition and HMM-based articulatory synthesis techniques to estimate the articulatory trajectories from the acoustic signal. Gaussian mixture models (GMMs) estimate articulatory features directly from the acoustic ones. We have based our evaluation of the improvement results brought to these models on several criteria: the Root Mean Square Error between the original and recovered EMA coordinates, the Pearson Product-Moment Correlation Coefficient, displays of the articulatory spaces and articulatory trajectories, as well as some acoustic or articulatory recognition rates. Experiments indicate that the use of states tying and multi-Gaussian per state in the acoustic HMM improves the recognition stage, and that the minimum generation error (MGE) articulatory HMMs parameter updating results in a more accurate inversion than the conventional maximum likelihood estimation (MLE) training. In addition, the GMM mapping using MLE criteria is more efficient than using minimum mean square error (MMSE) criteria. In conclusion, we have found that the HMM inversion system has a greater accuracy compared with the GMM one. Beside, experiments using the same statistical methods and data have shown that the face-to-tongue inversion problem, i.e. predicting tongue shapes from face and lip shapes cannot be solved in a general way, and that it is impossible for some phonetic classes. In order to extend our system based on a single speaker to a multi-speaker speech inversion system, we have implemented a speaker adaptation method based on the maximum likelihood linear regression (MLLR). In MLLR, a linear regression-based transform that adapts the original acoustic HMMs to those of the new speaker was calculated to maximise the likelihood of adaptation data. Finally, this speaker adaptation stage has been evaluated using an articulatory phonetic recognition system, as there are not original articulatory data available for the new speakers. Finally, using this adaptation procedure, we have developed a complete articulatory feedback demonstrator, which can work for any speaker. This system should be assessed by perceptual tests in realistic conditions
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Bruned, Vianney. "Analyse statistique et interprétation automatique de données diagraphiques pétrolières différées à l’aide du calcul haute performance". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS064.

Texto completo da fonte
Resumo:
Dans cette thèse, on s'intéresse à l’automatisation de l’identification et de la caractérisation de strates géologiques à l’aide des diagraphies de puits. Au sein d’un puits, on détermine les strates géologiques grâce à la segmentation des diagraphies assimilables à des séries temporelles multivariées. L’identification des strates de différents puits d’un même champ pétrolier nécessite des méthodes de corrélation de séries temporelles. On propose une nouvelle méthode globale de corrélation de puits utilisant les méthodes d’alignement multiple de séquences issues de la bio-informatique. La détermination de la composition minéralogique et de la proportion des fluides au sein d’une formation géologique se traduit en un problème inverse mal posé. Les méthodes classiques actuelles sont basées sur des choix d’experts consistant à sélectionner une combinaison de minéraux pour une strate donnée. En raison d’un modèle à la vraisemblance non calculable, une approche bayésienne approximée (ABC) aidée d’un algorithme de classification basé sur la densité permet de caractériser la composition minéralogique de la couche géologique. La classification est une étape nécessaire afin de s’affranchir du problème d’identifiabilité des minéraux. Enfin, le déroulement de ces méthodes est testé sur une étude de cas
In this thesis, we investigate the automation of the identification and the characterization of geological strata using well logs. For a single well, geological strata are determined thanks to the segmentation of the logs comparable to multivariate time series. The identification of strata on different wells from the same field requires correlation methods for time series. We propose a new global method of wells correlation using multiple sequence alignment algorithms from bioinformatics. The determination of the mineralogical composition and the percentage of fluids inside a geological stratum results in an ill-posed inverse problem. Current methods are based on experts’ choices: the selection of a subset of mineral for a given stratum. Because of a model with a non-computable likelihood, an approximate Bayesian method (ABC) assisted with a density-based clustering algorithm can characterize the mineral composition of the geological layer. The classification step is necessary to deal with the identifiability issue of the minerals. At last, the workflow is tested on a study case
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Schreiber, Floriane. "Estimation des conditions océanographiques par inversion de données issues d'un radar imageur non calibré". Electronic Thesis or Diss., Toulon, 2020. http://www.theses.fr/2020TOUL0016.

Texto completo da fonte
Resumo:
De nombreux modèles empiriques de distribution statistique du fouillis de mer existent mais ne sont pas directement paramétrable par l’état de mer, et ainsi il n’est pas possible d’y pratiquer une méthode d’inversion. Pour modéliser la distribution statistique de l’intensité, nous utilisons un modèle deux-échelles (TSM) paramétré directement par l’état de mer via la mss (mean square slope). Ce modèle permet de retrouver de manière cohérente la NRCS mais ne parvient pas à décrire de manière la distribution du fouillis de mer simultanément dans les deux canaux de polarisations directs dû à une surestimation du rapport de polarisation (RP) de Bragg.Pour corriger ce problème, nous avons développé une formulation originale du RP qui inclue un unique paramètre effectuant une transition dynamique entre le régime de Bragg et de Kirchhoff. Cette formulation intégrée au modèle TSM permet de corriger le RP et d’obtenir une modélisation cohérente de la statistique du fouillis de mer, simultanément dans les deux polarisations. A l’aide d’une méthode d’inversion, le modèle permet d'estimer l’état de mer d’un radar imageur. La pertinence de ce modèle est établie dans différentes configurations, mais aussi pour des données présentant des incertitudes de calibration
Many empirical models describing sea clutter statistical distribution exist but they do not directly depend on the sea sate. They are not suitable to perform inversion. To model the statistical distribution of the backscattered intensity, we use a two-scale model (TSM) which is linked to the sea state via the mss (mean square slope). This model allows to retrieve the NRCS but does not perfectly describes the sea clutter distribution simultaneously in the two direct polarization channels. This is due to an overestimation of the Bragg polarization ratio (PR)
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Robelin, David. "Détection de courts segments inversés dans les génomes - méthodes et applications". Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010628.

Texto completo da fonte
Resumo:
L'inversion de courts segments (moins de 1000 bases) est soupçonnée être un mécanisme majeur de l'évolution des génomes. Deux méthodes de détection ab initio de tels segments sont présentées. La séquence est modélisée par une chaîne de Markov $X^+$. La séquence inverse-complémentaire est alors également modélisée par une chaîne de Markov note $X^-$. Le premier chapitre présente de façon didactique les modèles de Markov utilisés en analyse de séquences génomiques. Une généralisation au cas d'un ordre supérieur à 1 d'un résultat sur la vitesse de convergence vers la distribution stationnaire est également établie. Le deuxième chapitre est consacré à l'étude du score local : $H_(n)=\max_(1\leq i \leq j \leq n)(Y_i+...+Y_j)$, pour une séquence $(Y_1,...,Y_n) \in \R^n$. La loi jointe asymptotique des $r$ plus grandes valeurs de score local est établie à l'aide de la théorie des valeurs extrêmes. Enfin, une démarche de test multiple permettant de choisir $r$ est proposée. Le troisième chapitre propose une statistique de détection fondée sur un rapport de vraisemblance (modèle $X^+$ contre modèle $X^-$) lorsque la longueur du segment retourné est connue. Une approche de type ``fenêtre glissante'' est ensuite appliquée. Une approximation connue de la loi du maximum de ce type de statistique est utilisée pour associer un degré de signification aux segments détectés. Dans le quatrième chapitre, le cas de recherche de segments de longueurs inconnues est traité à l'aide d'une méthode de type score local. Le cinquième chapitre présente l'application de ces méthodes à quelques génomes viraux. Un logiciel développé pour traiter cette problématique est également présenté.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Sanchez, Reyes Hugo Samuel. "Inversion cinématique progressive linéaire de la source sismique et ses perspectives dans la quantification des incertitudes associées". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAU026/document.

Texto completo da fonte
Resumo:
La caractérisation des tremblements de terre est un domaine de recherche primordial en sismologie, où l'objectif final est de fournir des estimations précises d'attributs de la source sismique. Dans ce domaine, certaines questions émergent, par exemple : quand un tremblement de terre s’est-il produit? quelle était sa taille? ou quelle était son évolution dans le temps et l'espace? On pourrait se poser d'autres questions plus complexes comme: pourquoi le tremblement s'est produit? quand sera le prochain dans une certaine région? Afin de répondre aux premières questions, une représentation physique du phénomène est nécessaire. La construction de ce modèle est l'objectif scientifique de ce travail doctoral qui est réalisé dans le cadre de la modélisation cinématique. Pour effectuer cette caractérisation, les modèles cinématiques de la source sismique sont un des outils utilisés par les sismologues. Il s’agit de comprendre la source sismique comme une dislocation en propagation sur la géométrie d’une faille active. Les modèles de sources cinématiques sont une représentation physique de l’histoire temporelle et spatiale d’une telle rupture en propagation. Cette modélisation est dite approche cinématique car les histoires de la rupture inférées par ce type de technique sont obtenues sans tenir compte des forces qui causent l'origine du séisme.Dans cette thèse, je présente une nouvelle méthode d'inversion cinématique capable d'assimiler, hiérarchiquement en temps, les traces de données à travers des fenêtres de temps évolutives. Cette formulation relie la fonction de taux de glissement et les sismogrammes observés, en préservant la positivité de cette fonction et la causalité quand on parcourt l'espace de modèles. Cette approche, profite de la structure creuse de l’histoire spatio-temporelle de la rupture sismique ainsi que de la causalité entre la rupture et chaque enregistrement différé par l'opérateur. Cet opérateur de propagation des ondes connu, est différent pour chaque station. Cette formulation progressive, à la fois sur l’espace de données et sur l’espace de modèle, requiert des hypothèses modérées sur les fonctions de taux de glissement attendues, ainsi que des stratégies de préconditionnement sur le gradient local estimé pour chaque paramètre du taux de glissement. Ces hypothèses sont basées sur de simples modèles physiques de rupture attendus. Les applications réussies de cette méthode aux cas synthétiques (Source Inversion Validation Exercise project) et aux données réelles du séisme de Kumamoto 2016 (Mw=7.0), ont permis d’illustrer les avantages de cette approche alternative d’une inversion cinématique linéaire de la source sismique.L’objectif sous-jacent de cette nouvelle formulation sera la quantification des incertitudes d’un tel modèle. Afin de mettre en évidence les propriétés clés prises en compte dans cette approche linéaire, dans ce travail, j'explore l'application de la stratégie bayésienne connue comme Hamiltonian Monte Carlo (HMC). Cette méthode semble être l’une des possibles stratégies qui peut être appliquée à ce problème linéaire sur-paramétré. Les résultats montrent qu’elle est compatible avec la stratégie linéaire dans le domaine temporel présentée ici. Grâce à une estimation efficace du gradient local de la fonction coût, on peut explorer rapidement l'espace de grande dimension des solutions possibles, tandis que la linéarité est préservée. Dans ce travail, j'explore la performance de la stratégie HMC traitant des cas synthétiques simples, afin de permettre une meilleure compréhension de tous les concepts et ajustements nécessaires pour une exploration correcte de l'espace de modèles probables. Les résultats de cette investigation préliminaire sont encourageants et ouvrent une nouvelle façon d'aborder le problème de la modélisation de la reconstruction cinématique de la source sismique, ainsi, que de l’évaluation des incertitudes associées
The earthquake characterization is a fundamental research field in seismology, which final goal is to provide accurate estimations of earthquake attributes. In this study field, various questions may rise such as the following ones: when and where did an earthquake happen? How large was it? What is its evolution in space and time? In addition, more challenging questions can be addressed such as the following ones: why did it occur? What is the next one in a given area? In order to progress in the first list of questions, a physical description, or model, of the event is necessary. The investigation of such model (or image) is the scientific topic I investigate during my PhD in the framework of kinematic source models. Understanding the seismic source as a propagating dislocation that occurs across a given geometry of an active fault, the kinematic source models are the physical representations of the time and space history of such rupture propagation. Such physical representation is said to be a kinematic approach because the inferred rupture histories are obtained without taking into account the forces that might cause the origin of the dislocation.In this PhD dissertation, I present a new hierarchical time kinematic source inversion method able to assimilate data traces through evolutive time windows. A linear time-domain formulation relates the slip-rate function and seismograms, preserving the positivity of this function and the causality when spanning the model space: taking benefit of the time-space sparsity of the rupture model evolution is as essential as considering the causality between rupture and each record delayed by the known propagator operator different for each station. This progressive approach, both on the data space and on the model space, does require mild assumptions on prior slip-rate functions or preconditioning strategies on the slip-rate local gradient estimations. These assumptions are based on simple physical expected rupture models. Successful applications of this method to a well-known benchmark (Source Inversion Validation Exercise 1) and to the recorded data of the 2016 Kumamoto mainshock (Mw=7.0) illustrate the advantages of this alternative approach of a linear kinematic source inversion.The underlying target of this new formulation will be the future uncertainty quantification of such model reconstruction. In order to achieve this goal, as well as to highlight key properties considered in this linear time-domain approach, I explore the Hamiltonian Monte Carlo (HMC) stochastic Bayesian framework, which appears to be one of the possible and very promising strategies that can be applied to this stabilized over-parametrized optimization of a linear forward problem to assess the uncertainties on kinematic source inversions. The HMC technique shows to be compatible with the linear time-domain strategy here presented. This technique, thanks to an efficient estimation of the local gradient of the misfit function, appears to be able to rapidly explore the high-dimensional space of probable solutions, while the linearity between unknowns and observables is preserved. In this work, I investigate the performance of the HMC strategy dealing with simple synthetic cases with almost perfect illumination, in order to provide a better understanding of all the concepts and required tunning to achieve a correct exploration of the model space. The results from this preliminary investigation are promising and open a new way of tackling the kinematic source reconstruction problem and the assessment of the associated uncertainties
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Bossy, Thomas. "Impact-defined climate targets : estimating ensembles of pathways of compatible anthropogenic drivers through inversion of the cause-effect chain". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASJ022.

Texto completo da fonte
Resumo:
Cette thèse présente une approche multidisciplinaire de la recherche sur la modélisation du changement climatique. Elle explore les limites du cadre actuel d'élaboration de scénarios prospectifs utilisé par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) et présente de nouvelles approches alternatives et complémentaires pour surmonter ces limites. À l'aide de Pathfinder, un modèle simple axé sur le climat et le cycle du carbone, on investit un espace inexploré par la gamme des modèles climatiques simples existants en incorporant les données les plus récentes et en inversant le processus usuel de génération des scénarios de changement climatique.Des perspectives d'amélioration de notre modèle sont ensuite identifiées en examinant la représentation de l'océan dans Pathfinder, en se concentrant sur le Nexus chaleur-carbone océanique et son rôle critique dans le cycle global du carbone et la réponse du climat aux émissions cumulées de CO2. Une comparaison est faite entre les représentations de l'interface carbone-chaleur océanique dans Pathfinder et les modèles du système terrestre les plus récents, mettant en évidence les divergences significatives et les implications potentielles pour les scénarios de réchauffement à venir.Après avoir présenté Pathfinder en détail, ma recherche examine tout d'abord les réductions d'émissions de CO2 physiquement nécessaires pour atteindre l'objectif de réchauffement global de 1,5C, en soulignant l'importance des émissions de CO2 provenant de l'utilisation des terres et du forçage non lié au CO2. Nous inversons ensuite la chaîne de causalité pour relier les impacts environnementaux aux activités anthropiques, ce qui constitue une approche unique. L'étude cartographie les espaces d'activités anthropiques compatibles avec certaines limites planétaires et introduit un cadre de modélisation qui tient compte du réchauffement climatique, de l'acidification des océans, de l'élévation du niveau de la mer et de la fonte de la banquise arctique.En outre, cette thèse examine le rôle des modèles d'évaluation intégrée dans la compréhension des coûts d'atténuation des émissions associés à ces scénarios climatiques. Elle explore l'impact des choix conceptuels dans ces modèles sur l'identification de scénarios d'atténuation robustes et examine les effets de l'incertitude physique et de l'équité intergénérationnelle.Ce manuscrit se termine par une appréciation des contributions clés de ma recherche doctorale à la modélisation du changement climatique, l'exploration de nouvelles frontières et opportunités dans le domaine, et de mon ressenti personnel sur le domaine de recherche. Dans l'ensemble, cette thèse représente une approche unique et innovante de la modélisation du changement climatique qui, je l'espère, fournira des outils pratiques pour l'évaluation et le développement de stratégies d'atténuation
This dissertation presents a multidisciplinary approach to climate change research. It explores the limitations of the current scenario-building framework used by the Intergovernmental Panel on Climate Change (IPCC) and presents new strategies for better understanding climate futures. Using Pathfinder, a simple model focused on climate and the carbon cycle, this research fills a gap in the range of existing simple climate models by incorporating the latest data and providing a backward, temperature-driven examination of climate change scenarios.Prospects for improvement are then identified by discussing the representation of the ocean in Pathfinder, focusing on the Ocean Heat-Carbon Nexus and its critical role in the global carbon cycle and the response of Earth's climate to cumulative CO2 emissions. A comparison is made between the representations of the Ocean Heat-Carbon Nexus in Pathfinder and state-of-the-art Earth system models, highlighting the significant discrepancies and potential implications for future warming scenarios.After introducing Pathfinder, my research first examines the CO2 emission reductions physically required to meet the 1.5C global warming target, emphasizing the importance of CO2 emissions from land use and non-CO2 forcing. We then reverse the causal chain to link environmental impacts to anthropogenic activities, which is a unique approach. The study maps the spaces of anthropogenic activities compatible with planetary boundaries and introduces a modeling framework that accounts for global warming, ocean acidification, sea level rise, and Arctic sea ice melt.Furthermore, this thesis examines the role of Integrated Assessment Models (IAMs) in understanding the costs associated with these climate scenarios. It explores the impact of conceptual choices in these models on the identification of robust mitigation pathways and examines the effects of physical uncertainty and intergenerational equity.This manuscript concludes with an appreciation of the key contributions of my doctoral research to climate change modeling, exploration of new frontiers and opportunities in the field, and personal insights into the research journey. Overall, this research represents a unique, innovative approach to climate change modeling that will hopefully provide practical tools for assessing and developing mitigation strategies
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Kacimi, Sahra. "Contribution à la restitution des précipitations tropicales par radiométrie micro-ondes : préparation à la mission Megha-Tropiques". Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0064.

Texto completo da fonte
Resumo:
Dans le contexte actuel de réchauffement climatique, l’étude du cycle de l’eau et de l’énergie dans l’atmosphère est devenue primordiale. Dans le contexte de la mission Megha-Tropiques dédiée l’analyse de l’atmosphère tropicale, l’estimation du taux précipitant à la surface est une problématique essentielle. L’utilisation des données radiométriques MO pour l’estimation du taux précipitant à la surface terrestre, nécessite la mise en œuvre de méthodologies complexes qui reposent sur le problème inverse. Les travaux présentés dans cette thèse s’intéressent à l’algorithme de restitution des précipitations instantanées BRAIN de la mission MT. Son principe de fonctionnement repose sur une approche probabiliste baysienne qui nécessite la construction préalable d’une base de données dite d’inversion et à partir de laquelle le taux précipitant le plus probable pour un vecteur de températures de brillance donnée est estimé. L’objectif de cette étude était d’aporter des améliorations à cet algorithme en intervenant sur deux aspects fondamentaux qui sont : la détection des régions a priori pluvieuses en amont de l’estimation et de l’influence de la base de données et des paramètres d’inversions sur les produits restitués. Afin d’améliorer ces deux aspects, une nouvelle approche de discrimination des zones de pluie utilisant des réseaux de neurones a été mise en place au cours de cette thèse et sera implémentée dans la prochaine version opérationnelle de BRAIN. Une méthode de réduction de la base d’investigation a également été mise en œuvre afin de contraindre sa représentativité et donc la qualité des estimations réalisées
Within the framework of the global warming, the analysis of water and energy budget is of major importance. Considering the Megha-Tropiques (MT) mission whose one of the scientific objectives is to improve the knowledge of water and energy cycle in the intertropical region, the estimation of instantaneous surface rainfall is of the great importance. My PhD work focuses on the optimization of a multi-region, the estimation of instantaneous surface rainfall is of great importance. My PhD work focuses on the optimization of a multi-plateform Bayesian retrieval algorithm called BRAIN (Bayesian Retrieval Algorithm Including Neural Networks) (Viltard et al. , 2006) used for MT. This algorithm uses passive microwave data from satellites such as TRMM, SSM/I and AQUA. It uses a Bayesian Monte Carlo approach to retrieve several atmospheric parameters such as the instantaneous rainfall rate. In order to get a more accurate rainfall restitution, two research axes were investigated : the detection of a priori rainy areas that takes place before the rainfall estimation itself, and the impact of the database and inversion parameters. First, the database on which the algorithm relies needs to be more representative especially as far as high rain rates are concerned. To improve the representativeness of the inversion database, we need first to eliminate repetitive profiles, that is to say extract prototypes from it. To be made, we use Self Organizing Maps SO%s developed by T. Kohonen (2001). Second, the improvement of the rainy-non-rainy pixels classification before the inversion was made using neural networks
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Herig, Coimbra Pedro Henrique. "A whirlwind journey of wavelet turbulent flux mapping : estimation of spatialized turbulent flux on tall towers and its uncertainties". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASJ011.

Texto completo da fonte
Resumo:
Le climat et l'activité humaine sont étroitement liés. Les émissions de gaz à effet de serre (GES) impactent la dynamique climatique et la qualité de l'air, affectant des millions de personnes dans le monde. La surveillance efficace des GES est essentielle pour des décisions politiques éclairées, mais elle est complexe en raison de la variabilité des sources et puits, ainsi que du transport atmosphérique. Les réseaux de surveillance abordent cette variabilité en déployant des capteurs dans des lieux géographiques divers, échantillonnant en continu sur le temps.Les zones urbaines sont des points d'émission clés. Cependant, directement surveiller les changements de GES sur > 5 km2 avec des sources variées et des zones végétalisées manque d'une méthode standard. La méthode de covariance turbulente (eddy covariance, EC) offre une surveillance directe et continue du flux net de GES. L'EC basée sur les ondelettes fonctionne sur les mêmes principes mais ne nécessite pas de stationnarité, laissant plus de données exploitables pour l'analyse, ce qui est particulièrement bénéfique dans les environnements urbains complexes.Démêler les composantes anthropiques et biogéniques d'un flux net de CO2 est reconnu comme un problème clé à résoudre dans les zones urbanisées. Les modèles écosystémiques conventionnels utilisés pour partitionner la productivité primaire brute (GPP) et la respiration de l'écosystème (Reco) ne sont pas appropriés pour les zones urbanisées. La partition directe en utilisant des corrélations haute fréquence entre les gaz traceurs peut aider à surmonter les limitations des méthodes de partitionnement standard.Bien que l'EC reste la norme pour les études locales, l'estimation des flux de surface à plus grande échelle implique souvent d'assimiler des mesures de concentration de fond à des estimations antérieures à l'aide de modèles de transport. Les méthodes d'inversion utilisant les données de flux de tour sont encore rares et il serait intéressant de les tester dans les zones urbanisées.L'objectif de cette thèse était d'évaluer l'EC basée sur les ondelettes combinée à des méthodes d'inversion bayésiennes pour la cartographie des flux de CO2. Au cours de la thèse, j'ai découvert une nouvelle méthode de partitionnement direct qui a été utilisée pour améliorer l'inversion globale dans la zone suburbaine du plateau de Saclay.Dans le premier article de la thèse, nous avons proposé la nouvelle méthode de partitionnement direct basée sur l'analyse en quadrants des flux décomposés en fréquence de CO2 et de vapeur d'eau. Nous avons montré que cette méthode pouvait fournir des estimations impartiales de GPP et Reco. Nous avons également constaté que l'EC basée sur les ondelettes a gardé jusqu'à ~30% plus des données exploitables.Dans le deuxième article, nous avons utilisé une grande tour équipée d'analyseurs à haute précision mais lents. Malgré des fréquences d'acquisition plus lentes, l'atténuation était limitée à ~20 % par une plus faible contribution de hautes fréquences à cette hauteur. Les résultats encouragent une collaboration entre les réseaux atmosphériques et écosystémiques.Dans le troisième article, nous avons combiné la méthode de partitionnement proposée dans le premier article avec les instruments d'une tour atmosphérique du deuxième article. Le flux de CO2 partionné en biogéniques et anthropiques ont été assimilé dans des estimations spatialisées des flux à quelques km2. Les cartes de flux obtenues offrent l'avantage de reposer sur des mesures de flux directes à l'échelle du paysage et peuvent être utilisées pour informer les inversions à grande échelle à des échelles plus larges.Les résultats centrés sur la région parisienne fournissent des bases pour les mesures de flux à l'échelle du paysage et à definir des stratégies de surveillance des émissions. Ces avancées contribuent à la compréhension et à la résolution des défis environnementaux aux échelles temporelles et spatiales où les décisions sont prises
Climate and human activity are closely linked. Greenhouse gas (GHGs) emissions impact climate dynamics and air quality, affecting millions globally. Effective GHG monitoring is essential for informed policy decisions, yet it is complex due to spatial and temporal variability of sources and sinks, and atmospheric transport. Monitoring networks address this variability by deploying sensors across diverse geographic locations sampling continuously over time.Urban areas are key emission points, driving climate change. However, monitoring direct GHG changes over >5 km2 with varied sources and vegetated areas lacks a standard method. Eddy Covariance (EC) offers direct, continuous GHG net flux monitoring. Wavelet-based EC operates on the same principles as the standard method but calculates covariance using frequency decomposed time series. This approach does not require stationarity, leaving more data available for analysis, particularly beneficial in complex urban environments where non-stationary fluxes are common.Disentangling anthropogenic and biogenic components of a net CO2 flux is recognised as a key issue yet to be resolved in urbanised areas. Conventional ecosystem models used to partition gross primary productivity (GPP) and ecosystem respiration (Reco) are not appropriate for urbanised areas. Direct partitioning using high-frequency correlations between tracer gases may help overcoming the limitations of standard partitioning methods.While Eddy Covariance remains standard for local studies, estimating larger-scale surface fluxes often involves assimilating background concentration measurements to prior estimations using transport models. The progress in satellite imagery and detailed inventories provides a new basis that helps improve these methods. However, inversion methods using tower flux data are still sparse and would be interesting to test in urbanised areas.The objective of this PhD was to evaluate wavelet-based EC combined with Bayesian inversion methods for CO2 flux mapping. During the course of the PhD I discovered a new direct partitioning method that was used with a combination of CH4 and CO to improve the overall inversion in the suburban area of the Saclay plateau.In the first paper of the PhD, we hypothesised that decomposing concentration and wind signals by frequency can capture individual gusts within each frequency, typically mixed in the original signal. We leveraged this feature to propose a new parameter-free direct partitioning method based on quadrant analysis of CO2 and water vapour frequency decomposed fluxes. We showed that this method could indeed provide unbiased estimates of GPP and Reco at a crop and a forest ecosystem site near Paris. We also found that wavelet eddy covariance further saved up to 30% of the non-stationary data in these sites.In the second paper, we proposed using tall towers equipped with high-precision but slow analysers for measuring fluxes. Despite slower acquisition frequencies, attenuation was limited to 20 % by a lower contribution of high frequencies at this height. Results encourage further collaboration between atmospheric and ecosystem networks for in-situ measurements.In the third paper, we combined the partitioning method proposed in the first paper with the flux from the second paper, including now more gases measured to partition CO2 fluxes in biogenic and anthropogenic components and assimilate them in previous spatially-explicit estimations of fluxes at few km2. The obtained flux maps offer the advantage of relying on direct flux measurements at the landscape scale and may be used to informing large-scale inversions at broader scales.Results focused on the Parisian region provide valuable insights for flux measurements at the landscape scale and beyond, and contributing to emission monitoring strategies. These advancements contribute to understanding and addressing environmental challenges at the temporal and spatial scales where decisions are made
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Fetel, Emmanuel. "Quantification des incertitudes liées aux simulations d'écoulement dans un réservoir pétrolier à l'aide de surfaces de réponse non linéaires". Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL005N/document.

Texto completo da fonte
Resumo:
Ce travail propose un ensemble de méthodes dédiées à la quantification des incertitudes sur la simulation des écoulements dans un réservoir pétrolier. Ces méthodes sont basées sur l’utilisation de surfaces de réponse approchant la relation, le plus souvent inconnue et non linéaire, entre les paramètres incertains du réservoir et les variables de production. L’ensemble proposé contient ainsi des algorithmes de construction ou d’analyse (échantillonnage, analyse de sensibilité, inversion bayésienne d’un historique de production) de surfaces de réponse. Ces méthodes ont été tout d’abord développés dans un cadre déterministe puis étendues à la prise en compte de simulation d’écoulement secondaires et de paramètres incertains stochastiques caractérisés par un impact aléatoire sur la production. Les principales considérations de se travail sont de tenir compte d’un grand nombre de paramètres incertains, de données de production bruitée et de pourvoir modéliser une réponse de forme complexe
This work develops several methodologies to assess uncertainty on oil reservoir production. Taking in consideration that flow simulations are time consuming it uses response surfaces to approximate the relationship between reservoir uncertain parameters and production variables. First deterministic methods are developed to construct and analyze such surfaces: construction algorithms are the discrete smooth interpolation and the dual kriging while analysis methods are the variance based sensitivity analysis and the bayesian inversion of production history. This framework is then extended to include fast flow simulation results and to handle stochastic parameters characterized by a random effect on reservoir production. These methodologies are developed based on the following considerations: the number of uncertain parameters is usually large, data may be noisy if some parameters are neglected and the complex relationship between uncertain parameters and reservoir production
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Lecaignard, Françoise. "Predictive coding in auditory processing : insights from advanced modeling of EEG and MEG mismatch responses". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1160/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur le codage prédictif comme principe général pour la perception et vise à en étayer les mécanismes computationnels et neurophysiologiques dans la modalité auditive. Ce codage repose sur des erreurs de prédictions se propageant dans une hiérarchie, et qui pourraient se refléter dans des réponses cérébrales au changement (ou déviance) telles que la Négativité de discordance (mismatch negativity, MMN). Nous avons manipulé la prédictibilité de sons déviants et utilisé des approches de modélisation computationnelle et dynamique causale (DCM) appliquées à des enregistrements électrophysiologiques (EEG, MEG) simultanés.Une modulation des réponses à la déviance par la prédictibilité a été observée, permettant d'établir un lien avec les erreurs de prédictions. Cet effet implique un apprentissage implicite des régularités acoustiques, dont l'influence sur le traitement auditif a pu être caractérisée par notre approche de modélisation. Sur le plan computationnel, un apprentissage a été mis en évidence au cours de ce traitement auditif, reposant sur une fenêtre d'intégration temporelle dont la taille varie avec la prédictibilité des déviants. Cet effet pourrait également moduler la connectivité synaptique sous-tendant le traitement auditif, comme le suggère l'analyse DCM.Nos résultats mettent en évidence la mise en œuvre d'un apprentissage perceptif au sein d'une hiérarchie auditive soumis à une modulation par la prédictibilité du contexte acoustique, conformément aux prédictions du codage prédictif. Ils soulignent également l'intérêt de ce cadre théorique pour émettre et tester expérimentalement des hypothèses mécanistiques précises
This thesis aims at testing the predictive coding account of auditory perception. This framework rests on precision-weighted prediction errors elicited by unexpected sounds that propagate along a hierarchical organization in order to maintain the brain adapted to a varying acoustic environment. Using the mismatch negativity (MMN), a brain response to unexpected stimuli (deviants) that could reflect such errors, we could address the computational and neurophysiological underpinnings of predictive coding. Precisely, we manipulated the predictability of deviants and applied computational learning models and dynamic causal models (DCM) to electrophysiological responses (EEG, MEG) measured simultaneously. Deviant predictability was found to modulate deviance responses, a result supporting their interpretation as prediction errors. Such effect might involve the (high-level) implicit learning of sound sequence regularities that would in turn influence auditory processing in lower hierarchical levels. Computational modeling revealed the perceptual learning of sounds, resting on temporal integration exhibiting differences induced by our predictability manipulation. In addition, DCM analysis indicated predictability changes in the synaptic connectivity established by deviance processing. These results conform predictive coding predictions regarding both deviance processing and its modulation by deviant predictability and strongly support perceptual learning of auditory regularities achieved within an auditory hierarchy. Our findings also highlight the power of this mechanistic framework to elaborate and test new hypothesis enabling to improve our understanding of auditory processing
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Kasraoui, Anisse. "Études combinatoires sur les permutations et partitions d'ensemble". Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00393631.

Texto completo da fonte
Resumo:
Cette thèse regroupe plusieurs travaux de combinatoire énumérative sur les permutations et permutations d'ensemble. Elle comporte 4 parties.Dans la première partie, nous répondons aux conjectures de Steingrimsson sur les partitions ordonnées d'ensemble. Plus précisément, nous montrons que les statistiques de Steingrimsson sur les partitions ordonnées d'ensemble ont la distribution euler-mahonienne. Dans la deuxième partie, nous introduisons et étudions une nouvelle classe de statistiques sur les mots : les statistiques "maj-inv". Ces dernières sont des interpolations graphiques des célèbres statistiques "indice majeur" et "nombre d'inversions". Dans la troisième partie, nous montrons que la distribution conjointe des statistiques"nombre de croisements" et "nombre d'imbrications" sur les partitions d'ensemble est symétrique. Nous étendrons aussi ce dernier résultat dans le cadre beaucoup plus large des 01-remplissages de "polyominoes lunaires".La quatrième et dernière partie est consacrée à l'étude combinatoire des q-polynômes de Laguerre d'Al-Salam-Chihara. Nous donnerons une interprétation combinatoire de la suite de moments et des coefficients de linéarisations de ces polynômes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia