Dissertations / Theses on the topic 'Correction de biais en ligne'

To see the other types of publications on this topic, follow the link: Correction de biais en ligne.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 22 dissertations / theses for your research on the topic 'Correction de biais en ligne.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Balhane, Saloua. "Improving the dynamical downscaling over Morocco in the context of climate change." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAX105.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Maroc est l'une des régions les plus vulnérables au changement climatique. Il se caractérise par des interactions complexes entre diverses caractéristiques géographiques, notamment l'océan Atlantique, la mer Méditerranée, les montagnes du Haut Atlas et le Sahara. Il est essentiel de comprendre la variabilité spatio-temporelle du climat dans cette région pour une meilleure gestion des ressources. Les modèles climatiques globaux jouent un rôle important dans ce contexte, car ce sont les seuls modèles à prendre en compte tous les réservoirs d'eau et d'énergie, y compris les réservoirs à mouvement lent comme les océans, qui modulent le climat et son évolution. Cependant, les modèles climatiques globaux sont encore sujets à des biais systématiques qui limitent leurs performances et ont généralement des résolutions grossières, limitant leur utilisation pour l’évaluation d’aspects locaux. Les modèles climatiques régionaux peuvent améliorer la représentation de certains processus (processus orographiques, brises, etc.). Cependant, ils présentent des défauts qui peuvent altérer de manière significative la crédibilité des trajectoires du changement climatique, car il est impossible de distinguer l'impact des biais systématiques dans les modèles globaux de forçage du rôle d'une meilleure description de petite échelle.Ce travail explore différentes manières de surmonter ces limitations.Dans la première partie, nous évaluons une gamme de différents ensembles à haute résolution, issus de la réduction d'échelle statistique (NEXGDDP) et dynamique (Euro-CORDEX et Euro-CORDEX ajusté au biais) tout en analysant la valeur ajoutée potentielle que la correction du biais "a posteriori" peut avoir sur la simulation des précipitations et des températures moyennes et extrêmes sur le Maroc.Dans la deuxième partie, nous utilisons le modèle LMDZ, la composante atmosphérique de la dernière version du modèle de l’IPSL, dans une configuration couplée avec le modèle de surface terrestre ORCHIDEE. Nous avons conçu une configuration du modèle à grille raffinée adaptée aux études régionales sur le Maroc, qui est suffisamment stable numériquement pour exécuter des simulations de changement climatique et qui permet i) une haute résolution sur la région et ii) une résolution suffisante à l'extérieur du zoom pour reproduire la circulation de grande échelle. Nous utilisons une méthode de correction de biais en ligne, qui consiste à corriger les erreurs systématiques des variables atmosphériques de grande échelle à l'aide des statistiques d'une simulation guidée par des réanalyses climatologiques. Cette approche permet de travailler avec une résolution fine à un coût de calcul modéré sans compromettre la cohérence entre les climats global et régional, cruciale pour le Maroc.L’évaluation du climat présent (1979-2014) a mis en évidence des améliorations notables après raffinement de la grille, notamment dans la circulation générale moyenne. La simulation libre à grille zoomée se compare favorablement aux observations de précipitations et de températures à l'échelle locale. Le climat moyen est considérablement amélioré après la correction de biais par rapport aux simulations non corrigées, et des améliorations dans le transport d’humidité, des précipitations et de la température de l’air sont observés.Pour le climat futur, la température de surface de la mer (SST) et la concentration de glace de mer (SIC) déduites de quatre modèles CMIP6 couplés, forcés par les gaz à effet de serre et les aérosols correspondant au scénario Shared Socioeconomic Pathway-8.5 (SSP-8.5), sont utilisées pour forcer la configuration régionale corrigée du LMDZ6-OR. Des simulations de 20 ans sont produites pour un niveau de réchauffement global de 3 Kelvin afin d'évaluer la réponse du climat régional moyen, des précipitations et de la température au changement des SST et SIC
Morocco is one of the most vulnerable regions to climate change. Its climate is characterized by complex interactions between various geographical features, including the Atlantic Ocean, the Mediterranean Sea, the High Atlas Mountains, and the Sahara Desert. Understanding the spatiotemporal variability of climatic patterns in this region is crucial for effective climate change adaptation strategies, natural resource management, and sustainable development planning. Global climate models (GCMs) play a significant role within this context, as they are the only models to take into account all the water and energy reservoirs, including slow-moving reservoirs such as the oceans, which modulate the climate and its evolution. Yet, global climate models are still subject to systematic biases that constrain their performance and have generally coarse resolutions, limiting the assessment of local climate patterns. Regional climate models can improve the representation of certain processes (orographic processes, breezes, etc.). They do, however, have flaws that can significantly alter the credibility of climate change trajectories, as it is impossible to distinguish the impact of systematic biases in the forcing GCMs from the role of better small-scale description.This work explores different ways of overcoming these limitations.In the first part, we evaluate a range of different widely used high-resolution ensembles issued from statistical (NEXGDDP) and dynamical (Euro-CORDEX and bias-adjusted Euro-CORDEX) downscaling while investigating the potential added value that “a posteriori'' bias adjustment may have on the simulation of mean and extreme precipitation and temperature over Morocco.In the second part, we use the LMDZ model, the atmospheric component of the latest version of the IPSL model (IPSLCM6), in a coupled configuration with the ORCHIDEE land-surface model. We designed a refined-grid configuration of the model adapted for regional studies over Morocco that is numerically stable enough for running climate change simulations and allows i) a high resolution over the region and ii) a sufficient resolution on the outside of the zoom area to reproduce large-scale patterns. To deal with the systematic large-scale dynamical biases, a run-time bias correction approach, which consists of bias-correcting the systematic errors in large-scale atmospheric variables using the statistics of a nudged simulation towards climate reanalysis, is used. This method allows for high resolution at a moderate computational cost without compromising the coherence between the global and regional climates. Indeed, preserving this coherence is crucial for Morocco since large-scale circulation patterns play a vital role in shaping regional climate patterns in the region.The evaluation of the present climate (1979–2014) has shown significant improvements after grid refinement, particularly in the mean general circulation. The free refined-grid run compares favorably to precipitation and temperature observations at the local scale. The mean climate is considerably improved after bias correction compared to the uncorrected simulations, and improvements in moisture transport, precipitation and air temperature are observed.For future climate, sea surface temperature (SST) and sea ice concentration (SIC) deduced from four coupled CMIP6 models, forced by greenhouse gases and aerosols corresponding to the Shared Socioeconomic Pathway-8.5 (SSP-8.5) scenario, are used to force the corrected regional configuration of LMDZ6-OR. Twenty-year simulations are produced for a global warming level of 3 Kelvin to assess the response of mean regional climate, precipitation and temperature to changes in SST and SIC
2

Gelperowic, Céline. "Méthodes de discrimination : comparaison et correction des biais de présélection des échantillons." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la comparaison de trois méthodes de discrimination, et plus particulierement sur les corrections à apporter à ces méthodes quand les échantillons utilisés ont été présélectionnés. On s'intéresse à trois méthodes (l'analyse discriminante - linéaire ou quadratique-, la régression-logistique, probit- et le partitionnement récursif -ou segmentation par arbre binaire) dans le cas où celles-ci sont employées pour faire de la prévision. On compare tout d'abord ces méthodes (résumé et complément). L'emploi des courbes de sélection comme critère de comparaison, fréquent pour les méthodes paramétriques, est étendu à la règle obtenue par partitionnement récursif. Ce critère trouve d'autres applications pour cette règle (réduction du grand arbre notamment). Lorsqu'elles sont construites à partir d'échantillons présélectionnés, les règles sont toutes moins performantes. On appelle biais de sélection l'effet de la présélection de l'échantillon sur la règle de discrimination. Les méthodes classiques de traitement des données manquantes sont inefficaces pour corriger ce biais. Pour la règle obtenue par analyse discriminante (linéaire), on propose une modélisation (modèle bivarié fondé sur deux analyses discriminantes corrélées) permettant de prendre en compte et de corriger le biais de sélection. Pour ce modèle, le biais apparait comme une erreur de spécification ; de plus, la dualité qui existe entre la régression et l'analyse discriminante dans le cas d'échantillons complets se prolonge pour les modèles bivariés employés pour faire la correction. Pour la règle obtenue par partitionnement récursif, l'aspect non-paramétrique rend plus difficile la prise en compte de la présélection. On propose alors une méthode semi-paramétrique, qui découle de celle utilisée en régression, et qui permet de corriger le biais au niveau des noeuds terminaux de l'arbre.
3

Trinquart, Ludovic. "Impact, détection et correction du biais de publication dans la méta-analyse en réseau." Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05S025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La méta-analyse (MA) en réseau, en généralisant la MA conventionnelle, permet d'évaluer toutes les comparaisons deux à deux possibles entre interventions. Les biais de publication ont reçu peu d’attention dans ce contexte. Nous avons évalué l’impact des biais de publication en utilisant un réseau de 74 essais randomisés évaluant 12 antidépresseurs contre placebo enregistrés à la FDA et un réseau de 51 essais parmi les 74 dont les résultats étaient publiés. Nous avons montré comment les biais de publication biaisaient les quantités d'effet estimées et le classement des traitements. L'effet du biais de publication peut différer entre MA en réseau et MA conventionnelle en ce que les biais affectant un traitement peuvent affecter le classement de tous les traitements. Nous avons ensuite généralisé un test de détection des biais à la MA en réseau. Il est basé sur la comparaison entre les nombres attendu et observé d’essais avec résultats statistiquement significatifs sur l’ensemble du réseau. Nous avons montré par des études de simulation que le test proposé avait une puissance correcte après ajustement sur l’erreur de type I, excepté lorsque la variance inter-essais était élevée. Par ailleurs, le test indiquait un signal significatif de biais sur le réseau d’essais d’antidépresseurs publiés. Enfin, nous avons introduit deux modèles d’analyse de sensibilité des résultats d'une MA en réseau aux biais de publication: un modèle de méta-régression qui relie la quantité d’effet estimée à son erreur standard, et un modèle de sélection dans lequel on estime la propension d’un essai à être publié puis l’on redresse le poids des essais en fonction de cette propension. Nous les avons appliqués aux réseaux d’essais d’antidépresseurs. Ce test et ces modèles d'ajustement tirent leur force de tous les essais du réseau, sous l’hypothèse qu'un biais moyen commun opère sur toutes les branches du réseau
Network meta-analysis (NMA), a generalization of conventional MA, allows for assessing all possible pairwise comparisons between multiple treatments. Reporting bias, a major threat to the validity of MA, has received little attention in the context of NMA. We assessed the impact of reporting bias empirically using data from 74 FDA-registered placebo-controlled trials of 12 antidepressants and their 51 matching publications. We showed how reporting bias biased NMA-based estimates of treatments efficacy and modified ranking. The effect of reporting bias in NMAs may differ from that in classical meta-analyses in that reporting bias affecting only one drug may affect the ranking of all drugs. Then, we extended a test to detect reporting bias in network of trials. It compares the number of expected trials with statistically significant results to the observed number of trials with significant p-values across the network. We showed through simulation studies that the test was fairly powerful after adjustment for size, except when between-trial variance was substantial. Besides, it showed evidence of bias in the network of published antidepressant trials. Finally, we introduced two methods of sensitivity analysis for reporting bias in NMA: a meta-regression model that allows the effect size to depend on its standard error and a selection model that estimates the propensity of trial results being published and in which trials with lower propensity are weighted up in the NMA model. We illustrated their use on the antidepressant datasets. The proposed test and adjustment models borrow strength from all trials across the network, under the assumption that conventional MAs in the network share a common mean bias mechanism
4

Robin, Yoann. "Transport optimal pour quantifier l'évolution d'un attracteur climatique et corriger ses biais." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système climatique génère un attracteur étrange, décrit par une distribution de probabilité, nommée la mesure SRB (Sinai-Ruelle-Bowen). Cette mesure décrit l'état et sa dynamique du système. Le but de cette thèse est d'une part de quantifier les modifications de cette mesure quand le climat change. Pour cela, la distance de Wasserstein venant de la théorie du transport optimal, permet de mesurer finement les différences entre distributions de probabilités. Appliquée à un modèle jouet de Lorenz non autonome, elle a permis de détecter et quantifier l'altération due à un forçage similaire à celui du forçage anthropique. La même méthodologie a été appliquée à des simulations de scénarios RCP du modèle de l'IPSL. Des résultats cohérents avec les différents scénarios ont été retrouvés. D'autre part, la théorie du transport optimal fournit un contexte théorique pour la correction de biais dans un contexte stationnaire : une méthode de correction de biais est équivalente à une loi jointe de probabilité. Une loi jointe particulière est sélectionnée grâce à la distance de Wasserstein (méthode Optimal Transport Correction, OTC). Cette approche étend les méthodes de corrections en dimension quelconque, corrigeant en particulier les dépendances spatiales et inter-variables. Une extension dans le cas non-stationnaire a également été proposée (méthode dynamical OTC, dOTC). Ces deux méthodes ont été testées dans un contexte idéalisé, basé sur un modèle de Lorenz, et sur des données climatiques (une simulation climatique régionale corrigée avec des ré-analyses SAFRAN)
The climate system generates a strange attractor, described by a probability distribution, called the SRB measure (Sinai-Ruelle-Bowen). This measure describes the state and dynamic of the system. The goal of this thesis is first, to quantify the modification of this measure when climate changes. For this, the Wasserstein distance, stemming from the optimal transport theory, allows us determine accurately the differences between probability distributions. Used on a non-autonomous Lorenz toy model, this metric allows us to detect and quantify the alteration due to a forcing similar to anthropogenic forcing. This methodology has been applied to simulation of RCP scenarios from the IPSL model. The results are coherent with different scenarios. Second, the optimal transport gives a theoretical context for stationary bias correction: a bias correction method is equivalent to a joint probability law. A specific joint law is selected with the Wasserstein distance (Optimal Transport Correction method, OTC). This approach allows us extending bias correction methods in any dimension, correcting spatial and inter-variables dependences. An extension in the non-stationary context has been also developed (dynamical OTC method, dOTC). Those two methods have been tested in an idealized case, based on a Lorenz model, and on climate dataset (a regional climate simulation corrected with respect to the SAFRAN reanalysis)
5

Aligné, Thomas. "Assimilation variationnelle des observations de sondeurs infrarouges hyperspectraux : correction de biais et la détection nuageuse." Toulouse 3, 2007. http://www.theses.fr/2007TOU30038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est d'optimiser les méthodes d'assimilation de données pour l'utilisation des sondeurs infrarouges hyperspectraux. Le travail se concentre sur deux aspects essentiels : la correction de biais et la détection nuageuse. La correction de biais est une étape nécessaire qui consiste à réduire les erreurs systématiques des observations. On présente la correction de biais variationnelle (VarBC) qui est moins sensible à une contamination par les biais du modèle de prévision. Cette propriété est exploitée pour paramétriser de manière objective les biais. La détection nuageuse élimine les observations contaminées par les nuages. On identifie une boucle d'interaction entre la correction de biais et la détection nuageuse. Une nouvelle métrique permet de réduire sensiblement son impact sur l'analyse. Un nouveau schéma de détection des nuages est introduit puis validé pour des observations simulées et réelles. Il ouvre une voie vers l'assimilation des observations nuageuses.
6

Tran, Van-Tinh. "Selection Bias Correction in Supervised Learning with Importance Weight." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1118/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la théorie de l'apprentissage supervisé, l'hypothèse selon laquelle l'échantillon de d'apprentissage et de test proviennent de la même distribution de probabilité, joue un rôle crucial. Malheureusement, cette hypothèse essentielle est souvent violée en présence d'un biais de sélection. Dans ce contexte, les algorithmes d'apprentissage supervisés standards peuvent souffrir d'un biais significatif. Dans cette thèse, nous abordons le problème du biais de sélection en apprentissage supervisé en utilisant la méthode de pondération de l'importance ("importance weighting" en anglais).Dans un premier temps, nous présentons le cadre formel de l'apprentissage supervisé et discutons des effets potentiellement néfastes du biais sur les performances prédictives. Nous étudions ensuite en détail comment les techniques de pondération de l'importance permettent, sous certaines hypothèses, de corriger le biais de sélection durant l'apprentissage de modèles génératifs et discriminants. Nous étudions enfin le potentiel des réseaux bayésiens comme outils de représentation graphique des relations d'indépendances conditionnelles entre les variables du problème et celles liées au mécanisme de sélection lui-même. Nous illustrons sur des exemples simples comment la graphe, construit avec de la connaissance experte, permet d'identifier a posteriori un sous-ensemble restreint de variables sur lesquelles « agir » pour réduire le biais.Dans un second temps, nous accordons une attention particulière au « covariate shift », i.e. un cas particulier de biais de sélection où la distribution conditionnelle P(y|x) est invariante entre l'échantillon d'apprentissage et de test. Nous proposons deux méthodes pour améliorer la pondération de l'importance en présence de covariate shift. Nous montrons d'abord que le modèle non pondéré est localement moins biaisé que le modèle pondéré sur les échantillons faiblement pondérés, puis nous proposons une première méthode combinant les modèles pondérés et non pondérés afin d'améliorer les performances prédictives dans le domaine cible. Enfin, nous étudions la relation entre le covariate shift et le problème des données manquantes dans les jeux de données de petite taille et proposons une seconde méthode qui utilise des techniques d'imputation de données manquantes pour corriger le covariate shift dans des scénarios simples mais réalistes. Ces méthodes sont validées expérimentalement sur de nombreux jeux de données
In the theory of supervised learning, the identical assumption, i.e. the training and test samples are drawn from the same probability distribution, plays a crucial role. Unfortunately, this essential assumption is often violated in the presence of selection bias. Under such condition, the standard supervised learning frameworks may suffer a significant bias. In this thesis, we address the problem of selection bias in supervised learning using the importance weighting method. We first introduce the supervised learning frameworks and discuss the importance of the identical assumption. We then study the importance weighting framework for generative and discriminative learning under a general selection scheme and investigate the potential of Bayesian Network to encode the researcher's a priori assumption about the relationships between the variables, including the selection variable, and to infer the independence and conditional independence relationships that allow selection bias to be corrected.We pay special attention to covariate shift, i.e. a special class of selection bias where the conditional distribution P(y|x) of the training and test data are the same. We propose two methods to improve importance weighting for covariate shift. We first show that the unweighted model is locally less biased than the weighted one on low importance instances, and then propose a method combining the weighted and the unweighted models in order to improve the predictive performance in the target domain. Finally, we investigate the relationship between covariate shift and the missing data problem for data sets with small sample sizes and study a method that uses missing data imputation techniques to correct the covariate shift in simple but realistic scenarios
7

Robin, Yoann. "Transport optimal pour quantifier l'évolution d'un attracteur climatique et corriger ses biais." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système climatique génère un attracteur étrange, décrit par une distribution de probabilité, nommée la mesure SRB (Sinai-Ruelle-Bowen). Cette mesure décrit l'état et sa dynamique du système. Le but de cette thèse est d'une part de quantifier les modifications de cette mesure quand le climat change. Pour cela, la distance de Wasserstein venant de la théorie du transport optimal, permet de mesurer finement les différences entre distributions de probabilités. Appliquée à un modèle jouet de Lorenz non autonome, elle a permis de détecter et quantifier l'altération due à un forçage similaire à celui du forçage anthropique. La même méthodologie a été appliquée à des simulations de scénarios RCP du modèle de l'IPSL. Des résultats cohérents avec les différents scénarios ont été retrouvés. D'autre part, la théorie du transport optimal fournit un contexte théorique pour la correction de biais dans un contexte stationnaire : une méthode de correction de biais est équivalente à une loi jointe de probabilité. Une loi jointe particulière est sélectionnée grâce à la distance de Wasserstein (méthode Optimal Transport Correction, OTC). Cette approche étend les méthodes de corrections en dimension quelconque, corrigeant en particulier les dépendances spatiales et inter-variables. Une extension dans le cas non-stationnaire a également été proposée (méthode dynamical OTC, dOTC). Ces deux méthodes ont été testées dans un contexte idéalisé, basé sur un modèle de Lorenz, et sur des données climatiques (une simulation climatique régionale corrigée avec des ré-analyses SAFRAN)
The climate system generates a strange attractor, described by a probability distribution, called the SRB measure (Sinai-Ruelle-Bowen). This measure describes the state and dynamic of the system. The goal of this thesis is first, to quantify the modification of this measure when climate changes. For this, the Wasserstein distance, stemming from the optimal transport theory, allows us determine accurately the differences between probability distributions. Used on a non-autonomous Lorenz toy model, this metric allows us to detect and quantify the alteration due to a forcing similar to anthropogenic forcing. This methodology has been applied to simulation of RCP scenarios from the IPSL model. The results are coherent with different scenarios. Second, the optimal transport gives a theoretical context for stationary bias correction: a bias correction method is equivalent to a joint probability law. A specific joint law is selected with the Wasserstein distance (Optimal Transport Correction method, OTC). This approach allows us extending bias correction methods in any dimension, correcting spatial and inter-variables dependences. An extension in the non-stationary context has been also developed (dynamical OTC method, dOTC). Those two methods have been tested in an idealized case, based on a Lorenz model, and on climate dataset (a regional climate simulation corrected with respect to the SAFRAN reanalysis)
8

Moussaoui, Mohamed. "Optimisation de la correction de biais dans le récepteur PIC multi-étages pour le système CDMA." Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/19958d9e-d214-4166-b25a-481ff9aca6ff.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité du récepteur optimal de Verdu pour le système CDMA augmente exponentiellement avec le nombre d'utilisateurs, de sorte que ce récepteur devient difficilement réalisable. Dans cette thèse, nous analysons le récepteur sub-optimal d'annulation d'interférences de structure parallèle à plusieurs étages (PIC). La nature parallèle de l'algorithme est facilement exploitable dans un environnement de multitraitement. Ceci le rend extrêmement attrayant pour le système UMTS-TDD. L'utilisation d'un estimateur du type filtre adapté, a comme conséquence l'apparition d'un biais dans l'amplitude estimée en sortie du second étage, particulièrement dans le cas d'un système chargé. Ce biais dégrade les performances en terme de taux d'erreur par bit (TEB) du système. Nous proposons une approche originale de faible complexité pour réduire le biais, dans laquelle on n'atténue pas l'estimation de l'interférence d'accès multiple (MAI), comme dans la méthode d'annulation partielle, mais on amplifie plutôt l'amplitude du signal reçu pour chaque utilisateur par un coefficient scalaire que nous appelons le facteur d'amplification (FA). Une étude, analytique dans le cas synchrone et par simulation dans le cas asynchrone, a été conduite pour déterminer une valeur optimale de ce facteur d'amplification, afin de réduire au minimum le taux d'erreurs par bit (TEB). Nous indiquons les performances obtenues dans les cas d'un contrôle de puissance parfait et d'un effet proche-lointain non compensé. Nous proposons ensuite une structure incorporant ce facteur d'amplification dans le cas de plusieurs étages, et nous comparons sa complexité avec celle de la solution utilisant l'annulation partielle. Un autre aspect traité dans cette thèse est l'étude de l'impact des fonctions de décision utilisées sur la performance du récepteur PIC. Nous avons ainsi considéré les fonctions dites ‘null zone' et ‘clipping' et comparé leur sensibilités à l'erreur d'optimisation du seuil de décision
The complexity of Verdu's optimal receiver for CDMA increases exponentially with the number of users, loading to an unrealistic implementation. In this thesis, we analyze the sub-optimal interference cancellation receiver with multi-stages parallel structure. The parallel nature of the algorithm can be easily exploited in a multiprocessing environment. This makes it extremely attracting for UMTS-TDD. The use of a matched-filter estimator, results in a bias in the estimated amplitude at the second stage output, particularly for heavy system loads. This bias degrades the system performances in term of bit error rate (BER). We propose an original low complexity approach for reducing the bias, in which we don't attenuate the estimated multiple access interference (MAI), as in the partial cancellation method, but we amplify the amplitude of the received signal for each user by a scalar which we call the amplification factor (AF). An analytical study in the synchronous case and by simulation in the asynchronous case was led to determine an optimal value of this amplification factor, in order to minimize the BER. We indicate the performances obtained in a perfect power control case and for uncompensated near-far effects. Then, we propose a structure incorporating this amplification factor in the multi-stage case, and we compare its complexity with that for the partial cancellation solution. Another aspect considered in this thesis is the impact of the decision functions on the performance of the PIC receiver. We thus considered the `null zone' and ` clipping' functions and compared their sensitivity to decision threshold optimization errors
9

Li, Meng. "Développement de l'expression orale du français chez les apprenants chinois par le biais de l'échange écrit instantané en ligne." Thesis, Limoges, 2020. http://aurore.unilim.fr/theses/nxfile/default/e30e642f-7e77-4c68-a010-2f57edcde34d/blobholder:0/2020LIMO0058.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre étude s’inscrit dans le domaine de la didactique du français langue étrangère. Elle porte exclusivement sur le développement de la compétence d’expression orale en français par le biais de l’échange écrit instantané en ligne. Nous sommes partis du constat selon lequel l’expression orale constituait un grand handicap chez les étudiants chinois et que les pratiques d’enseignement en classe présentielle étaient insuffisantes pour y remédier. Dans ce contexte, nous avons pensé aux TICE et posé la question : les TICE peuvent-elles aider à créer un dispositif d’enseignement/apprentissage qui bonifie les activités orales, complète l’enseignement du français oral et permette aux étudiants chinois en FLE d’améliorer significativement leur expression orale lorsqu’ils s’expriment en français ? Pour répondre à cette question principale qui a soutenu la rédaction de la présente recherche, nous avons centré nos efforts sur le traitement pédagogique de ce phénomène en nous référant à l’hypothèse selon laquelle l’échange écrit instantané en ligne, en tant que méthode auxiliaire, peut aider les étudiants chinois inscrits au programme de français langue étrangère, à perfectionner leur expression orale. L’examen de cette hypothèse, fondée sur l’alliance entre les principales théories de l’apprentissage et les technologies de l’information et de la communication pour l’enseignement, nous a permis de dévoiler la collaboration étroite qu’il y a entre expression écrite et expression orale pour l’amélioration de cette dernière chez les étudiants chinois. Les résultats issus de nos expérimentations ont à leur tour confirmés notre hypothèse, certes, mais ils ont également ouvert de nouvelles pistes de réflexion par rapport à la problématique que nous avons soulevée. Il faudra bien les explorer dans des recherches futures
This research concerns teaching French as a foreign language. It focuses exclusively on the development of French oral expression skills by way of synchronous text-based online exchange. The research began when the authors noticed that oral expression was a big handicap for Chinese students and that teaching practices in the classroom were insufficient to remedy it. Against this background, we referred to Information and Communication Technologies for Education (ICTE) and asked the question: could ICTE help create a teaching / learning device in order to improve oral activities, complement spoken French teaching, and improve significantly Chinese students’ oral expression skills? To answer this question, this paper focuses on a key pedagogical issue, by reference to the hypothesis that, as an auxiliary method, synchronous text-based online exchange could assist Chinese students majoring in French to improve their speaking skills. Focusing on both key learning theories and teaching information and communication technologies, examining this hypothesis permitted us to analyse the close relationship between written and oral expression in order to improve Chinese students’ oral expression skills. Results of our teaching experiment further confirmed the hypothesis, while also opening up new avenues of reflection on this issue and suggesting future research
10

Fourati, Mariem. "Étude de la confusion résiduelle et erreur de mesure dans les modèles de régression." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6983.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, j'ai étudié l'analyse des régressions linéaire et logistique comme méthodes de traitement des facteurs de confusion, qui ont servi à déterminer les effets d'une erreur de mesure dans une variable de confusion.
11

Leang, Isabelle. "Fusion en ligne d'algorithmes de suivi visuel d'objet." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066486/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le suivi visuel d’objet est une fonction élémentaire de la vision par ordinateur ayant fait l’objet de nombreux travaux. La dérive au cours du temps est l'un des phénomènes les plus critiques à maîtriser, car elle aboutit à la perte définitive de la cible suivie. Malgré les nombreuses approches proposées dans la littérature pour contrer ce phénomène, aucune ne surpasse une autre en terme de robustesse face aux diverses sources de perturbations visuelles : variation d'illumination, occultation, mouvement brusque de caméra, changement d'aspect. L’objectif de cette thèse est d’exploiter la complémentarité d’un ensemble d'algorithmes de suivi, « trackers », en développant des stratégies de fusion en ligne capables de les combiner génériquement. La chaîne de fusion proposée a consisté à sélectionner les trackers à partir d'indicateurs de bon fonctionnement, à combiner leurs sorties et à les corriger. La prédiction en ligne de dérive a été étudiée comme un élément clé du mécanisme de sélection. Plusieurs méthodes sont proposées pour chacune des étapes de la chaîne, donnant lieu à 46 configurations de fusion possibles. Évaluées sur 3 bases de données, l’étude a mis en évidence plusieurs résultats principaux : une sélection performante améliore considérablement la robustesse de suivi ; une correction de mise à jour est préférable à une réinitialisation ; il est plus avantageux de combiner un petit nombre de trackers complémentaires et de performances homogènes qu'un grand nombre ; la robustesse de fusion d’un petit nombre de trackers est corrélée à la mesure d’incomplétude, ce qui permet de sélectionner la combinaison de trackers adaptée à un contexte applicatif donné
Visual object tracking is an elementary function of computer vision that has been the subject of numerous studies. Drift over time is one of the most critical phenomena to master because it leads to the permanent loss of the target being tracked. Despite the numerous approaches proposed in the literature to counter this phenomenon, none outperforms another in terms of robustness to the various sources of visual perturbations: variation of illumination, occlusion, sudden movement of camera, change of aspect. The objective of this thesis is to exploit the complementarity of a set of tracking algorithms by developing on-line fusion strategies capable of combining them generically. The proposed fusion chain consists of selecting the trackers from indicators of good functioning, combining their outputs and correcting them. On-line drift prediction was studied as a key element of the selection mechanism. Several methods are proposed for each step of the chain, giving rise to 46 possible fusion configurations. Evaluated on 3 databases, the study highlighted several key findings: effective selection greatly improves robustness; The correction improves the robustness but is sensitive to bad selection, making updating preferable to reinitialization; It is more advantageous to combine a small number of complementary trackers with homogeneous performances than a large number; The robustness of fusion of a small number of trackers is correlated to the incompleteness measure, which makes it possible to select the appropriate combination of trackers to a given application context
12

Yameogo, Nadège-Désirée. "Analyse de la demande résidentielle d'électricité à partir d'enquêtes indépendantes : correction de biais de sélection et d'endogénéité dans un contexte de classes latentes." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25076/25076.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Différentes méthodes sont proposées pour estimer la demande d'électricité conditionnelle au mode de chauffage. Un modèle logit mixte GAR(1) avec hétérogénéité est utilisé pour estimation le modèle de choix du mode de chauffage. Comme la tarification de l'électricité entraîne une endogénéité du prix marginal, un modèle à classes latentes est proposé et son estimation est faite selon une approche classique ou une approche bayésienne. Puisque le ménage choisit son mode de chauffage pour plusieurs années, nous captons l'aspect dynamique à partir de données d'enquêtes indépendantes en utilisant deux approches. D'abord, nous créons des pseudo-panels composés de cohortes et nous estimons la demande d'électricité par les moindres carrés quasi-généralisés et par l'algorithme de l'échantillonnage de Gibbs. Ensuite, nous créons un panel simulé avec lequel nous estimons la demande d'électricité conditionnelle en combinant l'algorithme de l'augmentation des données et l'échantillonnage de Gibbs.
13

Yaméogo, Nadège-Désirée. "Analyse de la demande résidentielle d'électricité à partir d'enquêtes indépendantes : correction de biais de sélection et d'endogénéité dans un contexte de classes latentes." Doctoral thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/19745.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Différentes méthodes sont proposées pour estimer la demande d'électricité conditionnelle au mode de chauffage. Un modèle logit mixte GAR(1) avec hétérogénéité est utilisé pour estimation le modèle de choix du mode de chauffage. Comme la tarification de l'électricité entraîne une endogénéité du prix marginal, un modèle à classes latentes est proposé et son estimation est faite selon une approche classique ou une approche bayésienne. Puisque le ménage choisit son mode de chauffage pour plusieurs années, nous captons l'aspect dynamique à partir de données d'enquêtes indépendantes en utilisant deux approches. D'abord, nous créons des pseudo-panels composés de cohortes et nous estimons la demande d'électricité par les moindres carrés quasi-généralisés et par l'algorithme de l'échantillonnage de Gibbs. Ensuite, nous créons un panel simulé avec lequel nous estimons la demande d'électricité conditionnelle en combinant l'algorithme de l'augmentation des données et l'échantillonnage de Gibbs.
14

Moua, Yi. "Correction de l’effet du biais d’échantillonnage dans la modélisation de la qualité des habitats écologiques : application au principal vecteur du paludisme en Guyane française." Thesis, Guyane, 2017. http://www.theses.fr/2017YANE0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles de distribution d’espèces ont été identifiées comme pertinents pour cartographier et caractériser la qualitéd’habitat des moustiques vecteurs du paludisme, Anopheles, afin de participer à l’estimation du risque de transmission decette maladie et à la définition de stratégies de lutte anti-vectorielle ciblées. La transmission du paludisme dépend de laprésence et de la distribution des vecteurs, qui dépendent elles-mêmes des conditions environnementales définissant laqualité des habitats écologiques des Anopheles. Cependant, dans certaines régions, les données de captures d’Anophelessont rares, et rend difficile la cartographie de leurs habitats. De plus, le recueil de ces données est très souvent soumis à desbiais d’échantillonnage.Cette thèse fournit une solution à la cartographie des vecteurs du paludisme, en considérant deux aspects très peu étudiésdans la modélisation : le faible nombre de sites de présence disponibles et l’existence d’un biais d’échantillonnage. Uneméthode originale de correction de l’effet du biais d’échantillonnage est proposée puis appliquée à des données de présencedu principal vecteur du paludisme en Guyane, Anopheles darlingi. Un modèle de distribution d’An. darlingi a ensuite étéconstruit, permettant d’obtenir une carte de qualité d’habitat en cohérence avec la connaissance des entomologistes etfournissant des performances de prédiction élevées. La méthode de correction proposée a ensuite été comparée auxméthodes existantes dans un contexte applicatif caractérisé par la rareté des données d’occurrence de l’espèce et laprésence d’un biais d’échantillonnage. Les résultats montrent que la méthode développée est adaptée aux cas où le nombrede sites de présence est faible. Cette thèse contribue, d’une part, à combler les lacunes théoriques et d’applicabilité desméthodes actuelles visant à corriger l’effet des biais d’échantillonnage et, d’autre part, à compléter la connaissance sur ladistribution spatiale et la bioécologie du principal vecteur du paludisme en Guyane française
Species distribution models are identified as relevant to map and characterize the habitat quality of Anopheles genusmosquitoes, transmitting malaria, and thus to both participate in the estimation of the transmission risk of this disease and inthe definition of targeted vector control actions. The malaria transmission depends on the presence and distribution of thevectors, which are themselves dependent on the environmental conditions that define the quality of the ecological habitats of the Anopheles. However, in some areas, Anopheles collection data remain scarce, making it difficult to model these habitats. In addition, the collection of these data is very often subjected to significant sampling biases, due, in particular, to unequal accessibility to the entire study area. This thesis provides a solution to the mapping of malaria vectors, considering two very few studied aspects in modeling: the low number of available presence sites and the existence of a sampling bias. An original method for correcting the effect of the sampling bias is proposed and then applied to presence data of Anopheles darlingi species - the main vector of malaria in South America - in French Guiana. Then, a distribution model of An. darlingi was built to obtain a map of habitat quality consistent with entomologists’ knowledge and providing high prediction performances. The proposed correction method was then compared to existing methods in an application context characterized by the scarcity of the species occurence data and the presence of a sampling bias. The results show that the developed method is adapted to cases where the number of sites of presence is low. This thesis contributes, on the one hand, to fill theoretical and applicability lacuna of current methods intended to correct the effect of the sampling bias and, on the other hand, to supplement the knowledge on both the spatial distribution and the bio-ecology of the main malaria vector in French Guiana
15

Py, Julien. "Modélisation et développement d'un système d'analyse en ligne des transuraniens par spectrométrie de fluorescence X raies L." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse développe un système d'analyse en ligne compact, précis, rapide et autonome par spectrométrie de fluorescence X raies L, pour quantifier les transuraniens (uranium, plutonium et américium) présents dans les solutions et effluents des procédés du plutonium. Au cours de cette étude, la configuration, les paramètres de ce système et une méthode de quantification non destructive ont été définis puis la capacité du spectromètre à dissocier ces éléments dans de fortes concentrations relatives a été vérifiée. Des solutions contenant des éléments non radioactifs ont d'abord été étudiées afin de s'affranchir des effets dus à la désintégration des transuraniens et d'optimiser efficacement le spectromètre. Par simulations Monte-Carlo avec le code PENELOPE, une méthode de quantification a été mise au point et diverses configurations pour optimiser l'intensité d'excitation de l'échantillon et mesurer une raie de diffusion Compton de la source X ont été testées numériquement. Ces configurations ont été expérimentées avec un spectromètre prototype sur des solutions non radioactives pour valider et compléter la configuration la plus intéressante. Des solutions contenant des éléments en fortes concentrations relatives ont été analysées afin de déterminer une méthode de déconvolution des spectres avec le logiciel COLEGRAM et démontrer la faculté de cette méthode à quantifier de telles solutions. Quelques solutions d'uranium et de plutonium ont été analysées pour s'approcher au plus près des futures conditions expérimentales, caractériser et diminuer les effets dus à la désintégration des radioéléments
This thesis deals with the development of a new compact, accurate, fast, without cooling liquid, fluorescence L X-ray spectrometer, with the aim to determinate online transuranic elements (uranium, plutonium and americium) in nuclear materials reprocessing. The objective was to define the configuration and the characteristics of this spectrometer and the method to quantify transuranic elements between 0.1 g/L and 20 g/L. To minimize as law as possible the manipulation of these elements, we have used an original approach, namely Monte-Carlo simulations and none radioactive surrogate elements. The study of these solutions allowed to eliminate the specific effects of transuranic elements decay (internal conversion) and to optimize the spectrometer. Monte-Carlo simulations with the PENELOPE code were used for two reasons. Firstly, we have developed an analytical method to correct the matrix effects. Then, we have selected three systems to produce a quasi-monochromatic X-rays beam from the X-ray generator, to optimize the intensity of the L X-ray fluorescence spectra, and to measure the Compton scatter peak. These systems were then tested with an adjustable spectrometer in order to select and optimize the best configuration. We have shown that, after peaks and left tails separation from spectra with COLEGRAM software, the spectrometer can be used to analyze solutions with various concentrations of thallium and bismuth. Several solutions of uranium or plutonium were analyzed to determine the effects of interferences from gamma rays and internal conversion with the fluorescence L X-rays. These effects have been corrected by subtracting a passive spectrum to an active one
16

Vaittinada, ayar Pradeebane. "Intercomparaison et développement de modèles statistiques pour la régionalisation du climat." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude de la variabilité du climat est désormais indispensable pour anticiper les conséquences des changements climatiques futurs. Nous disposons pour cela de quantité de données issues de modèles de circulation générale (GCMs). Néanmoins, ces modèles ne permettent qu’une résolution partielle des interactions entre le climat et les activités humaines entre autres parce que ces modèles ont des résolutions spatiales souvent trop faibles. Il existe aujourd’hui toute une variété de modèles répondant à cette problématique et dont l’objectif est de générer des variables climatiques à l’échelle locale àpartir de variables à grande échelle : ce sont les modèles de régionalisation ou encore appelés modèles de réduction d’échelle spatiale ou de downscaling en anglais.Cette thèse a pour objectif d’approfondir les connaissances à propos des modèles de downscaling statistiques (SDMs) parmi lesquels on retrouve plusieurs approches. Le travail s’articule autour de quatre objectifs : (i) comparer des modèles de réduction d’échelle statistiques (et dynamiques), (ii) étudier l’influence des biais des GCMs sur les SDMs au moyen d’une procédure de correction de biais, (iii) développer un modèle de réduction d’échelle qui prenne en compte la non-stationnarité spatiale et temporelle du climat dans un contexte de modélisation dite spatiale et enfin, (iv) établir une définitiondes saisons à partir d’une modélisation des régimes de circulation atmosphérique ou régimes de temps.L’intercomparaison de modèles de downscaling a permis de mettre au point une méthode de sélection de modèles en fonction des besoins de l’utilisateur. L’étude des biais des GCMs révèle une influence indéniable de ces derniers sur les sorties de SDMs et les apports de la correction des biais. Les différentes étapes du développement d’un modèle spatial de réduction d’échelle donnent des résultats très encourageants. La définition des saisons par des régimes de temps se révèle être un outil efficace d’analyse et de modélisation saisonnière.Tous ces travaux de “Climatologie Statistique” ouvrent des perspectives pertinentes, non seulement en termes méthodologiques ou de compréhension de climat à l’échelle locale, mais aussi d’utilisations par les acteurs de la société
The study of climate variability is vital in order to understand and anticipate the consequences of future climate changes. Large data sets generated by general circulation models (GCMs) are currently available and enable us to conduct studies in that direction. However, these models resolve only partially the interactions between climate and human activities, namely du to their coarse resolution. Nowadays there is a large variety of models coping with this issue and aiming at generating climate variables at local scale from large-scale variables : the downscaling models.The aim of this thesis is to increase the knowledge about statistical downscaling models (SDMs) wherein there is many approaches. The work conducted here pursues four main goals : (i) to discriminate statistical (and dynamical) downscaling models, (ii) to study the influences of GCMs biases on the SDMs through a bias correction scheme, (iii) to develop a statistical downscaling model accounting for climate spatial and temporal non-stationarity in a spatial modelling context and finally, (iv) to define seasons thanks to a weather typing modelling.The intercomparison of downscaling models led to set up a model selection methodology according to the end-users needs. The study of the biases of the GCMs reveals the impacts of those biases on the SDMs simulations and the positive contributions of the bias correction procedure. The different steps of the spatial SDM development bring some interesting and encouraging results. The seasons defined by the weather regimes are relevant for seasonal analyses and modelling.All those works conducted in a “Statistical Climatologie” framework lead to many relevant perspectives, not only in terms of methodology or knowlegde about local-scale climate, but also in terms of use by the society
17

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
18

Vaittinada, ayar Pradeebane. "Intercomparaison et développement de modèles statistiques pour la régionalisation du climat." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude de la variabilité du climat est désormais indispensable pour anticiper les conséquences des changements climatiques futurs. Nous disposons pour cela de quantité de données issues de modèles de circulation générale (GCMs). Néanmoins, ces modèles ne permettent qu’une résolution partielle des interactions entre le climat et les activités humaines entre autres parce que ces modèles ont des résolutions spatiales souvent trop faibles. Il existe aujourd’hui toute une variété de modèles répondant à cette problématique et dont l’objectif est de générer des variables climatiques à l’échelle locale àpartir de variables à grande échelle : ce sont les modèles de régionalisation ou encore appelés modèles de réduction d’échelle spatiale ou de downscaling en anglais.Cette thèse a pour objectif d’approfondir les connaissances à propos des modèles de downscaling statistiques (SDMs) parmi lesquels on retrouve plusieurs approches. Le travail s’articule autour de quatre objectifs : (i) comparer des modèles de réduction d’échelle statistiques (et dynamiques), (ii) étudier l’influence des biais des GCMs sur les SDMs au moyen d’une procédure de correction de biais, (iii) développer un modèle de réduction d’échelle qui prenne en compte la non-stationnarité spatiale et temporelle du climat dans un contexte de modélisation dite spatiale et enfin, (iv) établir une définitiondes saisons à partir d’une modélisation des régimes de circulation atmosphérique ou régimes de temps.L’intercomparaison de modèles de downscaling a permis de mettre au point une méthode de sélection de modèles en fonction des besoins de l’utilisateur. L’étude des biais des GCMs révèle une influence indéniable de ces derniers sur les sorties de SDMs et les apports de la correction des biais. Les différentes étapes du développement d’un modèle spatial de réduction d’échelle donnent des résultats très encourageants. La définition des saisons par des régimes de temps se révèle être un outil efficace d’analyse et de modélisation saisonnière.Tous ces travaux de “Climatologie Statistique” ouvrent des perspectives pertinentes, non seulement en termes méthodologiques ou de compréhension de climat à l’échelle locale, mais aussi d’utilisations par les acteurs de la société
The study of climate variability is vital in order to understand and anticipate the consequences of future climate changes. Large data sets generated by general circulation models (GCMs) are currently available and enable us to conduct studies in that direction. However, these models resolve only partially the interactions between climate and human activities, namely du to their coarse resolution. Nowadays there is a large variety of models coping with this issue and aiming at generating climate variables at local scale from large-scale variables : the downscaling models.The aim of this thesis is to increase the knowledge about statistical downscaling models (SDMs) wherein there is many approaches. The work conducted here pursues four main goals : (i) to discriminate statistical (and dynamical) downscaling models, (ii) to study the influences of GCMs biases on the SDMs through a bias correction scheme, (iii) to develop a statistical downscaling model accounting for climate spatial and temporal non-stationarity in a spatial modelling context and finally, (iv) to define seasons thanks to a weather typing modelling.The intercomparison of downscaling models led to set up a model selection methodology according to the end-users needs. The study of the biases of the GCMs reveals the impacts of those biases on the SDMs simulations and the positive contributions of the bias correction procedure. The different steps of the spatial SDM development bring some interesting and encouraging results. The seasons defined by the weather regimes are relevant for seasonal analyses and modelling.All those works conducted in a “Statistical Climatologie” framework lead to many relevant perspectives, not only in terms of methodology or knowlegde about local-scale climate, but also in terms of use by the society
19

Morillot, Olivier. "Reconnaissance de textes manuscrits par modèles de Markov cachés et réseaux de neurones récurrents : application à l'écriture latine et arabe." Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La reconnaissance d’écriture manuscrite est une composante essentielle de l’analyse de document. Une tendance actuelle de ce domaine est de passer de la reconnaissance de mots isolés à celle d’une séquence de mots. Notre travail consiste donc à proposer un système de reconnaissance de lignes de texte sans segmentation explicite de la ligne en mots. Afin de construire un modèle performant, nous intervenons à plusieurs niveaux du système de reconnaissance. Tout d’abord, nous introduisons deux méthodes de prétraitement originales : un nettoyage des images de lignes de texte et une correction locale de la ligne de base. Ensuite, nous construisons un modèle de langage optimisé pour la reconnaissance de courriers manuscrits. Puis nous proposons deux systèmes de reconnaissance à l’état de l’art fondés sur les HMM (Hidden Markov Models) contextuels et les réseaux de neurones récurrents BLSTM (Bi-directional LongShort-Term Memory). Nous optimisons nos systèmes afin de proposer une comparaison de ces deux approches. Nos systèmes sont évalués sur l’écriture cursive latine et arabe et ont été soumis à deux compétitions internationales de reconnaissance d’écriture. Enfin, enperspective de notre travail, nous présentons une stratégie de reconnaissance pour certaines chaînes de caractères hors-vocabulaire
Handwriting recognition is an essential component of document analysis. One of the popular trends is to go from isolated word to word sequence recognition. Our work aims to propose a text-line recognition system without explicit word segmentation. In order to build an efficient model, we intervene at different levels of the recognition system. First of all, we introduce two new preprocessing techniques : a cleaning and a local baseline correction for text-lines. Then, a language model is built and optimized for handwritten mails. Afterwards, we propose two state-of-the-art recognition systems based on contextual HMMs (Hidden Markov Models) and recurrent neural networks BLSTM (Bi-directional Long Short-Term Memory). We optimize our systems in order to give a comparison of those two approaches. Our systems are evaluated on arabic and latin cursive handwritings and have been submitted to two international handwriting recognition competitions. At last, we introduce a strategy for some out-of-vocabulary character strings recognition, as a prospect of future work
20

Ringard, Justine. "Estimation des précipitations sur le plateau des Guyanes par l'apport de la télédétection satellite." Thesis, Guyane, 2017. http://www.theses.fr/2017YANE0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le plateau des Guyanes est une région qui est caractérisée à 90% d’une forêt tropicale primaire et compte pour environ 20% des réserves mondiales d’eau douce. Ce territoire naturel, au vaste réseau hydrographique, montre des intensités pluviométriques annuelles atteignant 4000 mm/an ; ce qui fait de ce plateau une des régions les plus arrosées du monde. De plus les précipitations tropicales sont caractérisées par une variabilité spatiale et temporelle importante. Outre les aspects liés au climat, l’impact des précipitations dans cette région du globe est important en termes d’alimentation énergétique (barrages hydroélectriques). Il est donc important de développer des outils permettant d’estimer quantitativement et qualitativement et à haute résolution spatiale et temporelle les précipitations dans cette zone. Cependant ce vaste espace géographique est caractérisé par un réseau de stations pluviométriques peu développé et hétérogène, ce qui a pour conséquence une méconnaissance de la répartition spatio-temporelle précise des précipitations et de leurs dynamiques.Les travaux réalisées dans cette thèse visent à améliorer la connaissance des précipitations sur le plateau des Guyanes grâce à l’utilisation des données de précipitations satellites (Satellite Precipitation Product : SPP) qui offrent dans cette zone une meilleure résolution spatiale et temporelle que les mesures in situ, au prix d’une qualité moindre en terme de précision.Cette thèse se divise en 3 parties. La première partie compare les performances de quatre produits d’estimations satellitaires sur la zone d’étude et tente de répondre à la question : quelle est la qualité de ces produits au Nord de l’Amazone et sur la Guyane française dans les dimensions spatiales et temporelles ? La seconde partie propose une nouvelle technique de correction de biais des SPP qui procède en trois étapes : i) utiliser les mesures in situ de précipitations pour décomposer la zone étudiée en aires hydro-climatiques ii) paramétrer une méthode de correction de biais appelée quantile mapping sur chacune de ces aires iii) appliquer la méthode de correction aux données satellitaires relatives à chaque aire hydro-climatique. On cherche alors à répondre à la question suivante : est-ce que le paramétrage de la méthode quantile mapping sur différentes aires hydro-climatiques permet de corriger les données satellitaires de précipitations sur la zone d’étude ? Après avoir montré l’intérêt de prendre en compte les différents régimes pluviométriques pour mettre en œuvre la méthode de correction QM sur des données SPP, la troisième partie analyse l’impact de la résolution temporelle des données de précipitations utilisées sur la qualité de la correction et sur l’étendue spatiale des données SPP potentiellement corrigeables (données SPP sur lesquelles la méthode de correction peut s’appliquer avec efficacité). Concrètement l’objectif de cette partie est d’évaluer la capacité de notre méthode à corriger sur une large échelle spatiale le biais des données TRMM-TMPA 3B42V7 en vue de rendre pertinente l’exploitation de ce produit pour différentes applications hydrologiques.Ce travail a permis de corriger les séries satellites journalières à haute résolution spatiale et temporelle sur le plateau des Guyanes selon une approche nouvelle qui utilise la définition de zones hydro-climatiques. Les résultats positifs en terme de réduction du biais et du RMSE obtenus grâce à cette nouvelle approche, rendent possible la généralisation de cette nouvelle méthode dans des zones peu équipées en pluviomètres
The Guiana Shield is a region that is characterized by 90% of a primary rainforest and about 20% of the world’s freshwater reserves. This natural territory, with its vast hydrographic network, shows annual rainfall intensities up to 4000 mm/year; making this plateau one of the most watered regions in the world. In addition, tropical rainfall is characterized by significant spatial and temporal variability. In addition to climate-related aspects, the impact of rainfall in this region of the world is significant in terms of energy supply (hydroelectric dams). It is therefore important to develop tools to estimate quantitatively and qualitatively and at high spatial and temporal resolution the precipitation in this area. However, this vast geographical area is characterized by a network of poorly developed and heterogeneous rain gauges, which results in a lack of knowledge of the precise spatio-temporal distribution of precipitation and their dynamics.The work carried out in this thesis aims to improve the knowledge of precipitation on the Guiana Shield by using Satellite Precipitation Product (SPP) data that offer better spatial and temporal resolution in this area than the in situ measurements, at the cost of poor quality in terms of precision.This thesis is divided into 3 parts. The first part compares the performance of four products of satellite estimates on the study area and attempts to answer the question : what is the quality of these products in the Northern Amazon and French Guiana in spatial and time dimensions ? The second part proposes a new SPP bias correction technique that proceeds in three steps: i) using rain gauges measurements to decompose the studied area into hydro climatic areas ii) parameterizing a bias correction method called quantile mapping on each of these areas iii) apply the correction method to the satellite data for each hydro-climatic area. We then try to answer the following question : does the parameterization of the quantile mapping method on different hydro-climatic areas make it possible to correct the precipitation satellite data on the study area ? After showing the interest of taking into account the different rainfall regimes to implement the QM correction method on SPP data, the third part analyzes the impact of the temporal resolution of the precipitation data used on the quality of the correction and the spatial extent of potentially correctable SPP data (SPP data on which the correction method can be applied effectively). In summary, the objective of this section is to evaluate the ability of our method to correct on a large spatial scale the bias of the TRMM-TMPA 3B42V7 data in order to make the exploitation of this product relevant for different hydrological applications.This work made it possible to correct the daily satellite series with high spatial and temporal resolution on the Guiana Shield using a new approach that uses the definition of hydro-climatic areas. The positive results in terms of reduction of the bias and the RMSE obtained, thanks to this new approach, makes possible the generalization of this new method in sparselygauged areas
21

Richard, Michael. "Évaluation et validation de prévisions en loi." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE0501.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l’évaluation et la validation de prévisions en loi. Dans la première partie, nous nous intéressons à l’apport du machine learning vis à vis des prévisions quantile et des prévisions en loi. Pour cela, nous avons testé différents algorithmes de machine learning dans un cadre de prévisions de quantiles sur données réelles. Nous tentons ainsi de mettre en évidence l’intérêt de certaines méthodes selon le type de données auxquelles nous sommes confrontés. Dans la seconde partie, nous exposons quelques tests de validation de prévisions en loi présents dans la littérature. Certains de ces tests sont ensuite appliqués sur données réelles relatives aux log-rendements d’indices boursiers. Dans la troisième, nous proposons une méthode de recalibration permettant de simplifier le choix d’une prévision de densité en particulier par rapport à d’autres. Cette recalibration permet d’obtenir des prévisions valides à partir d’un modèle mal spécifié. Nous mettons également en évidence des conditions sous lesquelles la qualité des prévisions recalibrées, évaluée à l’aide du CRPS, est systématiquement améliorée, ou très légèrement dégradée. Ces résultats sont illustrés par le biais d’applications sur des scénarios de températures et de prix
In this thesis, we study the evaluation and validation of predictive densities. In a first part, we are interested in the contribution of machine learning in the field of quantile and densityforecasting. We use some machine learning algorithms in quantile forecasting framework with real data, inorder to highlight the efficiency of particular method varying with nature of the data.In a second part, we expose some validation tests of predictive densities present in the literature. Asillustration, we use two of the mentionned tests on real data concerned about stock indexes log-returns.In the third part, we address the calibration constraint of probability forecasting. We propose a generic methodfor recalibration, which allows us to enforce this constraint. Thus, it permits to simplify the choice betweensome density forecasts. It remains to be known the impact on forecast quality, measured by predictivedistributions sharpness, or specific scores. We show that the impact on the Continuous Ranked ProbabilityScore (CRPS) is weak under some hypotheses and that it is positive under more restrictive ones. We use ourmethod on weather and electricity price ensemble forecasts.Keywords : Density forecasting, quantile forecasting, machine learning, validity tests, calibration, bias correction,PIT series , Pinball-Loss, CRPS
22

Mackrous, Isabelle. "Rôle de la vision pour le contrôle de la dynamique du mouvement lors d'un geste de pointage manuel chez l'adulte ainsi que chez l'enfant." Thèse, 2009. http://hdl.handle.net/1866/6473.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography