To see the other types of publications on this topic, follow the link: Estimation multi-paramètres.

Dissertations / Theses on the topic 'Estimation multi-paramètres'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 24 dissertations / theses for your research on the topic 'Estimation multi-paramètres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Trottier, Nicolas. "Modélisation des écoulement en milieux poreux fracturés : estimation des paramètres par approche inverse multi-échelle." Phd thesis, Université de Strasbourg, 2014. http://tel.archives-ouvertes.fr/tel-01037933.

Full text
Abstract:
Ce travail a pour objectif de développer et d'appliquer une méthode originale permettant de simuler l'écoulement dans un milieu poreux fracturé. Cette méthode repose sur une approche multicouches double continuum permettant de séparer le comportement des différents aquifères présents sur un site. La résolution des écoulements, basée sur la méthode des Eléments Finis de Crouzeix-Raviart, est associée à une méthode inverse (minimisation de type Quasi-Newton combinée à la méthode de l'état adjoint) et à une paramétrisation multi-échelle.La méthode est appliquée dans un premier temps sur l'aquifère fracturé du site expérimental de Poitiers. Les résultats montrent une bonne restitution du comportement de l'aquifère et aboutissent à des champs de transmissivité plus réguliers par rapport à ceux de l'approche simple continuum. L'application finale est réalisée sur le site de Cadarache (taille plus importante et données d'entrée moins denses). Le calage des deux aquifères présents sur le site est satisfaisant et montre que ceux-ci se comportent globalement de façon indépendante. Ce calage pourra être amélioré localement grâce à données de recharge plus fines.
APA, Harvard, Vancouver, ISO, and other styles
2

Guyon, Frédéric. "Application des méthodes multi-grilles au contrôle optimal : méthodes de pondération en estimation de paramètres." Compiègne, 1991. http://www.theses.fr/1991COMPD431.

Full text
Abstract:
Dans ce travail, nous nous sommes intéressés à deux problèmes de nature différente : l’application des méthodes multigrilles à la résolution de problème de contrôle ; l'application de méthodes de pondération optimale aux problèmes d'identification. Dans les trois premiers chapitres de ce mémoire, nous précisons les idées essentielles qui nous permettront dans les chapitres suivants de nous attaquer à l'application des méthodes multigrilles à un problème de contrôle modèle. Pour cela, nous détaillons les différentes composantes d'un algorithme multigrilles, nous développons l'analyse d'un problème modèle, nous énonçons la propriété d'approximation entre grilles et la propriété de lissage. Dans le quatrième chapitre, nous étudions l'application des méthodes de gradient à la résolution d'un problème de contrôle d'un système gouverné par une équation elliptique. Le résultat essentiel de cette partie est négatif. Nous montrons que ces méthodes ne satisfont pas la propriété de lissage et ne sont donc pas complémentaires des corrections sur une grille grossière. Des expériences numériques confirment cette analyse. Ainsi, dans le cinquième chapitre, nous abordons différemment le « multigrillage » du problème de contrôle. Nous présentons des méthodes itératives appliquées au système d'optimalité qui ne nécessitent pas le calcul exact du gradient. Le résultat essentiel est que ces méthodes permettent d'obtenir un taux de convergence indépendant du pas de discrétisation. Ceci est confirmé par les résultats numériques. La deuxième partie du travail porte sur l'étude de méthodes d'estimation de paramètres utilisant des matrices de pondérations. Cette méthode est appliquée à l'estimation du coefficient de diffusion dans une équation parabolique. L’idée consiste à déterminer des matrices de poids de façon à ce que le hessien du coût soit aussi proche que possible de l'identité. Cette méthode est étudiée en détail aussi bien du point de vue théorique que numérique. Les résultats numériques montrent une amélioration de la convergence des méthodes d'optimisation (gradient conjugué, quasi-Newton) appliquées au problème pondéré par rapport au problème non pondéré.
APA, Harvard, Vancouver, ISO, and other styles
3

Neumann, Maxim. "Télédétection de couverts végétaux par interférométrie SAR polarimétrique multi-bases : modélisation et estimation de paramètres physiques." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00394049.

Full text
Abstract:
Ce travail concerne différent thèmes qui ont pour objectif d'améliorer la compréhension de l'Interférométrie Polarimétrique Radar (Pol-InSAR) ainsi que de proposer de nouvelles techniques permettant la reconstruction de paramètres liés à la végétation, dans le cadre d'applications de Télédétection. Des études théoriques sont menées afin de définir rigoureusement et d'analyser lénsemble de cohérences Pol-InSAR ainsi que de développer et d'interpréter les techniques d'optimisation de cohérences à lignes de base multiples. Un modèle interférométrique polarimétrique phénoménologique est développé pour tenir
compte d'un milieu volumique situé au dessus d'un sol. Dans le cas de forêts observées en bande L, ce modèle tient compte de la topographie du sol, de la canopée, de la hauteur totale des arbres, de l'atténuation de l'onde, de la réflectivité au sein de la canopée, de
la morphologie des arbres prise en compte par la distribution statistique des orientations des branches et leur forme efficace, de la contribution du sol et enfin de l'interaction entre le sol et les troncs. Une méthodologie d'inversion des paramètres de végétation est développée dans le cas des acquisitions monopasse ou multipasses. Dans ce dernier cas, la méthode d'inversion tient compte de la décorrélation temporelle et permet ainsi une estimation pour chaque ligne de base. La performance de léstimation des paramètres de
végétation est évaluée à partir de données SAR simulées et réelles aéroportées en bande L, pour les deux cas de configurations en lignes de base simple ou multiple.
APA, Harvard, Vancouver, ISO, and other styles
4

Molléro, Roch. "Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales." Thesis, Côte d'Azur, 2017. http://www.theses.fr/2017AZUR4106/document.

Full text
Abstract:
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D
Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model
APA, Harvard, Vancouver, ISO, and other styles
5

Roux, Clément. "Dimensionnement en fatigue multiaxiale des toiles de roues ferroviaires sous sollicitations multi-paramètres à amplitude variable." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX109/document.

Full text
Abstract:
L’objectif principal de cette thèse est de développer une méthodologie qui permette de définir des sollicitations simplifiées représentatives des sollicitations réelles rencontrées en exploitation, c’est-à-dire équivalentes en sévérité vis-à-vis du phénomène d’amorçage de fissure par fatigue mécanique. Cette méthodologie doit être adaptée aux problèmes multi-paramètres car les sollicitations subies par les roues ferroviaires sont multidimensionnelles (chargement vertical et latéral) et indépendantes. Enfin, la thèse vise aussi à proposer une approche fiabiliste globale du problème de fatigue des roues, qui pourra être une extension de la méthode Contrainte-Résistance aux cas des sollicitations multi-entrée. Un critère de fatigue pour l’acier des roues est identifié à partir des nouveaux essais
The main objective of this PHD thesis is to develop a method for the definition of simplified equivalent loads representative of real loads (the severity is equivalent from fatigue phenomenon point of view). This method must be adapted to multi-input problems because loads applied on wheels are multi-dimensional (vertical and lateral loads) and independent. Finally, the thesis also aims to provide a comprehensive approach to fatigue-reliability problem of the wheels, which can be an extension of the stress-strength method for multi-input loads. A fatigue criterion for the railway will is presented and identified using a new test campaign
APA, Harvard, Vancouver, ISO, and other styles
6

Rodiet, Christophe. "Mesure de Température par Méthodes Multi-Spectrales et Caractérisation Thermique de Matériaux Anisotropes par Transformations Intégrales : « Aspects Théoriques et Expérimentaux »." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0283/document.

Full text
Abstract:
Ce mémoire est constitué de deux parties relativement indépendantes, dont la première partie porte sur les méthodes de mesure de température par méthodes Multi-Spectrales (pyrométrie optique passive), et la seconde sur la Caractérisation Thermique à haute température par transformations intégrales de matériaux orthotropes. Dans chacune de ces deux parties, les méthodes/modèles développés ont été traités du point de vue théorique, numérique, et expérimental. Dans la partie multi-spectrale, une méthode de mesure de température permettant de prendre en compte les variations spectrales de la chaine de mesure globale (incluant l’émissivité) a été présentée. De plus, une méthode de détermination des longueurs d’ondes optimales au sens de la minimisation de l’écart-type sur la température, a été développée. Enfin, il a également été montré que les longueurs d’ondes optimales pour les mesures mono-spectrales et bi-spectrales pouvaient être déterminées à l’aide de lois analogues à la loi de déplacement de Wien. Dans la partie Caractérisation Thermique, différentes méthodes et modèles ont été développés. Les méthodes proposées effectuent l’estimation des diffusivités longitudinales et transversales sur l’ensemble des harmoniques simultanément. De plus, ces méthodes permettent de s’affranchir du couplage thermique dû à la présence d’un porte-échantillon, et/ou d’effectuer des mesures de diffusivités pseudo-locales, en injectant comme conditions aux limites les informations expérimentales obtenues par caméra infrarouge. Enfin, les notions de corrélation entre les paramètres et de durée d’exploitabilité des harmoniques ont également été abordées
This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed.This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed
APA, Harvard, Vancouver, ISO, and other styles
7

Song, Yingying. "Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207/document.

Full text
Abstract:
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
APA, Harvard, Vancouver, ISO, and other styles
8

Léger, Stéphanie. "Analyse stochastique de signaux multi-fractaux et estimations de paramètres." Orléans, 2000. http://www.theses.fr/2000ORLE2045.

Full text
Abstract:
Le mouvement brownien fractionnaire (MBF) défini par Mandelbrot et Van Ness (1968) est utilisé dans de nombreuses situations. Mais, de part sa définition, il ne peut modéliser que des processus de R à valeurs dans R. Pour étudier des radiographies d'os afin de déterminer si une personne est atteinte ou non de l'ostéoporose, nous avions besoin d'un champ défini sur R2 à valeurs dans R. Nous avons donc généralisé le MBF et construit le drap brownien fractionnaire (DBF) dépendant de deux paramètres a et b. Nous avons montré que ce champ, comme le MBF, était auto-simulaire, à accroissements stationnaires. Puis nous avons défini des estimateurs de ces paramètres et construit un test d'auto-similarité en utilisant des techniques d'Istas et Lang (1997) comme le fait Bardet (1999) pour le MBF. Ce test d'auto-similarité nous a permis de montrer que les radiographies d'os ne possédaient pas cette propriété. En collaboration avec A. Ayache, nous avons défini un nouveau champ : le drap brownien multifractionnaire (DBM), non auto-similaire, en substituant aux paramètres a et b des fonctions höldériennes comme l'ont fait Lévy-Vehel, Peltier (1995) ou Bénassi, Jaffard, Roux (1997) pour le MBF. Nous nous sommes intéressés aux propriétés locales de ce champ, puis nous avons construit des estimateurs des fonctions a et b afin d'appliquer ce nouveau modèle à la caractérisation de l'ostéoporose.
APA, Harvard, Vancouver, ISO, and other styles
9

Gomes, borges Marcos Eduardo. "Détermination et implémentation temps-réel de stratégies de gestion de capteurs pour le pistage multi-cibles." Thesis, Ecole centrale de Lille, 2018. http://www.theses.fr/2018ECLI0019/document.

Full text
Abstract:
Les systèmes de surveillance modernes doivent coordonner leurs stratégies d’observation pour améliorer l’information obtenue lors de leurs futures mesures afin d’estimer avec précision les états des objets d’intérêt (emplacement, vitesse, apparence, etc.). Par conséquent, la gestion adaptative des capteurs consiste à déterminer les stratégies de mesure des capteurs exploitant les informations a priori afin de déterminer les actions de détection actuelles. L’une des applications la plus connue de la gestion des capteurs est le suivi multi-objet, qui fait référence au problème de l’estimation conjointe du nombre d’objets et de leurs états ou trajectoires à partir de mesures bruyantes. Cette thèse porte sur les stratégies de gestion des capteurs en temps réel afin de résoudre le problème du suivi multi-objet dans le cadre de l’approche RFS labélisée. La première contribution est la formulation théorique rigoureuse du filtre mono-capteur LPHD avec son implémentation Gaussienne. La seconde contribution est l’extension du filtre LPHD pour le cas multi-capteurs. La troisième contribution est le développement de la méthode de gestion de capteurs basée sur la minimisation du risque Bayes et formulée dans les cadres POMDP et LRFS. En outre, des analyses et des simulations des approches de gestion de capteurs existantes pour le suivi multi-objets sont fournies
Modern surveillance systems must coordinate their observation strategies to enhance the information obtained by their future measurements in order to accurately estimate the states of objects of interest (location, velocity, appearance, etc). Therefore, adaptive sensor management consists of determining sensor measurement strategies that exploit a priori information in order to determine current sensing actions. One of the most challenging applications of sensor management is the multi-object tracking, which refers to the problem of jointly estimating the number of objects and their states or trajectories from noisy sensor measurements. This thesis focuses on real-time sensor management strategies formulated in the POMDP framework to address the multi-object tracking problem within the LRFS approach. The first key contribution is the rigorous theoretical formulation of the mono-sensor LPHD filter with its Gaussian-mixture implementation. The second contribution is the extension of the mono-sensor LPHD filter for superpositional sensors, resulting in the theoretical formulation of the multi-sensor LPHD filter. The third contribution is the development of the Expected Risk Reduction (ERR) sensor management method based on the minimization of the Bayes risk and formulated in the POMDP and LRFS framework. Additionally, analyses and simulations of the existing sensor management approaches for multi-object tracking, such as Task-based, Information-theoretic, and Risk-based sensor management, are provided
APA, Harvard, Vancouver, ISO, and other styles
10

Ouladsine, Mustapha. "Identification des systèmes dynamiques multi-variables." Nancy 1, 1993. http://docnum.univ-lorraine.fr/public/SCD_T_1993_0209_OULADSINE.pdf.

Full text
Abstract:
L'objectif de cette thèse est l'étude et le développement des méthodes d'identification des systèmes dynamiques multi-variables. Dans le premier chapitre, nous nous sommes intéressés au cas des systèmes multi-entrées/multi-sorties, dynamiques, discrets, invariants et représentés sous forme de relation entrées/sorties. Dans ce contexte, nous avons développé deux méthodes: MCA (moindres carres alternes) et MCMV (moindres carres multi-variables). La première est une méthode itérative à plusieurs étages. La deuxième, plus générale, est une méthode récurrente qui identifie les systèmes multi-variables interconnectes. Ces deux méthodes comportent certains avantages par rapport à celles existantes dans la littérature. Ceux-ci sont discutés lors d'une étude de la robustesse des deux méthodes par rapport aux différentes perturbations. Dans la pratique, l'hypothèse d'invariance n'est pas toujours vérifiée. Pour pallier ce problème, nous avons étendu, au cas des systèmes linéaires dont les paramètres varient aux cours du temps, la méthode MCMV en utilisant une technique multi-modèle. Dans le deuxième chapitre, nous nous sommes intéressés au cas des systèmes linéaires discrets modélisés par une représentation d'état. Dans un premier temps, nous avons développé une méthode basée sur la minimisation d'une distance de structure. Dans un second temps, nous avons développé une nouvelle méthode basée sur la technique multi-modèle qui permet de poursuivre les éventuelles variations des paramètres d'un système évolutif modélisé par une représentation d'état. Dans le troisième chapitre, nous présentons une extension des deux nouvelles méthodes MCA et MCMV au cas d'un modèle d'Hammerstein dont la partie non linéaire est approximée par une fonction polynomiale.
APA, Harvard, Vancouver, ISO, and other styles
11

Tao, Zui. "Autonomous road vehicles localization using satellites, lane markings and vision." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2261/document.

Full text
Abstract:
L'estimation de la pose (position et l'attitude) en temps réel est une fonction clé pour les véhicules autonomes routiers. Cette thèse vise à étudier des systèmes de localisation pour ces véhicules en utilisant des capteurs automobiles à faible coût. Trois types de capteurs sont considérés : des capteurs à l'estime qui existent déjà dans les automobiles modernes, des récepteurs GNSS mono-fréquence avec antenne patch et une caméra de détection de la voie regardant vers l’avant. Les cartes très précises sont également des composants clés pour la navigation des véhicules autonomes. Dans ce travail, une carte de marquage de voies avec une précision de l’ordre du décimètre est considérée. Le problème de la localisation est étudié dans un repère de travail local Est-Nord-Haut. En effet, les sorties du système de localisation sont utilisées en temps réel comme entrées dans un planificateur de trajectoire et un contrôleur de mouvement pour faire en sorte qu’un véhicule soit capable d'évoluer au volant de façon autonome à faible vitesse avec personne à bord. Ceci permet de développer des applications de voiturier autonome aussi appelées « valet de parking ». L'utilisation d'une caméra de détection de voie rend possible l’exploitation des informations de marquage de voie stockées dans une carte géoréférencée. Un module de détection de marquage détecte la voie hôte du véhicule et fournit la distance latérale entre le marquage de voie détecté et le véhicule. La caméra est également capable d'identifier le type des marquages détectés au sol (par exemple, de type continu ou pointillé). Comme la caméra donne des mesures relatives, une étape importante consiste à relier les mesures à l'état du véhicule. Un modèle d'observation raffiné de la caméra est proposé. Il exprime les mesures métriques de la caméra en fonction du vecteur d'état du véhicule et des paramètres des marquages au sol détectés. Cependant, l'utilisation seule d'une caméra a des limites. Par exemple, les marquages des voies peuvent être absents dans certaines parties de la zone de navigation et la caméra ne parvient pas toujours à détecter les marquages au sol, en particulier, dans les zones d’intersection. Un récepteur GNSS, qui est obligatoire pour le démarrage à froid, peut également être utilisé en continu dans le système de localisation multi-capteur du fait qu’il permet de compenser la dérive de l’estime. Les erreurs de positionnement GNSS ne peuvent pas être modélisées simplement comme des bruits blancs, en particulier avec des récepteurs mono-fréquence à faible coût travaillant de manière autonome, en raison des perturbations atmosphériques sur les signaux des satellites et les erreurs d’orbites. Un récepteur GNSS peut également être affecté par de fortes perturbations locales qui sont principalement dues aux multi-trajets. Cette thèse étudie des modèles formeurs de biais d’erreur GNSS qui sont utilisés dans le solveur de localisation en augmentant le vecteur d'état. Une variation brutale due à multi-trajet est considérée comme une valeur aberrante qui doit être rejetée par le filtre. Selon le flux d'informations entre le récepteur GNSS et les autres composants du système de localisation, les architectures de fusion de données sont communément appelées « couplage lâche » (positions et vitesses GNSS) ou « couplage serré » (pseudo-distance et Doppler sur les satellites en vue). Cette thèse étudie les deux approches. En particulier, une approche invariante selon la route est proposée pour gérer une modélisation raffinée de l'erreur GNSS dans l'approche par couplage lâche puisque la caméra ne peut améliorer la performance de localisation que dans la direction latérale de la route
Estimating the pose (position and attitude) in real-time is a key function for road autonomous vehicles. This thesis aims at studying vehicle localization performance using low cost automotive sensors. Three kinds of sensors are considered : dead reckoning (DR) sensors that already exist in modern vehicles, mono-frequency GNSS (Global navigation satellite system) receivers with patch antennas and a frontlooking lane detection camera. Highly accurate maps enhanced with road features are also key components for autonomous vehicle navigation. In this work, a lane marking map with decimeter-level accuracy is considered. The localization problem is studied in a local East-North-Up (ENU) working frame. Indeed, the localization outputs are used in real-time as inputs to a path planner and a motion generator to make a valet vehicle able to drive autonomously at low speed with nobody on-board the car. The use of a lane detection camera makes possible to exploit lane marking information stored in the georeferenced map. A lane marking detection module detects the vehicle’s host lane and provides the lateral distance between the detected lane marking and the vehicle. The camera is also able to identify the type of the detected lane markings (e.g., solid or dashed). Since the camera gives relative measurements, the important step is to link the measures with the vehicle’s state. A refined camera observation model is proposed. It expresses the camera metric measurements as a function of the vehicle’s state vector and the parameters of the detected lane markings. However, the use of a camera alone has some limitations. For example, lane markings can be missing in some parts of the navigation area and the camera sometimes fails to detect the lane markings in particular at cross-roads. GNSS, which is mandatory for cold start initialization, can be used also continuously in the multi-sensor localization system as done often when GNSS compensates for the DR drift. GNSS positioning errors can’t be modeled as white noises in particular with low cost mono-frequency receivers working in a standalone way, due to the unknown delays when the satellites signals cross the atmosphere and real-time satellites orbits errors. GNSS can also be affected by strong biases which are mainly due to multipath effect. This thesis studies GNSS biases shaping models that are used in the localization solver by augmenting the state vector. An abrupt bias due to multipath is seen as an outlier that has to be rejected by the filter. Depending on the information flows between the GNSS receiver and the other components of the localization system, data-fusion architectures are commonly referred to as loosely coupled (GNSS fixes and velocities) and tightly coupled (raw pseudoranges and Dopplers for the satellites in view). This thesis investigates both approaches. In particular, a road-invariant approach is proposed to handle a refined modeling of the GNSS error in the loosely coupled approach since the camera can only improve the localization performance in the lateral direction of the road. Finally, this research discusses some map-matching issues for instance when the uncertainty domain of the vehicle state becomes large if the camera is blind. It is challenging in this case to distinguish between different lanes when the camera retrieves lane marking measurements.As many outdoor experiments have been carried out with equipped vehicles, every problem addressed in this thesis is evaluated with real data. The different studied approaches that perform the data fusion of DR, GNSS, camera and lane marking map are compared and several conclusions are drawn on the fusion architecture choice
APA, Harvard, Vancouver, ISO, and other styles
12

Welte, Anthony. "Spatio-temporal data fusion for intelligent vehicle localization." Thesis, Compiègne, 2020. http://bibliotheque.utc.fr/EXPLOITATION/doc/IFD/2020COMP2572.

Full text
Abstract:
La localisation précise constitue une brique essentielle permettant aux véhicules de naviguer de manière autonome sur la route. Cela peut être atteint à travers les capteurs déjà existants, de nouvelles technologies (Iidars, caméras intelligentes) et des cartes haute définition. Dans ce travail, l'intérêt d'enregistrer et réutiliser des informations sauvegardées en mémoire est exploré. Les systèmes de localisation doivent permettre une estimation à haute fréquence, des associations de données, de la calibration et de la détection d'erreurs. Une architecture composée de plusieurs couches de traitement est proposée et étudiée. Une couche principale de filtrage estime la pose tandis que les autres couches abordent les problèmes plus complexes. L'estimation d'état haute fréquence repose sur des mesures proprioceptives. La calibration du système est essentielle afin d'obtenir une pose précise. En gardant les états estimés et les observations en mémoire, les modèles d'observation des capteurs peuvent être calibrés à partir des estimations lissées. Les Iidars et les caméras intelligentes fournissent des mesures qui peuvent être utilisées pour la localisation mais soulèvent des problèmes d'association de données. Dans cette thèse, le problème est abordé à travers une fenêtre spatio-temporelle, amenant une image plus détaillée de l'environnement. Le buffer d'états est ajusté avec les observations et toutes les associations possibles. Bien que l'utilisation d'amers cartographiés permette d'améliorer la localisation, cela n'est possible que si la carte est fiable. Une approche utilisant les résidus lissés a posteriori a été développée pour détecter ces changements de carte
Localization is an essential basic capability for vehicles to be able to navigate autonomously on the road. This can be achieved through already available sensors and new technologies (Iidars, smart cameras). These sensors combined with highly accurate maps result in greater accuracy. In this work, the benefits of storing and reusing information in memory (in data buffers) are explored. Localization systems need to perform a high-frequency estimation, map matching, calibration and error detection. A framework composed of several processing layers is proposed and studied. A main filtering layer estimates the vehicle pose while other layers address the more complex problems. High-frequency state estimation relies on proprioceptive measurements combined with GNSS observations. Calibration is essential to obtain an accurate pose. By keeping state estimates and observations in a buffer, the observation models of these sensors can be calibrated. This is achieved using smoothed estimates in place of a ground truth. Lidars and smart cameras provide measurements that can be used for localization but raise matching issues with map features. In this work, the matching problem is addressed on a spatio-temporal window, resulting in a more detailed pictur of the environment. The state buffer is adjusted using the observations and all possible matches. Although using mapped features for localization enables to reach greater accuracy, this is only true if the map can be trusted. An approach using the post smoothing residuals has been developed to detect changes and either mitigate or reject the affected features
APA, Harvard, Vancouver, ISO, and other styles
13

Rukavina, Tea. "Multi-scale damage model of fiber-reinforced concrete with parameter identification." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2460/document.

Full text
Abstract:
Dans cette thèse, plusieurs approches de modélisation de composites renforcés par des fibres sont proposées. Le matériau étudié est le béton fibré, et dans ce modèle, on tient compte de l’influence de trois constituants : le béton, les fibres, et la liaison entre eux. Le comportement du béton est analysé avec un modèle d’endommagement, les fibres d'acier sont considérées comme élastiques linéaires, et le comportement sur l'interface est décrit avec une loi de glissement avec l’extraction complète de la fibre. Une approche multi-échelle pour coupler tous les constituants est proposée, dans laquelle le calcul à l'échelle macro est effectué en utilisant la procédure de solution operator-split. Cette approche partitionnée divise le calcul en deux phases, globale et locale, dans lesquelles différents mécanismes de rupture sont traités séparément, ce qui est conforme au comportement du composite observé expérimentalement. L'identification des paramètres est effectuée en minimisant l'erreur entre les valeurs calculées et mesurées. Les modèles proposés sont validés par des exemples numériques
In this thesis, several approaches for modeling fiber-reinforced composites are proposed. The material under consideration is fiber-reinforced concrete, which is composed of a few constituents: concrete, short steel fibers, and the interface between them. The behavior of concrete is described by a damage model with localized failure, fibers are taken to be linear elastic, and the behavior of the interface is modeled with a bond-slip pull-out law. A multi-scale approach for coupling all the constituents is proposed, where the macro-scale computation is carried out using the operator-split solution procedure. This partitioned approach divides the computation in two phases, global and local, where different failure mechanisms are treated separately, which is in accordance with the experimentally observed composite behavior. An inverse model for fiber-reinforced concrete is presented, where the stochastic caracterization of the fibers is known from their distribution inside the domain. Parameter identification is performed by minimizing the error between the computed and measured values. The proposed models are validated through numerical examples
APA, Harvard, Vancouver, ISO, and other styles
14

Chahinian, Nanée. "Paramétrisation multi-critère et multi-échelle d'un modèle hydrologique spatialisé de crue en milieu agricole." Montpellier 2, 2004. http://www.theses.fr/2004MON20010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Castagliola, Philippe. "Un système incrémental pour la fusion multi-capteurs pour un robot mobile." Compiègne, 1991. http://www.theses.fr/1991COMPD391.

Full text
Abstract:
Pour réussir une tâche précise, un robot mobile doit obtenir des informations sur son environnement. Pour cette raison, il utilise des capteurs spécifiques. Malheureusement, la plupart d'entre eux donnent individuellement des informations insuffisantes, imprécises et éventuellement erronées. Nous avons choisi de développer certaines méthodes permettant de combiner les informations provenant de capteurs différents, et ainsi d'augmenter leur précision. Cette classe de méthodes est appelée fusion multi-capteurs. Le formalisme adopté est fondé sur le filtre de Kalman étendu. Il permet de prendre en compte les incertitudes qui sont associées aux mesures. Afin de réduire le coût informatique, il est nécessaire de rechercher des représentations minimales, à la fois pour l'environnement du robot (formé de segments verticaux, horizontaux et obliques) et pour la position/orientation de celui-ci (représentation exponentielle des rotations 3D). Le résultat de cette étude est la mise au point d'un mécanisme incrémental, utilisant un système de vision trinoculaire et une ceinture de 24 capteurs ultrasonores, permettant d'une part d'améliorer l'environnement du robot, et d'autre part de maintenir celui-ci aussi proche que possible de sa position/orientation réelle. Ce dernier point est rendu possible par l'utilisation d'algorithmes non itératifs d'estimation du mouvement (utilisant la représentation des rotations sous la forme de quaternion unitaire) et par une formulation explicite de la relation entre le mouvement réel du robot et le mouvement imaginaire de la scène.
APA, Harvard, Vancouver, ISO, and other styles
16

Matar, Christian. "Restitution des propriétés des nuages à partir des mesures multi-spectrales, multi-angulaires et polarisées du radiomètre aéroporté OSIRIS." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1R041/document.

Full text
Abstract:
La rétroaction des nuages demeure l’une des incertitudes majeures des modèles de prévision climatique, en particulier les interactions entre aérosols, nuages et rayonnement (IPCC - Boucher et al., 2013). Les nuages sont en effet difficiles à prendre en compte car ils présentent des variabilités spatiales et temporelles importantes. Les mesures de télédétection aéroportées avec une résolution de quelques dizaines de mètres sont très appropriées pour améliorer et affiner nos connaissances sur les propriétés des nuages et leurs variabilités à haute résolution spatiale. Dans ce contexte, nous exploitons les mesures multi-angulaires du nouveau radiomètre aéroporté OSIRIS (Observing System Including PolaRization in the Solar Infrared Spectrum), développé par le Laboratoire d'Optique Atmosphérique. Il est basé sur le concept POLDER et est un prototype du futur instrument spatial 3MI sur les plates-formes MetOp-SG de l’EUMETSAT-ESA à partir de 2022. En télédétection, les nuages sont généralement caractérisés par deux propriétés optiques: l'épaisseur optique des nuages (COT) et le rayon effectif des particules d'eau / de glace formant le nuage (Reff). Actuellement, la plupart des algorithmes de télédétection opérationnels utilisés pour extraire ces propriétés de nuage à partir de mesures passives sont basés sur la construction de tables pré-calculées (LUT) sous l'hypothèse d'une couche de nuage plan-parallèle. Cette méthode est très dépendante des conditions de simulations choisies pour la construction des LUT et rend difficile l'estimation des incertitudes qui en découlent. Au cours de cette thèse, nous utilisons le formalisme de la méthode d’estimation optimale (Rodgers, 2000) pour mettre au point une méthode d’inversion flexible permettant de restituer COT et Reff en utilisant les mesures multi-angulaires visibles et proche-infrarouges d’OSIRIS. Nous montrons que cela permet l'exploitation de l'ensemble des informations disponibles pour chaque pixel afin de s'affranchir des effets angulaires des radiances et d’inverser des propriétés plus cohérente avec l'ensemble des mesures. Nous avons, d’autre part, appliqué le cadre mathématique fourni par la méthode d’estimation optimale pour quantifier les incertitudes sur les paramètres restitués. Trois types d’erreurs ont été évaluées: (1) Les erreurs liées aux incertitudes de mesure, qui atteignent 10% pour les valeurs élevées de COT et de Reff. (2) Les erreurs de modèle liées à une estimation incorrecte des paramètres fixes du modèle (vent de surface de l'océan, altitude des nuages et variance effective de la distribution en taille des gouttelettes d'eau) qui restent inférieures à 0,5% quelles que soient les valeurs de COT et Reff restituées. (3) Les erreurs liées au modèle physique simplifié qui ne prend pas en compte les profils verticaux hétérogènes et utilise l'hypothèse du nuage plan-parallèle homogène et l'approximation du pixel indépendant. Ces deux dernières incertitudes s'avèrent être les plus importantes
Cloud feedbacks remain one of the major uncertainties of climate prediction models, particularly the interactions between aerosols, clouds and radiation (IPCC - Boucher et al., 2013). Clouds are indeed difficult to account for because they have significant spatial and temporal variability depending on a lot of meteorological variables and aerosol concentration. Airborne remote sensing measurements with tens of meters resolution are very suitable for improving and refining our knowledge of cloud properties and their high spatial variability. In this context, we exploit the multi-angular measurements of the new airborne radiometer OSIRIS (Observing System Including PolaRization in the Solar Infrared Spectrum), developed by the Laboratoire d'Optique Atmosphérique. It is based on the POLDER concept as a prototype of the future 3MI space instrument planned to be launched on the EUMETSAT-ESA MetOp-SG platform in 2022.In remote sensing applications, clouds are generally characterized by two optical properties: the Cloud Optical Thickness (COT) and the effective radius of the water/ice particles forming the cloud (Reff). Currently, most operational remote sensing algorithms used to extract these cloud properties from passive measurements are based on the construction of pre-computed lookup tables (LUT) under the assumption of a homogeneous plane-parallel cloud layer. The LUT method is very dependent on the simulation conditions chosen for their constructions and it is difficult to estimate the resulting uncertainties. In this thesis, we use the formalism of the optimal estimation method (Rodgers, 2000) to develop a flexible inversion method to retrieve COT and Reff using the visible and near-infrared multi-angular measurements of OSIRIS. We show that this method allows the exploitation of all available information for each pixel to overcome the angular effects of radiances and retrieve cloud properties more consistently using all measurements. We also applied the mathematical framework provided by the optimal estimation method to quantify the uncertainties on the retrieved parameters. Three types of errors were evaluated: (1) Errors related to measurement uncertainties, which reach 10% for high values of COT and Reff. (2) Model errors related to an incorrect estimation of the fixed parameters of the model (ocean surface wind, cloud altitude and effective variance of water droplet size distribution) that remain below 0.5% regardless of the values of retrieved COT and Reff. (3) Errors related to the simplified physical model that uses the classical homogeneous plan-parallel cloud assumption and the independent pixel approximation and hence does not take into account the heterogeneous vertical profiles and the 3D radiative transfer effects. These last two uncertainties turn out to be the most important
APA, Harvard, Vancouver, ISO, and other styles
17

Guidard, Vincent. "Assimilation multi-échelle dans un modèle météorologique régional." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00569483.

Full text
Abstract:
Les modèles météorologiques à aire limitée sont aujourd'hui dotés de systèmes d'analyse de données observées propres, pour la plupart. Ces analyses combinent en général une ébauche provenant du modèle et des observations dans le but de rafraîchir les structures décrites par le modèle à aire limitée. Néanmoins, l'information provenant du modèle coupleur présente également un intérêt. En effet, le modèle coupleur est en général un modèle global bénéficiant de techniques d'assimilation de données performantes, qui permet de fournir une bonne description des grandes échelles notamment. L'objectif de ce travail de thèse est d'injecter l'information issue du modèle coupleur directement dans l'assimilation variationnelle tridimensionnelle (3D-VAR) du modèle à aire limitée, en tant que nouvelle source d'information. Concrètement, on décrit le vecteur d'information entrant dans l'assimilation du modèle à aire limitée comme étant la concaténation des différentes sources d'information : l'ébauche du modèle, les observations et les grandes échelles de l'analyse du modèle coupleur. Ce formalisme utilise une mesure de l'incertitude sur les sources d'information, décrite par les covariances entre les erreurs des différentes sources d'information. Des simplifications sur les covariances croisées entres les sources d'information sont proposées, afin de pouvoir développer le formalisme en vue de le rendre applicable simplement dans un logiciel d'analyse déjà existant. Une première utilisation de ce nouveau formalisme est faite dans un modèle académique unidimensionnel “en eaux peu profondes”, en mettant en oeuvre un modèle coupleur et un modèle couplé. Ces expériences montrent des résultats neutres à positifs, suivant les configurations, limités par le cadre simplifié de ce modèle académique. Dans le cadre de l'application de cette méthode dans les modèles utilisés à Météo- France (modèle global ARPÈGE et modèle à aire limitée ALADIN), une évaluation des statistiques liées aux erreurs sur les sources d'information est menée. Tout d'abord le choix des échelles venant de l'analyse du modèle global est fait, pour ne garder que les plus grandes structures (environ 240 km). Puis les statistiques sont calculées à partir de travaux précédents utilisant des méthodes ensemblistes pour échantillonner les erreurs. L'étude de ces statistiques permet de décrire les propriétés des covariances d'erreurs (écarts types, isotropie, etc.) et de quantifier l'erreur commise en appliquant les simplifications proposées. L'évaluation sur des cycles d'assimilation d'une quinzaine de jours montre que l'introduction des grandes échelles de l'analyse du modèle global a un impact légèrement positif en terme de score objectif. Néanmoins, malgré des différences visibles et systématiques engendrées par l'utilisation de cette nouvelle source d'information, aucun cas d'étude sur des champs diagnostiques, comme les précipitations, ne permet d'illustrer cet apport en terme de temps sensible ou de phénomènes météorologiques spécifiques. Ce travail de thèse propose donc une technique d'analyse en aire limitée permettant de prendre en compte des informations provenant du modèle coupleur, en plus des observations, pour corriger l'ébauche du modèle. Il ouvre la voie à d'autres recherches, notamment en sélectionnant d'autres échelles venant du modèle coupleur à considérer ou en l'étendant par l'ajout de la dimension temporelle.
APA, Harvard, Vancouver, ISO, and other styles
18

Lignet, Floriane. "Approches mathématiques multi-niveaux pour l'étude de la croissance des tumeurs : Application à la morphogenèse du cancer du sein et ciblage thérapeutique de l'angiogenèse du cancer du côlon." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00844807.

Full text
Abstract:
Les cancers sont l'une des causes majeures de mortalité dans le monde. Les mécanismes en jeu dans la croissance tumorale sont qualitativement connus, mais on se sait pas à l'heure actuelle prédire précisément quel sera le développement d'une tumeur donnée, ni estimer de façon certaine le protocole thérapeutique optimal pour chaque patient. Il est entendu que la modélisation mathématique pourrait apporter des éléments de réponse à ces questions. Durant cette thèse on s'est alors intéressé à la construction de formalismes mathématiques pour décrire la croissance tumorale et l'action de traitement anti-cancéreux. En particulier, on s'est intéressé à la prise en compte des mécanismes aussi bien moléculaires que cellulaires et tissulaires, par la construction d'un modèle continu, multi-échelles, de croissance de tumeur solide et d'angiogenèse. A partir de ce modèle, nous a pu envisager de façon qualitative un protocole optimal de combinaison entre un anti-angiogénique et une chimiothérapie.Le modèle multi-échelles inclut une représentation mathématique des voies de signalisation du VEGF dont on détaille la construction.Dans une autre approche, on a considéré un modèle discret, cellule-centré, reproduisant le développement de sphéroïdes de cellules épithéliales mammaires telles qu'observées lorsque ces cellules sont cultivées in vitro. On a pu mettre en évidence les différents mécanismes cellulaires impliqués dans la morphogenèse de structures composées de cellules saines, et celles composées de cellules mutées.Ces contributions montrent l'intérêt du formalisme multi-échelles adopté pour intégrer les connaissances et données sous-jacentes à l'étude du traitement des tumeurs.
APA, Harvard, Vancouver, ISO, and other styles
19

Morin, David. "Estimation et suivi de la ressource en bois en France métropolitaine par valorisation des séries multi-temporelles à haute résolution spatiale d'images optiques (Sentinel-2) et radar (Sentinel-1, ALOS-PALSAR)." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30079.

Full text
Abstract:
L'estimation et le suivi du carbone et de la ressource forestière sont des enjeux majeurs pour la gestion des territoires. Les forêts ont un rôle important dans les plans nationaux et internationaux pour l'atténuation du changement climatique (stockage du carbone, régulation du climat, biodiversité, énergies renouvelables). Dans les forêts tempérées, de nombreuses mesures des paramètres de structure forestière sont acquises sur des petites zones, des statistiques au niveau national ou sur de larges zones administratives sont délivrées annuellement par les organismes gouvernementaux. Les forêts tempérées sont fortement anthropisées (forte variabilité spatiale et fractionnement des peuplements), il y a actuellement un besoin fort d'une spatialisation plus fine et continue des ressources forestières dans ces régions. Les images satellitaires optiques et radar apportent des informations sur l'état de la végétation, la structure des arbres et l'organisation spatiale des forêts. Dans un contexte exceptionnel de disponibilité mondiale et gratuite, de diversité, de qualité des images à haute résolution spatiale et temporelle, le travail de thèse a pour objectif de mettre en place les bases méthodologiques et scientifiques pour une production nationale semi-automatique d'une cartographie des paramètres forestiers (biomasse, diamètre, hauteur, etc.). Nous avons évalué le potentiel des séries temporelles Sentinel-1 (radar en bande C), Sentinel-2 (optique), et des mosaïques annuelles ALOS2-PALSAR2 (radar, bande L) pour estimer les paramètres de structure forestière. Ces données satellitaires ont été combinées à l'aide d'algorithmes d'apprentissage supervisé et de mesures terrain pour construire des modèles d'estimation de la biomasse, du diamètre moyen des arbres (DBH), de la hauteur et d'autres paramètres de structure. Ces modèles peuvent ensuite être spatialisés sur l'ensemble du territoire à l'aide des images satellitaires, et fournir une information continue à la résolution spatiale des images utilisées (10 à 20 mètres). Notre approche a été conçue et testée sur quatre sites d'étude avec des essences forestières et des propriétés structurales et environnementales différentes : la zone intérieure et la zone dunaire de la forêt des Landes (pins maritimes), la forêt d'Orléans (chênes et pins sylvestres), et la forêt de Saint-Gobain (chênes, charmes et hêtres). Les principaux développements portent sur les données satellitaires à utiliser, la sélection des variables explicatives, le choix des algorithmes de régression et leur paramétrisation, la différenciation des types de forêt et la cartographie des estimations de paramètres forestiers. Les primitives issues des données satellitaires fournissent des informations sur les propriétés optiques du sol et de la végétation, l'organisation spatiale des arbres, la structure et le volume de bois vivant des houppiers et des troncs. L'utilisation d'algorithmes de régression multivariée non-linéaire permet d'obtenir des estimations des paramètres forestiers avec des performances en termes d'erreur relative de l'ordre de 15 à 35 % pour la surface terrière (~2.8 à 5.9 m2/ha) selon les types de forêt, 5 à 20 % pour la hauteur (~1.3 à 3 m), et de 5 à 25 % pour le DBH (~1.5 à 8 cm). Les résultats montrent l'apport de la combinaison de plusieurs types de données satellitaires (optique, radar multi-fréquence et indices de texture spatiale) ainsi que l'importance de différencier les types de forêt pour la construction des modèles. L'application des modèles sur les images satellitaires permet de produire des cartes à haute résolution spatiale de ces paramètres forestiers, utilisables de l'échelle locale à l'échelle régionale/nationale
The estimation and monitoring of forest resources and carbon stocks are major issues for wood industry and public bodies. Forests play an important role in national and international plans for climate change mitigation (carbon storage, climate regulation, biodiversity, renewable energy). In temperate forests, monitoring is done at two different levels: on one hand, at local level, in small areas by the acquisition of many measures of forest structure parameters, and, on the other hand, by statistics at national level or in large administrative areas that are provided annually by public bodies. Temperate forests are highly anthropogenic (high spatial variability and fragmentation of stands), so there is currently a strong need for a more refined and regular maps of forest resources in these regions. Optical and radar satellite images provide information on the state of vegetation, tree structure and spatial organization of forests. In an exceptional context of free global availability, diversity, and quality of images with high spatial and temporal resolution, the aim of this PhD work is to set up the methodological bases for a generic and semi-automatic production of forest parameters mapping (biomass, diameter, height, etc.). We have assessed the potential of Sentinel-1 (C-band radar), Sentinel-2 (optical) time series, and ALOS2-PALSAR2 (radar, L-band) annual mosaics to estimate forest structure parameters. These satellite data are combined, using supervised learning algorithms and field measurements, to construct models for estimating aboveground biomass (AGB), mean tree diameter (DBH), height, basal area and tree density. These models can then be spatially applied over the entire territory by using satellite images, providing thus continuous information on the spatial resolution of the images used (10 to 20 meters). This approach has been conceived and tested on four study sites with different forest species and structural and environmental properties: the inner and the dune zone of the Landes forest (maritime pines), the Orléans forest (oak and Scots pines), and the forest of Saint-Gobain (oaks, hornbeams and beeches). The investigated issues are the satellite data to be used, the selection of explanatory variables, the choice of regression algorithms and their parameterization, the differentiation of forest types and the spatialization of forest parameter estimates. The primitives derived from satellite data provide information on the optical properties of soil and vegetation, the spatial organization of trees, the structure and volume of live wood of crowns and trunks. The use of nonlinear multivariate regression algorithms allows to obtain forest parameter estimates with relative error performance in the order of 15 to 35 % for the basal area (~ 2.8 to 5.9 m2/ha) depending on forest types, 5 to 20 % for height (~ 1.3 to 3 m), and 5 to 25 % for DBH (~ 1.5 to 8 cm). The results highlight the improvement by combining several types of satellite data (optical, multi-frequency radar and spatial texture indexes), as well as the importance of differentiating forest types for the construction of models. This high-resolution, regular mapping of the forest resource is very promising to help improving the monitoring and policy of territorial and national strategies for the timber sector, biodiversity and carbon storage
APA, Harvard, Vancouver, ISO, and other styles
20

Hu, Wei. "Identification de paramètre basée sur l'optimisation de l'intelligence artificielle et le contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire." Thesis, Ecole centrale de Lille, 2019. http://www.theses.fr/2019ECLI0008/document.

Full text
Abstract:
Cette thèse traite de l'identification des paramètres du point de vue de l'optimisation et du contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire (FOMASs) en tenant compte des retards, des perturbations externes, de la non-linéarité inhérente, des incertitudes des paramètres et de l'hétérogénéité dans le cadre d'une topologie de communication fixe non dirigée / dirigée. Plusieurs contrôleurs efficaces sont conçus pour réaliser avec succès le contrôle de suivi distribué des FOMASs dans différentes conditions. Plusieurs types d'algorithmes d'optimisation de l'intelligence artificielle et leurs versions modifiées sont appliquées pour identifier les paramètres inconnus des FOMASs avec une grande précision, une convergence rapide et une grande robustesse. Il est à noter que cette thèse fournit un lien prometteur entre la technique d'intelligence artificielle et le contrôle distribué
This thesis deals with the parameter identification from the viewpoint of optimization and distributed tracking control of fractional-order multi-agent systems (FOMASs) considering time delays, external disturbances, inherent nonlinearity, parameters uncertainties, and heterogeneity under fixed undirected/directed communication topology. Several efficient controllers are designed to achieve the distributed tracking control of FOMASs successfully under different conditions. Several kinds of artificial intelligence optimization algorithms andtheir modified versions are applied to identify the unknown parameters of the FOMASs with high accuracy, fast convergence and strong robustness. It should be noted that this thesis provides a promising link between the artificial intelligence technique and distributed control
APA, Harvard, Vancouver, ISO, and other styles
21

Charria, Guillaume. "Influence des ondes de Rossby sur le système biogéochimique de l'Océan Atlantique Nord : utilisation des données couleur de l'eau et d'un modèle couplé physique/biogéochimie." Toulouse 3, 2005. http://www.theses.fr/2005TOU30268.

Full text
Abstract:
Même si l'océan ne représente que moins de 1% de la biomasse liée aux plantes sur la terre, il est responsable de près de la moitié de la photosynthèse nette de la biosphère. Cette biomasse est par conséquent un élément essentiel dans la régulation du climat à travers par exemple le cycle océanique du carbone. Il est donc nécessaire d'estimer correctement cette biomasse ainsi que les processus qui l'affectent. A l'aide de données satellites altimétriques et couleur de l'eau et d'un modèle couplé physique/biogéochimie (MERCATOR-OPA / NPZDDON), les ondes de Rossby et leur influence sur cette biomasse sont spécifiquement étudiées dans l'océan Atlantique Nord. Leurs propriétés et leur influence sur les concentrations en chlorophylle de surface sont analysées. Au travers des mécanismes mis en jeu identifiés, nous estimons que ces ondes peuvent entraîner une augmentation locale comprise entre 60% et 150% de la production primaire estimée
The marine phytoplankton in the ocean represents only less than 1% of global biomass. Phytoplankton performs half of all photosynthesis. This autotrophic biomass in ocean is then an essential element in the climate regulation through processes as carbon dioxide absorption during the photosynthesis. Therefore, we need to estimate precisely this biomass as well as the processes which affect it. Using remotely sensed data (altimetry and ocean colour) and a coupled physical/biogeochemical model (MERCATOR-OPA/NPZDDON), Rossby waves and their influence on phytoplankton biomass are specifically studied in the North Atlantic Ocean. Their features and their influences on surface chlorophyll concentrations were analysed. Through the different mechanisms identified, we estimated that these waves can induce local increases from 60% to 150% of the estimated primary production
APA, Harvard, Vancouver, ISO, and other styles
22

Pottier, Claire. "Combinaison multi-capteurs de données de couleur de l'eau : application en océanographie opérationnelle." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00179729.

Full text
Abstract:
Le phytoplancton joue un rôle important dans le cycle du carbone sur Terre, de par l'absorption du dioxyde de carbone au cours de la photosynthèse. Si les campagnes en mer offrent la possibilité d'acquérir des données à haute fréquence et à fine échelle spatio-temporelle, l'observation spatiale procure une description synoptique et sur de longues périodes de la chlorophylle-a, pigment principal du phytoplancton océanique. Chaque mission satellitaire qui mesure la couleur de l'eau est limitée en couverture océanique (traces du satellite, nuages, etc.). La couverture spatiale journalière peut augmenter considérablement en combinant les données issues de plusieurs satellites. L'objectif de cette thèse a été de concevoir, développer et tester des méthodes de combinaison de données couleur de l'eau, provenant des capteurs américains SeaWiFS et MODIS/Aqua, pour des applications en temps réel relevant de l'océanographie opérationnelle. Trois concepts ont été retenus : la moyenne pondérée par l'erreur capteur (conserve la netteté des structures mais n'utilise que les données existantes), l'analyse objective (améliore la couverture spatiale, mais lisse le champ en contrepartie), et une dernière approche innovante basée sur la transformée en ondelettes (conserve la netteté des structures et améliore la couverture du champ). L'opérationnalité de ces trois méthodes a été démontrée.
L'intérêt d'utiliser des données combinées a été montré à travers la mise en évidence des modes de variabilité dominants de la dynamique océanographique et biologique dans l'Océan Austral, en utilisant les données combinées SeaWiFS + MODIS/Aqua de la ceinture circumpolaire pour la période 2002-2006.
APA, Harvard, Vancouver, ISO, and other styles
23

Karavelić, Emir. "Stochastic Galerkin finite element method in application to identification problems for failure models parameters in heterogeneous materials." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2501.

Full text
Abstract:
Cette thèse traite de rupture localisée de structures construites en matériau composite hétérogène, comme le béton, à deux échelles différentes. Ces deux échelles sont connectées par le biais de la mise à l'échelle stochastique, où toute information obtenue à l'échelle méso est utilisée comme connaissance préalable à l'échelle macro. À l'échelle méso, le modèle de réseau est utilisé pour représenter la structure multiphasique du béton, à savoir le ciment et les granulats. L'élément de poutre représenté par une poutre Timoshenko 3D intégrée avec de fortes discontinuités assure un maillage complet indépendance de la propagation des fissures. La géométrie de la taille des agrégats est prise en accord avec la courbe EMPA et Fuller tandis que la distribution de Poisson est utilisée pour la distribution spatiale. Les propriétés des matériaux de chaque phase sont obtenues avec une distribution gaussienne qui prend en compte la zone de transition d'interface (ITZ) par l'affaiblissement du béton. À l'échelle macro, un modèle de plasticité multisurface est choisi qui prend en compte à la fois la contribution d'un écrouissage sous contrainte avec une règle d'écoulement non associative ainsi que des composants d'un modèle d'adoucissement de déformation pour un ensemble complet de différents modes de défaillance 3D. Le modèle de plasticité est représenté par le critère de rendement Drucker-Prager, avec une fonction potentielle plastique similaire régissant le comportement de durcissement tandis que le comportement de ramollissement des contraintes est représenté par le critère de St. Venant. La procédure d'identification du modèle macro-échelle est réalisée de manière séquentielle. En raison du fait que tous les ingrédients du modèle à l'échelle macro ont une interprétation physique, nous avons fait l'étalonnage des paramètres du matériau en fonction de l'étape particulière. Cette approche est utilisée pour la réduction du modèle du modèle méso-échelle au modèle macro-échelle où toutes les échelles sont considérées comme incertaines et un calcul de probabilité est effectué. Lorsque nous modélisons un matériau homogène, chaque paramètre inconnu du modèle réduit est modélisé comme une variable aléatoire tandis que pour un matériau hétérogène, ces paramètres de matériau sont décrits comme des champs aléatoires. Afin de faire des discrétisations appropriées, nous choisissons le raffinement du maillage de méthode p sur le domaine de probabilité et la méthode h sur le domaine spatial. Les sorties du modèle avancé sont construites en utilisant la méthode de Galerkin stochastique fournissant des sorties plus rapidement le modèle avancé complet. La procédure probabiliste d'identification est réalisée avec deux méthodes différentes basées sur le théorème de Bayes qui permet d'incorporer de nouvelles bservations générées dans un programme de chargement particulier. La première méthode Markov Chain Monte Carlo (MCMC) est identifiée comme mettant à jour la mesure, tandis que la deuxième méthode Polynomial Chaos Kalman Filter (PceKF) met à jour la fonction mesurable. Les aspects de mise en œuvre des modèles présentés sont donnés en détail ainsi que leur validation à travers les exemples numériques par rapport aux résultats expérimentaux ou par rapport aux références disponibles dans la littérature
This thesis deals with the localized failure for structures built of heterogeneous composite material, such as concrete, at two different scale. These two scale are latter connected through the stochastic upscaling, where any information obtained at meso-scale are used as prior knowledge at macro-scale. At meso scale, lattice model is used to represent the multi-phase structure of concrete, namely cement and aggregates. The beam element represented by 3D Timoshenko beam embedded with strong discontinuities ensures complete mesh independency of crack propagation. Geometry of aggregate size is taken in agreement with EMPA and Fuller curve while Poisson distribution is used for spatial distribution. Material properties of each phase is obtained with Gaussian distribution which takes into account the Interface Transition Zone (ITZ) through the weakening of concrete. At macro scale multisurface plasticity model is chosen that takes into account both the contribution of a strain hardening with non-associative flow rule as well as a strain softening model components for full set of different 3D failure modes. The plasticity model is represented with Drucker-Prager yield criterion, with similar plastic potential function governing hardening behavior while strain softening behavior is represented with St. Venant criterion. The identification procedure for macro-scale model is perfomed in sequential way. Due to the fact that all ingredients of macro-scale model have physical interpretation we made calibration of material parameters relevant to particular stage. This approach is latter used for model reduction from meso-scale model to macro-scale model where all scales are considered as uncertain and probability computation is performed. When we are modeling homogeneous material each unknown parameter of reduced model is modeled as a random variable while for heterogeneous material, these material parameters are described as random fields. In order to make appropriate discretizations we choose p-method mesh refinement over probability domain and h-method over spatial domain. The forward model outputs are constructed by using Stochastic Galerkin method providing outputs more quickly the the full forward model. The probabilistic procedure of identification is performed with two different methods based on Bayes’s theorem that allows incorporating new observation generated in a particular loading program. The first method Markov Chain Monte Carlo (MCMC) is identified as updating the measure, whereas the second method Polynomial Chaos Kalman Filter (PceKF) is updating the measurable function. The implementation aspects of presented models are given in full detail as well as their validation throughthe numerical examples against the experimental results or against the benchmarks available from literature
APA, Harvard, Vancouver, ISO, and other styles
24

Kervazo, Christophe. "Optimization framework for large-scale sparse blind source separation." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS354/document.

Full text
Abstract:
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées
During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography