Academic literature on the topic 'Estimation multi-paramètres'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Estimation multi-paramètres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Estimation multi-paramètres"

1

ROWIŃSKI, PAWEŁ M., and ADAM PIOTROWSKI. "Estimation of parameters of the transient storage model by means of multi-layer perceptron neural networks / Estimation des paramètres du modèle de transport TSM au moyen de réseaux de neurones perceptrons multi-couches." Hydrological Sciences Journal 53, no. 1 (February 2008): 165–78. http://dx.doi.org/10.1623/hysj.53.1.165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Cao, Daling, Hongtao Li, Enguang Hou, Sulin Song, and Chengguang Lai. "Assessment and Hydrological Validation of Merged Near-Real-Time Satellite Precipitation Estimates Based on the Gauge-Free Triple Collocation Approach." Remote Sensing 14, no. 15 (August 8, 2022): 3835. http://dx.doi.org/10.3390/rs14153835.

Full text
Abstract:
Obtaining accurate near-real-time precipitation data and merging multiple precipitation estimates require sufficient in-situ rain gauge networks. The triple collocation (TC) approach is a novel error assessment method that does not require rain gauge data and provides reasonable precipitation estimates by merging data; this study assesses the TC approach for producing reliable near-real-time satellite-based precipitation estimate (SPE) products and the utility of the merged SPEs for hydrological modeling of ungauged areas. Three widely used near-real-time SPEs, including the Integrated Multi-satellite Retrievals for Global Precipitation Measurement (IMERG) early/late run (E/L) series, and the Precipitation Estimation from Remotely Sensed Information Using Artificial Neural Networks-Dynamic Infrared Rain Rate (PDIR) products, are used in the Beijiang basin in south China. The results show that the TC-based merged SPEs generally outperform all original SPEs, with higher consistency with the in-situ observations, and show superiority over the simple equal-weighted merged SPEs used for comparison; these findings indicate the superiority of the TC approach for utilizing the error characteristics of input SPEs for multi-SPE merging for ungauged areas. The validation of the hydrological modeling utility based on the Génie Rural à 4 paramètres Journalier (GR4J) model shows that the streamflow modeled by the TC-based merged SPEs has the best performance among all SPEs, especially for modeling low streamflow because the integration with the PDIR outperforms the IMERG products in low streamflow modeling. The TC merging approach performs satisfactorily for producing reliable near-real-time SPEs without gauge data, showing great potential for near-real-time applications, such as modeling rainstorms and monitoring floods and flash droughts in ungauged areas.
APA, Harvard, Vancouver, ISO, and other styles
3

Siddo, Seyni, Nassim Moula, Issa Hamadou, Moumouni Issa, Hamani Marichatou, Nicolas Antoine-Moussiaux, Pascal Leroy, and Charles Michaux. "La croissance du bovin Azawak au Niger : influence de facteurs de variation non génétiques et estimation des paramètres génétiques." BASE, 2018, 84–93. http://dx.doi.org/10.25518/1780-4507.16442.

Full text
Abstract:
Description du sujet. Les effets des facteurs non génétiques sur les caractères de croissance du bovin Azawak au Niger et les paramètres génétiques sont estimés à partir des performances enregistrées sur des animaux élevés dans la station de Toukounous. Objectifs. Grâce aux résultats obtenus, un modèle de prédiction des valeurs d’élevage de candidats reproducteurs améliorateurs sera développé. Méthode. Les facteurs non génétiques ont été évalués grâce à des modèles linéaires fixes et les paramètres génétiques grâce à un modèle animal multi-caractère par la méthode REML. Résultats. Les effets du sexe, de la saison et de l’année de naissance et leurs interactions sont significatifs (p < 0,05) sur tous les poids étudiés, à la naissance et de 12 à 20 mois et sur les gains moyens quotidiens de la naissance à 12 (GMQ12) et 18 (GMQ18) mois. L’héritabilité est modérée pour le poids à la naissance (0,20) et à 12, 14 et 20 mois (0,15 à 0,43). Elle est élevée pour le poids à 13 mois (0,61), le GMQ12 (0,58) et le GMQ18 (0,44). Les corrélations génétiques entre les poids et les gains sont faibles à élevées et elles se réduisent progressivement avec l’espacement des pesées, mais elles sont positives à l’exception de celles entre le GMQ12 et le poids à 17 mois et le GMQ12 et GMQ18. Les corrélations environnementales suivent les mêmes tendances que les corrélations génétiques. Conclusions. L’héritabilité des poids et des gains est modérée à élevée, une amélioration génétique pourrait être obtenue par la sélection sur les performances de croissance.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Estimation multi-paramètres"

1

Trottier, Nicolas. "Modélisation des écoulement en milieux poreux fracturés : estimation des paramètres par approche inverse multi-échelle." Phd thesis, Université de Strasbourg, 2014. http://tel.archives-ouvertes.fr/tel-01037933.

Full text
Abstract:
Ce travail a pour objectif de développer et d'appliquer une méthode originale permettant de simuler l'écoulement dans un milieu poreux fracturé. Cette méthode repose sur une approche multicouches double continuum permettant de séparer le comportement des différents aquifères présents sur un site. La résolution des écoulements, basée sur la méthode des Eléments Finis de Crouzeix-Raviart, est associée à une méthode inverse (minimisation de type Quasi-Newton combinée à la méthode de l'état adjoint) et à une paramétrisation multi-échelle.La méthode est appliquée dans un premier temps sur l'aquifère fracturé du site expérimental de Poitiers. Les résultats montrent une bonne restitution du comportement de l'aquifère et aboutissent à des champs de transmissivité plus réguliers par rapport à ceux de l'approche simple continuum. L'application finale est réalisée sur le site de Cadarache (taille plus importante et données d'entrée moins denses). Le calage des deux aquifères présents sur le site est satisfaisant et montre que ceux-ci se comportent globalement de façon indépendante. Ce calage pourra être amélioré localement grâce à données de recharge plus fines.
APA, Harvard, Vancouver, ISO, and other styles
2

Guyon, Frédéric. "Application des méthodes multi-grilles au contrôle optimal : méthodes de pondération en estimation de paramètres." Compiègne, 1991. http://www.theses.fr/1991COMPD431.

Full text
Abstract:
Dans ce travail, nous nous sommes intéressés à deux problèmes de nature différente : l’application des méthodes multigrilles à la résolution de problème de contrôle ; l'application de méthodes de pondération optimale aux problèmes d'identification. Dans les trois premiers chapitres de ce mémoire, nous précisons les idées essentielles qui nous permettront dans les chapitres suivants de nous attaquer à l'application des méthodes multigrilles à un problème de contrôle modèle. Pour cela, nous détaillons les différentes composantes d'un algorithme multigrilles, nous développons l'analyse d'un problème modèle, nous énonçons la propriété d'approximation entre grilles et la propriété de lissage. Dans le quatrième chapitre, nous étudions l'application des méthodes de gradient à la résolution d'un problème de contrôle d'un système gouverné par une équation elliptique. Le résultat essentiel de cette partie est négatif. Nous montrons que ces méthodes ne satisfont pas la propriété de lissage et ne sont donc pas complémentaires des corrections sur une grille grossière. Des expériences numériques confirment cette analyse. Ainsi, dans le cinquième chapitre, nous abordons différemment le « multigrillage » du problème de contrôle. Nous présentons des méthodes itératives appliquées au système d'optimalité qui ne nécessitent pas le calcul exact du gradient. Le résultat essentiel est que ces méthodes permettent d'obtenir un taux de convergence indépendant du pas de discrétisation. Ceci est confirmé par les résultats numériques. La deuxième partie du travail porte sur l'étude de méthodes d'estimation de paramètres utilisant des matrices de pondérations. Cette méthode est appliquée à l'estimation du coefficient de diffusion dans une équation parabolique. L’idée consiste à déterminer des matrices de poids de façon à ce que le hessien du coût soit aussi proche que possible de l'identité. Cette méthode est étudiée en détail aussi bien du point de vue théorique que numérique. Les résultats numériques montrent une amélioration de la convergence des méthodes d'optimisation (gradient conjugué, quasi-Newton) appliquées au problème pondéré par rapport au problème non pondéré.
APA, Harvard, Vancouver, ISO, and other styles
3

Neumann, Maxim. "Télédétection de couverts végétaux par interférométrie SAR polarimétrique multi-bases : modélisation et estimation de paramètres physiques." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00394049.

Full text
Abstract:
Ce travail concerne différent thèmes qui ont pour objectif d'améliorer la compréhension de l'Interférométrie Polarimétrique Radar (Pol-InSAR) ainsi que de proposer de nouvelles techniques permettant la reconstruction de paramètres liés à la végétation, dans le cadre d'applications de Télédétection. Des études théoriques sont menées afin de définir rigoureusement et d'analyser lénsemble de cohérences Pol-InSAR ainsi que de développer et d'interpréter les techniques d'optimisation de cohérences à lignes de base multiples. Un modèle interférométrique polarimétrique phénoménologique est développé pour tenir
compte d'un milieu volumique situé au dessus d'un sol. Dans le cas de forêts observées en bande L, ce modèle tient compte de la topographie du sol, de la canopée, de la hauteur totale des arbres, de l'atténuation de l'onde, de la réflectivité au sein de la canopée, de
la morphologie des arbres prise en compte par la distribution statistique des orientations des branches et leur forme efficace, de la contribution du sol et enfin de l'interaction entre le sol et les troncs. Une méthodologie d'inversion des paramètres de végétation est développée dans le cas des acquisitions monopasse ou multipasses. Dans ce dernier cas, la méthode d'inversion tient compte de la décorrélation temporelle et permet ainsi une estimation pour chaque ligne de base. La performance de léstimation des paramètres de
végétation est évaluée à partir de données SAR simulées et réelles aéroportées en bande L, pour les deux cas de configurations en lignes de base simple ou multiple.
APA, Harvard, Vancouver, ISO, and other styles
4

Molléro, Roch. "Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales." Thesis, Côte d'Azur, 2017. http://www.theses.fr/2017AZUR4106/document.

Full text
Abstract:
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D
Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model
APA, Harvard, Vancouver, ISO, and other styles
5

Roux, Clément. "Dimensionnement en fatigue multiaxiale des toiles de roues ferroviaires sous sollicitations multi-paramètres à amplitude variable." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX109/document.

Full text
Abstract:
L’objectif principal de cette thèse est de développer une méthodologie qui permette de définir des sollicitations simplifiées représentatives des sollicitations réelles rencontrées en exploitation, c’est-à-dire équivalentes en sévérité vis-à-vis du phénomène d’amorçage de fissure par fatigue mécanique. Cette méthodologie doit être adaptée aux problèmes multi-paramètres car les sollicitations subies par les roues ferroviaires sont multidimensionnelles (chargement vertical et latéral) et indépendantes. Enfin, la thèse vise aussi à proposer une approche fiabiliste globale du problème de fatigue des roues, qui pourra être une extension de la méthode Contrainte-Résistance aux cas des sollicitations multi-entrée. Un critère de fatigue pour l’acier des roues est identifié à partir des nouveaux essais
The main objective of this PHD thesis is to develop a method for the definition of simplified equivalent loads representative of real loads (the severity is equivalent from fatigue phenomenon point of view). This method must be adapted to multi-input problems because loads applied on wheels are multi-dimensional (vertical and lateral loads) and independent. Finally, the thesis also aims to provide a comprehensive approach to fatigue-reliability problem of the wheels, which can be an extension of the stress-strength method for multi-input loads. A fatigue criterion for the railway will is presented and identified using a new test campaign
APA, Harvard, Vancouver, ISO, and other styles
6

Rodiet, Christophe. "Mesure de Température par Méthodes Multi-Spectrales et Caractérisation Thermique de Matériaux Anisotropes par Transformations Intégrales : « Aspects Théoriques et Expérimentaux »." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0283/document.

Full text
Abstract:
Ce mémoire est constitué de deux parties relativement indépendantes, dont la première partie porte sur les méthodes de mesure de température par méthodes Multi-Spectrales (pyrométrie optique passive), et la seconde sur la Caractérisation Thermique à haute température par transformations intégrales de matériaux orthotropes. Dans chacune de ces deux parties, les méthodes/modèles développés ont été traités du point de vue théorique, numérique, et expérimental. Dans la partie multi-spectrale, une méthode de mesure de température permettant de prendre en compte les variations spectrales de la chaine de mesure globale (incluant l’émissivité) a été présentée. De plus, une méthode de détermination des longueurs d’ondes optimales au sens de la minimisation de l’écart-type sur la température, a été développée. Enfin, il a également été montré que les longueurs d’ondes optimales pour les mesures mono-spectrales et bi-spectrales pouvaient être déterminées à l’aide de lois analogues à la loi de déplacement de Wien. Dans la partie Caractérisation Thermique, différentes méthodes et modèles ont été développés. Les méthodes proposées effectuent l’estimation des diffusivités longitudinales et transversales sur l’ensemble des harmoniques simultanément. De plus, ces méthodes permettent de s’affranchir du couplage thermique dû à la présence d’un porte-échantillon, et/ou d’effectuer des mesures de diffusivités pseudo-locales, en injectant comme conditions aux limites les informations expérimentales obtenues par caméra infrarouge. Enfin, les notions de corrélation entre les paramètres et de durée d’exploitabilité des harmoniques ont également été abordées
This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed.This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed
APA, Harvard, Vancouver, ISO, and other styles
7

Song, Yingying. "Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207/document.

Full text
Abstract:
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
APA, Harvard, Vancouver, ISO, and other styles
8

Léger, Stéphanie. "Analyse stochastique de signaux multi-fractaux et estimations de paramètres." Orléans, 2000. http://www.theses.fr/2000ORLE2045.

Full text
Abstract:
Le mouvement brownien fractionnaire (MBF) défini par Mandelbrot et Van Ness (1968) est utilisé dans de nombreuses situations. Mais, de part sa définition, il ne peut modéliser que des processus de R à valeurs dans R. Pour étudier des radiographies d'os afin de déterminer si une personne est atteinte ou non de l'ostéoporose, nous avions besoin d'un champ défini sur R2 à valeurs dans R. Nous avons donc généralisé le MBF et construit le drap brownien fractionnaire (DBF) dépendant de deux paramètres a et b. Nous avons montré que ce champ, comme le MBF, était auto-simulaire, à accroissements stationnaires. Puis nous avons défini des estimateurs de ces paramètres et construit un test d'auto-similarité en utilisant des techniques d'Istas et Lang (1997) comme le fait Bardet (1999) pour le MBF. Ce test d'auto-similarité nous a permis de montrer que les radiographies d'os ne possédaient pas cette propriété. En collaboration avec A. Ayache, nous avons défini un nouveau champ : le drap brownien multifractionnaire (DBM), non auto-similaire, en substituant aux paramètres a et b des fonctions höldériennes comme l'ont fait Lévy-Vehel, Peltier (1995) ou Bénassi, Jaffard, Roux (1997) pour le MBF. Nous nous sommes intéressés aux propriétés locales de ce champ, puis nous avons construit des estimateurs des fonctions a et b afin d'appliquer ce nouveau modèle à la caractérisation de l'ostéoporose.
APA, Harvard, Vancouver, ISO, and other styles
9

Gomes, borges Marcos Eduardo. "Détermination et implémentation temps-réel de stratégies de gestion de capteurs pour le pistage multi-cibles." Thesis, Ecole centrale de Lille, 2018. http://www.theses.fr/2018ECLI0019/document.

Full text
Abstract:
Les systèmes de surveillance modernes doivent coordonner leurs stratégies d’observation pour améliorer l’information obtenue lors de leurs futures mesures afin d’estimer avec précision les états des objets d’intérêt (emplacement, vitesse, apparence, etc.). Par conséquent, la gestion adaptative des capteurs consiste à déterminer les stratégies de mesure des capteurs exploitant les informations a priori afin de déterminer les actions de détection actuelles. L’une des applications la plus connue de la gestion des capteurs est le suivi multi-objet, qui fait référence au problème de l’estimation conjointe du nombre d’objets et de leurs états ou trajectoires à partir de mesures bruyantes. Cette thèse porte sur les stratégies de gestion des capteurs en temps réel afin de résoudre le problème du suivi multi-objet dans le cadre de l’approche RFS labélisée. La première contribution est la formulation théorique rigoureuse du filtre mono-capteur LPHD avec son implémentation Gaussienne. La seconde contribution est l’extension du filtre LPHD pour le cas multi-capteurs. La troisième contribution est le développement de la méthode de gestion de capteurs basée sur la minimisation du risque Bayes et formulée dans les cadres POMDP et LRFS. En outre, des analyses et des simulations des approches de gestion de capteurs existantes pour le suivi multi-objets sont fournies
Modern surveillance systems must coordinate their observation strategies to enhance the information obtained by their future measurements in order to accurately estimate the states of objects of interest (location, velocity, appearance, etc). Therefore, adaptive sensor management consists of determining sensor measurement strategies that exploit a priori information in order to determine current sensing actions. One of the most challenging applications of sensor management is the multi-object tracking, which refers to the problem of jointly estimating the number of objects and their states or trajectories from noisy sensor measurements. This thesis focuses on real-time sensor management strategies formulated in the POMDP framework to address the multi-object tracking problem within the LRFS approach. The first key contribution is the rigorous theoretical formulation of the mono-sensor LPHD filter with its Gaussian-mixture implementation. The second contribution is the extension of the mono-sensor LPHD filter for superpositional sensors, resulting in the theoretical formulation of the multi-sensor LPHD filter. The third contribution is the development of the Expected Risk Reduction (ERR) sensor management method based on the minimization of the Bayes risk and formulated in the POMDP and LRFS framework. Additionally, analyses and simulations of the existing sensor management approaches for multi-object tracking, such as Task-based, Information-theoretic, and Risk-based sensor management, are provided
APA, Harvard, Vancouver, ISO, and other styles
10

Ouladsine, Mustapha. "Identification des systèmes dynamiques multi-variables." Nancy 1, 1993. http://docnum.univ-lorraine.fr/public/SCD_T_1993_0209_OULADSINE.pdf.

Full text
Abstract:
L'objectif de cette thèse est l'étude et le développement des méthodes d'identification des systèmes dynamiques multi-variables. Dans le premier chapitre, nous nous sommes intéressés au cas des systèmes multi-entrées/multi-sorties, dynamiques, discrets, invariants et représentés sous forme de relation entrées/sorties. Dans ce contexte, nous avons développé deux méthodes: MCA (moindres carres alternes) et MCMV (moindres carres multi-variables). La première est une méthode itérative à plusieurs étages. La deuxième, plus générale, est une méthode récurrente qui identifie les systèmes multi-variables interconnectes. Ces deux méthodes comportent certains avantages par rapport à celles existantes dans la littérature. Ceux-ci sont discutés lors d'une étude de la robustesse des deux méthodes par rapport aux différentes perturbations. Dans la pratique, l'hypothèse d'invariance n'est pas toujours vérifiée. Pour pallier ce problème, nous avons étendu, au cas des systèmes linéaires dont les paramètres varient aux cours du temps, la méthode MCMV en utilisant une technique multi-modèle. Dans le deuxième chapitre, nous nous sommes intéressés au cas des systèmes linéaires discrets modélisés par une représentation d'état. Dans un premier temps, nous avons développé une méthode basée sur la minimisation d'une distance de structure. Dans un second temps, nous avons développé une nouvelle méthode basée sur la technique multi-modèle qui permet de poursuivre les éventuelles variations des paramètres d'un système évolutif modélisé par une représentation d'état. Dans le troisième chapitre, nous présentons une extension des deux nouvelles méthodes MCA et MCMV au cas d'un modèle d'Hammerstein dont la partie non linéaire est approximée par une fonction polynomiale.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography