Дисертації з теми "Estimation de mesures de Dirac"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Estimation de mesures de Dirac.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Estimation de mesures de Dirac".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Laville, Bastien. "Reconstruction sans-grille de courbes : théorie et applications en microscopie de fluorescence." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4062.

Повний текст джерела
Анотація:
Cette thèse de doctorat se propose de définir et d'expliciter les outils pour la reconstruction de courbes par des méthodes variationnelles sans-grille dans une perspective d'applications en imagerie biomédicale, et plus précisément en microscopie de fluorescence.Plusieurs algorithmes numériques convexes ou non-convexes ont déjà été développés au sein de l'équipe de recherche Morpheme qui a accueilli cette thèse, dans le cadre de l'optimisation non convexe parcimonieuse. Ces techniques ont été développées dans le cas discret, sur grille, ce qui signifie que l'image super-résolue est définie sur une grille plus fine que les images observées. A contrario, dans cette thèse de doctorat, nous développons des méthodes sans grille, en travaillant sur l'espace des mesures bornées. Ce choix apporte plusieurs avantages : la source n'est pas limitée par une grille fine et peut être localisée continûment, des bornes quantitatives sur l'écart entre la reconstruction et la source peuvent être énoncées, et ces approches permettent d'encoder une information structurelle ou géométrique dans le problème variationnel, de sorte à reconstruire une source d'une certaine forme, telle qu'un point ou une courbe.Dans un premier temps, nous rappellerons l'état de l'art des méthodes sans-grille, qui porte sur la reconstruction de sources ponctuelles. Nous illustrerons en particulier son intérêt pratique en microscopie de fluorescence, notamment face à des modèles classiques : les reconstructions proposées sont aussi convaincantes que celles produites par des modèles d'apprentissage profond, et ce, sans nécessiter d'ensemble d'apprentissage ou d'hyperparamètres à régler.Puis, nous introduirons une méthode sans-grille dans le cadre de la microscopie de fluorescence par fluctuation. Cette dernière repose sur l'indépendance des fluctuations de luminosité des fluorophores, ce qui permet en pratique de faire l'économie de matériel d'acquisition spécifique et coûteux. Les limites de ce modèle, formulé pour la reconstruction de sources ponctuelles, nous conduirons à nous intéresser sur la formulation d'une nouvelle méthode sans-grille, cette fois-ci pour la reconstruction de sources courbes.Nous nous pencherons sur la conception d'une méthode sans-grille, qui répond à la problématique de fluorophores le long de filaments qui forment de courbes dans les images, et qui n'est à notre connaissance pas traitée dans la littérature. En particulier, nous définirons l'espace d'optimisation impliqué, à savoir l'espace des mesures vectorielles à divergence finie, aussi appelé espace des charges. Nous poursuivrons en explicitant la manière de définir des mesures portées par des courbes, et en écrivant une nouvelle fonctionnelle appelée CROC (pour Curves Represented On Charges). Nous finirons en montrant qu'il existe une solution de cette énergie qui s'écrit comme une combinaison linéaire finie de mesures portées par des courbes.Finalement, nous étudierons la mise en œuvre numérique de la minimisation de cette énergie, à l'aide d'une adaptation d'algorithme glouton répandu dans la littérature. Nous discuterons des propriétés de notre algorithme, appelé Charge Sliding Frank-Wolfe, des difficultés rencontrées dans la définition du modèle d'observation, dans le choix de la paramétrisation discrète des courbes, etc.Le propos sera clôturé avec une conclusion qui rappellera les principaux points de chaque chapitre, ainsi qu'une ouverture, récapitulant les pistes de recherche possibles que nous avons dégagées au fil des chapitres
This PhD thesis aims to define and explain the tools for curve reconstruction using off-the-grid variational methods, as part of a range of applications in biomedical imaging, and more specifically in fluorescence microscopy.Several convex or non-convex numerical algorithms have already been developed within the Morpheme research team, where this thesis was conducted, in the context of non-convex sparse optimisation. These techniques were developed in the discrete case, on a grid, which means that the super-resolved image is defined on a finer grid than the observed images. In contrast, in this PhD thesis, we are developing off-the-grid also called gridless methods, while working on the space of bounded measures. This choice brings several advantages: the source is not limited by a fine grid and can be located continuously, quantitative bounds on the discrepancy between the reconstruction and the source can be written, and these approaches allow encoding structural/geometric information in the variational problem, to recover a source of a certain shape, such as a point or a curve.We will begin by reviewing the state of the art in off-the-grid methods, focusing on the reconstruction of point sources. In particular, we will illustrate its practical interest in fluorescence microscopy, especially compared with classical models: the reconstructions proposed are as convincing as those produced by deep learning models, and this without requiring a learning set or hyperparameters tuning.We will then introduce a gridless method for fluctuation-based fluorescence microscopy. This method exploits the independence of fluctuations in fluoroform luminosity, which means that specific and expensive acquisition equipment is not required. The limitations of this model, formulated for the reconstruction of point sources, will lead us to define a new off-the-grid method, this time for the reconstruction of curve.We will further study the design of an off-the-grid method, addressing the struggle of fluoroform along filaments that form curves in the images; a problem which is not taken care of in the literature. In particular, we will define the involved optimisation space, namely the space of vector measures with finite divergence, also known as the space of charges. We will further explain how to define curve measures, and we will write a new functional called CROC (for Curves Represented On Charges). We will finish by showing that there is a solution to this energy that can be written as a finite linear combination of measurements carried by curves.Finally, we will study the numerical implementation of this problem, using an adaptation of the greedy algorithm widely used in the literature. We will discuss the properties of our algorithm, called Charge Sliding Frank-Wolfe, and the difficulties encountered in the definition of the observation model, in choosing the discrete parametrisation of the curves, and so on.The thesis will be concluded with a reminder of the main points encountered in each chapter, and an opening section summing up the possible avenues of research that we have identified over the course of the chapters
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Ginoux, Nicolas. "Une nouvelle estimation extrinsèque du spectre de l'opérateur de Dirac." Universität Potsdam, 2003. http://opus.kobv.de/ubp/volltexte/2005/564/.

Повний текст джерела
Анотація:
Nous établissons une nouvelle majoration optimale pour les plus petites valeurs propres de l'opérateur de Dirac sur une hypersurface compacte de l'espace hyperbolique.
We prove a new upper bound for the smallest eigenvalues of the Dirac operator on a compact hypersurface of the hyperbolic space.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Magnis, Lionel. "Estimation de vitesse de rotation par mesures de direction." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0039/document.

Повний текст джерела
Анотація:
Cette thèse étudie l’estimation de vitesse de rotation d’un corps rigide à partir de mesures de directions (par exemple champ magnétique, direction du soleil) embarquées. L’objectif est de remplacer les gyromètres qui sont chers comparés aux autres capteurs inertiels et sujets à des saturations et à des dysfonctionnements. Dans une première partie de la thèse, on traite les cas spécifiques d’une rotation à axe fixe ou légèrement variable. Dans une seconde partie, on traite le cas d’une rotation quelconque par un observateur asymptotique non-linéaire. On construit l’observateur à partir de mesures de deux vecteurs de référence non colinéaires, ou bien d’un seul vecteur. La connaissance des coordonnées inertielles des vecteurs de référence n’est pas nécessaire. On étend ensuite l’observateur pour estimer en plus le couple et les paramètres d’inertie. Les équations d’Euler jouent un rôle central dans les travaux présentés ici. Il apparaît que, du moins pour les illustrations considérées, les gyromètres peuvent être remplacés par un algorithme d’estimation basé sur des capteurs de direction qui sont bien moins chers et plus robustes
This thesis addresses the general question of estimating the angular rate of a rigid body from on-board direction sensors (e.g. magnetometers, Sun sensors). The objective is to replace rate gyros which are very expensive compared to direction sensors, prone to saturation during high rate rotations and subject to failure. In a first part of the thesis, we address the specific cases of single-axis and slightly perturbed axis rotations.In a second part, we address the general case by an asymptotic non-linear observer. We build the observer from two non-collinear vector measurements or from a single vector measurements. The knowledge of the inertial coordinates of the reference vectors is not necessary. We then extend the observer to further estimate unknown torques and inertia parameters. The Euler’s equations play a central role in all the works developed in this thesis. It appears that, at least for the illustrative cases considered, rate gyros could be replaced with an estimation algorithm employing direction sensors which are much cheaper,more rugged and more resilient sensors
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Melliani, Saïd. "Solutions mesures de Dirac de systèmes de lois de conservation (Equations de Saint-Venant 2D) et diffusion acoustique." Lyon 1, 1994. http://www.theses.fr/1994LYO10318.

Повний текст джерела
Анотація:
Dans la premiere partie, on montre comment on peut donner un sens aux solutions ayant la forme de mesures de dirac pour des systemes (non lineaires) de lois de conservation (solutions deja observees par les ingenieurs, numericiens et mathematiciens), calculer sur ces solutions et en deduire des methodes numeriques pour la solution de systemes de la physique. Dans la seconde partie, on etudie le probleme de la diffusion d'une onde acoustique incidente sur un diedre solide elastique, immerge dans l'eau. Ce probleme nous ramene a resoudre un systeme hyperbolique lineaire a coefficients discontinus. On compare les resultats numeriques ainsi obtenus avec les resultats experimentaux
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Seck, Cheikh Tidiane. "Estimation non-paramétrique et convergence faible des mesures de pauvreté." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00825389.

Повний текст джерела
Анотація:
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Usseglio-Carleve, Antoine. "Estimation de mesures de risque pour des distributions elliptiques conditionnées." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1094/document.

Повний текст джерела
Анотація:
Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ferrieux, Dominique. "Estimation de densités de mesures moyennes de processus ponctuels associés." Montpellier 2, 1996. http://www.theses.fr/1996MON20245.

Повний текст джерела
Анотація:
L'objet principal de ce travail est l'estimation par la methode du noyau de la densite de la mesure moyenne d'une mesure aleatoire discrete, ou d'un processus ponctuel, sous hypothese d'association. Le premier chapitre donne les proprietes generales des suites de mesures aleatoires associees et des exemples. Le second chapitre donne les principales proprietes asymptotiques de l'estimateur telles que les convergences en probabilite et presque sure, la loi limite, et le choix optimal de la fenetre. Dans le troisieme chapitre ces resultats sont exploites pour l'estimation de la derivee de deux mesures moyennes. Le quatrieme chapitre etudie un point de vue nouveau sur la statistique des processus ponctuels quand une seule observation est disponible. Le dernier chapitre presente quelques simulations
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Breuer, Axel. "Estimation de l'humidité des sols par des mesures SAR polarimétriques." Rennes 1, 2003. http://www.theses.fr/2003REN10115.

Повний текст джерела
Анотація:
Ce travail est consacré à l'estimation de l'humidité des sols par des mesures SAR polarimétriques. Une conséquence de la nature vectorielle du champ électromagnétique est la polarisation des ondes. Les mesures SAR polarimétriques quantifient le changement de polarisation entre le champ incident, qui illumine la scène, et le champ rétrodiffusé. Il existe de nombreux modèles de rétrodiffusion surfaciques qui expriment les caractéristiques polarimétriques en fonction de l'humidité et de la rugosité des sols. Des effets de dépolaristion, non prédits par des modèles classiques, ont été observé. Cela nous a amené au développement d'un nouveau modèle de rétrodiffusion baptisé F-Bragg. Ce modèle, développé au moyen d'une technique de perturbation, permet non seulement de rendre compte des effets observés mais s'applique également à une large classe de rugosité, notamment aux sols fractals. Nous proposons ensuite un algorithme d'inversion rapide qui permet de retrouver les propriétés du sol à partir de données SAR complètement ou partiellement polarimétrique.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Négrel, Jean. "Estimation du débit des fleuves à partir de mesures satellitaires des variables de surface sans mesures in situ." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20239/document.

Повний текст джерела
Анотація:
La question de l'eau constitue à l'heure actuelle un enjeu majeur pour nos sociétés. Bien qu'il s'agisse d'une ressource renouvelable, son cycle naturel est soumis à de fortes pressions issues tant de l'activité humaine que des modifications climatiques.Le débit des fleuves constitue une des variables clefs du cycle de l'eau. Sa quantification implique des mesures in situ lourdes. De ce fait, son suivi à l'échelle globale reste problématique, et les techniques de télédétection peuvent représenter un atout majeur. Les techniques satellitaires optiques et radar ne peuvent actuellement que mesurer les variables de surface et n'accèdent pas aux paramètres de fond des cours d'eau. Ce travail propose une méthode d'estimation de ces paramètres hydrauliques de fond à partir des seules mesures des variables de surface, en vue de l'estimation du débit. Cette méthode a été validée sur des données simulées exactes et une étude de sensibilité au bruit de mesure a été menée sur des données simulées bruitées et sur des données réelles.Le second volet de ce travail porte sur le potentiel de l'interférométrie radar temporelle à mesurer la variable de vitesse de surface des fleuves. Une campagne de mesure aéroportée a été réalisée sur le Rhône (ONERA-Cemagref) et a montré des résultats concordants avec les mesures de vitesses réalisées in situ par ADCP. En revanche, le modèle de rétrodiffusion M4S, testé dans le cadre de cette thèse, est apparu peu adapté aux scènes fluviales : il s'avère extrêmement sensible aux conditions de vent, ce qui peut s'expliquer par une faiblesse dans la modélisation des caractéristiques des surfaces de fleuves. Dans le cadre du programme SWOT (NASA-CNES), nous avons développé une méthode de mesure in situ de la rugosité des surfaces fluviales. Validée lors de mesures en laboratoire, cette méthode a été mise en œuvre sur le Rhône, et a ainsi permis de caractériser la surface et l'influence de l'intensité du vent sur les paramètres de rugosité
The water issue is currently a major challenge for our societies. Even if water is a renewable resource, its natural cycle supports great stresses, both human activity and climate change.River discharge is a key variable of the water cycle, whose quantification requires heavy field measurements. Therefore the global monitoring of river discharge remains problematic and satellite remote sensing techniques could be a major asset. Earth Observation radar techniques are currently limited to the measurement of surface variables and cannot measure river bottom hydraulic parameters. The current study proposes a method to estimate these parameters from surface variables, in order to estimate the river discharge. This method has been validated on exact simulated data and its robustness to measurement noise has been studied on noisy simulated data and on real data.The second part of this work explores the abilities of radar along-track interferometry to measure river surface velocity. Velocity measurements carried out on the Rhône river during an airborne campaign (ONERA-Cemagref) show a strong consistency with ADCP field measurements. M4S backscattering model, tested in the framework of this study, is poorly adapted to river scenes : it appears to be extremely sensitive to wind intensity which could be explained by a poor modeling of surface roughness. As part of the SWOT mission program (NASA-CNES) a method allowing in situ characterization of river surface roughness has been developed. It was validated under laboratory controlled conditions. It was implemented on the Rhône river to characterize water surface and quantify the influence of wind intensity on the water surface roughness parameters
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Tolomeo, Mathias. "Estimation des forces de contact intergranulaires par mesures de champs cinématiques." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI074/document.

Повний текст джерела
Анотація:
Dans les études expérimentales de la micromécanique des matériaux granulaires, la mesure des forces de contact entre particules est de nos jours toujours un challenge en comparaison avec les outils et techniques bien mieux établis pour la caractérisation cinématique à l'échelle des particules. Cette thèse de doctorat s'attaque à cet ambitieux problème. L'approche proposée implique deux aspects : (i) la caractérisation expérimentale du réseau de contact et de la cinématique à l'échelle des particules, qui peut être réalisée avec des techniques d'imagerie standards ; (ii) une approche numérique capable d'exploiter ces mesures afin de déduire les forces de contact.L'une des contraintes qu'on s'était imposée était de ne s'appuyer que sur la connaissance de la géométrie des particules ainsi que du réseau de contacts pour réaliser la déduction des forces de contact. Trois techniques numériques différentes ont été proposées à cet effet : une méthode basée sur l'élasticité des contacts (CEM), une méthode basée sur la dynamique de contact (CDM) et une méthode basée sur l'équilibre élasto-plastique de l'assemblage granulaire (QSM). Chacune de ces techniques repose sur une approche de la famille des méthodes en éléments discrets ; il s'agit respectivement de le DEM de type Cundall, la dynamique des contacts non régulière, et une approche de calcul statique élastoplastique. La non-unicité de la solution est le principal problème avec les techniques choisies, et elles sont étroitement liées à l’indétermination des forces dans le système.Les trois méthodes sont d'abord présentées et validées en les appliquant à l'estimation des forces dans les systèmes granulaires 2D générés au moyen de simulations DEM explicites. Nous prenons ces simulations comme des expériences "idéales" dans le sens où elles fournissent des données similaires à celles extraites des expériences, mais dépourvues d'erreurs de mesure. Un avantage évident de cette stratégie est d’obtenir des ensembles de forces faisant office de référence faisant foi. Sur cette base, les principaux aspects affectant la détermination des forces peuvent être étudiés. En particulier, le rôle crucial de l'histoire du chargement est mis en évidence et certaines solutions pour les prendre en compte dans la détermination des forces ont été prospectées. Une évaluation de l'influence de l'erreur de mesure a également été réalisée pour prédire l'applicabilité de chaque méthode à des expériences réelles. Une brève analyse de la variabilité des solutions est également fournie.Finalement, des tentatives ont été faites pour déduire des forces issues d’expériences effectuées dans le dispositif 1gamma2epsilon. La cinématique des particules et la connectivité ont été évaluées au moyen de la technique de corrélation d'image numérique. Les avantages et inconvénients des trois méthodes ont été éclaircis. Ils nous conduisent à envisager une utilisation combinée des trois méthodes pour tirer parti de leurs atouts respectifs. À l'avenir, il conviendra de réfléchir à la prise en compte de la stabilité de la solution -- dans l'algorithme de convergence vers une solution -- avec l'espoir de limiter la variabilité des solutions
In the experimental study of the micro-mechanics of granular materials, measuring inter-particle contact forces is still a challenging task, if compared to the well-established tools and techniques for the kinematic characterisation at particle scale. This doctoral thesis addresses this problem. The proposed approach consists of two parts: an experimental characterisation of the granular network geometry and of particle-scale kinematics, which can be carried out with common imaging techniques such as Digital Image Correlation; a numerical approach aiming to exploit these measurements for the estimation of forces.One imposed constraint was to only make use of the rigid motions of particles, together with the knowledge of the contact network, to infer contact forces. Three different numerical techniques have been proposed to this purpose, referred to as Contact Elasticity Method (CEM), Contact Dynamics-based Method (CDM) and Quasi-Static Method (QSM). Each of these techniques is based on the formulation of common approaches in the family of Discrete Element Methods, respectively the classical Cundall-like DEM, the Non Smooth Contact Dynamics and a quasi-static approach accounting for both contact elasticity and plasticity. It is shown that memory of the history of the packing is the main concern with all the chosen techniques.The three methods are first presented and validated by applying them to the estimation of forces in 2D granular systems generated by means of explicit-time DEM simulations. We refer to these simulations as "ideal" experiments since they are meant to provide the same information that can be extracted from experiments, but without any measurement error. An obvious benefit of this strategy is to get reference force sets that are taken as ground truth. Based on this, the main aspects that affect the determination of forces can be investigated. In particular, the crucial role of history is emphasised here, and some solutions to take it into account in the force inference have been investigated.An assessment of the influence of measurement error has also been carried out, to predict the applicability of each method to real experiments. A short analysis of the variability of the solutions is also provided.Finally, some attempts have been made to infer forces from experiments carried out in the 1gamma2epsilon device. Particle kinematics and connectivity have been assessed by means of the Digital Image Correlation technique.The benefits and drawbacks of the three methods have been demonstrated. They conduct us to envision a combined usage of the three methods. In the future, studying the stability of equilibrium might help reducing the variability of the solutions
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Oliveira, Paulo Eduardo de. "Infinie divisibilité, principes d'invariance et estimation de noyaux de transition en théorie des mesures aléatoires." Lille 1, 1991. http://www.theses.fr/1991LIL10016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Caillault, Cyril R. "Le risque de marché : mesures et backtesting : approche par les copules dynamiques." Cachan, Ecole normale supérieure, 2005. http://www.theses.fr/2005DENS0009.

Повний текст джерела
Анотація:
Cette thèse traite de l'utilisation des fonctions copules pour mesurer le risque du marché. Chapitre 1, nous rappelons les résultats principaux relatifs aux copules: définitions,théorème de Sklar,constructions, mesures de concordance, dépendance de queue, algorithmes de simulations. Chapitre 2, nous proposons une méthode non paramétrique d'estimation fondée sur la notion de dépendance de queue. Nous la comparons à la méthode de l'omnibus". Nous montrons que le choix de la meilleure copule peut être différent selon la méthode. Les résultats nous permettent nous permettent de montrer l'existence de co mouvements entre les Tigres d'Asie. Chapitre 3, nous développons des méthodes dynamiques pour calculer la Valeur à Risque et l'Expected Shortfall. Le choix de la mesure de risque est discuté relativement à l'amendement de l'accord de Bâle. Chapitre 4, nous introduisons la notion de copule dynamique pour le calcul de la Valeur à Risque. Trois tests statistiques sont proposés afin de valider cette méthode de calcul
This thesis deals with the copulas in order to measure the market risk. Chapter 1, we recall the Most important results concerning copulas : definition, Sklar's theorem, constructions, tail dependence, concordance measures, and simulation's algorithms. In Chapter 2, we develop a non parametric estimation method based on tail dependence concept that we compare with the “Omnibus" estimator. We show that the choice of the best copula could be different according to the method. Then, our results show existence of co movements between Asian markets. Chapter 3, we develop dynamical methods to compute the Value at Risk and Expected Shortfall measures. The choice of the measure is discussed according to the Basle amendment. Chapter 4, we introduce the dynamical copula to calculate Value at Risk. Three tests are proposed in order to validate this computations method
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Fabre, Jean-Pierre. "Suites mélangeantes de mesures aléatoires : estimation fonctionnelle et inégalités de grande déviation." Montpellier 2, 1998. http://www.theses.fr/1998MON20098.

Повний текст джерела
Анотація:
Ce travail examine diverses proprietes des suites melangeantes de mesures aleatoires et leur application a l'estimation fonctionnelle. Apres un premier chapitre introductif, le deuxieme chapitre est consacre aux inegalites de grande deviation sous hypothese de melange, dont il rappelle certains theoremes fondamentaux et enonce quelques resultats. Les chapitres 3 et 4 traitent de la convergence d'une suite strictement stationnaire et fortement melangeante d'estimateurs a noyau de la derivee de radon-nikodym de la mesure moyenne d'un processus ponctuel par rapport a un autre, ainsi que de la vitesse en moyenne quadratique (chapitre 4) de cette convergence. Le chapitre 3 s'acheve sur l'expose detaille d'un exemple. Le chapitre 5 etudie la vitesse de convergence de la moyenne des sommes partielles d'une suite melangeante de mesures aleatoires a valeurs dans un espace de mesures muni d'une metrique separable. Il met en relation cette vitesse avec celle de la suite des realisations de cette suite de mesures sur des boreliens bornes.
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Castelier, Etienne. "Estimation d'un champ de permeabilite a partir de mesures de charge hydraulique." Paris, ENMP, 1995. http://www.theses.fr/1995ENMP0579.

Повний текст джерела
Анотація:
En hydrogeologie, un milieu poreux est principalement caracterise par son champ de permeabilite, dont les valeurs sont reliees aux valeurs de pression du fluide traversant le milieu. L'estimation du champ de permeabilite a partir de quelques mesures de pression est un probleme inverse. Les problemes inverses sont mal poses au sens mathematique du terme, ce qui en rend la resolution numeriquement instable. Depuis une quarantaine d'annees, ils font l'objet de nombreux travaux, et les methodes de resolution sont en constante evolution. En hydrogeologie, ces methodes se classent en trois approches: les methodes directes, les methodes indirectes et les methodes stochastiques. La methode de resolution adoptee ici est une methode directe: elle repose sur la resolution directe de l'equation qui relie le champ de permeabilite au champ de pression. Elle peut se decomposer en plusieurs etapes: interpolation des mesures de pression, construction des tubes de courant de l'ecoulement, conservation du flux dans les tubes de courant, et calcul des valeurs de permeabilites par une methode de moindres carres. La premiere etape, l'interpolation des mesures de pression, est determinante. Elle necessite des techniques de regularisation pour stabiliser les calculs numeriques. Elle est realisee par un krigeage. Elle peut s'interpreter, dans le domaine physique, en termes de permeabilites equivalentes. Pour valider en pratique l'algorithme propose, des donnees synthetiques de pression sont calculees par un logiciel d'ecoulement sur des champs de permeabilite donnes a priori. Les valeurs de permeabilite sont retrouvees par l'algorithme etudie, puis comparees aux valeurs a priori. Ce test permet d'evaluer l'influence du nombre et de la precision des mesures sur les resultats d'inversion. La methode est enfin appliquee a des donnees mesurees dans un barrage en terre
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Girres, Jean-François. "Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1080/document.

Повний текст джерела
Анотація:
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures)
Many GIS applications are based on length and area measurements computed from the geometry of the objects of a geographic database (such as route planning or maps of population density, for example). However, no information concerning the imprecision of these measurements is now communicated to the final user. Indeed, most of the indicators on geometric quality focuses on positioning errors, but not on measurement errors, which are very frequent. In this context, this thesis seeks to develop methods for estimating the imprecision of geometric measurements of length and area, in order to inform a user for decision support. To achieve this objective, we propose a model to estimate the impacts of representation rules (cartographic projection, terrain, polygonal approximation of curves) and production processes (digitizing error, cartographic generalisation) on geometric measurements of length and area, according to the characteristics and the spatial context of the evaluated objects. Methods for acquiring knowledge about the evaluated data are also proposed to facilitate the parameterization of the model by the user. The combination of impacts to produce a global estimation of the imprecision of measurement is a complex problem, and we propose approaches to approximate the cumulated error bounds. The proposed model is implemented in the EstIM prototype (Estimation of the Imprecision of Measurements)
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Humbert, Louis. "Recalage des modèles éléments finis à partir de mesures vibratoires." Ecully, Ecole centrale de Lyon, 1999. http://bibli.ec-lyon.fr/exl-doc/TH_T1821_lhumbert.pdf.

Повний текст джерела
Анотація:
Le recalage des modèles éléments finis était jusqu'à présent fortement limité par la pauvreté de l'information expérimentale disponible. Le développement de systèmes de mesure performants en holographie et en vélocimétrie laser autorise désormais la mesure du comportement vibratoire en plusieurs centaines, voire milliers de points. Par ailleurs, l'apparition de méthodes expérimentales novatrices en extensiométrie et en thermoélasticimétrie donne également accès au champ de contrainte en un grand nombre de points. Dans le cadre d'une étude pour la SNECMA, nous nous sommes intéressés à l'utilisation des mesures modales e holographie et en thermoélasticimétrie dans les procédures de recalage des aubes de réacteurs. Dans un premier temps, nous nous sommes focalisés sur la projection de ces mesures - respectivement le déplacement unidirectionnel et la trace du tenseur des contraintes - sur les modèles éléments finis afin de quantifier l'écart entre les réponses mesurées et calculées. La correction des erreurs de modèlisation a ensuite été réalisée par une méthode itérative de localisation et de correction des paramètres erronés, qui présente l'avantage de préserver le sens physique des modèles. Outre l'utilisation de mesures des contraintes, l'originalité de notre travail réside dans la gestion des incertitudes de mesure. Les données expérimentales sont introduites dans les procédures d'expansion et de localisation des erreurs de modèlisation par l'intermédiaire d'une contrainte inégalitaire paramétrée par le niveau d'incertitudes estimé a priori (problème LSQIC). Nous avons exploité les particularités de ce problème de minimisation sous contrainte pour proposer une nouvelle technique de résolution par linéarisation itérative de l'écart calcul-essai. En outre, pour améliorer la précision de la localisation des erreurs de modèlisation nous proposons une corrélation des indicateurs d'erreurs. Les paramètres erronés sont finalement corrigés par l'optimisation d'une fonction coût construite à partir des différentes données expérimentales
For the last twenty years, finite element model updating has drawn researcher's attention a lot, especially in the aeronautical and automotive industries. Many techniques have been proposed, but they were strongly limited by the available experimental data. The development of high performance acquisition systems, allowing an accurate and wide investigation of structure behaviour, revives interest in this subject. This study deals with holographic and thermoelastic measurement techniques. - that respectively provide an unidirectionnal mesure of the mode shape and the experimental dilatation field on several hundreds and even thousands points - to update turbine blades for SNECMA. One of the original aspect of this work is the use of thermoelastic data which allows us to improve the model predictivity against stress data. At first, we have developed techniques to project the different kinds of measure on the finite element model. After this projection step, measured data are available as degree of freedom on the model, and the difference with the predicted behaviour can be easily evaluated. The selected updating scheme is based on an iterative selection and correction of erroneous parameters, which has the advantage of preserving the physical meaning of the model. The selection of the parameters is done thanks a modelling error location in which measurement errors are taken into account by an inequality constrain on experimental data. Wehave especially developed a new resolution technique based on an iteractive linearization of the distance between measured and computed data, which simplifies the resolution of this constrained minimization problem. Furthermore to improve the modelling error location we have introduced a correlation between modal error location indicators. Erroneous parameters are finally corrected by the optmization of a cost function involving all experimental data
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Bécu, Laurianne Guilaine. "Modélisation des propriétés optiques et radiatives des cirrus dans l'infrarouge : validation à l'aide des mesures effectuées lors de l'expéience FRENCH/DIRAC 2001." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-213-214.pdf.

Повний текст джерела
Анотація:
Les cirrus couvrent en permanence 20 % de la surface terrestre et jouent un rôle important sur le bilan énergétique du système Terre - Atmosphère. Cependant, la modélisation de leurs interactions avec les rayonnements solaire et tellurique est encore incertaine. Ceci tient du fait que les particules cristallines qui les composent sont de forme et de taille extrêmement variables, ce qui rend impossible le calcul exact des interactions de chacune d'elles avec le rayonnement électromagnétique. Il faut alors développer un modèle microphysique "moyen" capable de restituer les propriétés radiatives de ces nuages. Un modèle de cristaux de glace conçu au laboratoire a été validé dans le domaine visible du spectre, avec une précision supérieure aux modèles existants dans ce domaine de longueur d'onde. Le travail effectué ici consiste maintenant à étendre la modélisation au domaine de l'infra- rouge moyen et thermique. Nous avons dans un premier temps intégré les propriétés optiques en infrarouge thermique de deux modèles microphysiques simples dans un code de transfert radiatif adapté à ce domaine de longueur d'onde. Nous avons ensuite confronté les résultats aux mesures effectuées pendant la campagne aéroportée FRENCH / DIRAC 2001, dédiée à l'étude des cirrus en infrarouge. Cette campagne a permis d'utiliser et de valider deux prototypes d'instruments opérant dans l'infrarouge moyen et thermique. La restitution des mesures en infrarouge thermique à partir des modèles s'est avérée correcte et une méthode de "split-window" a permis d'obtenir une information sur la microphysique du nuage. Parallèlement, nous avons utilisé notre modèle pour la simulation dans le domaine du moyen infrarouge avec un code de transfert adapté à ces longueurs d'onde. Les résultats ont montré un bon accord avec les mesures et une méthode à deux longueurs d'onde a permis de restituer une microphysique équivalente à celle déjà pressentie dans l'étude précédente. Des comparaisons avec des mesures in situ ont permis de valider la microphysique restituée par les modèles.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Bécu, Laurianne Guilaine Brogniez Gérard Parol Frédéric. "Modélisation des propriétés optiques et radiatives des cirrus dans l'infrarouge validation à l'aide des mesures effectuées lors de l'expéience FRENCH/DIRAC 2001 /." [S.l.] : [s.n.], 2003. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2003-213-214.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Guerre, Emmanuel. "Méthode non paramétriques d'analyse des séries temporelles multivariées : estimation de mesures de dépendances." Paris 6, 1993. http://www.theses.fr/1993PA066110.

Повний текст джерела
Анотація:
Dans un premier chapitre, on presente differentes hypotheses permettant, si elles sont verifiees, d'obtenir de meilleures vitesses de convergence pour des estimateurs utilisant ces proprietes. Les deux chapitres suivants s'interessent a l'estimation de mesures caracterisant ces hypotheses de dependance: on etudie la convergence presque sure et la loi limite d'estimateurs non parametriques de contrastes de kullback. Le dernier chapitre s'interesse a un probleme different, de choix de modeles. On propose des tests pour determiner si une marche aleatoire est de type geometrique ou arithmetique
Стилі APA, Harvard, Vancouver, ISO та ін.
20

CABOT, FRANCOIS. "Estimation de l'albedo de surface a l'echelle globale, a l'aide de mesures satellitaires." Paris 11, 1995. http://www.theses.fr/1995PA112497.

Повний текст джерела
Анотація:
L'albedo de surface de la terre joue un role majeur dans les echanges energetiques entre le sol et l'atmosphere. C'est par consequent un parametre cle des modeles de circulation generale de l'atmosphere. Pourtant, son estimation a l'echelle globale reste tres imparfaite. Avec les nouveaux enjeux apparus dernierement pour la modelisation du climat et de son evolution, la precision a atteindre s'est largement eloignee des precisions obtenues avec les methodes existantes. Pour tenter de repondre a ces besoins, l'auteur developpe une methode d'estimation de l'albedo de surface, liee aux caracteristiques generales des donnees satellitaires et independante de l'echelle d'application. Basee sur le couplage des mesures de teledetection avec des modeles de reflectance bi directionnelle de surface, la methode elle meme s'inscrit dans un cadre plus general de traitement des mesures spatiales, visant a eliminer toutes les perturbations presentes, en particulier l'anisotropie de la reflectance a la surface. Cette methode est testee sur plusieurs jeux de donnees representatifs d'echelles et de milieux divers. Son applicabilite et sa precision sont evaluees sur ces donnees. Elle est ensuite appliquee sur un jeu de donnees global pour produire des cartes d'albedo mensuelles (1987 et 1988) a une resolution de 1 degre x 1 degre. Ces cartes sont comparees aux resultats publies par differents auteurs. Une discussion est egalement menee sur les implications que ce travail fait ressortir pour la constitution d'archives de mesures satellitaires
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Bentoumi, Rachid. "Étude et estimation de certaines mesures de risque multivariées avec applications en finance." Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/2262/1/030269814.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Musso, Christian. "Méthodes rapides d'estimation en trajectographie par mesures d'azimuts." Phd thesis, Grenoble 1, 1993. http://tel.archives-ouvertes.fr/tel-00343877.

Повний текст джерела
Анотація:
L'objet de la trajectographie par mesures d'azimuts (TPA) est d'estimer les paramètres cinématiques d'une source suivant un modèle de trajectoire. Les méthodes classiques de TPA se divisent en deux classes. Les méthodes globales, basées sur l'estimateur du maximum de vraisemblance, traitent les mesures par bloc. Elles sont performantes mais lourdes en temps de calcul. Les méthodes récursives employant un filtre de Kalman étendu sont rapides mais souffrent dans ce contexte de problèmes de divergence. Nous proposons des estimateurs globaux et rapides qui sont une combinaison linéaire des mesures. Un choix original du vecteur d'état permet de les mettre en œuvre. En faisant l'hypothèse d'une faible variation du signal mesuré, on montre, grâce à la quadrature de Gauss, que ces estimateurs sont quasi-efficaces et non biaisés. D'une manière générale, ces estimateurs sont quasi-exhaustifs et permettent dans certains problèmes d'estimation non-linéaire de réduire le nombre de mesures sans perte significative d'information. Nous présentons aussi des algorithmes rapides d'optimisation de trajectoires d'un observateur en trajectographie passive. Deux types de manœuvres sont envisagés, avec et sans changement de cap. Elles apportent une amélioration des estimées après la TPA
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Arnault, Anthony. "Reconstruction de champs aérodynamiques à partir de mesures ponctuelles." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0023/document.

Повний текст джерела
Анотація:
Le suivi en temps réel des écoulements turbulents est une tâche difficile ayant des applications dans de nombreux domaines. Un exemple est la mesure des tourbillons de sillage au niveau des pistes d’aéroports afin d’optimiser la distance entre les avions en phase d’approche ou de décollage. Un autre exemple se rapporte au contrôle actif d’écoulements. De tels contrôles peuvent servir à réduire le bruit des avions... Cette thèse vise à développer des outils afin d’estimer en temps réel des champs de vitesse d’écoulements turbulents à partir d’un faible nombre de mesures ponctuelles. Après une étude bibliographique centrée sur une méthode de reconstruction populaire, l’estimation stochastique (SE), ses performances sont évaluées pour la prédiction de champs de vitesse issus d’écoulements de complexité croissante. La précision des estimations obtenues étant très faibles dans certains cas, une analyse précise de la méthode est effectuée. Celle-ci a montré l’effet filtrant de la SE sur le contenu spatial et temporel des champs de vitesse. De plus, le fort impact de la position des capteurs a été mis en avant. C’est pourquoi un algorithme d’optimisation de la position des capteurs est ensuite présenté. Bien que l’optimisation de la position des capteurs mène à une amélioration de la précision des prédictions obtenues par SE, elle reste néanmoins très faible pour certains cas tests. L’utilisation d’une technique issue du domaine de l’assimilation de données, le filtre de Kalman qui combine un modèle dynamique de l’écoulement avec les mesures, a donc été étudiée. Pour certains écoulements, le filtre de Kalman permet d’obtenir des prédictions plus précises que la SE
Real time monitoring of turbulent flows is a challenging task that concerns a large range of applications. Evaluating wake vortices around the approach runway of an airport, in order to optimize the distance between lined-up aircraft, is an example. Another one touches to the broad subject of active flow control. In aerodynamic, control of detached flows is an essential issue. Such a control can serve to reduce noise produced by airplanes, or improve their aerodynamic performances. This work aims at developing tools to produce real time prediction of turbulent velocity fields from a small number of punctual sensors. After a literature review focused on a popular reconstruction method in fluid mechanics, the Stochastic Estimation (SE), the first step was to evaluate its overall prediction performances on several turbulent flows of gradual complexity. The accuracy of the SE being very limited in some cases, a deeper characterization of the method was performed. The filtering effect of the SE in terms of spatial and temporal content was particularly highlighted. This characterization pointed out the strong influence of the sensor locations on the estimation quality. Therefore, a sensor location optimization algorithm was proposed and extended to the choice of time delays when using Multi-Time-Delay SE. While using optimized locations for the sensors hold some accuracy improvements, they were still insufficient for some test cases. The opportunity to use a data assimilation method, the Kalman filter that combines a dynamic model of the flow with sensor information, was investigated. For some cases, the results were promising and the Kalman filter outperforms all SE methods
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Lavalette, Sophie. "Mesures et caracteristiques du logiciel en milieu industriel : vers un modele de cout." Paris 7, 1987. http://www.theses.fr/1987PA077012.

Повний текст джерела
Анотація:
Presentation d'un rappel des modeles de boehm et du modele cocomo intermediaire. L'application de ce modele a revele des estimations de l'effort trop eloignees des efforts reels. Elaboration d'un modele prennant en compte la dimension du projet (petit ou grand), l'importance du projet etudie par rapport au projet global (projets complets ou partiels), le langage et les facteurs relatifs au produit logiciel, au calculateur, a l'equipe et au projet
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Yver, Camille. "Estimation des sources et puits du dihydrogène troposphérique : développements instrumentaux, mesures atmosphériques et assimilation variationnelle." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00633825.

Повний текст джерела
Анотація:
En m'appuyant sur des mesures atmosphériques et à l'aide de la modélisation, je propose une nouvelle estimation du bilan du dihydrogène troposphérique (H2). Pendant mon stage de master, j'ai installé un chromatographe en phase gazeuse pour analyser les concentrations de H2 et CO sur les échantillons du réseau RAMCES. L'analyse des mesures in-situ à Gif-sur-Yvette permet d'estimer le dépôt de H2 dans le sol de cette région (0.027 cm s−1) et le ratio H2/CO (0.5) provenant des émissions dues au transport automobile. La haute tour de Trainou située près de la forêt d'Orléans (100 km au sud-ouest de Paris) a été instrumentée en octobre 2008 pour H2 et CO à trois hauteurs de prélèvement (50, 100 et 180 m), en mai 2009 pour 222Rn à 180 m et en avril 2010 pour 222Rn à 50 m. Avec trois hauteurs de prélèvement, les masses d'air locales à régionales sont échantillonnées. L'infl uence du traffi c n'est pas visible mais pendant l'hiver on observe des évènements pendant lesquels les concentrations de H2 et CO sont fortement corrélées. La vitesse moyenne de dépôt estimée avec la même méthode qu'à Gif-sur-Yvette atteint 0.026 cm s−1. Dans la partie modélisation, les mesures de la concentration de H2 au sein des réseaux RAMCES et EUROHYDROS ont été utilisées dans le système LMDz-SACS-PYVAR. Ce système permet d'optimiser l'estimation quantitative du bilan de H2 : le modèle de transport atmosphérique LMDz est couplé avec le système de chimie simpli fiée SACS et intégré dans le système d'inversion PYVAR. Plusieurs scénarios, impliquant la séparation progressive des sources et puits de H2 ont été testés pour optimiser les flux de H2 à l'échelle globale et européenne. La meilleure estimation du dépôt global de H2 atteint 59 ± 5 Tg an−1.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Rebafka, Tabea. "Estimation dans le modèle d'empilement avec application aux mesures de la fluorescence résolue en temps." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005715.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Berrabah, Nassif. "Problèmes inverses pour le diagnostic de câbles électriques à partir de mesures de réflectométrie." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S140/document.

Повний текст джерела
Анотація:
Les câbles électriques sont présents dans de nombreux produits et systèmes où ils sont utilisés pour transmettre des données ou transporter de l'énergie. Ces liaisons sont la plupart du temps installées pour des durées d'exploitation longues au cours desquelles elles doivent subir l'usure du temps, ainsi que celle résultant d'un environnement parfois agressif. Alors que les câbles électriques assurent des fonctions essentielles et dans certains cas critiques, ils sont aussi sujets à des défaillances qui découlent des contraintes qu'ils endurent. Ceci explique la nécessité de surveiller leur état, afin de détecter au plus tôt les défauts naissants et d'intervenir avant qu'ils ne dégénèrent en dommages dont les conséquences peuvent être préjudiciable et économiquement lourdes. L'entreprise EDF est particulièrement concernée par cette problématique dans la mesure ou elle exploite des longueurs considérables de câbles pour le transport et la distribution d'électricité sur tout le territoire bien sûr, mais aussi au sein des centrales qui produisent l'électricité, pour alimenter les différents organes, et acheminer commandes et mesures. L'entreprise, attentive à ce que ces câbles soient en bon état de fonctionnement mène plusieurs travaux, d'une part pour étudier leur vieillissement et modes de dégradation, et d'autre part pour développer des méthodes et outils pour la surveillance et le diagnostic de ces composants essentiels. Le projet EDF CAIMAN (Cable AgIng MANagement) commandé par le SEPTEN (Service Etudes et Projets Thermiques Et Nucléaires) traite de ces questions, et les travaux présentés dans cette thèse ont été conduits dans ce cadre et sont le fruit d'une collaboration avec Inria (Institut National de Recherche en Informatique et Automatique). Partant du constat que les méthodes de diagnostic de câbles existantes à l'heure actuelle ne donnent pas pleine satisfaction, nous nous sommes donné pour objectif de développer des outils nouveaux. En effet, les techniques actuelles reposent sur différents moyens dont des tests destructifs, des prélèvements pour analyse en laboratoire, et des mesures sur site mais qui ne permettent pas de diagnostiquer certains défauts. Parmi les techniques non destructives, la réflectométrie, dont le principe est d'injecter un signal électrique à une extrémité du câble et d'analyser les échos, souffre aussi de certaines de ces limitations. En particulier, les défauts non-francs restent encore difficiles à détecter. Toutefois les travaux qui se multiplient autour de cette technique tentent d'en améliorer les performances, et certains obtiennent des résultats prometteurs. Les chercheurs de l'Inria qui travaillent sur le sujet ont développé des algorithmes pour exploiter des mesures de réflectométrie. En résolvant un problème inverse, les paramètres d'un modèle de câble sont estimés et servent alors d'indicateurs de l'état de dégradation du câble testé. L'objectif de cette thèse est d'étendre ces méthodes pour répondre aux besoins spécifiques d'EDF. Un des principaux défis auquel nous avons apporté une solution est la prise en compte des pertes ohmiques dans la résolution du problème inverse. Plus spécifiquement, notre contribution principale est une méthode d'estimation du profil de résistance linéique d'un câble. Cette estimation permet de révéler les défauts résistifs qui produisent souvent des réflexions faibles dans les réflectogrammes habituels. Une seconde contribution vise à améliorer la qualité des données utilisées par cette méthode d'estimation. Ainsi, nous proposons un pré-traitement des mesures dont le but est de gommer l'effet de la désadaptation des instruments aux câbles ou celui des connecteurs. Ces travaux apportent de nouveaux outils pour l'exploitation des mesures de réflectométrie et des solutions pour le diagnostic de certains défauts encore difficiles à détecter aujourd'hui
Electric cables are ubiquitous in many devices and systems where they are used for data or power transmission. These connection links are most often installed for long periods of operation during which they are subject to aging and sometimes exposed to harsh environments. While electric cables fulfill important and sometimes even critical functions, they might fail due to the hard constraints they have to endure. This motivates the need for monitoring tools, in order to detect early faults and to intervene as soon as possible, before they mutate into heavier damage whose consequences can be detrimental and expensive. EDF company is very affected by this problematic insofar as it operates significant lengths of cables for energy distribution, but also in power plant for power supply of the diverse apparatus, to route data and to transmit measurement. The company has been leading several studies regarding cable aging, cable faults, and wire diagnosis methods. The CAIMAN project (Cable AgIng MANagement), sponsored by the Engineering Department of Nuclear and Thermal Projects (SEPTEN), deals with these questions. The work presented in this dissertation were led in this context and results from a collaboration with Inria (French National Institute for Research in Applied Mathematics and Computer Sciences). Starting from the observation that existing cable diagnosis methods do not offer full satisfaction, we targeted the goal of developping new tools to improve the state of the art. Existing techniques rely on a range of tests, some of which are destructive or involve in-lab investigations, but these still cannot detect some kind of faults. Among major techniques, reflectometry has the most promising results. This technique consists in the same principle as a radar. One sends a wave down a cable from one end. Then the reflected signal is analysed searching for signs of faults. Yet, this method also suffers some limitations and soft faults remain hard to detect. Researchers and industries multiply the investigations in the domain of reflectometry-based techniques, and some get interesting results. Scientists from Inria developped algorithms for cable parameter estimation from reflectometry measurements, following an inverse-problem approach. The goal of our work was to extend these methods to meet the specific needs of EDF. One of the main challenges we coped with was to take into account electric losses in the resolution of the inverse problem. Our main contribution is a method to estimate the per unit length resistance profile of a cable. This estimation reveals resistive faults that most often only produce weak reflections in reflectometry measurements. Other contributions concerns the improvement of the method based on pre-processing of the data whose role is to erase the effect of impedance mismatches. This work breaks new grounds in the domain of reflectometry-based wire diagnosis techniques
Стилі APA, Harvard, Vancouver, ISO та ін.
28

St, Fleur Sadrac. "Estimation des mouvements sismiques à Port-au-Prince (Haïti) : mesures des amplifications locales et simulations numériques." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4099/document.

Повний текст джерела
Анотація:
Afin de fournir une meilleure prévision du mouvement du sol attendu dans la région de Port-au-Prince, ce travail de thèse propose de détecter et de quantifier les effets de site, d’analyser les caractéristiques des ondes sismiques piégées dans la couche meuble du bassin, et de simuler des accélérogrammes synthétiques réalistes que produirait un séisme futur. A cette fin, nous proposons d’analyser les signaux de 78 séismes qui ont eu lieu entre mars 2010 et février 2013 en appliquant les méthodes de rapports spectraux H/V séisme et SSR. Cette étude met en évidence une forte variabilité spatiale dans les amplifications mesurées, qui est tout à fait cohérente avec la géologie de surface très hétérogène de la zone. On note aussi des amplifications à basse fréquence sur les sédiments marins proches de la côte. Sur les contreforts du massif de la Selle, les réverbérations des ondes sismiques amplifient fortement le mouvement sismique au sommet de la colline. De plus, sur certaines stations nous mettons en évidence, un allongement du signal dû à la présence d’ondes de surface. Pour la génération des accélérogrammes synthétiques, nous utilisons d’abord la méthode des fonctions de Green empiriques. Les résultats obtenus montrent que les mouvements du sol les plus forts sont attendues dans les sédiments quaternaires près de la côte et sur les crêtes des collines du Sud de Port-au-Prince. Ensuite, une méthode hybride de simulation combinant fonctions de transfert complexes et simulations EGF au rocher a été mise en place, et validée à partir de test sur des sites instrumentés de la région métropolitaine de Port-au-Prince
In order to help estimating the seismic ground motion expected in the Port-au-Prince area (Haiti), we characterize local site effects, pointing out the seismic waves trapped in the loose layer of Cul-de-Sac basin, and provide realistic synthetic accelerograms for an hypothetical future earthquake.To this end, we propose to analyze signals from 78 earthquakes that occurred between March 2010and February 2013, by applying two methods of spectral ratios : The H/V earthquake method and the classical spectral ratio (SSR). A strong spatial variability was observed in the measured amplifications, which is quite consistent with the heterogeneous surface geology of the area. We notice in particular strong amplification on marine sediments close to the coast. In the foothills of the Massif de la Selle the reflection of the seismic waves lead to the concentration of the wave fields that strongly amplify seismic ground motion at the top of the hills. In addition, an increase of the signal duration due to the presence of surface waves was also highlighted on some stations of the plain. For the generation of synthetic accelerograms, we first use Empirical Green functions (EGF) method. The results show that the strongest acceleration is expected in Quaternary sediments near the coast and on the ridge of south hills of Port-au-Prince. Then, a hybrid simulation method combining complex transfer functions (amplitude and phase) and the EGF simulation on bedrock was set up and validated from testing on instrumented sites in the metropolitan area of Port-au-Prince
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Sandu, Leontina. "Inversion de modèles paramétriques : application aux mesures indirectes de températures." Paris 11, 1996. http://www.theses.fr/1996PA112343.

Повний текст джерела
Анотація:
Ce travail porte sur la résolution d'un problème inverse de conduction de la chaleur. Il s'agit de l'estimation des températures sur la paroi interne d'un corps cylindrique à partir d'un nombre restreint d'observations de température en paroi externe. Nous construisons dans une première partie différents types de modèles directs susceptibles de nous aider à résoudre ce problème de mesure : modèle direct analytique, numérique et paramétrique. Les résultats prometteurs de l'estimation du profil de températures à l'intérieur du corps en utilisant des modèles paramétriques de comportement motivent l'étude plus approfondie de ces dernières. Par ailleurs, des travaux antérieurs qui portent sur d'autres applications avaient démontré que l'utilisation des fonctions paramétriques de comportement comme modèle direct peut conduire à des résultats très performants. La deuxième partie du travail est dédiée à la construction et à la discrimination entre plusieurs fonctions paramétriques candidates. Nous avançons quelques notions théoriques en vue de la construction des fonctions modèles. Nous démontrons l'intérêt de choisir une fonction modèle suivant l'objectif d'inversion dicté par l'application : estimation des paramètres, de la fonction modèle aux "points" inaccessihles ou d'une autre fonction des paramètres. Les critères proposés choisissent le "meilleur" modèle pour un objectif d'inversion fixé utilisant la notion d'information apportée par une expérience. Ces modèles de comportement pouraient être integrés dans les instruments de mesure utilisés dans l'évaluation non-destructive des températures ou d'autres grandeurs physiques
The general context of this work is the non-linear reconstruction of a mesurand or so-called the non-linear inverse problem with a very small data set. We are concerned with an inverse problem of heat conduction that deals with the determination of the internaI temperature from measured temperatures outside a heat conducting body. Ln order to solve this measurement problem, we propose different modelling techniques: analytical, numerical and the tehnique using external parametric models. Good existing results obtained from parametric estimation of temperature profiles lead us to study more deeply the external parametric models. Previous work has also demonstrated the interest of parametric functions as forward model for other applications. Those functions are simple to implement and result in good pelformance of the inversion process. We study the problem of construction of some candidates for parametric models. The discrimination between candidates is studied. Some theoretical notions for construction of parametric functions are advanced. We demonstrate that the choice of the parametric function depends on the significant quantity to estimate. This quantity could be the parameter vector, the model function in some points "inaccessible" to observation or an other parametric function. The proposed criteria choose the "best" function with respect to the inversion goal using the information gained in the experiment. The best model will be specific to the measurement goal and must be "sufficiently" close to real observations. Instruments for temperature measurement or other physical quantities measurement could include this type of model
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Baili, Hana. "Caractérisation statistique de mesures dynamiques continues à partir d'un modèle de connaissance." Paris 11, 2002. http://www.theses.fr/2002PA112077.

Повний текст джерела
Анотація:
Mon sujet de recherche est un problème de mesure indirecte: une grandeur d'intérêt à observer mais ne pouvant l'être directement par certains capteurs. On convient d'appeler cette grandeur mesure. Le terme dynamique sous-entend l'évolution de la mesure dans le temps, d'une part, et d'autre part signifie que le modèle comporte au moins une relation dynamique. Le modèle est dit de connaissance dans le sens où tout ce que l'on manipule a une signification physique. Les quantités du modèle, qui une fois fixées, déterminent de façon unique les autres, sont dites: les données du modèle. Malheureusement, souvent certaines données sont inconnues car aléatoires, ou déterministes mais le modèle est incomplet. Dans ce cas, l'information que l'on peut former à propos d'une inconnue est soit ses deux premiers moments si elle est aléatoire, soit un encadrement de sa valeur si elle est déterministe. Notre but est alors de propager cette information à la mesure. L'approche que nous avons adoptée pour ce faire est probabiliste; c'est la "caractérisation statistique" du titre. En effet, un premier prérequis consiste à transformer le modèle de départ en une équation différentielle stochastique (e. D. S. ) telle que: estimer la densité de probabilité du processus qu'elle détermine accomplisse l'ultime mesure. Le chapitre 2 donne la théorie, base de la modélisation; il s'agit du calcul stochastique selon McShane. Le chapitre 3 décrit notre approche de modélisation, en général, puis à la lumière d'une collection d'applications. Nous avons distribué nos méthodes de caractérisaion statistique sur trois chapitres différents (4, 5 et 6) pour mettre l'accent sur les caractères qui les unient et ceux qui les distinguent les unes des autres
In this thesis, we deal with statistical characterization of dynamical continuous measurements within a knowledge-based model. A measurement is any quantity to be observed within a system; we talk about indirect measurement when this quantity cannot be directly given by some sensors. The term dynamic refers to the evolution of the measurement in time. The model is said knowledge-based because it comes from the mathematical traduction of the system physics, as opposed to black-box models. The quantities that when fixed, cause the others to be determined uniquely, are called model's data, such as initial conditions, observations, controls, etc. Often, some of them are unknown because they are random or deterministic but the model comes from an incomplete description of the system. A prior information about some uncertainty can be acquired; it will consist of its average and dispersion, if it is random, or of some set that specifies its values, if it is deterministic. Given the model described below, what's about the measurement? We propose here a probabilistic approach to characterize the measurement; in fact the modelling step, involved at the beginning, consists in transforming the model into a stochastic differential equation (sde) determining a process such that estimating the probability density function (pdf) of this process achieves the ultimate measurement; this is the "statistical characterization". Chapter 3 describes the modelization task in general, using McShane's stochastic calculus as theoretical basis. Chapters 4, 5, and 6 present our methods for estimating the pdf of the (extended) measurement
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Messager, Cyril. "Estimation des flux de gaz à effet de serre à l'échelle régionale à partir de mesures atmosphériques." Phd thesis, Paris 7, 2007. http://www.theses.fr/2007PA077114.

Повний текст джерела
Анотація:
J'ai développé un instrument permettant de mesurer simultanément le CO2 (ou le CO), le CH4, le N2O et le SF6. Il s'agit d'un chromatographe gazeux commercial (Agilent 6890N) que j'ai modifié pour atteindre une très haute précision. Les reproductibilités calculées sur 24 heures avec un gaz target sont: 0. 06 ppm pour le CO2, 1. 4 ppb pour le CO, 0. 7 ppb pou le CH4, 0. 2 ppb pour le N2O et 0. 05 ppt pour le SF6. Le fonctionnement de l'instrument est automatisé et permet d'analyser un échantillon toutes les 5 minutes. En juillet 2006, j'ai instrumenté une tour de télécommunication de 200 mètres dans la forêt d'Orléans sur la commune de Trainou, pour le suivi en continu des gaz à effet de serre (CO2, CH4, N2O, SF6), de traceurs atmosphériques (CO, Radon-222) et des paramètres météorologiques. Des lignes de prélèvement ont été installées à partir de trois niveaux (50, 100 et 180 m), et permettent d'échantillonner les masses d'air selon la verticale. Les mesures en continu ont démarré début 2007. J'ai utilisé les mesures atmosphériques en continu à Mace Head (Irlande) et G if-sur-Yvette (91 ) pour estimer les flux d'émission des principaux gaz à effet de serre à l'échelle régionale. Pour faire le lien entre les mesures atmosphériques et les flux d< surface, il est indispensable de quantifier la dilution par le transport atmosphérique. J'ai utilisé pour cela le Radon-222 comme traceur atmosphérique (méthode Radon), et les estimations de hauteurs de couche limite par le modèle ECMWF (méthode du bilan de la couche limite). Dans les deux cas je me suis attaché à comparer les résultats obtenus avec les inventaires d'émission disponibles
I build up a new System to measure continuously CO2 (or CO), CH4, N2O and SF6 mixing ratios. It is based on a commercial gas chromatograph (Agilent 6890N) which have been modified to reach better precisions. Reproducibility computed with a target gas on a 24 hours time step gives: 0. 06 ppm for CO2, 1. 4 ppb for CO, 0. 7 ppb for ChU, 0. 2 ppb for N2O and 0. 05 ppt for SF6. The instrument's run is fully automated, an air sample analysis takes about 5 minutes. In July 2006, I install instrumentation on a telecommunication tall tower (200m) situated near Orleans forest in Trainou, to monitor continuously greenhouse gases (CO2, CH4, N2O, SF6), atmospheric tracers (CO, Radon-222) and meteorological parameters. Intake lines were installed at 3 levels (50, 100 and 180 m) and allow us to sample air masses along the vertical. Continuous measurement started in January 2007. I used Mace Head (Ireland) and Gif-sur-Yvette continuous measurements to estimate major greenhouse gases emission fluxes at regional scale. To make the link between atmospheric measurements and surface fluxes, we need to quantify dilution due to atmospheric transport. I used Radon-222 as tracer (radon tracer method) and planetary boundary layer heights estimates from ECMWF model (boundary layer budget method) to parameterise atmospheric transport. In both cases I compared results to available emission inventories
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Imran, Jamal. "Estimation des variations de température par IRM : optimisation des conditions expérimentales et de la précision des mesures." Compiègne, 2000. http://www.theses.fr/2000COMP1253.

Повний текст джерела
Анотація:
La mesure des variations de température dans le corps humain est par essence même le reflet de son métabolisme normal ou pathologique. Elle joue donc depuis toujours un rôle précieux dans le diagnostic médical. La sensibilité des signaux d'IRM à la température revêt un intérêt particulier pour réaliser une carte de température. Il est en effet clair que la mesure de la température dans le corps humain est aujourd'hui grossière. Donc la précision de mesure est un point important pour l'estimation de température. Ce travail tente de répondre à certains problèmes, spécialement la précision et la méthode de mesure, le choix d'une séquence, l'optimisation des paramètres de cette séquence et la mise au point d'un protocole de mesure. Le rapport signal sur bruit (S/B) a été optimisé pour améliorer la précision en fonction de la vitesse de mesure. Un ensemble d'outils de segmentation, de recalage et de fusion pour manipuler les images ont également été développées. Le rôle prépondérant des hautes fréquences spatiales dans le recalage fin a été mis en évidence. Les paramètres des séquences sont optimises selon un critère défini pour une mesure efficace des variations de température avec des séquences écho de gradient (SPGR). Le protocole de mesure propose pour suivre les variations de température consiste à faire trois séquences successives à la température de référence puis, pour chaque variation de température, a réaliser une seule séquence. Le protocole est validé par des expériences in vitro sur du gel et de l'huile, et des essais sont effectués in vivo : sur des volontaires sur lesquels des stimulations de température ont été produits afin de voir s'il était possible de provoquer des variations de température dans le cerveau. La précision de mesure atteinte pendant le suivi est de l'ordre de 0,12\c in vitro, et de l'ordre de 0,25\c in vivo dans le cerveau en trois minutes sur un imageur a champ de 0,5 tesla.
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Kasper, Kévin. "Apprentissage d'estimateurs sans modèle avec peu de mesures - Application à la mécanique des fluides." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN029/document.

Повний текст джерела
Анотація:
Cette thèse traite de techniques promouvant la parcimonie pour déterminer des estimateurs performants n’utilisant les mesures que d’un très faible nombre de capteurs. La position de ces capteurs est cruciale pour de bonnes performances et doit être déterminée avec soin. Les méthodes proposées dans ce travail reposent sur l’utilisation d’une base d’apprentissage du champ d’intérêt considéré et ne nécessitent pas de modèle dynamique du système physique. Les éléments de cette base d’apprentissage sont obtenus à l’aide de mesures effectuées sur le système réel ou par simulation numérique. Se basant uniquement sur ces éléments d’apprentissage, et non sur des modèles dynamiques, les approches proposées sont générales et applicables à des systèmes issus de domaines variés.Les approches proposées sont illustrées sur le cas d’un écoulement fluide 2-D autour d’un obstacle cylindrique. Le champ de pression dans un voisinage du cylindre doit être estimé à partir de quelques mesures de pression effectuées en paroi. En utilisant des positions préalablement fixées des capteurs, des estimateurs adaptés à ces positions sont proposés. Ces estimateurs tirent pleinement parti du très faible nombre de mesures en manipulant des représentations creuses et en exploitant la notion de classes. Des situations où les mesures ne portent pas sur le champ d’intérêt à estimer peuvent également être traitées. Un algorithme de placement de capteurs est proposé et permet une amélioration significative des performances des estimateurs par rapport à des capteurs placés a priori.Plusieurs extensions sont discutées : utilisation de mesures passées, utilisation de commandes passées, estimation du champ d’une quantité d’intérêt reliée de façon non linéaire aux mesures, estimation d’un champ à valeurs vectorielles, etc
This thesis deals with sparsity promoting techniques in order to produce efficient estimators relying only on a small amount of measurements given by sensors. These sensor locations are crucial to the estimators and have to be chosen meticulously. The proposed methods do not require dynamical models and are instead based on a collection of snapshots of the field of interest. This learning sequence can be acquired through measurements on the real system or through numerical simulation. By relying only on a learning sequence, and not on dynamical models, the proposed methods become general and applicable to a variety of systems.These techniques are illustrated on the 2-D fluid flow around a cylindrical body. The pressure field in the neighbourhood of the cylinder has to be estimated from a limited amount of surface pressure measurements. For a given arrangement of the sensors, efficient estimators suited to these locations are proposed. These estimators fully harness the information given by the limited amount of sensors by manipulating sparse representations and classes. Cases where the measurements are no longer made on the field to be estimated can also be considered. A sensor placement algorithm is proposed in order to improve the performances of the estimators.Multiple extensions are discussed : incorporating past measurements, past control inputs, recovering a field non-linearly related to the measurements, estimating a vectorial field, etc
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Zargouni, Yadh. "Évaluation de l'efficacité des mesures de sécurité routière." Paris 6, 1986. http://www.theses.fr/1986PA066194.

Повний текст джерела
Анотація:
Ce travail vise à construire des outils pour l'évaluation des mesures de sécurité routière telles que la limitation de vitesse, le port de la ceinture de sécurité et les lois sur l'alcoolémie des conducteurs. Extraction de séries chronologiques mensuelles de tués et de blessés dans les accidents de la circulation par types d'usagers en exploitant les fichiers annuels des accidents corporels de 1970 à 1985. Analyse descriptive de l'évolution des séries mensuelles du nombre de victimes des accidents.
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Artus, Samuel. "Estimation et pronostic de températures de disques de frein : application aux véhicules industriels." Lille 1, 2006. http://www.theses.fr/2006LIL10159.

Повний текст джерела
Анотація:
Les systèmes de sécurité active se développent à une vitesse considérable dans le domaine automobile. Le domaine des véhicules industriels n'échappe pas à cette règle. Le développement de ces systèmes d'assistance puise sa force de l'extension des modules d'électronique embarqués. Le premier objectif de cette thèse consiste à développer une fonction de suivi des températures des disques de frein de véhicules poids lourds. Le choix d'une approche énergétique, c'est-à-dire basée sur un bilan énergétique réalisé à l'échelle du véhicule, est dicté par les limites des connaissances des systèmes vues du constructeur. L'implantation de la méthode sur un véhicule prototype a démontré la faisabilité technique et la pertinence de cette approche dans le cadre d'un projet européen. Le choix d'une approche par modèle permet non seulement de suivre l'évolution de la variable en ligne mais aussi d'extrapoler cette variable dans le temps. Le second objectif de cette thèse concerne la définition d'une prédiction des températures de disques de frein. Ainsi, à partir de l'état courant et du modèle utilisé, il semble envisageable de projeter l'évolution de la variable dans un avenir proche. Les conditions de la mise en œuvre d'un module de prédiction de la température sont discutées dans cette thèse
Active safety systems are of growing importance in automotive applications, including commercial vehicles. Their development is deeply based on embedded electronic modules. The first objective of this thesis consists in developing a brake disc temperature estimation for commercial heavy vehicles. Trucks manufacturer knowledge limitations impose to consider this problem via a global energetic approach. This approach is applied at the vehicle level to reach a systemic point of view and represent the manufacturer's vision of the system integration. Our algorithms have shown promising results on prototype vehic1es, where tests and demonstration were performed for a European project contribution. The proposed model based approach is also able to address prediction objectives. Thus, this work presents the prediction of commercial heavy vehicle brake disc temperature. Considering temperature estimation, it seems feasible to define the temperature evolution over a near future time window. Required assumptions to achieve the brake disc temperature prediction are discussed in the last part of the thesis
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Henrich, Nathalie. "Etude de la source glottique en voix parlée et chantée : modélisation et estimation, mesures acoustiques et électroglottographiques, perception." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2001. http://tel.archives-ouvertes.fr/tel-00123133.

Повний текст джерела
Анотація:
Les relations entre les paramètres de source glottique et la qualité vocale sont étudiées en voix parlée et chantée, par étude spectrale des modèles de signaux, par mesures acoustiques et électroglottographiques et par détermination des seuils différentiels. Les corrélats spectraux de ces paramètres sont évalués à partir des expressions analytiques temporelles et spectrales des modèles de signaux. Une augmentation de l'amplitude de voisement ou de la vitesse de fermeture entraîne une amplification spectrale globale. Le quotient ouvert et le coefficient d'asymétrie sont corrélés à la fréquence et la largeur de bande du formant glottique, ainsi qu'à l'amplitude de la pente spectrale. Le quotient de phase de retour affecte la pente spectrale en haute fréquence. L'estimation du quotient ouvert à partir de la différence spectrale entre les deux premiers harmoniques, H1-H2, est étudiée de façon théorique et expérimentale. Elle n'est pas adaptée aux signaux de voix chantée, où l'interaction entre source et filtre devient importante. L'utilisation des signaux électroglottographiques dérivés, qui permettent de détecter les instants d'ouverture et de fermeture glottique indépendamment du système supraglottique, est explorée et des méthodes de mesure de la fréquence fondamentale et du quotient ouvert sont proposées. Une base de données a été constituée, par enregistrement simultané des signaux acoustiques et électroglottographiques de 18 chanteurs entraînés sur des voyelles tenues, des sons filés ou des phrases parlées et chantées. Le quotient ouvert est analysé en fonction de l'intensité vocale et de la fréquence fondamentale, dans les deux principaux mécanismes laryngés de production vocale. Il présente des valeurs plus élevées en mécanisme II (0.5 < Oq < 0.95) qu'en mécanisme I (0.3 < Oq < 0.8) et la transition entre mécanismes s'accompagne d'un saut marqué de quotient ouvert. Il est fortement corrélé à l'intensité vocale en mécanisme I et à la fréquence fondamentale en mécanisme II et dépend de l'ouverture de la voyelle émise. Les seuils différentiels associés au quotient ouvert et au coefficient d'asymétrie sont mesurés. Le seuil différentiel relatif DOq/Oq est de l'ordre de 14 % pour 20 sujets non-entraînés et 10 % pour 10 sujets entraînés. Il ne varie pas lors d'un changement de voyelle ou de fréquence fondamentale, mais dépend du paramètre d'amplitude et de la présence ou non d'un vibrato.
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Derennes, Pierre. "Mesures de sensibilité de Borgonovo : estimation des indices d'ordre un et supérieur, et application à l'analyse de fiabilité." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30039.

Повний текст джерела
Анотація:
Dans de nombreuses disciplines, un système complexe est modélisé par une fonction boîte noire dont le but est de simuler le comportement du système réel. Le système est donc représenté par un modèle entrée-sortie, i.e, une relation entre la sortie Y (ce que l'on observe sur le système) et un ensemble de paramètres extérieurs Xi (représentant typiquement des variables physiques). Ces paramètres sont usuellement supposés aléatoires pour prendre en compte les incertitudes phénoménologiques inhérentes au système. L'analyse de sensibilité globale joue alors un rôle majeur dans la gestion de ces incertitudes et dans la compréhension du comportement du système. Cette étude repose sur l'estimation de mesures d'importance dont le rôle est d'identifier et de classifier les différentes entrées en fonction de leur influence sur la sortie du modèle. Les indices de Sobol, dont l'objectif est de quantifier la contribution d'une variable d'entrée (ou d'un groupe de variables) à la variance de la sortie, figurent parmi les mesures d'importance les plus considérées. Néanmoins, la variance est une représentation potentiellement restrictive de la variabilité du modèle de sortie. Le sujet central de cette thèse porte sur une méthode alternative, introduite par Emanuele Borgonovo, et qui est basée sur l'analyse de l'ensemble de la distribution de sortie. Les mesures d'importance de Borgonovo admettent des propriétés très utiles en pratique qui justifient leur récent gain d'intérêt, mais leur estimation constitue un problème complexe. En effet, la définition initiale des indices de Borgonovo fait intervenir les densités inconditionnelles et conditionnelles de la sortie du modèle, malheureusement inconnues en pratique. Dès lors, les premières méthodes proposées menaient à un budget de simulation élevé, la fonction boite noire pouvant être très coûteuse à évaluer. La première contribution de cette thèse consiste à proposer de nouvelles méthodologies pour estimer les mesures d'importance de Borgonovo du premier ordre, i.e, les indices mesurant l'influence de la sortie Y relativement à une entrée Xi scalaire. Dans un premier temps, nous choisissons d'adopter la réinterprétation des indices de Borgonovo en terme de mesure de dépendance, i.e, comme une distance entre la densité jointe de Xi et Y et la distribution produit. En outre, nous développons une procédure d'estimation combinant échantillonnage préférentiel et approximation par noyau gaussien de la densité de sortie et de la densité jointe. Cette approche permet de calculer l'ensemble des indices de Borgonovo d'ordre 1, et ce, avec un faible budget de simulation indépendant de la dimension du modèle. Cependant, l'utilisation de l'estimation par noyau gaussien peut fournir des estimations imprécises dans le cas des distributions à queue lourde. Pour pallier ce problème, nous nous appuyons dans un second temps sur une autre définition des indices de Borgonovo reposant sur le formalisme des copules
In many disciplines, a complex system is modeled by a black box function whose purpose is to mimic the real system behavior. Then, the system is represented by an input-output model, i.e, a relationship between the output Y (the observation made on the system) and a set of external parameters Xi (typically representing physical variables). These parameters are usually assumed to be random in order to take phenomenological uncertainties into account. Then, global sensitivity analysis (GSA) plays a crucial role in the handling of these uncertainties and in the understanding of the system behavior. This study is based on the estimation of importance measures which aim at identifying and ranking the different inputs with respect to their influence on the model output. Variance-based sensitivity indices are one of the most widely used GSA measures. They are based on Sobol's indices which express the share of variance of the output that is due to a given input or input combination. However, by definition they only study the impact on the second-order moment of the output which may a restrictive representation of the whole output distribution. The central subject of this thesis is an alternative method, introduced by Emanuele Borgonovo, which is based on the analysis of the whole output distribution. Borgonovo's importance measures present very convenient properties that justify their recent gain of interest, but their estimation is a challenging task. Indeed, the initial definition of the Borgonovo's indices involves the unconditional and conditional densities of the model output, which are unfortunately unknown in practice. Thus, the first proposed methods led to a high computational burden especially since the black box function may be very costly-to-evaluate. The first contribution of this thesis consists in proposing new methodologies for estimating first order Borgonovo importance measures which quantify the influence of the output Y relatively to a scalar input Xi. First, we choose to adopt the reinterpretation of the Borgonovo indices in term of measure of dependence, i.e, as a distance between the joint density of Xi and Y and the product distribution. In addition, we develop an estimation procedure combining an importance sampling procedure and Gaussian kernel approximation of the output density and the joint density. This approach allows the computation of all first order Borgonovo with a low budget simulation, independent to the model dimension. However, the use of Gaussian kernel estimation may provide inaccurate estimates for heavy tail distributions. To overcome this problem, we consider an alternative definition of the Borgonovo indices based on the copula formalism
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Henrich-Bernardoni, Nathalie. "Etude de la source glottique en voix parlee et chantee : modelisation et estimation, mesures acoustiques et electroglottographiques, perception." Paris 6, 2001. http://www.theses.fr/2001PA066315.

Повний текст джерела
Анотація:
Les relations entre les parametres de source glottique et la qualite vocale sont etudiees en voix parlee et chantee, par etude spectrale des modeles de signaux, par mesures acoustiques et electroglottographiques et par determination des seuils differentiels. Les correlats spectraux de ces parametres sont evalues a partir des expressions analytiques temporelles et spectrales des modeles de signaux. Une augmentation de l'amplitude de voisement ou de la vitesse de fermeture entraine une amplification spectrale globale. Le quotient ouvert et le coefficient d'asymetrie sont correles a la frequence et la largeur de bande du formant glottique, ainsi qu'a l'amplitude de la pente spectrale. Le quotient de phase de retour affecte la pente spectrale en haute frequence. L'estimation du quotient ouvert a partir de la difference spectrale entre les deux premiers harmoniques, h 1 - h 2, est etudiee de facon theorique et experimentale. Elle n'est pas adaptee aux signaux de voix chantee, ou l'interaction entre source et filtre devient importante. L'utilisation des signaux electroglottographiques derives, qui permettent de detecter les instants d'ouverture et de fermeture glottique independamment du systeme supraglottique, est exploree et des methodes de mesure de la frequence fondamentale et du quotient ouvert sont proposees. Une base de donnees a ete constituee, par enregistrement simultane des signaux acoustiques et electroglottographiques de 18 chanteurs entraines sur des voyelles tenues, des sons files ou des phrases parlees et chantees. Le quotient ouvert est analyse en fonction de l'intensite vocale et de la frequence fondamentale, dans les deux principaux mecanismes larynges de production vocale. Il presente des valeurs plus elevees en mecanisme ii (0. 5 o q 0. 95) qu'en mecanisme i (0. 3 o q 0. 8) et la transition entre mecanismes s'accompagne d'un saut marque de quotient ouvert. Il est fortement correle a l'intensite vocale en mecanisme i et a la frequence fondamentale en mecanisme ii et depend de l'ouverture de la voyelle emise. Les seuils differentiels associes au quotient ouvert et au coefficient d'asymetrie sont mesures. Le seuil differentiel relatif o q/o q est de l'ordre de 14% pour 20 sujets non-entraines et 10% pour 10 sujets entraines. Il ne varie pas lors d'un changement de voyelle ou de frequence fondamentale, mais depend du parametre d'amplitude et de la presence ou non d'un vibrato.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Pujos, Cyril. "Estimation de la rhéologie d'un polymère dans une filière d'extrusionSimulation d'écoulement avec transferts thermiques et inversion de mesures." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13253.

Повний текст джерела
Анотація:
L'objectif de cette thèse est la mise en place d'une méthode d'estimation de rhéologie à partir de mesures de débits et de températures. Le dispositif expérimental est une filière d'extrusion instrumentée. Arguant du fait que les nombreux modèles rhéologiques existants sont différemment adaptés en fonction des polymères considérés, nous avons opté pour un modèle original de rhéologie. Ce modèle, outre le fait de ne pas avoir de forme mathématique imposée, n'a que des paramètres du même ordre de grandeur, ce qui simplifie l'estimation. La méthode inverse est une méthode de minimisation appliquée à un critère d'écart quadratique entre les variables calculées et les grandeurs mesurées, sous la contrainte des équations de l'énergie et de Navier-Stokes. Elle s'appuie sur la formulation du Lagrangien. Les multiplicateurs de Lagrange associés aux contraintes sont calculés par la résolution des équations adjointes. Un problème de sensibilité complémentaire permet la détermination de la profondeur de descente. La décroissance de la viscosité lorsque le taux de cisaillement augmente, a été prise en compte dans la régularisation. Pour finir, la méthode inverse a été insérée dans le code Aquilon, développé au laboratoire TREFLE. En définitive, sur une filière mieux isolée, la méthode développée permet d'obtenir une connaissance du comportement rhéologique précise, sans l'hypothèse d'isothermie habituellement faite pour les mesures rhéologiques expérimentales. Elle génère un modèle rhéologique adpaté au code de simulation numérique du point de vue de l'écoulement et de la thermique. Enfin elle ouvre le chemin pour de nombreuses applications notamment dans le domaine de l'injection.
Стилі APA, Harvard, Vancouver, ISO та ін.
40

COMBAL, BRUNO. "Contribution a l'analyse du probleme inverse. Estimation des caracteristiques du couvert vegetal a partir de mesures de teledetection." Clermont-Ferrand 2, 1999. http://www.theses.fr/1999CLF22174.

Повний текст джерела
Анотація:
Le probleme inverse correspond, en teledetection spatiale, a l'estimation de la valeur des parametres caracteristiques d'un milieu a partir de mesures du rayonnement lumineux reflechi par le milieu observe. L'ajustement d'un modele aux donnees fournies par un satellite permet la resolution du probleme inverse. Les parametres du modele qui permettent le meilleur ajustement caracterisent le milieu observe. La resolution du probleme inverse est limitee par l'information fournie par les mesures, mais aussi par la precision des mesures et du modele. Dans ce travail, le milieu considere est la vegetation. Un modele de rayonnement, permettant de simuler le rayonnement reflechi par un couvert vegetal poussant sur un terrain en pente est defini. Les simulations de ce modele sont confortees par des mesures effectuees dans les memes conditions. Ce modele est employe comme outil de simulation dans l'ensemble de cette these. Un formalisme de l'information (information de fisher) est etudie et employe pour estimer la quantite d'information relative aux parametres de la vegetation et fournie par les mesures. Cette etude permet de montrer la dependance de l'information a la fois en fonction des parametres definissant le modele ainsi qu'en fonction de l'echantillonnage des mesures de rayonnement (directions de visee et longueurs d'ondes du satellite). Le formalisme de l'information etudie permet donc de determiner si un modele est bien adapte ou non a la resolution du probleme inverse, et d'autre part de rechercher l'echantillonnage optimal des donnees. Les erreurs de mesures et de simulation degradent l'information disponible. L'impact des erreurs de modelisation de la topographie sur l'information est etudie. Nous montrons que les differents termes d'erreurs modifient de maniere importante l'information disponible, et doivent donc etre pris en compte dans la recherche d'un echantillonnage optimal des donnees.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Neukermans, Griet. "Les particules en suspension dans les eaux côtières turbides : estimation par mesures optique in situ et depuis l'espace." Thesis, Littoral, 2012. http://www.theses.fr/2012DUNK0406/document.

Повний текст джерела
Анотація:
Les particules en suspension dans l'eau de mer incluent les sédiments, le phytoplancton, le zooplancton, les bactéries, les virus et des détritus. Ces particules sont communément appelés matière en suspension (MES). Dans les eaux côtières, la MES peut parcourir de longues distances et être transportée verticalement à travers la colonne d'eau sous l'effet des vents et des marées favorisant les processus d'advection et de resuspension. Ceci implique une large variabilité spatio-temporelle de MES et quasiment impossible à reconstituer à travers les mesures traditionnelles des concentrations de MES [MES], par filtration de l'eau de mer à bord de bateaux. La [MES] peut être obtenue à partir de capteurs optiques enregistrant la diffusion et déployés soit de manière in-situ, soit à partir d'un satellite dans l'espace. Depuis la fin des années 70, par exemple, les satellites "couleur de l'eau" permettent d'établir des cartes de [MES] globales. La fréquence d'une image par jour pour la mer di Nord de ces capteurs polaires représente un obstacle non négligeable pour l'étude de variabilité de la [MES] dans les eaux côtières où la marée et les vents engendrent des variations rapides au cours de la journée. Cette limitation est d'autant plus importante pour les régions avec une couverture nuageuse fréquente. Les méthodes in-situ à partir d'un navire autonome ou d'une plateforme amarrée permettent d'enregistrer des données en continu mais leur couverture spatiale reste néanmoins limitée. Ce travail a pour objectif de mettre en avant les techniques de mesures in-situ et satellite de la [MES] en se concentrant principalement sur deux points. Premièrement, d'acquérir une meilleure connaissance de la variabilité de la relation entre la [MES] et la lumière diffuse, et deuxièmement, d'établir des cartes de [MES] dans la mer du Nord avec le capteur géostationnaire météorologique Européen (SEVIRI) qui donne des images chaque 15 minutes.La variabilité de la relation entre la [MES] et la lumière diffuse est étudiée à l'aide d'une banque de données in-situ. Nous démontrons que la [MES] est le mieux estimée à partir des mesures dans l'intervalle rouge du spectre de lumière rétro-diffuse. Par ailleurs, la relation entre la [MES] et la rétrodiffusion est gouvernée par la composition organique/inorganique des particules, ce qui représente des possibilités d'amélioration pour les algorithmes d'estimation de [MES] à partir de la couleur de l'eau. Nous démontrons aussi qu'avec SEVIRI il est possible d'estimer la [MES], la turbidité et le coefficient d'atténuation, deux variables étroitement liées à la [MES], avec généralement une bonne précision. Bien qu'il y ait d'importantes incertitudes dans les eaux claires, cette réussite est remarquable pour un capteur météorologique initialement conçu pour le suivi des nuages et des masses glaciaires, cibles beaucoup plus brillantes que la mer! Ce travail démontre pour la première fois que la variabilité de la [MES] à l'échelle temporelle des marées dans les eaux côtières au sud de la mer du Nord peut être capturée et mesurée par le biais de la télédétection de la couleur de l'eau ; ce qui ouvre des opportunités pour le monitoring de la turbidité et pour la modélisation des écosystèmes. Le premier capteur géostationnaire couleur de l'eau a été lancé en juin 2012, donnant des images multispectrale des eaux coréennes chaque heure. D'autres capteurs vont probablement suivre dans l'avenir, couvrant le reste des eaux du globe. Ce travail nous permet donc de préparer, de façon optimale, l'arrivée de ces capteurs qui vont révolutionner l'océanographie optique
Particles suspended in seawater include sediments, phytoplankton, zooplankton, bacteria, viruses, and detritus, and are collectively referred to as suspended particulate matter, SPM. In coastal waters, SPM is transported over long distances and in the water column by biological, tide or wind-driven advection and resuspension processes, thus varying strongly in time and space. These strong dynamics challenge the traditional measurement of the concentration of SPM, [SPM], through filtration of seawater sampled from ships. Estimation of [SPM] from sensors recording optical scattering allows to cover larger temporal or spatial scales. So called ocean colour satelittes, for example, have been used for the mapping of [SPM] on a global scale since the late 1970s. These polar-orbiting satellites typically provide one image per day forthe North Sea area. However, the sampling frequency of these satellites is a serious limitation in coastal waters where [SPM] changes rapidly during the day due to tides and winds.Optical instruments installed on moored platforms or on under-water vehicles can be operated continuously, but their spatial coverage is limited. This work aims to advance in situ and space-based optical techniques for [SPM] retrieval by investigating the natural variability in the relationship between [SPM] and light scattering by particles and by investigating whether the European geostationary meteorological SEVIRI sensor, which provides imagery every 15 minutes, can be used for the mapping of [SPM] in the southern North Sea. Based on an extensive in situ dataset, we show that [SPM] is best estimated from red light scattered in the back directions (backscattering). Moreover, the relationship between [SPM]] and particulate backscattering is driven by the organic/inorganic composition of suspended particles, offering opportunities to improve [SPM] retrieval algorithms. We also show that SEVIRI successfully retrieves [SPM] and related parameters such as turbidity and the vertical light attenuation coefficient in turbid waters. Even though uncertainties are considerable in clear waters, this is a remarkable result for a meteorological sensor designed to monitor clouds and ice, much brighter targets than the sea! On cloud free days, tidal variability of [SPM] can now be resolved by remote sensing for the first time, offering new opportunities for monitoring of turbidity and ecosystem modelling. In June 2010 the first geostationary ocean colour sensor was launched into space which provides hourly multispectral imagery of Korean waters. Other geostationary ocean colour sensors are likely to become operational in the (near?) future over the rest of the world's sea. This work allows us to maximally prepare for the coming of geostationary ocean colour satellites, which are expected to revolutionize optical oceanography
De in zeewater aanwezige zwevende materie zoals sedimenten, fytoplankton, zooplankton, bacteriën, virussen en detritus, worden collectief "suspended particulate matter" (SPM) genoemd. In kustwateren worden deze deeltjes over lange afstanden en in de waterkolom getransporteerd door biologische processen of wind- of getijdenwerking, waardoor SPM sterk varieert in ruimte en tijd. Door deze sterke dynamiek wordt de traditionele bemonstering van de concentratie van SPM, [SPM], door middel van filtratie van zeewaterstalen aan boord van schepen ontoereikend. Optische technieken die gebruik maken van de lichtverstriioongseigenschappen van SPM bieden een gebieds- of tijdsdekkend alternatief. Zogenaamde "ocean colour" satellieten bijvoorbeeld leveren beelden van o.a. [SPM] aan het zeeoppervlak op globale schaal sinds eind 1970, met een frequantie van één beeld per dag voor de Noordzee. Deze frequentie is echter onvoldoende in onze kustwateren waar [SPM] drastisch kan veranderen in enkele uren tijd. Optische instrumenten aan boord vann schepen of op onderwatervoertuigen kunnen continu meten, maar de gebiedsdekking is deperkt. Dit werk heeft tot doel de lichtverstriioongseigenschappen van SPM te karakterizeren en te onderzoeken of de Europese geostationaire weersatelliet, die elk kwartier een beeld geeft, kan worden gebruikt voor de kartering van [SPM] in de zuidelijke Noordzee. Op basis van een grote dataset van in situ metingen tonen wij aan dat [SPM] het nauwkeurigst kan worden bepaald door de meting van de verstrooiing van rood licht in achterwaartse richtingen (terugverstrooiing). Bovendien blijkt de relatie tussen [SPM] en terugverstrooiing afhankelijk van de organische-anorganische samenstelling van zwenvende stof, wat mogelijkhenden biedt tot het verfijnen van teledetectiealgoritmen voor [SPM]. Voorts tonen woj aan dat de Europese weersatelliet, SEVIRI, successvol kan worden aangewend voor de kartering van [SPM] en gerelateerde parameters zoals troebelheid en lichtdemping in de waterkolom. Hoewel met grote meetonzekerheid in klaar water toch een opmerkelijk resultaat voor een sensor die ontworpen werd voor detectie van wolken en ijs! Op wolkenvrije dagen wordt hierdoor de getijdendynamiek van [SPM] in de zuidelijke Noordzee voor het eerst detecteerbaar vanuit de ruimte, wat nieuwe mogelijkheden biedt voor de monitoring van waterkwaliteit en verbetering van ecosysteellodellen. Sinds juni 2010 is de eerste geostationaire ocean colour satelliet een feit : elk uur een multispectraal beeld van Koreaanse wateren. Vermoedelijk zullen er in de (nabije?) toekomst meer volgen over Europa en Amerika. Dit werk laat toe ons maximaal voor te bereiden op te komst van zo'n satellieten, waarvan verwacht wordt dat zij een nieuwe revolutie in optische oceanografie zullen ontketenen
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Jourdin, Frédéric. "Assimilation de mesures marégraphiques et altimétriques dans un modèle hydrodynamique de marées océaniques." Toulouse 3, 1992. http://www.theses.fr/1992TOU30175.

Повний текст джерела
Анотація:
L'objectif est de predire aussi precisement que possible, sur des domaines de la taille d'un ocean, les variations des hauteurs d'eau causees par les marees. Pour cela, nous disposons de plusieurs sources d'information: les observations maregraphiques, les observations des satellites altimetriques, la modelisation hydrodynamique numerique. Nous proposons ici de combiner ces differentes informations pour parvenir a un modele unique de maree qui soit plus precis que des modeles purement empiriques ou purement hydrodynamiques. Pour ce faire, nous utilisons la theorie des moindres carres lineaires generalises. Dans un premier temps, cette theorie est appliquee a la restitution empirique de la maree par inversion de donnees maregraphiques et altimetriques. Des fonctions de covariances empiriques caracterisent a priori le signal de maree recherche et les erreurs des donnees. Les precisions des solutions sont moyennes. La deuxieme etape a ete l'introduction, dans ce probleme inverse, d'une contrainte hydrodynamique. Celle-ci est apportee par un modele numerique qui resout dans le domaine spectral les equations des ondes longues barotropes. La procedure a ete testee dans un cas simple d'ondes se propageant dans un canal rectangulaire etroit. Une solution preliminaire de l'onde lunaire principale semidiurne de l'ocean pacifique a ete calculee. La precision de cette carte est estimee a six centimetres. Afin d'accroitre cette precision, nous proposons un choix plus judicieux des matrices de covariances a priori
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Rabhi, Abdelhamid. "Estimation de la dynamique du véhicule en interaction avec son environnement." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0033.

Повний текст джерела
Анотація:
Le cadre général du travail de recherche est l'application des outils de l'automatique non linéaire (observateurs par modes de glissemen commande robuste,. . . ) et des méthodes pour le diagnostic en vue de l'amélioration de la Sécurité des véhicules et de Routes. Des études d'accidentologies ont montré le rôle de l'infrastructure dans la majorité des accidents. L'objectif est donc d'utiliser le plus d'informations possible sur l'environnement, pour mieux piloter et évaluer le comportement (nominal) d'un véhicule dans sa trajectoire. La difficulté et le coût des mesures de forces de contact pneu chaussé nous ont motivé pour développer des observateurs non linéaires et robustes pour estimer les informations (forces de contact, adhérence, dérive, raideurs) utile pour caractériser la tenue de route du véhicule. Ensuite nous avons mis au point une nouvel/e technique d'estimation avec des observateurs en cascade pour déduire les vitesses puis les accélérations angulaires des roues à partir des codeurs de l'ABS grâce à un observateur robuste par modes glissants d'ordre supérieur. Cette technique permet d'estimer ensuite, la raideur longitudinale des pneus et le rayon effectif. On peut aussi reconstituer l'adhérence et la dérive qui représentent des caractéristiques importantes de la route et du roulement du véhicule respectivement Aprés cela nous avons proposé des observateurs robustes à entrée inconnue permettant d'estimer les attributs de la route (profil, pente et dévers). Ces derniers sont utiles pour l'aide à la conduite. Enfin, nous présentons en dernier une méthode de conception de systèmes permettant de détecter des défauts dans la dynamique d'un véhicule en rouleme
The general framework of the research is the application of the nonlinear control tools (sliding mode observers, robust control. . . ) and methods for diagnostics in order to improve the security of the vehicle. Motivation of our work is due to the fact that the infrastructure is involved the majority of accidents. The was born, which uses as more as possible the environmental information's in order to study the comportment of the vehicle in its trajectory. The difficulties and the high costs of the sensors, to measure contact forces belween wheel and the ground were an important motivation for design of non linear and robust observers. Then, a new technique for the estimation with cascaded observers was developed to dedu the angular velocities and accelerations of wheels by use of the ABS encoders. This method al/ows us to estimate the longitudinal stiffness of each tire and its effective radius. The adherence also can be reconstructed. Robust observers with unknown inputs are proposed to estimate the road features (profile, slope and inclination angle), which are used to assist the driving. Final/y, we present a method for detecting faults in the dynamics of the vehicle. We have considered only Iwo types of faults: Faults in the suspension system Variation of pressure in tire
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Reybet-Degat, Ghislaine. "Proposition d'une règle de discrimination séquentielle adaptée à la fusion de mesures." Compiègne, 1996. http://www.theses.fr/1996COMPD928.

Повний текст джерела
Анотація:
Cette thèse se situe dans le prolongement d'un ensemble de travaux sur la fusion de données et le diagnostic par reconnaissance des formes engagés depuis de nombreuses années au laboratoire Heudiasyc. Plus précisément, ce travail considère le problème de l'estimation de l'état d'un système à partir de mesures redondantes qui peuvent être en conflit. La démarche consiste alors à détecter les incohérences entre les mesures, en vue de n'agréger, pour l'estimation, que des données homogènes. Pour ce faire, les outils de diagnostic par reconnaissance des formes développés dans l'équipe (rejet d'ambiguïté, rejet de distance) sont utilisés, les incohérences étant assimilées à différents modes de fonctionnement. Le travail se situe dans le cadre général d'une modélisation probabiliste. Dans un premier temps, une règle de discrimination qui permet de classer des mesures en fonction de leur degré de conflit est adaptée au caractère séquentiel de la fusion de données, ainsi, toute l'information disponible à un moment donne est exploitée. Ensuite, cette règle de discrimination séquentielle est modifiée afin de prendre en compte la qualité propre à chaque mesure dans le processus de combinaison. Les caractéristiques statistiques d'ordre deux des mesures sont ici supposées connues : la règle de discrimination proposée est un moyen original de gérer plusieurs filtres de Kalman en parallèle. Finalement, les différentes règles de discrimination sont appliquées au problème de la localisation d'un robot dans son environnement.
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Hurtgen, Michaël. "Wide-area state estimation using synchronized phasor measurement units." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209924.

Повний текст джерела
Анотація:
State estimation is an important tool for power system monitoring and the present study involves integrating phasor measurement units in the state estimation process. Based on measurements taken throughout the network, the role of a state estimator is to estimate the state variables of the power system while checking that these estimates are consistent with the measurement set. In the case of power system state estimation, the state variables are the voltage phasors at each network bus.\\

The classical state estimator currently used is based on SCADA (Supervisory Control and Data Acquisition) measurements. Weaknesses of the SCADA measurement system are the asynchronicity of the measurements, which introduce errors in the state estimation results during dynamic events on the electrical network.\\

Wide-area monitoring systems, consisting of a network of Phasor Measurement Units (PMU) provide synchronized phasor measurements, which give an accurate snapshot of the monitored part of the network at a given time. The objective of this thesis is to integrate PMU measurements in the state estimator. The proposed state estimators use PMU measurements exclusively, or both classical and PMU measurements.\\

State estimation is particularly useful to filter out measurement noise, detect and eliminate bad data. A sensitivity analysis to measurement errors is carried out for a state estimator using only PMU measurements and a classical state estimator. Measurement errors considered are Gaussian noise, systematic errors and asynchronicity errors. Constraints such as zero injection buses are also integrated in the state estimator. Bad data detection and elimination can be done before the state estimation, as in pre-estimation methods, or after, as in post-estimation methods. For pre-estimation methods, consistency tests are used. Another proposed method is validation of classical measurements by PMU measurements. Post-estimation is applied to a measurement set which has asynchronicity errors. Detection of a systematic error on one measurement in the presence of Gaussian noise is also analysed. \\

The state estimation problem can only be solved if the measurements are well distributed over the network and make the network observable. Observability is crucial when trying to solve the state estimation problem. A PMU placement method based on metaheuristics is proposed and compared to an integer programming method. The PMU placement depends on the chosen objective. A given PMU placement can provide full observability or redundancy. The PMU configuration can also take into account the zero injection nodes which further reduce the number of PMUs needed to observe the network. Finally, a method is proposed to determine the order of the PMU placement to gradually extend the observable island. \\

State estimation errors can be caused by erroneous line parameter or bad calibration of the measurement transformers. The problem in both cases is to filter out the measurement noise when estimating the line parameters or calibration coefficients and state variables. The proposed method uses many measurement samples which are all integrated in an augmented state estimator which estimates the voltage phasors and the additional parameters or calibration coefficients.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

Стилі APA, Harvard, Vancouver, ISO та ін.
46

Rabehi, Djahid. "Estimation par Intervalles des Systèmes Cyber-physiques." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE3038.

Повний текст джерела
Анотація:
Les systèmes cyber-physiques sont des intégrations intelligentes de calculateurs, de réseaux de communications, et de processus physiques. Dans cette thèse, nous travaillons dans le contexte erreur inconnue mais bornée de borne connue, et nous nous intéressons à l'estimation d'état des systèmes dynamiques sous contraintes de communication. Nous proposons des méthodes de synthèse d'observateurs par intervalles pour des systèmes linéaires à temps continu, et dont les mesures à temps discret sont transmises à travers un réseau de communication.Les contributions de cette thèse sont les suivantes: (i) nous concevons un observateur impulsif par intervalles pour des systèmes linéaires à temps continu avec des mesures sporadiques; (ii) nous proposons un observateur impulsif par intervalles avec gain L1 fini et échantillonnage contrôlé, puis, nous développons une méthode de synthèse pour concevoir simultanément le gain d’observation et la condition de contrôle de l'échantillonnage des mesures; (iii) en utilisant l'observateur impulsif par intervalles proposé dans (i), nous développons une stratégie d'estimation sécurisée pour des systèmes soumis à des cyber-attaques
Cyber-Physical Systems are smart integrations of computation, networking, and physical processes. In this thesis, we deal with interval observers for cyber-physical systems in which the continuous-time physical systems are estimated and monitored using discrete-time data transmitted over network.The contributions of the presented material are threefold: (i) we design an interval impulsive observer for continuous-time linear systems with sporadically available measurements; (ii) we propose a finite L1-gain event-triggered interval impulsive observer for continuous-time linear systems, in which we develop a co-design procedure to simultaneously design the observer gain and the event-triggering condition; (iii) using the interval impulsive observer, we develop a secure estimation strategy for multi-output systems under cyber-attacks
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Mesbah, Mounir. "Estimation et tests dans les tables de contingence mixtes en présence d'erreurs de mesure." Paris 5, 1992. http://www.theses.fr/1992PA05S015.

Повний текст джерела
Анотація:
Le chapitre 1 de cette thèse porte sur la construction des distributions conditionnellement gaussiennes. Dans le chapitre 2, nous présentons des résultats sur l'effet des erreurs de mesures sur les estimations et les tests dans les tables de contingence mixtes. Nous montrons qu'en présence de certaines indépendances conditionnelles particulières, l'association entre variables est soit toujours diminuée, soit toujours augmentée. Néanmoins dans certains cas les tests d'indépendance restent de niveau correct. Leur puissance est, pour certains types de modèles, toujours diminuée. Nous caractérisons ensuite la classe des modèles graphiques invariants par erreurs de type Korn. Le chapitre 3 porte sur la correction des erreurs de mesure, si l'on dispose d'un deuxième échantillon, ou l'on observe conjointement la variable mesurée correctement et sa version erronée. Une méthode générale consiste à construire une table de contingence partiellement observée croisant l'ensemble des variables des deux échantillons et à estimer ces effectifs à l'aide d'un modèle conditionnellement gaussiens particulier. Le chapitre 4 porte sur le choix de ce modèle. Nous montrons que certains de ces modèles sont incompatibles avec les observations et nous donnons des règles simples pour les déterminer
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Amirach, Nabil. "Détection d'évènements simples à partir de mesures sur courant alternatif." Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0006/document.

Повний текст джерела
Анотація:
La nécessité d’économiser de l'énergie est l’un des axes importants de ces dernières décennies, d’où le besoin de surveiller la consommation d'énergie des processus résidentiels et industriels. Le travail de recherche présenté dans ce manuscrit s’inscrit plus particulièrement dans le suivi de la consommation électrique afin de permettre l’économie d’énergie. Le but final étant d'avoir une connaissance précise et fiable d'un réseau électrique donné. Cela passe par la décomposition de la consommation électrique globale du réseau électrique étudié afin de fournir une analyse détaillée de l'énergie consommée par usage. L’objectif de cette thèse est la mise en place d’une approche non-intrusive permettant de réaliser les étapes de détection d’évènements et d’extraction de caractéristiques, qui précédent les étapes de classification et d’estimation de la consommation électrique par usage. L’algorithme résultant des travaux effectués durant cette thèse permet de détecter les évènements qui surviennent sur le courant et d’y associer un vecteur d’information contenant des paramètres caractérisant le régime permanent et le régime transitoire. Ce vecteur d’information permet ensuite de reconnaître tous les évènements liés à la même charge électrique
The need to save energy is an important focus of recent decades, hence the need to monitor the energy consumption of residential and industrial processes. The research works presented in this manuscript are within the monitoring power consumption area in order to enable energy saving. The final goal is to have a clear and reliable knowledge of a given grid. This involves the decomposition of the overall power consumption of the electrical network to provide a detailed analysis of the consumed energy. The objective of this thesis is to develop a non-intrusive approach to achieve the event detection and feature extraction steps, which precede the classification and the power consumption estimation steps. The algorithm resulting from the works performed in this thesis can detect events which occur on the current and associates to them an information vector containing the parameters characterizing the steady and transient states. Then this information vector is used to recognize all the events linked to the same electrical load
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Lemaire, Vincent. "Estimation récursive de la mesure invariante d'un processus de diffusion." Phd thesis, Université de Marne la Vallée, 2005. http://tel.archives-ouvertes.fr/tel-00011281.

Повний текст джерела
Анотація:
L'objet de la thèse est l'étude d'un algorithme, simple d'implémentation et récursif, permettant de calculer l'intégrale d'une fonction par rapport à la probabilité invariante d'un processus solution d'une équation différentielle stochastique de dimension finie.
La principale hypothèse sur ces solutions (diffusions) est l'existence d'une fonction de Lyapounov garantissant une condition de stabilité. Par le théorème ergodique on sait que les mesures empiriques de la diffusion convergent vers une mesure invariante. Nous étudions une convergence similaire lorsque la diffusion est discrétisée par un schéma d'Euler de pas décroissant. Nous prouvons que les mesures empiriques pondérées de ce schéma convergent vers la mesure invariante de la diffusion, et qu'il est possible d'intégrer des fonctions exponentielles lorsque le coefficient de diffusion est suffisamment petit. De plus, pour une classe de diffusions plus restreinte, nous prouvons la convergence presque sûre et dans Lp du schéma d'Euler vers la diffusion.
Nous obtenons des vitesses de convergence pour les mesures empiriques pondérées et donnons les paramètres permettant une vitesse optimale. Nous finissons l'étude de ce schéma lorsqu'il y a présence de multiples mesures invariantes. Cette étude se fait en dimension 1, et nous permet de mettre en évidence un lien entre classification de Feller et fonctions de Lyapounov.
Dans la dernière partie, nous exposons un nouvel algorithme adaptatif permettant de considérer des problèmes plus généraux tels que les systèmes Hamiltoniens ou les systèmes monotones. Il s'agit de considérer les mesures empiriques d'un schéma d'Euler construit à partir d'une suite de pas aléatoires adaptés dominée par une suite décroissant vers 0.
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Poulalion, Guy. "Détection et estimation conjointes en analyse spectrale haute résolution : application à l'analyse de signaux issus de mesures de surface équivalente radar." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10647.

Повний текст джерела
Анотація:
Le probleme traite dans ce memoire est lie a l'imagerie radar et concerne plus particulierement l'analyse de la surface equivalente radar (ser) d'objets dont le comportement n'est pas stationnaire. L'objectif est de detecter et de localiser les zones reflechissantes de la cible. Sous l'hypothese que la cible verifie un modele connu sous le nom de modele de points brillants, les positions des zones reflechissantes se deduisent des pulsations d'une somme d'exponentielles complexes. Nous nous sommes attaches a resoudre ce probleme en utilisant les methodes d'analyse spectrale a haute resolution (hr) basees sur la decomposition de l'espace des donnees en deux sous-espaces, l'espace de signal et l'espace de bruit. Le schema classique de ces methodes se decompose en deux phases sequentielles de detection (estimation du nombre de composantes) et d'estimation (estimation des pulsations). Ce schema est sous-optimal dans le sens ou il lie la qualite de l'estimation a celle de la detection. Or cette derniere se revele problematique dans le cadre de l'analyse de signaux issus de mesures. Pour remedier a cette sous-optimalite, nous introduisons, pour l'etude de signaux unidimensionnels et stationnaires, un nouveau schema de detection et d'estimation conjointes. Il repose sur l'obtention d'un ensemble de pulsations contenant les pulsations exactes du signal. Deux methodes, basees sur une approche du maximum de vraisemblance sont proposees pour extraire les composantes utiles de cet ensemble. Nous etendons ensuite ce schema pour l'analyse de signaux bidimensionnels et pour l'analyse de signaux non-stationnaires. Le schema classique et le schema propose sont compares dans le cadre de l'analyse de signaux issus de mesures de ser. Une application originale concernant la reconstruction d'une image tomographique hr est notamment developpee.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії