Rozprawy doktorskie na temat „Estimation sous contraintes”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Estimation sous contraintes.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 30 najlepszych rozpraw doktorskich naukowych na temat „Estimation sous contraintes”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

LANGLAIS, VALERIE. "Estimation sous contraintes d'inegalites". Paris, ENMP, 1990. http://www.theses.fr/1990ENMP0260.

Pełny tekst źródła
Streszczenie:
Parfois, en plus des donnees exactes ou la valeur de la variable est connue, on dispose d'une information supplementaire: les contraintes; seul un encadrement de la valeur de la variable est connue. Il est alors interessant de construire un estimateur qui prenne en compte l'ensemble de l'information. On propose trois methodes faisant appel a des hypotheses differentes et fournissant des reponses differentes: 1) la minimisation sous contraintes d'une forme quadratique aboutit a des contraintes actives (calees a l'une de leurs bornes) et des contraintes inactives (strictement comprises dans l'intervalle). Elle s'applique dans le cas stationnaire et non-stationnaire et n'utilise que partiellement l'information contenue dans les contraintes; 2) l'esperance conditionnelle fournit un estimateur strictement compris dans les intervalles des contraintes. Son application est limitee dans la pratique au cas stationnaire. De plus la precision numerique devient mediocre lorsque le nombre de contraintes est important; 3) la methode incrementale, applicable en stationnaire et non-stationnaire, aboutit a un estimateur strictement compris entre les bornes des contraintes. Elle peut etre utilisee soit en estimation, soit en simulation. La premiere methode ne permet pas d'acceder a une variance d'estimation. On s'attachera a en fournir un substitut. Pour la troisieme methode, la variance d'estimation existe mais presente des difficultes quant a son calcul. Une approximation de cette quantite est donnee. Toutes ces methodes font appel a un modele structural et necessitent quelques outils simples d'analyse structurale en presence de contraintes qui permettent de valider ou non les hypotheses faites sur l'analyse structurale des donnees exactes. Enfin les trois exemples suivants seront detailles: 1) un probleme de topographie dans le cas stationnaire; 2) l'estimation du toit d'un dome de reservoir (donnees fournies par gaz de france); 3
Style APA, Harvard, Vancouver, ISO itp.
2

Cabral, Farias Rodrigo. "Estimation sous contraintes de communication : algorithmes et performances asymptotiques". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT024/document.

Pełny tekst źródła
Streszczenie:
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation
With recent advances in sensing and communication technology, sensor networks have emerged as a new field in signal processing. One of the applications of his new field is remote estimation, where the sensors gather information and send it to some distant point where estimation is carried out. For overcoming the new design challenges brought by this approach (constrained energy, bandwidth and complexity), quantization of the measurements can be considered. Based on this context, we study the problem of estimation based on quantized measurements. We focus mainly on the scalar location parameter estimation problem, the parameter is considered to be either constant or varying according to a slow Wiener process model. We present estimation algorithms to solve this problem and, based on performance analysis, we show the importance of quantizer range adaptiveness for obtaining optimal performance. We propose a low complexity adaptive scheme that jointly estimates the parameter and updates the quantizer thresholds, achieving in this way asymptotically optimal performance. With only 4 or 5 bits of resolution, the asymptotically optimal performance for uniform quantization is shown to be very close to the continuous measurement estimation performance. Finally, we propose a high resolution approach to obtain an approximation of the optimal nonuniform quantization thresholds for parameter estimation and also to obtain an analytical approximation of the estimation performance based on quantized measurements
Style APA, Harvard, Vancouver, ISO itp.
3

Cabral, farias Rodrigo. "Estimation sous contraintes de communication : algorithmes et performances asymptotiques". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00877073.

Pełny tekst źródła
Streszczenie:
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation.
Style APA, Harvard, Vancouver, ISO itp.
4

Ciuca, Marian. "Estimation non-paramétrique sous contraintes. Applications en finance stochastique". Aix-Marseille 1, 2003. http://www.theses.fr/2003AIX11018.

Pełny tekst źródła
Streszczenie:
Les mathématiques financières peuvent requerir, par rapport à la formule de Black-Scholes, l'estimation non-paramétrique uni-latérale de la fonction de volatilité: l'estimateur doit être toujours plus grand ou égal à la fonction estimée. Dans la première partie nous construisons des estimateurs par ondelettes, linéaires et non-linéaires, du coefficient de diffusion d'un processus de diffusion, et calculons leur vitesses de convergences dans un contexte minimax, et respectivement, adaptatif, lorsque la fonction estimée appartient à des classes de régularité de Besov, en utilisant la norme uniforme comme mesure de la qualité d'un estimateur; nous construisons ensuite un estimateur asymptotiquement uni-latéral du coefficient de diffusion et calculons sa vitesse de convergence minimax. Dans la deuxième partie nous étudions le problème d'estimation uni-latéral dans le modèle de bruit blanc gaussian, et mettons en évidence la vitesse de convergence minimax de ce problème d'estimation non-paramétrique sous contraintes, démontrant des résultats de borne infériuere et supérieure. Dans la troisième partie, nous prouvons que nos estimateurs de la volatilité, engendrent des stratégies Black-Scholes asymptotiquement répliquantes, super-répliquantes et sub-répliquantes. Le dernière partie présente nos estimateurs de point de vue appliqué, à l'aide de simulations numériques
In financial mathematics, when using the celebrated Black-Scholes formula one can be asked to nonparametrically estimate the volatility function in a one-side manner: the estimator has to be always grater than, or equal to, the estimated function. In the first part, working over Besov smoothenss classes, we construct wavelet linear and non-linear estimators of the diffusion coefficient of a diffusion process, using the sup-norm as a quality criterion for an estimator, and compute their convergence rates, in a minimax, and respectively adaptive, context; then we construct an asymptotically one-sided diffusion coefficient estimator and compute its minimax convergence rate. In the second part we study the one-side estimation problem in the Gaussian white noise model, and exhibit the minimax convergence rate for this constrained nonparametric estimation problem, proving lower and upper bound results. In the third part, we prove that our volatility estimators yield Black-Scholes asymptotically replicating, super-replicating and sub-replicating strategies. The last part presents our estimators from an applied point of view, by means of numerical simulations
Style APA, Harvard, Vancouver, ISO itp.
5

Ouassou, Idir. "Estimation sous contraintes pour des lois à symétrie sphérique". Rouen, 1999. http://www.theses.fr/1999ROUES031.

Pełny tekst źródła
Streszczenie:
Cette thèse a pour cadre la famille des lois à symétrie sphérique dont le paramètre de position est inconnu mais est soumis à certaines contraintes. Le cas particulier où la loi est gaussienne est développé séparément. Dans le premier chapitre, nous étudions le problème de l'estimation de la moyenne d'une telle loi quand sa norme est égale à une constante positive connue. Nous montrons que, sous coût quadratique, il existe un estimateur optimal de la moyenne dans la classe des estimateurs de type de James-Stein paramétrés par une constante positive. Ensuite nous donnons une classe plus générale d'estimateurs, dits robustes. Nous montrons que la constante optimale qui minimise le risque dans cette classe est bornée inférieurement par une constante indépendante de la contrainte et valide pour l'ensemble des estimateurs de cette classe. Dans le second chapitre, nous abordons le même problème avec l'hypothèse que les différentes contraintes considérées sont basées sur la positivité de toutes les composantes ou de quelques composantes de la moyenne. Le troisième chapitre fournit une généralisation de ce problème d'estimation de la moyenne quand celle-ci est restreinte à un cône polyédral. Enfin, dans le dernier chapitre de cette thèse, nous étendons la problématique d'estimation sous contraintes à l'estimation du coût quadratique d'un estimateur de la moyenne. Les contraintes considérées sont celles envisagées dans les deux premiers chapitres : la norme de la moyenne est connue ou certaines de ses composantes sont supposées positives.
Style APA, Harvard, Vancouver, ISO itp.
6

Younes, Hassan. "Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /". Montréal : Université du Québec à Montréal, 2005. http://accesbib.uqam.ca/cgi-bin/bduqam/transit.pl?&noMan=24065971.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Cousin, Jean-Gabriel. "Methodologies de conception de coeurs de processeurs specifiques (asip) : mise en oeuvre sous contraintes, estimation de la consommation". Rennes 1, 1999. http://www.theses.fr/1999REN10085.

Pełny tekst źródła
Streszczenie:
L'evolution rapide des applications de telecommunications, du multimedia et de l'electronique grand public offre la possibilite de realiser un systeme complet sur une meme puce. L'integration a un niveau d'abstraction eleve de ces applications sur des curs de processeurs flexibles, permet de reduire le temps de conception et le cout du produit. Nous etudions ici l'asip, une solution materielle heterogene, specifique, performante et flexible, de surface et de consommation reduites. Nous definissons des methodologies de conception de curs d'asip pour un environnement de synthese de haut niveau. Ces methodologies s'appuient sur des algorithmes d'ordonnancement par liste et sont nanties d'estimateurs de consommation assistant l'integration d'algorithmes en vue d'une optimisation. Nous ciblons et experimentons sur les applications de traitement du signal et d'images orientees flot de donnees, contraintes en temps ou restreintes en surface. Une premiere methodologie synthetise continument les algorithmes contraints en temps choisis pour caracteriser l'application consideree, et concoit le cur d'asip correspondant dont on deduit le jeu d'instructions ; la seconde, similaire a la premiere, permet de surcroit d'agir sur l'algorithmie ou sur l'architecture en cours de conception, en reaction aux informations delivrees par nos estimateurs. La troisieme nous confere la possibilite de concevoir une architecture vlsi a ressources contraintes. Par cette technique et par la flexibilite de l'architecture, nous prospectons sur l'implementation d'algorithmes par le biais de notre environnement de synthese materielle. Notre presentation des techniques avancees d'estimation et d'optimisation de la consommation, nous permet de degager les modeles caracterisant les composants de nos asip. Nous presentons trois estimateurs de la consommation : le premier agit lors de l'execution des modules usuels de la synthese, le second estime apres synthese complete de l'algorithme cible et le troisieme s'appuie sur le jeu d'instructions du cur d'asip synthetise. Pour assurer le suivi de nos recherches, nous effectuons une analyse critique, tant sur le developpement de nos outils elabores et sur la conduite de nos methodologies, que sur les resultats de nos experimentations
Style APA, Harvard, Vancouver, ISO itp.
8

Maatouk, Hassan. "Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications". Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0791/document.

Pełny tekst źródła
Streszczenie:
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée
This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities
Style APA, Harvard, Vancouver, ISO itp.
9

Lobjois, Lionel. "Problèmes d'optimisation combinatoire sous contraintes : vers la conception automatique de méthodes de résolution adaptées à chaque instance". Toulouse, ENSAE, 1999. http://www.theses.fr/1999ESAE0025.

Pełny tekst źródła
Streszczenie:
Nous étudions dans cette thèse deux voies pour résoudre plus efficacement les problèmes d'optimisation combinatoire exprimés dans le cadre génétique VCSP (Valued Constraint Satisfaction Problem), extension du cadre CSP (Constraint Satisfaction Problem) pour l'optimisation. La première voie concerne la recherche de nouvelles méthodes globalement plus performantes par la coopération entre méthodes complètes et méthodes incomplètes. Nous proposons en particulier une nouvelle méthode hybride dédiée à la résolution de VCSP en contexte interruptible et la comparons aux recherches locales standards. La seconde voie concerne la recherche d'outil d'aide à la décison permettant d'utiliser une méthode adaptée à chaque situation, c'est-à-dire adaptée à l'instance à résoudre et au temps imparti à la résolution de cette instance. Nous proposons tout d'abord une adaptation de la méthode proposée par Knuth en 1975 afin d'estimer le temps de résolution des méthodes complètes de type séparation et évaluation. Nous envisageons ensuite une série d'application potentielles pour cet estimateur. Nous proposons notamment la méthode SPP (algorithm Selection by Performance Prediction) capable de sélectionner, instance par instance, l'algorithme le plus performant parmi une base d'algorithmes complets. Nous terminons ce mémoire par quelques voies permettant d'étendre cette méthode à une construction automatique d'algorithmes complets "optimisés" pour chaque instance.
Style APA, Harvard, Vancouver, ISO itp.
10

Zebadúa, Augusto. "Traitement du signal dans le domaine compressé et quantification sur un bit : deux outils pour les contextes sous contraintes de communication". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT085/document.

Pełny tekst źródła
Streszczenie:
La surveillance de phénomènes physiques à l’aide d’un réseau de capteurs (autonomes mais communicants) est fortement contrainte en consommation énergétique, principalement pour la transmission de données. Dans ce cadre, cette thèse propose des méthodes de traitement du signal permettant de réduire les communications sans compromettre la précision des calculs ultérieurs. La complexité de ces méthodes est réduite, de façon à ne consommer que peu d’énergie supplémentaire. Deux éléments servent à leur synthèse : la compression dès l’acquisition (Acquisition compressive) et la quantification grossière (sur 1 bit). D’abord, on étudie le corrélateur compressé, un estimateur qui permet d’évaluer les fonctions de corrélation, temps de retard et densités spectrales en exploitant directement des signaux compressés. Ses performances sont comparées au corrélateur usuel. Si le signal à traiter possède un support spectral étroit, l’estimateur proposé s’avère sensiblement meilleur que l’usuel. Ensuite, inspirés par les corrélateurs à forte quantification des années 50 et 60, deux nouveaux corrélateurs sont étudiés : le compressé sur 1 bit et le compressé hybride, qui peuvent également surpasser les performances de leurs contreparties non-compressées. Finalement, on montre la pertinence de ces méthodes pour les applications envisagées à travers l’exploitation de données réelles
Monitoring physical phenomena by using a network of sensors (autonomous but interconnected) is highly constrained in energy consumption, mainly for data transmission. In this context, this thesis proposes signal processing tools to reduce communications without compromising computational accuracy in subsequent calculations. The complexity of these methods is reduced, so as to consume only little additional energy. Our two building blocks are compression during signal acquisition (Compressive Sensing) and CoarseQuantization (1 bit). We first study the Compressed Correlator, an estimator which allows for evaluating correlation functions, time-delay, and spectral densities directly from compressed signals. Its performance is compared with the usual correlator. As we show, if the signal of interest has limited frequency content, the proposed estimator significantly outperforms theconventional correlator. Then, inspired by the coarse quantization correlators from the 50s and 60s, two new correlators are studied: The 1-bit Compressed and the Hybrid Compressed, which can also outperform their uncompressed counterparts. Finally, we show the applicability of these methods in the context of interest through the exploitation of real data
Style APA, Harvard, Vancouver, ISO itp.
11

Luong, Marie. "Conception optimale de l'architecture d'un systeme d'instrumentation sous contraintes de diagnostic, de fiabilité et de disponibilité". Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL155N.

Pełny tekst źródła
Streszczenie:
L’objectif de ce mémoire concerne, d'une part, l'analyse structurelle et quantitative d'un processus et, d'autre part, la conception optimale d'une architecture d'instrumentation permettant de définir la position, le nombre et la précision des capteurs. Cette conception doit satisfaire à de nombreuses contraintes dont les principales sont la disponibilité de la valeur des variables nécessaires, la détectabilité et l'isolabilité des capteurs défaillants, la précision de l'estimation, le coût, la fiabilité et la disponibilité du systeme d'instrumentation. Pour ce qui est l'analyse structurelle et quantitative, nous avons développé des méthodes permettant de caractériser le processus selon le critère d'observabilité, le degré de redondance des variables, la détectabilité et l'isolabilité des capteurs défaillants, la précision de l'estimation de l'état du processus, la fiabilité et la disponibilité de son systeme d'instrumentation. Quant à la conception optimale d'un systeme d'instrumentation, elle a été résolue en trois étapes: i) définir la position et le nombre de capteurs sous contraintes d'observabilité, de degré de redondance, de détectabilité et d'isolabilité des capteurs défaillants, de non-mesurabilité et d'obligation de mesurer des variables. En utilisant les cycles et la formulation en termes de programmation linéaire en nombres entiers, une solution optimale est proposée soit en minimisant le coût à fiabilité imposée, soit en maximisant la fiabilité à coût imposé, ii) déterminer la précision des capteurs de façon à garantir une précision imposée de l'estimation, en se basant sur un algorithme à itération directe, iii) déterminer le taux de réparation des capteurs pour obtenir une disponibilité donnée pour le systeme d'instrumentation. Ces méthodes ont été testées sur une partie d'une plate-forme pétrolière de la société ELF
Style APA, Harvard, Vancouver, ISO itp.
12

Pages, Gaël. "Estimation de la posture d'un sujet paraplégique en vue d'une rééducation des membres inférieurs sous stimulation électrique fonctionnelle". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00123102.

Pełny tekst źródła
Streszczenie:
Cette thèse contribue aux recherches menées dans le cadre de la restauration du mouvement sous stimulation électrique fonctionnelle (SEF) chez les paraplégiques. L'étude porte sur l'estimation de la posture à partir d'efforts volontairement exercés sur les poignées d'un cadre de support. Ceci est posé comme un problème de satisfaction de contraintes et résolu au travers d'algorithmes basés sur l'analyse par intervalles. Les contraintes sont définies à partir d'un modèle cinématique du corps humain. La méthodologie est capable de prendre en compte les incertitudes relatives aux quantités mesurées ou connues a priori. Des ensembles de postures solutions sont calculés et l'incertitude qui leur est associée est rigoureusement caractérisée. La méthode à été d'abord validée expérimentalement avec des sujets valides, utilisant deux capteurs d'efforts six-axes équipés sur les poignées d'un cadre de support, et fut finalement mise en oeuvre lors d'expérimentations avec des patients paraplégiques.
Style APA, Harvard, Vancouver, ISO itp.
13

Venturino, Antonello. "Constrained distributed state estimation for surveillance missions using multi-sensor multi-robot systems". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST118.

Pełny tekst źródła
Streszczenie:
Les algorithmes distribués sont dorénavant présents dans de nombreux aspects de l'Automatique avec des applications pour des systèmes multi-robots, des réseaux de capteurs, couvrant des sujets tels que la commande, l'estimation d'état, la détection de défauts, la détection et l'atténuation des cyberattaques sur les systèmes cyber-physiques, etc. En effet, les systèmes distribués sont confrontés à des problèmes tels que l'extensibilité à un grand nombre d'agents et la communication entre eux. Dans les applications de systèmes multi-agents (par exemple, flotte de robots mobiles, réseaux de capteurs), il est désormais courant de concevoir des algorithmes d'estimation d'état de manière distribuée afin que les agents puissent accomplir leurs tâches sur la base de certaines informations partagées au sein de leur voisinage. Dans le cas de missions de surveillance, un réseau de capteurs statique et à faible coût (par exemple, caméras) pourrait ainsi être déployé pour localiser de manière distribuée des intrus dans une zone donnée. Dans ce contexte, l'objectif principal de cette thèse est de concevoir des observateurs distribués pour estimer l'état d'un système dynamique (par exemple, flotte de robots intrus) avec une charge de calcul réduite tout en gérant efficacement les contraintes et les incertitudes. Cette thèse propose de nouveaux algorithmes d'estimation distribuée à horizon glissant avec une pré-estimation de type Luenberger dans la formulation du problème local résolu par chaque capteur, entraînant une réduction significative du temps de calcul, tout en préservant la précision de l'estimation. En outre, ce manuscrit propose une stratégie de consensus pour améliorer le temps de convergence des estimations entre les capteurs sous des conditions de faible observabilité (par exemple, des véhicules intrus non visibles par certaines caméras). Une autre contribution concerne l'amélioration de la convergence de l'erreur d'estimation en atténuant les problèmes de non observabilité à l'aide d'un mécanisme de diffusion de l'information sur plusieurs pas (appelé "l-step") entre voisinages. L'estimation distribuée proposée est conçue pour des scénarios réalistes de systèmes à grande échelle impliquant des mesures sporadiques (c'est-à-dire disponibles à des instants a priori inconnus). À cette fin, les contraintes sur les mesures (par exemple, le champ de vision de caméras) sont incorporées dans le problème d'optimisation à l'aide de paramètres binaires variant dans le temps. L'algorithme développé est implémenté sous le middleware ROS (Robot Operating System) et des simulations réalistes sont faites à l'aide de l'environnement Gazebo. Une validation expérimentale de la technique de localisation proposée est également réalisée pour un système multi-véhicules (SMV) à l'aide d'un réseau de capteurs statiques composé de caméras à faible coût qui fournissent des mesures sur les positions d'une flotte de robots mobiles composant le SMV. Les algorithmes proposés sont également comparés à des résultats de la littérature en considérant diverses métriques telles que le temps de calcul et la précision des estimées
Distributed algorithms have pervaded many aspects of control engineering with applications for multi-robot systems, sensor networks, covering topics such as control, state estimation, fault detection, cyber-attack detection and mitigation on cyber-physical systems, etc. Indeed, distributed schemes face problems like scalability and communication between agents. In multi-agent systems applications (e.g. fleet of mobile robots, sensor networks) it is now common to design state estimation algorithms in a distributed way so that the agents can accomplish their tasks based on some shared information within their neighborhoods. In surveillance missions, a low-cost static Sensor Network (e.g. with cameras) could be deployed to localize in a distributed way intruders in a given area. In this context, the main objective of this work is to design distributed observers to estimate the state of a dynamic system (e.g. a multi-robot system) that efficiently handle constraints and uncertainties but with reduced computation load. This PhD thesis proposes new Distributed Moving Horizon Estimation (DMHE) algorithms with a Luenberger pre-estimation in the formulation of the local problem solved by each sensor, resulting in a significant reduction of the computation time, while preserving the estimation accuracy. Moreover, this manuscript proposes a consensus strategy to enhance the convergence time of the estimates among sensors while dealing with weak unobservability conditions (e.g. vehicles not visible by some cameras). Another contribution concerns the improvement of the convergence of the estimation error by mitigating unobservability issues by using a l-step neighborhood information spreading mechanism. The proposed distributed estimation is designed for realistic large-scale systems scenarios involving sporadic measurements (i.e. available at time instants a priori unknown). To this aim, constraints on measurements (e.g. camera field of view) are embodied using time-varying binary parameters in the optimization problem. Both realistic simulations within the Robot Operating System (ROS) framework and Gazebo environment, as well as experimental validation of the proposed DMHE localization technique of a Multi-Vehicle System (MVS) with ground mobile robots are performed, using a static Sensor Network composed of low-cost cameras which provide measurements on the positions of the robots of the MVS. The proposed algorithms are compared to previous results from the literature, considering several metrics such as computation time and accuracy of the estimates
Style APA, Harvard, Vancouver, ISO itp.
14

Gu, Yi. "Estimation sous contrainte et déconvolution autodidacte". Paris 11, 1989. http://www.theses.fr/1989PA112063.

Pełny tekst źródła
Streszczenie:
Partie A : Estimation sous contrainte. Le filtre optimal apparaissant dans l'estimation linéaire en moyenne quadratique peut-être obtenu par projection sur l'espace des observations. Cette méthode de projection n'est pas particulière à l'estimation linéaire et peut-être étendue dans de nombreuses directions. Tout d'abord l'espérance conditionnelle donnant la meilleure estimation en moyenne quadratique est aussi une projection. De plus de nombeurx problèmes d'estimation non linéaires peuvent être résolus par projection et c'est tout spécialement le cas des problèmes sous contriantes étudiés en détail dans cet article. Partie B : Déconvolution autodidacte. Quand l'entrée est discrète le problème de la déconvolution d'un canal représenté par une fraction rationnelle (fonction de transfert) peut être considéré comme un problème d'estimation particulier, celui avec contrainte non linéaire définie par un ensemble de décision correcte, dont l'existence est dûe à l'entrée discrète. Deux théorèmes fondamentaux sont établis : un théorème sur la condition d'existence de la solution ; un théorème qui montre que si l'ordre de la partie transverse de l'égaliseur est assez élevé, cette condition d'existence est satisfaite. Cette théorie est étendue au cas où un bruit est ramené à l'entrée ou à la sortie du canal. Pour résoudre de façon adaptative ce problème, l'initialisation s'impose. Deux techniques d'initialisation sont développées : la méthode de prédiction et de rétroprédiction qui n'a pas besoin de la connaissance a priori de l'entrée ni de sa distribution. La méthode du moment n'est présentée que comme une applicaiton, à l'initialisation, de la méthode générale de la déconvolution. La simulation montre que tous les travaux de la partie B peuvent se baser sur la théorie classique d'estimation et sur les principes de prédiction et de rétroprédiction. Ces théories appliquées à une structure d'égalisation, elle même pilotée par un algorithme classique bien initialisée, peuvent résussir à traiter le cas où l'entrée est discrète.
Style APA, Harvard, Vancouver, ISO itp.
15

Lahbib, Insaf. "Contribution à l'analyse des effets de vieillissement de composants actifs et de circuits intégrés sous contraintes DC et RF en vue d'une approche prédictive". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC256.

Pełny tekst źródła
Streszczenie:
Les travaux de cette thèse portent sur la simulation de la dégradation des paramètres électriques des transistors MOS et bipolaires sous stress statiques et dynamiques. Cette étude a été menée à l’aide d’un outil de simulation de fiabilité développé en interne. Selon la technologie MOS ou bipolaire, les mécanismes étudiés ont été successivement : Hot Carrier Injection, Bias Temperature instability, Mixed Mode et Reverse base emitter bias. L’investigation a été aussi étendue au niveau circuit. Nous nous sommes ainsi intéressés à l’effet de la dégradation des transistors sur la fréquence d’un oscillateur en anneau et les performances RF d’un amplificateur faible bruit. Les circuits ont été soumis à des contraintes DC , AC et RF. La prédictibilité, établie de ces dégradations, a été validée par des essais de vieillissement expérimentaux sur des démonstrateurs encapsulés et montés sur PCB. Les résultats de ces études ont permis de valider la précision du simulateur et la méthode de calcul quasi-statique utilisée pour calculer les dégradations sous stress dynamiques. Ces travaux de recherche ont pour but d’inscrire cette approche prédictive dans un flot de conception de circuits afin d’assurer leur fiabilité
The work of this thesis focuses on the simulation of the electrical parameters degradation of MOS and bipolar transistors under static and dynamic stresses. This study was conducted using an in-house reliability simulation tool. According to the MOS or bipolar technology, the studied mechanisms were successively: Hot Carrier Injection, Bias Temperature instability, Mixed Mode and Reverse base emitter bias. The investigation was then extended to circuit-level. The effect of transistors degradation on a ring oscillator frequency and the RF performances of a low noise amplifier were investigated. The circuits were subjected to DC, AC and RF constraints. Predictability of these degradations has been validated by experimental aging tests on encapsulated and PCB-mounted demonstrators. The results of these studies proved the accuracy of the simulator and validated the quasi-static calculation method used to predict the degradation under dynamic stress. The goal of this research is to embed this predictive approach into a circuit design flow to ensure its reliability
Style APA, Harvard, Vancouver, ISO itp.
16

Terreaux, Eugénie. "Théorie des Matrices Aléatoires pour l'Imagerie Hyperspectrale". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC091/document.

Pełny tekst źródła
Streszczenie:
La finesse de la résolution spectrale et spatiale des images hyperspectrales en font des données de très grande dimension. C'est également le cas d'autres types de données, où leur taille tend à augmenter pour de plus en plus d'applications. La complexité des données provenant de l'hétérogénéité spectrale et spatiale, de la non gaussianité du bruit et des processus physiques sous-jacents, renforcent la richesse des informations présentes sur une image hyperspectrale. Exploiter ces informations demande alors des outils statistiques adaptés aux grandes données mais aussi à leur nature non gaussienne. Des méthodes reposant sur la théorie des matrices aléatoires, théorie adaptée aux données de grande dimension, et reposant sur la robustesse, adaptée aux données non gaussiennes, sont ainsi proposées dans cette thèse, pour des applications à l'imagerie hyperspectrale. Cette thèse propose d'améliorer deux aspects du traitement des images hyperspectrales : l'estimation du nombre d'endmembers ou de l'ordre du modèle et le problème du démélange spectral. En ce qui concerne l'estimation du nombre d'endmembers, trois nouveaux algorithmes adaptés au modèle choisi sont proposés, le dernier présentant de meilleures performances que les deux autres, en raison de sa plus grande robustesse.Une application au domaine de la finance est également proposée. Pour le démélange spectral, trois méthodes sont proposées, qui tiennent comptent des diff érentes particularités possibles des images hyperspectrales. Cette thèse a permis de montrer que la théorie des matrices aléatoires présente un grand intérêt pour le traitement des images hyperspectrales. Les méthodes développées peuvent également s'appliquer à d'autres domaines nécessitant le traitement de données de grandes dimensions
Hyperspectral imaging generates large data due to the spectral and spatial high resolution, as it is the case for more and more other kinds of applications. For hyperspectral imaging, the data complexity comes from the spectral and spatial heterogeneity, the non-gaussianity of the noise and other physical processes. Nevertheless, this complexity enhances the wealth of collected informations, that need to be processed with adapted methods. Random matrix theory and robust processes are here suggested for hyperspectral imaging application: the random matrix theory is adapted to large data and the robustness enables to better take into account the non-gaussianity of the data. This thesis aims to enhance the model order selection on a hyperspectral image and the unmixing problem. As the model order selection is concerned, three new algorithms are developped, and the last one, more robust, gives better performances. One financial application is also presented. As for the unmixing problem, three methods that take into account the peculierities of hyperspectral imaging are suggested. The random matrix theory is of great interest for hyperspectral image processing, as demonstrated in this thesis. Differents methods developped here can be applied to other field of signal processing requiring the processing of large data
Style APA, Harvard, Vancouver, ISO itp.
17

Sircoulomb, Vincent. "Etude des concepts de filtrage robuste aux méconnaissances de modèle et aux pertes de mesures. Application aux systèmes de navigation". Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00350451.

Pełny tekst źródła
Streszczenie:
La résolution d'un problème d'estimation de l'état d'un système nécessite de disposer d'un modèle régissant l'évolution des variables d'état et de mesurer de manière directe ou indirecte l'ensemble ou une partie de ces variables d'état. Les travaux exposés dans ce mémoire de thèse portent sur la problématique d'estimation en présence de méconnaissances de modèle et de pertes de capteurs. La première partie de ce travail constitue la synthèse d'un dispositif d'estimation d'état pour systèmes non linéaires. Cela consiste à sélectionner un estimateur d'état et convenablement le régler, puis à concevoir algorithmiquement, à partir d'un critère introduit pour la circonstance, une redondance matérielle visant à compenser la perte de certains capteurs. La seconde partie de ce travail porte sur la conception, à l'aide de la variance d'Allan, d'un sous-modèle permettant de compenser les incertitudes d'un modèle d'état, ce sous-modèle étant utilisable par un filtre de Kalman. Ce travail a été exploité pour tenir compte de dérives gyroscopiques dans le cadre d'une navigation inertielle hybridée avec des mesures GPS par un filtre de Kalman contraint. Les résultats obtenus, issus d'expériences sur deux trajectoires d'avion, ont montré un comportement sain et robuste de l'approche proposée.
Style APA, Harvard, Vancouver, ISO itp.
18

Bennani, Youssef. "Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Pełny tekst źródła
Streszczenie:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
Style APA, Harvard, Vancouver, ISO itp.
19

Sircoulomb, Vincent. "Étude des concepts de filtrage robuste aux méconnaissances de modèles et aux pertes de mesures. Application aux systèmes de navigation". Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL093N/document.

Pełny tekst źródła
Streszczenie:
La résolution d'un problème d'estimation de l'état d'un système nécessite de disposer d'un modèle régissant l'évolution des variables d'état et de mesurer de manière directe ou indirecte l'ensemble ou une partie de ces variables d'état. Les travaux exposés dans ce mémoire de thèse portent sur la problématique d'estimation en présence de méconnaissances de modèle et de pertes de capteurs. La première partie de ce travail constitue la synthèse d'un dispositif d'estimation d'état pour systèmes non linéaires. Cela consiste à sélectionner un estimateur d'état et convenablement le régler, puis à concevoir algorithmiquement, à partir d'un critère introduit pour la circonstance, une redondance matérielle visant à compenser la perte de certains capteurs. La seconde partie de ce travail porte sur la conception, à l'aide de la variance d'Allan, d'un sous-modèle permettant de compenser les incertitudes d'un modèle d'état, ce sous-modèle étant utilisable par un filtre de Kalman. Ce travail a été exploité pour tenir compte de dérives gyroscopiques dans le cadre d'une navigation inertielle hybridée avec des mesures GPS par un filtre de Kalman contraint. Les résultats obtenus, issus d'expériences sur deux trajectoires d'avion, ont montré un comportement sain et robuste de l'approche proposée
To solve the problem of estimating the state of a system, it is necessary to have at one's disposal a model governing the dynamic of the state variables and to measure directly or indirectly all or a part of these variables. The work presented in this thesis deals with the estimation issue in the presence of model uncertainties and sensor losses. The first part of this work represents the synthesis of a state estimation device for nonlinear systems. It consists in selecting a state estimator and properly tuning it. Then, thanks to a criterion introduced for the occasion, it consists in algorithmically designing a hardware redundancy aiming at compensating for some sensor losses. The second part of this work deals with the conception of a sub-model compensating for some model uncertainties. This sub-model, designed by using the Allan variance, is usable by a Kalman filter. This work has been used to take into account some gyroscopical drifts in a GPS-INS integrated navigation based on a constrained Kalman filter. The results obtained, coming from experiments on two plane trajectories, showed a safe and robust behaviour of the proposed method
Style APA, Harvard, Vancouver, ISO itp.
20

Borloz, Bruno. "Estimation, détection, classification par maximisation du rapport signal-à-bruit : le filtre adapté stochastique sous contrainte". Toulon, 2005. http://www.theses.fr/2005TOUL0001.

Pełny tekst źródła
Streszczenie:
Les problèmes de détection et de classification de signaux aléatoires (transitoires, textures,. . . )sont d'une grande importance. Le filtre adapté stochastique sous contrainte se propose de maximiser le rapport signal-à-bruit dans un sous-espace de dimension donnée a priori pour atteindre ces objectifs. Il constitue une extension du filtre adapté et du filtre stochastique dont il partage la démarche. Cette approche est justifiée notamment quand les densités de probabilités des signaux sont inconnues. La méthode proposée limite alors ses hypothèses à la connaissance des seules propriétés statisiques d'ordre deux des processus aléatoires en jeu, par le biais de leur matrice de covariance. La mise en équation conduit à résoudre une équation aux valeurs propres dont la matrice inconnue est paramétrée par le RSB, terme à maximiser qui s'écrit sous la forme d'un rapport de sommes de formes quadratiques : un algorithme est proposé dont on démontre qu'il converge vers la bonne solution. Les perforamnces sont quantifiées et les comparaisons entre méthodes effectuées à l'aide des courbes COR
Detection and classification problems of random signals (transient, textures. . . )have great importance. The constrained matched filter aims at maximizing the signal-to-noise ratio in a subspace whose dimension is given a priori to reach these objectives. It is an extensision of the stochastic matched filter and of the matched filter with which it shares the same approach. This approach is justified when probability density functions are unknown. The methid assumes that only second-order properties of processes at play are known, through covariance matrices. Equations to solve are an eigenvalues one of which the matrix is unknown but depends on the signal-to-noise ratio, term to maximize written like a ratio of sums of quadrilatic forms : an algorithm is proposed, which is proved to converge to he good solution. Performances are quantified and mathods are compared via ROC curves
Style APA, Harvard, Vancouver, ISO itp.
21

Makni, Aida. "Fusion de données inertielles et magnétiques pour l’estimation de l’attitude sous contrainte énergétique d’un corps rigide accéléré". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT025/document.

Pełny tekst źródła
Streszczenie:
Dans ce travail de thèse on s’intéresse à l’estimation de l’attitude d’un corps rigideen mouvement dans l’espace 3D en utilisant les quaternions comme représentation. Cetteproblématique a été largement étudiée dans la littérature sous divers domaines d’application.L’objectif de la thèse est de proposer de nouvelles méthodes de fusion de données en combinantdes mesures inertielles et magnétiques. Dans un premier temps, nous nous sommesintéressés à l’estimation de l’attitude en cas de mouvement accéléré où l’accélération linéairedu corps n’est plus négligeable devant la gravité. Deux approches ont été proposées dans cecadre. La première utilise un filtre de Kalman adaptatif pour la compensation des accélérationslinéaires. Précisément, des lois de détection ont été développées pour distinguer d’unefaçon automatique les différentes phases de mouvement (statiques et dynamiques). Ainsi, lamatrice de covariance associée à l’accélération linéaire est estimée afin d’ajuster le gain dufiltre. La deuxième approche consiste à intégrer un filtre singulier élaboré sur la base d’unnouveau modèle, dans lequel le modèle du processus est défini en se basant sur les mesuresissues de l’accéléromètre tandis que le modèle d’observation est défini par les mesures issuesdu gyromètres et du magnétomètres. Cette formulation permet de prendre en compte l’effetdes accélérations linéaires d’une manière efficace. Dans un deuxième temps, on s’est focalisésur l’estimation de l’attitude avec utilisation intermittente de gyromètres, considérés commecapteurs énergivores. Nous avons étudié dans ce cas la façon la plus adéquate afin de réduirel’acquisition des mesures de vitesse angulaire tout en gardant une qualité acceptable de l’estimationde l’attitude. Toutes les approches développées ont été validées par des simulationsnumériques ainsi que des expérimentations utilisant des données réelles
In this PhD. thesis we deal with attitude estimation of accelerated rigid body moving in the 3D space using quaternion parameterization. This problem has been widely studied in the literature in various application areas. The main objective of the thesis is to propose new methods for data fusion to combine inertial gyros) and magnetic measurements. The first challenge concerns the attitude estimation during dynamic cases, in which external acceleration of the body is not negligible compared to the Gravity. Two main approaches are proposed in this context. Firstly, a quatenion-based adaptive Kalman filter (q-AKF) was designed in order to compensate for such external acceleration. Precisely, a smart detector is designed to decide whether the body is in static or dynamic case. Then, the covariance matrix of the external acceleration is estimated to tune the filter gain. Second, we developed descriptor filter based on a new formulation of the dynamic model where the process model is fed by accelerometer measurements while observation model is fed by gyros and magnetometer measurements. Such modeling gives rise to a descriptor system. The resulting model allows taking the external acceleration of the body into account in a very efficient way. The second challenge is related to the energy consumption issue of gyroscope, considered as the most power consuming sensor. We study the way to reduce the gyro measurements acquisition by switching on/off the sensor while maintaining an acceptable attitude estimation. The effciency of the proposed methods is evaluated by means of numerical simulations and experimental tests
Style APA, Harvard, Vancouver, ISO itp.
22

Giguelay, Jade. "Estimation des moindres carrés d'une densité discrète sous contrainte de k-monotonie et bornes de risque. Application à l'estimation du nombre d'espèces dans une population". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS248/document.

Pełny tekst źródła
Streszczenie:
Cette thèse est une contribution au domaine de l'estimation non-paramétrique sous contrainte de forme. Les fonctions sont discrètes et la forme considérée, appelée k-monotonie, k désignant un entier supérieur à 2, est une généralisation de la convexité. L'entier k constitue un indicateur du degré de creux d'une fonction convexe. Le manuscrit est structuré en trois parties en plus de l'introduction, de la conclusion et d'une annexe.Introduction :L'introduction comprend trois chapitres. Le premier présente un état de l'art de l'estimation de densité sous contrainte de forme. Le second est une synthèse des résultats obtenus au cours de la thèse, disponible en français et en anglais. Enfin, le Chapitre 3 regroupe quelques notations et des résultats mathématiques utilisés au cours du manuscrit.Partie I : Estimation d'une densité discrète sous contrainte de k-monotonieDeux estimateurs des moindres carrés d'une distribution discrète p* sous contrainte de k-monotonie sont proposés. Leur caractérisation est basée sur la décomposition en base de spline des suites k-monotones, et sur les propriétés de leurs primitives. Les propriétés statistiques de ces estimateurs sont étudiées. Leur qualité d'estimation, en particulier, est appréciée. Elle est mesurée en terme d'erreur quadratique, les deux estimateurs convergent à la vitesse paramétrique. Un algorithme dérivé de l'Algorithme de Réduction de Support est implémenté et disponible au R-package pkmon. Une étude sur jeux de données simulés illustre les propriétés de ces estimateurs. Ce travail a été publié dans Electronic Journal of Statistics (Giguelay, 2017).Partie II : Calculs de bornes de risqueDans le premier chapitre de la Partie II, le risque quadratique de l'estimateur des moindres carrés introduit précédemment est borné. Cette borne est adaptative en le sens qu'elle dépend d'un compromis entre la distance de p* à la frontière de l'ensemble des densités k-monotones à support fini, et de la complexité (en terme de décomposition dans la base de spline) des densités appartenant à cet ensemble qui sont suffisamment proches de p*. La méthode est basée sur une formulation variationnelle du risque proposée par Chatterjee (2014) etgénéralisée au cadre de l'estimation de densité. Par la suite, les entropies à crochet des espaces fonctionnels correspondants sont calculées afin de contrôler le supremum de processus empiriques impliqué dans l'erreur quadratique. L'optimalité de la borne de risque est ensuite discutée au regard des résultats obtenus dans le cas continu et dans le cadre de la régression.Dans le second chapitre de la Partie II, des résultats complémentaires sur les entropies à crochet pour les espaces de fonctions k-monotones sont donnés.Partie III : Estimation du nombre d'espèces dans une population et tests de k-monotonieLa dernière partie traite du problème de l'estimation du nombre d'espèces dans une population. La modélisation choisie est celle d'une distribution d'abondance commune à toutes les espèces et définie comme un mélange. La méthode proposée repose sur l'hypothèse de k-monotonie d'abondance. Cette hypothèse permet de rendre le problème de l'estimation du nombre d'espèces identifiable. Deux approches sont proposées. La première est basée sur l'estimateur des moindres carrés sous contrainte de k-monotonie, tandis que la seconde est basée sur l'estimateur empirique. Les deux estimateurs sont comparés sur une étude sur données simulées. L'estimation du nombre d'espèces étant fortement dépendante du degré de k-monotonie choisi dans le modèle, trois procédures de tests multiples sont ensuite proposées pour inférer le degré k directement sur la base des observations. Le niveau et la puissance de ces procédures sont calculés, puis évalués au moyen d'une étude sur jeux de données simulés et la méthode est appliquée sur des jeux de données réels issus de la littérature
This thesis belongs to the field of nonparametric density estimation under shape constraint. The densities are discrete and the form is k-monotonicity, k>1, which is a generalization of convexity. The integer k is an indicator for the hollow's degree of a convex function. This thesis is composed of three parts, an introduction, a conclusion and an appendix.Introduction :The introduction is structured in three chapters. First Chapter is a state of the art of the topic of density estimation under shape constraint. The second chapter of the introduction is a synthesis of the thesis, available in French and in English. Finally Chapter 3 is a short chapter which summarizes the notations and the classical mathematical results used in the manuscript.Part I : Estimation of a discrete distribution under k-monotonicityconstraintTwo least-square estimators of a discrete distribution p* under constraint of k-monotonicity are proposed. Their characterisation is based on the decomposition on a spline basis of k-monotone sequences, and on the properties of their primitives. Their statistical properties are studied, and in particular their quality of estimation is measured in terms of the quadratic error. They are proved to converge at the parametric rate. An algorithm derived from the support reduction algorithm is implemented in the R-package pkmon. A simulation study illustrates the properties of the estimators. This piece of works, which constitutes Part I of the manuscript, has been published in ElectronicJournal of Statistics (Giguelay, 2017).Part II : Calculation of risks boundsIn the first chapter of Part II, a methodology for calculating riskbounds of the least-square estimator is given. These bounds are adaptive in that they depend on a compromise between the distance of p* on the frontier of the set of k-monotone densities with finite support, and the complexity (linked to the spline decomposition) of densities belonging to this set that are closed to p*. The methodology based on the variational formula of the risk proposed by Chatterjee (2014) is generalized to the framework of discrete k-monotone densities. Then the bracketting entropies of the relevant functionnal space are calculating, leading to control the empirical process involved in the quadratic risk. Optimality of the risk bound is discussed in comparaison with the results previously obtained in the continuous case and for the gaussian regression framework. In the second chapter of Part II, several results concerningbracketting entropies of spaces of k-monotone sequences are presented.Part III : Estimating the number of species in a population and tests of k-monotonicityThe last part deals with the problem of estimating the number ofpresent species in a given area at a given time, based on theabundances of species that have been observed. A definition of ak-monotone abundance distribution is proposed. It allows to relatethe probability of observing zero species to the truncated abundancedistribution. Two approaches are proposed. The first one is based on the Least-Squares estimator under constraint of k-monotonicity, the second oneis based on the empirical distribution. Both estimators are comparedusing a simulation study. Because the estimator of the number ofspecies depends on the value of the degree of monotonicity k, we proposea procedure for choosing this parameter, based on nested testingprocedures. The asymptotic levels and power of the testing procedureare calculated, and the behaviour of the method in practical cases isassessed on the basis of a simulation study
Style APA, Harvard, Vancouver, ISO itp.
23

Bérard, Thomas. "Estimation du champ de contrainte dans le massif granitique de Soultz-sous-Forêts : implication sur la rhéologie de la croûte fragile". Paris, Institut de physique du globe, 2003. http://www.theses.fr/2003GLOB0005.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
24

Simon, Antoine. "Optimisation énergétique de chaînes de traction hybrides essence et Diesel sous contrainte de polluants : Étude et validation expérimentale". Thesis, Orléans, 2018. http://www.theses.fr/2018ORLE2010.

Pełny tekst źródła
Streszczenie:
L’hybridation électrique de la chaîne de traction automobile est l’une des solutions adoptées pour respecter les règlementations futures sur ses émissions. La stratégie de supervision de la chaîne de traction hybride répartit la puissance produite par le moteur à combustion interne et la machine électrique. Elle répond habituellement à un problème d’optimisation où l’objectif est de réduire la consommation de carburant mais nécessite à présent d’y ajouter les émissions polluantes. La chaîne de dépollution, placée à l’échappement du moteur, permet de diminuer la quantité de polluants émise dans l’atmosphère. Cependant, elle n’est efficace qu’à partir d’un seuil de température, et dépend de la chaleur apportée par les gaz d’échappement du moteur thermique. La première partie de ce travail est donc consacrée à la modélisation de la consommation énergétique et des émissions polluantes de la chaine de traction hybride. La modélisation de l’efficacité de la chaîne de dépollution est réalisée selon deux contextes. Le modèle zéro-dimensionnel est adapté aux contraintes de calcul de la commande optimale. Le modèle unidimensionnel associé à un estimateur d’état permet d’être embarqué et calculé en temps réel. À partir de ces travaux, la seconde partie de cette thèse déduit des stratégies de supervision à l’aide de la théorie de la commande optimale. Dans un premier cas, le principe de Bellman permet de calculer la commande optimale d’un véhicule hybride Diesel selon des critères de supervision ayant plus ou moins connaissance de l’efficacité de la chaîne de dépollution des émissions de NOX. Dans un second cas, une stratégie issue du Principe du Minimum de Pontryagin, embarquée sur un véhicule hybride essence, fonctionnant en temps réel et calibrée selon deux paramètres est proposée. L’ensemble de ces travaux est validé expérimentalement au banc moteur et montre une réduction significative des émissions polluantes pour une faible pénalité de carburant
Powertrain hybridization is a solution that has been adopted in order to conform to future standards for emissions regulations. The supervisory strategy of the hybrid powertrain divides the power emitted between the internal combustion engine and the electric machine. In past studies, this strategy has typically responded to an optimization problem with the objective of reducing consumption. However, in addition to this, it is now necessary to take pollutant emissions into account as well. The after-treatment system, placed in the exhaust of the engine, is able to reduce pollutants emitted into the atmosphere. It is efficient from a certain temperature threshold, and the temperature of the system is dependent on the heat brought by the exhaust gas of the engine. The first part of this dissertation is aimed at modelling the energy consumption and pollutant emissions of the hybrid powertrain. The efficiency model of the after-treatment system is adapted for use in two different contexts. The zero-dimensional model conforms to the constraints of the optimal control calculation. The one-dimensional model associated with a state estimator can be embedded in a vehicle and calculated in real time. From this work, the second part of this dissertation deduces supervisory strategies from the optimal control theory. On the one hand, Bellman’s principle is used to calculate the optimal control of a Diesel hybrid vehicle using different supervisory criteria, each having more or less information about the after-treatment system efficiency over NOX emissions. On the other hand, a strategy from Pontryagin’s minimum principle, embedded in a gasoline hybrid vehicle, running in real time and calibrated with two parameters, is proposed. The whole of this work is validated experimentally on an engine test bed and shows a significant reduction in pollutant emissions for a slight fuel consumption penalty
Style APA, Harvard, Vancouver, ISO itp.
25

Mazuyer, Antoine. "Estimation de l'état de contrainte initial in situ dans les réservoirs par approche inverse". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0079/document.

Pełny tekst źródła
Streszczenie:
L'état de contrainte initial est l'état de contrainte dans le sous-sol avant toute intervention humaine. Sa connaissance est essentielle pour atteindre des objectifs aussi bien scientifiques (compréhension de la tectonique des plaques) que préventifs (étude et prédiction des séismes) ou industriels (compréhension de la mécanique des réservoirs pétroliers pour leur exploitation). Dans cette thèse, nous présentons une méthode permettant d'estimer l'état de contrainte initial en trois dimensions, à partir de données éparses. Cette méthode repose sur une approche inverse dans laquelle la méthode des éléments finis est utilisée pour résoudre le problème mécanique élastique. Les paramètres de modèles sont les conditions de Neumann décrites par des fonctions linéaires par morceaux. Les données sont des mesures partielles de l'état de contrainte en quelques points du domaine d'étude. Une optimisation d'ensemble est utilisée pour résoudre le problème inverse. La méthode est testée sur un cas synthétique où la solution de référence dans tout le domaine est supposée connue. Sur cet exemple, la méthode présentée est capable de retrouver un état de contrainte en accord avec les mesures, et cohérent avec l'état de contrainte de référence dans tout le domaine. La méthode est ensuite enrichie par des critères mécaniques qui contraignent l'état de contrainte dans les zones où les données sont absentes. La méthode est ensuite appliquée sur un cas réel: le bassin de Neuquèn en Argentine, sur lequel des données de puits sont disponibles. La confrontation de la méthode avec un cas d'étude permet de déterminer quelles en sont les limites. L'impact des failles sur l'état de contrainte et les différentes façons de les modéliser sont discutés. En effet, la prise en compte de ces structures complexes est problématique dans les calculs induits par les méthodes inverses puisqu'elles introduisent des non linéarités rendant le temps de calcul trop important. Nous investiguons alors la possibilité de les modéliser uniquement par des propriétés élastiques. Enfin, nous consacrons un chapitre sur l'environnement logiciel intégratif que nous avons développé pour la réalisation des calculs mécaniques. Cet environnement est composé de RINGMesh, une bibliothèque proposant une structure de données pour les modèles géologiques et de RINGMecha, permettant la réalisation de calculs mécaniques sur ces modèles. RINGMecha interface plusieurs simulateurs, chacun ayant ses spécificités, de manière totalement transparente pour l'utilisateur. RINGMecha a été utilisé pour la réalisation de tous les calculs présentés dans cette thèse et a été pensé pour pouvoir être étendu à d'autres problèmes, avec d'autres simulateurs
Initial stress state is the stress state before any human activity. Its knowledge is essential when dealing with scientific (understanding of plate tectonics), preventive (earthquake prediction) and industrial (understanding reservoirs before their exploitation) purposes. We present a method to estimate the initial stress state in a 3D domain from sparse data. This method relies on an inverse approach which uses the finite elements method to solve the elastic mechanical problem. The model parameters are Neumann conditions, which are defined as piecewise linear functions. The data parameters are stress state observations, such as intensity and orientation at a few points. An ensemble optimization method is used to solve the inverse problem. The method is tested on a synthetic case where the reference solution is known. On this example, the method succeeds in retrieving the stress state at data points as well as in the whole domain. The method is enriched with a mechanical criterion which imposes mechanical constraints in the domain under study. The method is then applied to a real case: the Neuquèn basin in Argentina where borehole stress data is available. This application reveals some of the limits of the presented method. Then, the effect of faults on the stress state is investigated. Different modeling strategies are presented: the objective is to reduce the computing cost, which can be very high when dealing with such complex structures. We propose to model them using only elastic properties. Finally, we present the integrative software which were developed to run mechanical simulations. RINGMesh handles the structural model data structure and RINGMecha runs the mechanical simulations on the model. RINGMecha is interfaced with several simulators. Each of them can be called separately, depending on the problem to be solved. The interface of RINGMecha with third party simulators is done in a user friendly manner. RINGMecha was used for all the computations presented in this thesis. It was built in order to be extended to other problems, with other simulators
Style APA, Harvard, Vancouver, ISO itp.
26

Mekhnacha, Kamel. "Méthodes Probabilistes Bayesiennes pour la prise en en compte des incertitudes géométriques : Application à la CAO-Robotique". Phd thesis, Grenoble INPG, 1999. http://tel.archives-ouvertes.fr/tel-00010472.

Pełny tekst źródła
Streszczenie:
Cette these porte sur l'utilisation du formalisme bayesien pour la repr´esentation et la manipulation des incertitudes geometriques dans les systemes de Robotique et de CAORobotique. Dans ces systemes, l'utilisation d'un modele geometrique de l'environnement est indispensable. Toutefois, la validite des calculs conduits sur ces mod`eles n´ecessite une repr´esentation des ecarts entre le modele et la realite et une prise en compte de ces ecarts lors de la resolution d'un probleme donne. L'approche proposee repr´esente une extension de la notion de specification par contraintes geometriques dans laquelle la dimension incertaine des modeles est prise en compte. Cette extension consiste a specifier les contraintes sur les positions relatives entre diff´erents corps de l'environnement non pas par de simples equations et inequations, mais par des distributions de probabilite sur les parametres de ces positions. A l'issue de cette specification, une distribution conjointe sur l'ensemble des parametres du modele est construite. Pour un probleme donne, la distribution marginale sur les parametres inconnus de ce dernier est inferee en utilisant les regles des probabilites. La resolution de ce probleme revient a optimiser cette distribution comportant, dans le cas general, une integrale portant sur un espace de grande dimension. La methode de resolution utilisee pour approcher ce double probleme d'integration/optimisation est basee sur un algorithme genetique. Cet algorithme permet en particulier de controler la precision de l'estimation numerique des integrales par une m´ethode stochastique de Monte-Carlo. L'implantation d'un systeme prototype de CAO nous a permis une experimentation assez poussee de l'approche propos´ee. La mise en oeuvre de plusieurs applications robotiques, dont les natures peuvent paraıtre tres differentes, a ete possible grace a la souplesse de la methode de specification utilisee et la robustesse de la methode de resolution implantee.
Style APA, Harvard, Vancouver, ISO itp.
27

Righi, Ali. "Sur l'estimation de densités prédictives et l'estimation d'un coût". Rouen, 2011. http://www.theses.fr/2011ROUES002.

Pełny tekst źródła
Streszczenie:
Cette thèse est composée de deux parties. Dans la première partie, nous étudions l’estimation des densités prédictives, sous le coût de Kullback-Leibler, pour le modèle gaussien multidimensionnel de dimension p. Nous nous focalisons sur le lien qui existe entre ce problème d’estimation et l’estimation de la moyenne correspondante sous coût quadratique. Nous exhibons plusieurs résultats parallèles. Nous prouvons des résultats de minimaxité et d’amélioration des estimateurs sous contrainte pour la moyenne inconnue. Notamment, nous établissons, au travers deux méthodes, que la densité prédictive bayésienne associée à la loi a priori uniforme sur un convexe C domine la meilleure densité invariante sous la contrainte μ 2 C. Ceci constitue un résultat parallèle à celui de Hartigan en 2004 pour l’estimation de la moyenne sous coût quadratique. A la fin de cette partie, nous donnons des simulations numériques pour visualiser les gains réalisés par quelques nouveaux estimateurs proposés. Dans la seconde partie, pour le modèle gaussien de dimension p, nous traitons le problème de l’estimation du coût quadratique de l’estimateur standard de la moyenne (soit #0(X) = X). Nous proposons des estimateurs de coût bayésiens généralisés qui dominent l’estimateur standard du coût (soit #0(X) = p), en donnant des conditions suffisantes sur la loi a priori afin d’obtenir cette domination pour p # 5. Nous illustrons nos résultats par des exemples. Ensuite nous réalisons une étude technique et des simulations numériques du gain obtenu par un de nos estimateurs bayésiens généralisés proposés
This thesis is divided in two parts. In the first part, we investigate predictive density estimation for a multivariate Gaussian model under the Kullback-Leibler loss. We focus on the link with the problem of estimation of the mean under quadratic loss. We obtain several parallel results. We prove minimaxity and improved estimation results under restriction for the unknown mean. In particular, we show, via two different paths, that the Bayesian predictive density associated to the uniform prior on a convex C dominates the best invariant predictive density when μ 2 C. This is a parallel result to Hartigan’s result in 2004, for the estimation of the mean under quadratic loss. At the end of this part, we give numerical simulations to visualize the gain obtained by some of our new proposed estimators. In the second part, for the Gaussian model of dimension p, we treat the problem of estimating the loss of the standard estimator of the mean (that is, #0(X) = X). We give generalized Bayes estimators which dominate the unbiased estimator of loss (that is, #0(X) = p), through sufficient conditions for p # 5. Examples illustrate the theory. Then we carry on a technical study and numerical simulations on the gain reached by one of our proposed minimax generalized Bayes estimators of loss
Style APA, Harvard, Vancouver, ISO itp.
28

Blagouchine, Iaroslav. "Modélisation et analyse de la parole : Contrôle d’un robot parlant via un modèle interne optimal basé sur les réseaux de neurones artificiels. Outils statistiques en analyse de la parole". Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX26666.

Pełny tekst źródła
Streszczenie:
Cette thèse de doctorat traite les aspects de la modélisation et de l'analyse de la parole, regroupés sous le chapeau commun de la qualité. Le premier aspect est représenté par le développement d'un modèle interne de contrôle de la production de la parole ; le deuxième, par le développement des outils pour son analyse. Un modèle interne optimal sous contraintes est proposé pour le contrôle d'un robot parlant, basé sur l'hypothèse du point d'équilibre (EPH, modèle-lambda). Ce modèle interne se repose sur le principe suivant : les mouvements du robot sont produits de telle façon que la longueur du chemin, parcouru dans l'espace interne des commandes motrices lambda, soit minimale, sous certaines contraintes liées à l'espace externe. L'aspect mathématique du problème conduit au problème géodésique généralisé, un problème relevant du calcul variationnel, dont la solution exacte analytique est assez complexe. En utilisant certains résultats empiriques, une solution approximative est enfin développée et implémentée. La solution du problème donne des résultats intéressants et prometteurs, et montre que le modèle interne proposé permet d'atteindre une certaine réalité de la production de la parole ; notamment, des similitudes entre la parole réelle et celle produite par le robot sont constatées. Puis, dans un but d'analyser et de caractériser le signal de parole, plusieurs méthodes d'analyse statistique sont développées. Elles sont basées sur les statistiques d'ordre supérieurs et sur l'entropie discrète normalisée. Dans ce cadre, nous avons également élaboré un estimateur non-biaisée et efficace du cumulant d'ordre quatre, en deux versions bloc et adaptative
This Ph.D. dissertation deals with speech modeling and processing, which both share the speech quality aspect. An optimum internal model with constraints is proposed and discussed for the control of a biomechanical speech robot based on the equilibrium point hypothesis (EPH, lambda-model). It is supposed that the robot internal space is composed of the motor commands lambda of the equilibrium point hypothesis. The main idea of the work is that the robot movements, and in particular the robot speech production, are carried out in such a way that, the length of the path, traveled in the internal space, is minimized under acoustical and mechanical constraints. Mathematical aspect of the problem leads to one of the problems of variational calculus, the so-called geodesic problem, whose exact analytical solution is quite complicated. By using some empirical findings, an approximate solution for the proposed optimum internal model is then developed and implemented. It gives interesting and challenging results, and shows that the proposed internal model is quite realistic; namely, some similarities are found between the robot speech and the real one. Next, by aiming to analyze speech signals, several methods of statistical speech signal processing are developed. They are based on higher-order statistics (namely, on normalized central moments and on the fourth-order cumulant), as well as on the discrete normalized entropy. In this framework, we also designed an unbiased and efficient estimator of the fourth-order cumulant in both batch and adaptive versions
Style APA, Harvard, Vancouver, ISO itp.
29

Barbié, Laureline. "Raffinement de maillage multi-grille local en vue de la simulation 3D du combustible nucléaire des Réacteurs à Eau sous Pression". Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4742.

Pełny tekst źródła
Streszczenie:
Le but de cette étude est d'améliorer les performances, en termes d'espace mémoire et de temps de calcul, des simulations actuelles de l'Interaction mécanique Pastille-Gaine (IPG), phénomène complexe pouvant avoir lieu lors de fortes montées en puissance dans les réacteurs à eau sous pression. Parmi les méthodes de raffinement de maillage, méthodes permettant de simuler efficacement des singularités locales, une approche multi-grille locale a été choisie car elle présente l'intérêt de pouvoir utiliser le solveur en boîte noire tout en ayant un faible nombre de degrés de liberté à traiter par niveau. La méthode Local Defect Correction (LDC), adaptée à une discrétisation de type éléments finis, a tout d'abord été analysée et vérifiée en élasticité linéaire, sur des configurations issues de l'IPG, car son utilisation en mécanique des solides est peu répandue. Différentes stratégies concernant la mise en oeuvre pratique de l'algorithme multi-niveaux ont également été comparées. La combinaison de la méthode LDC et de l'estimateur d'erreur a posteriori de Zienkiewicz-Zhu, permettant d'automatiser la détection des zones à raffiner, a ensuite été testée. Les performances obtenues sur des cas bidimensionnels et tridimensionnels sont très satisfaisantes, l'algorithme proposé se montrant plus performant que des méthodes de raffinement h-adaptatives. Enfin, l'algorithme a été étendu à des problèmes mécaniques non linéaires. Les questions d'un raffinement espace/temps mais aussi de la transmission des conditions initiales lors du remaillage ont entre autres été abordées. Les premiers résultats obtenus sont encourageants et démontrent l'intérêt de la méthode LDC pour des calculs d'IPG
The aim of this study is to improve the performances, in terms of memory space and computational time, of the current modelling of the Pellet-Cladding mechanical Interaction (PCI),complex phenomenon which may occurs during high power rises in pressurised water reactors. Among the mesh refinement methods - methods dedicated to efficiently treat local singularities - a local multi-grid approach was selected because it enables the use of a black-box solver while dealing few degrees of freedom at each level. The Local Defect Correction (LDC) method, well suited to a finite element discretisation, was first analysed and checked in linear elasticity, on configurations resulting from the PCI, since its use in solid mechanics is little widespread. Various strategies concerning the implementation of the multilevel algorithm were also compared. Coupling the LDC method with the Zienkiewicz-Zhu a posteriori error estimator in orderto automatically detect the zones to be refined, was then tested. Performances obtained on two-dimensional and three-dimensional cases are very satisfactory, since the algorithm proposed is more efficient than h-adaptive refinement methods. Lastly, the LDC algorithm was extended to nonlinear mechanics. Space/time refinement as well as transmission of the initial conditions during the remeshing step were looked at. The first results obtained are encouraging and show the interest of using the LDC method for PCI modelling
Style APA, Harvard, Vancouver, ISO itp.
30

Liu, Hao. "Stratégie de raffinement automatique de maillage et méthodes multi-grilles locales pour le contact : application à l'interaction mécanique pastille-gaine". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4720/document.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse s’inscrit dans le cadre de l’étude de l’Interaction mécanique Pastille-Gaine (IPG) se produisant dans les crayons combustibles des réacteurs à eau pressurisée. Ce mémoire porte sur le développement de méthodes de raffinement de maillage permettant de simuler plus précisément le phénomène d’IPG tout en conservant des temps de calcul et un espace mémoire acceptables pour des études industrielles. Une stratégie de raffinement automatique basée sur la combinaison de la méthode multi-grilles Local Defect Correction (LDC) et l’estimateur d’erreur a posteriori de type Zienkiewicz et Zhu est proposée. Cette stratégie s’appuie sur l’erreur fournie par l’estimateur pour détecter les zones à raffiner constituant alors les sous-grilles locales de la méthode LDC. Plusieurs critères d’arrêt sont étudiés afin de permettre de stopper le raffinement quand la solution est suffisamment précise ou lorsque le raffinement n’apporte plus d’amélioration à la solution globale.Les résultats numériques obtenus sur des cas tests 2D élastiques avec discontinuité de chargement permettent d’apprécier l’efficacité de la stratégie proposée.Le raffinement automatique de maillage dans le cas de problèmes de contact unilatéral est ensuite abordé. La stratégie proposée dans ce travail s’étend aisément au raffinement multi-corps à condition d’appliquer l’estimateur d’erreur sur chacun des corps séparément. Un post-traitement est cependant souvent nécessaire pour garantir la conformité des zones de raffinement vis-à-vis des frontières de contact. Une variété de tests numériques de contact entre solides élastiques confirme l’efficacité et la généricité de la stratégie proposée
This Ph.D. work takes place within the framework of studies on Pellet-Cladding mechanical Interaction (PCI) which occurs in the fuel rods of pressurized water reactor. This manuscript focuses on automatic mesh refinement to simulate more accurately this phenomena while maintaining acceptable computational time and memory space for industrial calculations. An automatic mesh refinement strategy based on the combination of the Local Defect Correction multigrid method (LDC) with the Zienkiewicz and Zhu a posteriori error estimator is proposed. The estimated error is used to detect the zones to be refined, where the local subgrids of the LDC method are generated. Several stopping criteria are studied to end the refinement process when the solution is accurate enough or when the refinement does not improve the global solution accuracy anymore.Numerical results for elastic 2D test cases with pressure discontinuity shows the efficiency of the proposed strategy.The automatic mesh refinement in case of unilateral contact problems is then considered. The strategy previously introduced can be easily adapted to the multibody refinement by estimating solution error on each body separately. Post-processing is often necessary to ensure the conformity of the refined areas regarding the contact boundaries. A variety of numerical experiments with elastic contact (with or without friction, with or without an initial gap) confirms the efficiency and adaptability of the proposed strategy
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii