Dissertations / Theses on the topic 'Méthode de krigeage'

To see the other types of publications on this topic, follow the link: Méthode de krigeage.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Méthode de krigeage.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hannat, Ridha. "Optimisation d'un système d'antigivrage à air chaud pour aile d'avion basée sur la méthode du krigeage dual." Mémoire, École de technologie supérieure, 2014. http://espace.etsmtl.ca/1302/1/HANNAT_Ridha.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse est de proposer une nouvelle méthodologie d’optimisation pour les systèmes d’antigivrage à air chaud pour ailes d’avions. La méthodologie est basée sur la méthode du krigeage dual. Le système d’antigivrage est constitué d’un tube piccolo placé le long de l’envergure de l’aile, dans la région du bord d’attaque. L’air chaud est injecté à travers de petites buses et impacte sur la paroi interne de l’aile. La fonction objectif ciblée par l’optimisation est l’efficacité de transfert thermique du système d’antigivrage. Cette efficacité de transfert thermique est considérée comme étant le rapport du flux de chaleur à la paroi interne de l’aile divisé par la somme de tous les flux de chaleur aux buses du système d’antigivrage. La méthodologie adoptée pour optimiser un système d’antigivrage comporte trois étapes. La première étape consiste à construire une base de données selon le plan de Box-Behnken. La fonction objectif est ensuite modélisée par la méthode du krigeage dual et enfin l’optimisation par la méthode SQP est appliquée sur le modèle de la fonction objectif. Un des avantages du krigeage dual est que le modèle passe exactement par tous les points de mesures, mais il peut aussi prendre en compte les erreurs numériques et dévier des points de mesures. En plus, le modèle krigé peut être mis à jour à chaque nouvelle expérience numérique. Ces caractéristiques du krigeage dual semblent en faire un bon outil pour construire les surfaces de réponse nécessaire à l’optimisation d’un système d’antigivrage. Le premier chapitre passe en revue la littérature pertinente sur le sujet ainsi que sur la problématique d’optimisation du système d’antigivrage. Les chapitres 2, 3 et 4 présentent les trois articles soumis. Le chapitre 2 est dédié à la validation des codes de CFD utilisés pour réaliser les simulations numériques d’un système d’antigivrage et au calcul du transfert de chaleur conjugué (CHT). Le CHT est calculé en prenant en compte l’écoulement externe autour de l’aile d’avion, l’écoulement interne dans le système d’antigivrage et la conduction dans l’aile. Les coefficients de transfert de chaleur à la paroi externe de l’aile ne changent pas tellement si l’on prend en compte ou non l’écoulement externe. Donc seul, l’écoulement interne est considéré dans les articles suivants. Le chapitre 3 concerne la matrice de design et la construction d’un modèle paramétrique d’ordre deux. La modélisation de la fonction objectif est basée sur le plan de design de Box-Behnken. Le modèle paramétrique qui découle des simulations numériques sert à la comparaison avec le modèle krigé du troisième article. Le chapitre 4 applique la méthode du krigeage dual pour la modélisation de l’efficacité de transfert thermique du système d’antigivrage et son optimisation. La possibilité d’inclure l’erreur numérique dans les résultats est explorée. Pour le cas test étudié, l’introduction de l’erreur numérique dans le processus d’optimisation n’améliore pas les résultats. La méthode du krigeage dual est aussi employée pour modéliser la distribution du flux de chaleur local et interpoler le flux de chaleur correspondant au design optimal du système d’antigivrage.
2

Bouhlel, Mohamed Amine. "Optimisation auto-adaptative en environnement d’analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l’énergie de l’air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L’optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d’optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l’adaptation d’unestratégie d’optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d’accélérer sa construction. Une des limitations connues du modèle de krigeage concernel’estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d’entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d’accélérerla convergence de l’estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d’améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d’optimisation globale sous contraintes pour la grande dimension, en s’appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d’optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d’optimisationsous contraintes en grande dimension. Différents critères d’enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l’optimum global sur des problèmes académiquesjusqu’à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l’industrie automobile (124 variables d’entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d’entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel
Aerospace turbomachinery consists of a plurality of blades. Their main function is to transfer energybetween the air and the rotor. The bladed disks of the compressor are particularly important becausethey must satisfy both the requirements of aerodynamic performance and mechanical resistance.Mechanical and aerodynamic optimization of blades consists in searching for a set of parameterizedaerodynamic shape that ensures the best compromise solution between a set of constraints.This PhD introduces a surrogate-based optimization method well adapted to high-dimensionalproblems. This kind of high-dimensional problem is very similar to the Snecma’s problems. Ourmain contributions can be divided into two parts : Kriging models development and enhancementof an existing optimization method to handle high-dimensional problems under a large number ofconstraints. Concerning Kriging models, we propose a new formulation of covariance kernel which is able toreduce the number of hyper-parameters in order to accelerate the construction of the metamodel.One of the known limitations of Kriging models is about the estimation of its hyper-parameters.This estimation becomes more and more difficult when the number of dimension increases. Inparticular, the initial design of experiments (for surrogate modelling construction) requires animportant number of points and therefore the inversion of the covariance matrix becomes timeconsuming. Our approach consists in reducing the number of parameters to estimate using the Partial LeastSquares regression method (PLS). This method provides information about the linear relationshipbetween input and output variables. This information is integrated into the Kriging model kernelwhile maintaining the symmetry and the positivity properties of the kernels. Thanks to this approach,the construction of these new models called KPLS is very fast because of the low number of newparameters to estimate. When the covariance kernel used is of an exponential type, the KPLS methodcan be used to initialize parameters of classical Kriging models, to accelerate the convergence of theestimation of parameters. The final method, called KPLS+K, allows to improve the accuracy of themodel for multimodal functions. The second main contribution of this PhD is to develop a global optimization method to tacklehigh-dimensional problems under a large number of constraint functions thanks to KPLS or KPLS+Kmethod. Indeed, we extended the self adaptive optimization method called "Efficient Global Optimization,EGO" for high-dimensional problems under constraints. Several enriching criteria have been tested. This method allows to estimate known global optima on academic problems up to 50 inputvariables. The proposed method is tested on two industrial cases, the first one, "MOPTA", from the automotiveindustry (with 124 input variables and 68 constraint functions) and the second one is a turbineblade from Snecma company (with 50 input variables and 31 constraint functions). The results showthe effectiveness of the method to handle industrial problems.We also highlight some importantlimitations
3

Soilahoudine, Moindzé. "Optimisation de structures aéronautiques : une nouvelle méthode à fidélité adaptative." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes d'optimisation à base de métamodèles avec enrichissement adaptatif (type Efficient Global Optimization) peuvent, malgré leurs atouts, être rédhibitoires en temps de calculs lorsqu'elles sont appliquées à des modèles numériques de grande taille avec plusieurs minimums locaux. Elles nécessitent la résolution d'un modèle complet à chaque simulation, ce qui peut conduire à des études irréalisables ou alors dans des durées incompatibles avec les échelles de temps typiques du processus de conception d'un produit. Cette thèse s'inscrit dans la thématique de l'optimisation de simulateurs numériquement couteux par l'utilisation des modèles simplifiés. Ces modèles simplifiés peuvent être notamment de deux types : des métamodèles ou des modèles d'ordre réduit. Nous proposons dans cette thèse une nouvelle méthodologie d'optimisation globale de systèmes mécaniques en couplant les méthodes d'optimisation à base de métamodèles adaptatifs avec les méthodes de réduction d'ordre. Les méthodes d'optimisation à base de métamodèles visent à réduire le nombre d'évaluations de la fonction objectif tandis que les méthodes de réduction d'ordre visent à diminuer la taille des modèles permettant ainsi une réduction de leur temps d'exécution. L'objectif de la méthodologie développée dans cette thèse est alors de réduire le nombre d'évaluations de la fonction objectif tout en diminuant également le temps d'exécution des modèles. L'idée de l'approche développée est de construire le métamodèle de la fonction objectif de manière adaptative. Cette construction fusionne des modèles complets et des modèles d'ordre réduit et adapte ainsi la fidélité aux besoins en précision de l'itération courante de l'optimisation. Les performances des algorithmes développés dans cette thèse ont été illustrées sur deux types d'applications : i. un problème d'identification des quatre propriétés orthotropes d'un composite stratifié à partir de mesures de champs de déplacement d'une plaque trouée en traction. ii. un problème de maximisation de la rigidité d'une plaque composite stratifiée. Les résultats ont permis de montrer que notre méthodologie permet d'obtenir des gains considérables, en temps de calcul, par rapport à un algorithme de type EGO classique
The surrogate based optimization method with adaptive enrichment (Efficient Global Optimization type approach) may, in spite of its strengths, be prohibitive in terms of computational cost when applied to large scale problems with several local minima. They require the resolution of a full numerical model for each simulation, which can lead to intractable studies or to simulation times incompatible with the times allotted for the design of a product. This PhD thesis falls within the scope of optimizing expensive simulator codes by using substitution models of the simulator. These substitutions models can be of two types: a metamodel or a reduced order model. We have proposed here a new methodology for global optimization of mechanical systems by coupling adaptive surrogate based optimization methods with the reduced order modeling methods. The surrogate based optimization methods aim to reduce the number of objective function evaluations while the reduced order model methods aim to reduce the dimensionality of a model and thus its computational cost. The objective of the methodology proposed in this thesis is thus to reduce the number of the objective function evaluations while at the same time significantly reducing the computational expense to the resolutions of the full mechanical model. The basic idea of the proposed approach resides in the adaptive construction the metamodel of the objective function. This construction fuses full and reduced order models and thus adapts the model fidelity to the accuracy requirements of the optimization at the current iteration. The efficiency of our proposed algorithms was illustrated on two types of applications: i. a problem of identification of orthotropic elastic constants from full field displacement measurements based on a tensile test on a plate with a hole ii. a problem of stiffness maximization of laminated plates. The results have shown that our methodology provides a significant speed-up in terms of computational cost, compared to the traditional EGO algorithm
4

Djerboua, Abdelatif. "Prédétermination des pluies et crues extrêmes dans les Alpes franco-italiennes : prévision quantitative des pluies journalières par la méthode des analogues." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ce travail, en première partie est de construire un atlas expérimental des précipitations extrêmes à pas de temps de 1 à 24 heures dans les Alpes franco-italiennes (Alpes françaises, le Piémont, la Ligurie). Les caractéristiques statistiques des précipitations extrêmes sont déterminées en ajustant soit une loi de Gumbel, soit par l’utilisation d’une méthode appelée TCEV, basée sur la régionalisation des paramètres statistiques de la loi. Ensuite, différentes méthodes d’interpolation spatiale (krigeage, régression multiple,…) sont utilisées. Ensuite, on compare, sur deux bassins versants proches des méthodes de calcul de prédétermination des crues, dont l’une utilise les méthodes sur les pluies (méthode du GRADEX), et l’autre méthode italienne VAPI utilise l’information donnée par les débits. Enfin, on présente une méthode de prévision quantitative des précipitations journalières (méthode des Analogues). Cette méthode a été appliquée en temps réel
5

Emery, Xavier. "Simulation conditionnelle de modèles isofactoriels." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
6

Benassi, Romain. "Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00864700.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
7

Dalla'Rosa, Alexandre. "Modélisation et optimisation de la localisation d'émetteurs dans des systèmes de communication sans fil." Paris 11, 2007. http://www.theses.fr/2007PA112299.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant les dernières décennies, l’évolution technologique associée aux systèmes de communication sans fil induit une augmentation significative des niveaux des signaux électromagnétiques dans l'environnement. Quand ces niveaux sont élevés, ils peuvent causer la défaillance et/ou le mauvais fonctionnement de composants électroniques, causant ainsi un problème de compatibilité électromagnétique (CEM). L’évolution des systèmes de transmission sans fil et des perturbations associées en environnement indoor oblige à se doter d’outils électromagnétiques permettant la caractérisation du canal de propagation. Dans les études de propagation indoor, la recherche de la meilleure position d’un émetteur conduit à un problème d’optimisation relativement difficile. Nous proposons dans ce travail la combinaison d’une méthode de calcul des champs (TLM - Transmission Line Method) et d’une technique d’interpolation (le Krigeage) afin d’évaluer le comportement des champs et de réaliser l’optimisation. Les différents environnements indoor étudiés sont composés de plusieurs milieux de propagation (béton, bois, verre, métal, etc. ). La modélisation de l’environnent et la distribution des champs électromagnétiques sont obtenus par le calcul TLM. Dans un premier temps les champs sont évalués lorsque l’émetteur est situé en certains points de ce maillage. Puis le Krigeage est utilisé afin d’évaluer le comportement de la fonction objectif (ici le niveau d'illumination électromagnétique dans l’environnement) dans la totalité du domaine d’étude. La démarche proposée permet d’approcher et d’évaluer rapidement la fonction objectif en vue de réaliser l’optimisation
During the last years, portability has been the “key” for the extraordinary expansion of the personal communication systems (PCS) in urban environments. People located anywhere, at any time, can access private and collective services, exchanging information, safely and quickly, without any fixed “wireline” connection (e. G. Bluetooth, WiFi, etc. ). One of the most important considerations in successful implementation of PCS is the indoor radio communication. For more than 10 years the indoor radio propagation channel is investigated and several tools were deployed based on two different approaches to deal with the wave propagation problem: empirical and deterministic approaches. In a few words, the main differences between these two techniques are the exactness and the waste time to build and solve a wave propagation problem. Up to now, most of the indoor PCS architectures are based on empirical approaches based on the simplicity and low computational cost. However, the evolution of the wireless systems and the associated disturbances in urban environment demands more efficient tools to guarantee an efficient expansion of PCS. In this work a technique is presented to investigate the indoor radio propagation channel and search for the optimal transmitter location. The TLM method and the Kriging technique are combined to approach an objective function in order to solve at low cost an optimization problem corresponding to an electromagnetic indoor environment prediction. The technique is applied to search the optimal transmitter location in a realistic problem
8

Ryazanova, Oleksiv Marta. "Approche statistique pour l'optimisation des stratégies d'analyses techniques basées sur des seuils." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose des approches probabilistes pour améliorer et optimiser un des instruments les plus populaires de l'analyse technique, les bandes de trading. Les parties I et II se concentrent sur l'optimisation des composantes des bandes de trading: ligne centrale (représentée par la moyenne mobile) et lignes des bandes. La partie III est dédiée à l'amélioration du processus de prise de décision. Dans la partie I on propose d'utiliser le krigeage, une approche géostatistique, pour l'optimisation des poids des moyennes mobiles. Le krigeage permet d'obtenir l'estimateur optimal, qui incorpore les caractéristiques statistiques des données. Contrairement aux méthodes classiques, qui sont utilisées en finance, celle ci peut être appliquée aux données échantillonnées à maille régulière ou irrégulière. La partie II propose une méthode, basée sur la transformation des données en une variable normale, qui permet de définir les valeurs extrêmes et en conséquence les valeurs des bandes sans imposition de contraintes sur la distribution des résidus. Enfin, la partie III présente l'application des méthodes de krigeage disjonctif , une autre méthode géostatistique, pour les décision plus informative sur le timing et le type de position. Le krigeage disjonctif permet d'estimer les probabilités que certain seuils seront atteints dans le futur. Les résultats expérimentaux prouvent que les techniques proposées sont prometteuses et peuvent être utilisées en pratique.
9

Bompard, Manuel. "MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00771799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
10

Ammar, Karim. "Conception multi-physique et multi-objectif des cœurs de RNR-Na hétérogènes : développement d’une méthode d’optimisation sous incertitudes." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112390/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis la fermeture de Phénix en 2010 le CEA ne possède plus de réacteur au sodium. Vus les enjeux énergétiques et le potentiel de la filière, le CEA a lancé un programme de démonstrateur industriel appelé ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), réacteur d’une puissance de 600MW électriques (1500 MW thermiques). L’objectif du prototype est double, être une réponse aux contraintes environnementales et démontrer la viabilité industrielle :• De la filière RNR-Na, avec un niveau de sureté au moins équivalent aux réacteurs de 3ème génération, du type de l’EPR. ASTRID intégrera dès la conception le retour d’expérience de Fukushima ;• Du retraitement des déchets (transmutation d’actinide mineur) et de la filière qui lui serait liée.La sûreté de l’installation est prioritaire, aucun radioélément ne doit être rejeté dans l’environnement, et ce dans toutes les situations. Pour atteindre cet objectif, il est impératif d’anticiper l’impact des nombreuses sources d’incertitudes sur le comportement du réacteur et ce dès la phase de conception. C’est dans ce contexte que s’inscrit cette thèse dont l’ambition est le développement de nouvelles méthodes d’optimisation des cœurs des RNR-Na. L’objectif est d’améliorer la robustesse et la fiabilité des réacteurs en réponse à des incertitudes existantes. Une illustration sera proposée à partir des incertitudes associées à certains régimes transitoires dimensionnant. Nous utiliserons le modèle ASTRID comme référence pour évaluer l’intérêt des nouvelles méthodes et outils développés.L’impact des incertitudes multi-Physiques sur le calcul des performances d’un cœur de RNR-Na et l’utilisation de méthodes d’optimisation introduisent de nouvelles problématiques :• Comment optimiser des cœurs « complexes » (i.e associés à des espaces de conception de dimensions élevée avec plus de 20 paramètres variables) en prenant en compte les incertitudes ?• Comment se comportent les incertitudes sur les cœurs optimisés par rapport au cœur de référence ?• En prenant en compte les incertitudes, les réacteurs sont-Ils toujours considérés comme performants ?• Les gains des optimisations obtenus à l’issue d’optimisations complexes sont-Ils supérieurs aux marges d’incertitudes (qui elles-Mêmes dépendent de l’espace paramétrique) ?La thèse contribue au développement et à la mise en place des méthodes nécessaires à la prise en compte des incertitudes dans les outils de simulation de nouvelle génération. Des méthodes statistiques pour garantir la cohérence des schémas de calculs multi-Physiques complexes sont également détaillées.En proposant de premières images de cœur de RNR-Na innovants, cette thèse présente des méthodes et des outils permettant de réduire les incertitudes sur certaines performances des réacteurs tout en les optimisant. Ces gains sont obtenus grâce à l’utilisation d’algorithmes d’optimisation multi-Objectifs. Ces méthodes permettent d’obtenir tous les compromis possibles entre les différents critères d’optimisations comme, par exemple, les compromis entre performance économique et sûreté
Since Phenix shutting down in 2010, CEA does not have Sodium Fast Reactor (SFR) in operating condition. According to global energetic challenge and fast reactor abilities, CEA launched a program of industrial demonstrator called ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), a reactor with electric power capacity equal to 600MW. Objective of the prototype is, in first to be a response to environmental constraints, in second demonstrates the industrial viability of:• SFR reactor. The goal is to have a safety level at least equal to 3rd generation reactors. ASTRID design integrates Fukushima feedback;• Waste reprocessing (with minor actinide transmutation) and it linked industry.Installation safety is the priority. In all cases, no radionuclide should be released into environment. To achieve this objective, it is imperative to predict the impact of uncertainty sources on reactor behaviour. In this context, this thesis aims to develop new optimization methods for SFR cores. The goal is to improve the robustness and reliability of reactors in response to existing uncertainties. We will use ASTRID core as reference to estimate interest of new methods and tools developed.The impact of multi-Physics uncertainties in the calculation of the core performance and the use of optimization methods introduce new problems:• How to optimize “complex” cores (i.e. associated with design spaces of high dimensions with more than 20 variable parameters), taking into account the uncertainties?• What is uncertainties behaviour for optimization core compare to reference core?• Taking into account uncertainties, optimization core are they still competitive? Optimizations improvements are higher than uncertainty margins?The thesis helps to develop and implement methods necessary to take into account uncertainties in the new generation of simulation tools. Statistical methods to ensure consistency of complex multi-Physics simulation results are also detailed.By providing first images of innovative SFR core, this thesis presents methods and tools to reduce the uncertainties on some performance while optimizing them. These gains are achieved through the use of multi-Objective optimization algorithms. These methods provide all possible compromise between the different optimization criteria, such as the balance between economic performance and safety
11

Mangapi, Augustin Assonga. "Krigeage et cokrigeage, méthodes d’interpolation spatiale pour les systèmes d’information géographique." Mémoire, Université de Sherbrooke, 1994. http://hdl.handle.net/11143/7880.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé: Tel que le notent si bien Oliver et al. (1990), la plupart des méthodes d’interpolation classiques sont basées sur les modèles des méthodes numériques différents des modèles probabilistes de variation spatiale. Les distributions des variables des données spatiales se comportent plus comme des variables aléatoires et la théorie des variables régionalisées comporte un ensemble de méthodes stochastiques pour les analyser. Le krigeage et le cokrigeage, basés sur cette théorie, expriment les variations spatiales de variables en termes de variogrammes et ils minimisent les erreurs de prédiction qui sont elles-mêmes estimées. Appliquées aux données des variables pédologiques des champs de la Station de recherches de Lennoxville, les méthodes ou techniques d’interpolation de la géostatistique: les krigeages et cokrigeages ordinaires, universels et par bloc, ainsi dénommées, sont explorées et comparées en vue d’en identifier la méthode appropriée intégrable dans un système d’information géographique, pour obtenir l’optimum de la modélisation, la présentation et celui de l’analyse spatiale. Les valeurs krigées et cokrigées des techniques choisies sont obtenues à l’aide de l’algorithme Cokri (Marcotte, 1991, 1993) et sont comparées aux valeurs initiales dont elles en sont les estimations. Des tests de similarité appliqués à ces données et résultats attestent la similarité de leurs distributions respectives. En d’autres termes, les types de krigeage et de cokrigeage examinés bénéficient de la même homogénéité des données qui est vérifiée par des outils de comparaison visuels et des traitements géostatistiques. De plus l’utilisation de ces méthodes donne des erreurs minimes proches de la réalité. Ainsi, selon la nature spécifique des données spatiales, en l’occurence les données homogènes sans structure spatiale particulière cachée, un estimateur linéaire simple ou la moyenne arithmétique de ces données, suffit pour représenter les variables étudiées.||Abstract: As Oliver et al. (1990) pointed it out so well, most of iraditional methods of interpolation are based on numerical method models as distinct from stochastic models of spatial variation. Spatially distributed data behave more like random variables, however, and regionalized variable theory provides a set of stochastic methods for analyzing them. Kriging and cokriging, based on that theory, depend on expressing spatial variation of the property in terms of variograms, and they minimize the prediction erros which are themselves estimated. Used on pedological parameters data, oridinary, universai and block krigings and cokrigings, geostatistical interpolation methods or techniques, are expiored and compared in order to identify the appropriate method which can be integrated into a Geographic Information System to provide optimum modelting, presentation and spatial analysis. Kriged and cokriged values are obtained by Cokri algorithm (Marcotte, 1991, 1993), and are compared to estimated initial data. Similarity tests applied to these data and values show that their respective distributions are similar. In othe words, the examined kriging and cokriging types perfom equally well. They ail take advantage of the data homogeneity, verified by visual comparison and geostatiatical tools or techniques, for providing doser minimum error terms. Thus, according to the special nature of spatial data, namely the homogeneous ones without a hiden particular spatial structure, a simple linear estimator, such as the data arithmetical mean, is sufficient for representing die variables under consideration.
12

Bendaou, Omar. "Caractérisation thermomécanique, modélisation et optimisation fiabiliste des packages électroniques." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMIR20/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors du fonctionnement des packages électroniques, ceux ci sont exposés à diverses sollicitations d'ordres thermiques et mécaniques. De même, la combinaison de ces sources de contraintes constitue l'origine de la quasi majorité des défaillances des packages électroniques. Pour s'assurer de la bonne résistance des packages électroniques, les fabricants pratiquent des tests de fiabilité et des analyses de défaillance avant toute commercialisation. Toutefois, les essais expérimentaux, lors de la phase de conception et de l'élaboration des prototypes, s'avèrent contraignants en termes de temps et de ressources matérielles. En revanche, la simulation numérique à l'aide de la méthode des éléments finis constitue une option alternative en termes de temps et de ressources. Les objectifs dévolus aux travaux de recherche visent à élaborer quatre modèles éléments finis en 3D, validés/calibrés par des essais expérimentaux, intégrant les recommandations JEDEC (1) en vue de : - Procéder à la caractérisation thermique et thermomécanique des packages électroniques ; - Et prédire la durée de vie en fatigue thermique des joints de brasures et ce, en lieu et place de la caractérisation expérimentale normalisée. Or, la mise en œuvre des modèles éléments finis présente certains inconvénients liés aux incertitudes au niveau de la géométrie, des propriétés matériaux, les conditions aux limites ou les charges. Ceux ci ont une influence sur le comportement thermique et thermomécanique des systèmes électroniques. D'où la nécessité de formuler le problème en termes probabilistes et ce, dans le but de mener une étude de fiabilité et d’optimisation des packages électroniques. Pour remédier au temps de calcul énorme généré par les méthodes d’analyse de fiabilité classiques, nous avons développé des méthodologies spécifiques à cette problématique, via des méthodes d’approximation basées sur le krigeage avancé,qui nous ont permis de bâtir un modèle de substitution, qui rallie efficacité et précision. Par conséquent, une analyse de fiabilité a été menée avec exactitude et dans un temps extrêmement court, via les méthodes de simulation Monte Carlo et FORM/SORM, couplées avec le modèle de krigeage avancé. Ensuite, l’analyse de fiabilité a été associée dans le processus d’optimisation, en vue d’améliorer la performance et la fiabilité de la conception structurelle des packages électroniques. A la fin, nous avons procédé à l’applicabilité des dites méthodologies d’analyse de fiabilité aux quatre modèles éléments finis ainsi développés. Il résulte que les analyses de fiabilité menées se sont avérées très utiles pour prédire les effets des incertitudes liées aux propriétés matériaux. De même, l’analyse d’optimisation de fiabilité ainsi réalisée nous a permis d’améliorer la performance et la fiabilité de la conception structurelle des packages électroniques. (1) JEDEC (Joint Electron Device Engineering Council) est un organisme de normalisation des semi-conducteurs
During operation, electronic packages are exposed to various thermal and mechanical solicitations. These solicitations combined are the source for most of electronic package failures. To ensure electronic packages robustness, manufacturers perform reliability testing and failure analysis prior to any commercialization. However, experimental tests, during design phase and prototypes development, are known to be constraining in terms of time and material resources. This research aims to develop four finite element models in 3D, validated/calibrated by experimental tests, integrating JEDEC recommendations to : - Perform electronic packages thermal and thermomechanical characterization ; - Predict the thermal fatigue life of solder joints in place of the standardized experimental characterization.However, implementation of the finite element model has some disadvantages related to uncertainties at the geometry, material properties, boundary conditions or loads. These uncertainties influence thermal and electronic systems thermomechanical behavior. Hence the need to formulate the problem in probabilistic terms, in order to conduct a reliability study and a electronic packages reliability based design optimization.To remedy the enormous computation time generated by classical reliability analysis methods, we developed methodologies specific to this problem, using approximation methods based on advanced kriging, which allowed us to build a substitution model, combining efficiency and precision. Therefore reliability analysis can be performed accurately and in a very short time with Monte Carlo simulation (MCS) and FORM / SORM methods coupled with the advanced model of kriging. Reliability analysis was associated in the optimization process, to improve the performance and electronic packages structural design reliability. In the end, we applied the reliability analysis methodologies to the four finite element models developed. As a result, reliability analysis proved to be very useful in predicting uncertainties effects related to material properties. Similarly, reliability optimization analysis performed out has enabled us to improve the electronic packages structural design performance and reliability. In the end, we applied the reliability analysis methodologies to the four finite element models developed. As a result, reliability analysis proved to be very useful in predicting uncertainties effects related to material properties. Similarly, reliability optimization analysis performed out has enabled us to improve the electronic packages structural design performance and reliability
13

Houret, Thomas. "Méthode d’estimation des valeurs extrêmes des distributions de contraintes induites et de seuils de susceptibilité dans le cadre des études de durcissement et de vulnérabilité aux menaces électromagnétiques intentionnelles." Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une Interférence Electromagnétique Intentionnelle (IEMI) agressant un équipement électronique peut provoquer une défaillance de ce dernier. L’étude des effets d’une IEMI commence par l’évaluation du risque de défaillance afin de mettre en place les protections adéquates. Malheureusement, une prédiction déterministe d’une défaillance est impossible car les caractéristiques de l’équipement et de l’agression sont très incertaines. La stratégie proposée consiste à modéliser la contrainte générée par l’agression, ainsi que la susceptibilité de l’équipement, comme des variables aléatoires. Ensuite, trois étapes sont nécessaires. La première concerne l’estimation de la distribution probabiliste de la variable aléatoire de susceptibilité, la seconde porte sur celle de la contrainte, pour enfin, dans une troisième étape, en déduire la probabilité de défaillance. Pour la première étape, nous utilisons des méthodes d’inférence statistique sur un petit échantillon de seuils de susceptibilités mesurés. Nous comparons deux types d’inférence paramétrique : bayésienne et celle du maximum de vraisemblance. Nous concluons qu’une approche pertinente pour l'analyse du risque CEM consiste à utiliser les intervalles de confiance ou de crédibilité des estimations des paramètres pour encadrer la probabilité de défaillance, quelle que soit la méthode d’inférence choisie. Pour la deuxième étape, nous explorons les techniques de recherche de valeurs extrêmes tout en réduisant le nombre de simulations nécessaires. En particulier, nous proposons la technique de la stratification contrôlée par un métamodèle de krigeage. Nous montrons que cette technique améliore drastiquement les performances par rapport à l’approche classique (simulation Monte Carlo). De plus, nous proposons une implémentation particulière de cette technique afin de maitriser le coût de calcul. Enfin, la troisième étape est la plus simple une fois les deux premières franchies puisque, par définition, une défaillance survient lorsque la contrainte est supérieure à la susceptibilité. A partir d’un cas test final comportant la simulation de l’agression d’un équipement et de données de susceptibilité de cet équipement, nous calculons un encadrement de la probabilité de défaillance en recourant aux méthodes développées pendant cette thèse. En particulier, nous montrons que l’utilisation conjointe de la stratification contrôlée par le krigeage et de l’inférence de la distribution de la susceptibilité permet effectivement d’encadrer l’estimation de la vraie probabilité de défaillance
Intentional ElectroMagnetic Interference (IEMI) can cause equipment failure. The study of the effects of an IEMI begins with an assessment of the risk of equipment failure in order to implement appropriate protections, if required. Unfortunately, a deterministic prediction of a failure is impossible because both characteristics of equipment and of the aggression are very uncertain. The proposed strategy consists of modelling the stress generated by the aggression, as well as the susceptibility of the equipment, as random variables. Then, three steps are necessary: The first step deals with the estimation of the probability distribution of the random susceptibility variable. The second step deals with the similar estimation for the constraint / stress then that of the stress. Eventually, the third step concerns the calculation of the probability of failure. For the first step, we use statistical inference methods on a small sample of measured susceptibility thresholds. We compare two types of parametric inference: bayesian and maximum likelihood. We conclude that a relevant approach for a risk analysis is to use the confidence or credibility intervals of parameter estimates to frame the probability of failure, regardless of the inference method chosen. For the second step we explore extreme value exploration techniques while reducing the number of simulations required. In particular, we propose the technique of Controlled Stratification by Kriging. We show that this technique drastically improves performance compared to the classic approach (Monte Carlo simulation). In addition, we propose a particular implementation of this technique in order to control the calculation effort. Finally, the third step is the simplest once the first two steps have been completed since, by definition, a failure occurs when the stress is greater than the susceptibility. With the help of a final test case comprising the simulation of an electromagnetic aggression on a piece of equipment, we use the method developed in our work to estimate the frame of the probability of failure, More specifically, we show that the combined use of controlled stratification by kriging and inference of susceptibility distribution, allows to frame the estimated true value of the probability of failure
14

Bernard, Lucie. "Méthodes probabilistes pour l'estimation de probabilités de défaillance." Electronic Thesis or Diss., Tours, 2019. http://www.theses.fr/2019TOUR4037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour évaluer la rentabilité d'une production en amont du lancement du processus de fabrication, la plupart des entreprises industrielles ont recours à la simulation numérique. Cela permet de tester virtuellement plusieurs configurations des paramètres d'un produit donné et de statuer quant à ses performances (i.e. les spécifications imposées par le cahier des charges). Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances du produit, nous nous intéressons en particulier à l'estimation de sa probabilité de défaillance. Chaque simulation exigeant l'exécution d'un code de calcul complexe et coûteux, il n'est pas possible d'effectuer un nombre de tests suffisant pour estimer cette probabilité via, par exemple, une méthode Monte-Carlo. Sous la contrainte d'un nombre limité d'appels au code, nous proposons deux méthodes d'estimation très différentes.La première s'appuie sur les principes de l'estimation bayésienne. Nos observations sont les résultats de simulation numérique. La probabilité de défaillance est vue comme une variable aléatoire, dont la construction repose sur celle d'un processus aléatoire destiné à modéliser le code de calcul coûteux. Pour définir correctement ce modèle, on utilise la méthode de krigeage. Conditionnellement aux observations, la loi a posteriori de la variable aléatoire, qui modélise la probabilité de défaillance, est inaccessible. Pour apprendre sur cette loi, nous construisons des approximations des caractéristiques suivantes: espérance, variance, quantiles..On utilise pour cela la théorie des ordres stochastiques pour la comparaison de variables aléatoires et, plus particulièrement, l'ordre convexe.La construction d'un plan d'expériences optimal est assurée par la mise en place d'une procédure de planification d'expériences séquentielle, basée sur le principe des stratégies SUR. La seconde méthode est une procédure itérative, particulièrement adaptée au cas où la probabilité de défaillance est très petite, i.e. l’événement redouté est rare. Le code de calcul coûteux est représenté par une fonction que l'on suppose lipschitzienne. `A chaque itération, cette hypothèse est utilisée pour construire des approximations, par défaut et par excès, de la probabilité de défaillance. Nous montrons que ces approximations convergent vers la valeur vraie avec le nombre d'itérations. En pratique, on les estime grâce à la méthode Monte-Carlo dite de "splitting".Les méthodes que l'on propose sont relativement simples à mettre en oeuvre et les résultats qu'elles fournissent peuvent être interprétés sans difficulté. Nous les testons sur divers exemples, ainsi que sur un cas réel provenant de la société STMicroelectronics
To evaluate the profitability of a production before the launch of the manufacturing process, most industrial companies use numerical simulation. This allows to test virtually several configurations of the parameters of a given product and to decide on its performance (i.e. the specifications imposed by the specifications). In order to measure the impact of industrial process fluctuations on product performance, we are particularly interested in estimating the probability of failure of the product. Since each simulation requires the execution of a complex and expensive calculation code, it is not possible to perform a sufficient number of tests to estimate this probability using, for example, a Monte-Carlo method.We are developing estimation methods, which must be robust despite the limited number of observations available through numerical simulation. Under the constraint of a limited number of code calls, we propose two very different estimation methods.medskip The first is based on the principles of Bayesian estimation. Our observations are the results of numerical simulation. The probability of failure is seen as a random variable, the construction of which is based on that of a random process to model the expensive calculation code. To correctly define this model, the kriging method is used. Conditional on observations, the posterior distribution of the random variable, which models the probability of failure, is inaccessible. To learn about this distribution, we construct approximations of the following characteristics: expectation, variance, quantiles... We use the theory of stochastic orders to compare random variables and, more specifically, the convex order.The construction of an optimal experimental design is ensured by the implementation of a sequential experimental planning procedure, based on the principle of SUR strategies.The second method is an iterative procedure, particularly adapted to the case where the probability of failure is very small, i.e. the redoubt event is rare. The expensive calculation code is represented by a function that is assumed to be Lipschitz continuous. At each iteration, this hypothesis is used to construct approximations, by default and by excess, of the probability of failure. We show that these approximations converge towards the true value with the number of iterations. In practice, they are estimated using the Monte-Carlo method known as splitting method. The proposed methods are relatively simple to implement and the results they provide can be easily interpreted. We test them on various examples, as well as on a real case from STMicroelectronics
15

Zahaby, Mohamed El. "Contribution à la définition d'une norme des sites pollués : élaboration d'une méthodologie pour l'évaluation de la contamination d'un sol par éléments tracés." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL045N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des études récentes ont montré l'accumulation continue des éléments tracés dans les sols, provoquant des atteintes pour l'environnement et présentant même des dangers pour la santé humaine. De ce fait, apparait aujourd'hui la nécessite d'avoir une nouvelle politique qui peut mettre en place dans un cadre réglementaire et juridique les moyens de protection des milieux naturels. Ce travail de thèse a été effectué dans le but d'établir, au moyen de méthodes statistiques et géostatistiques, un outil de diagnostic et d'évaluation de la qualité du sol et d'apprécier les risques correspondants, afin de contribuer à la détermination de valeurs guides pour les sols français. Dans un premier temps, après avoir rappelé les différents aspects normatifs en Europe et aux USA, ainsi que l'état actuel en France, nous nous attachons à présenter, de façon exhaustive, la répartition des éléments traces dans les différents types de roches et de sols. Vient ensuite une présentation de leur répartition dans les sols au niveau national, dont nous montrons que l'analyse statistique peut permettre d'interpréter au mieux la dynamique et les sources naturelles ou dues à des activités humaines des éléments traces induits dans un sol. Nous mettons notamment l'accent sur la comparaison des teneurs en éléments traces dans les sols français avec les valeurs communément adoptées comme normes ou valeurs guides par les différents pays. Dans un second temps, quatre niveaux de la distribution d'un élément trace dans un sol ont été défini : la concentration de base, le fond géochimique, la contamination et la pollution. Basé sur cette constatation, une méthode a été développée par la suite, avec, pour objectif de différencier le fond géochimique. Un jeu de données de 12 feuilles, 14000 échantillons dans les régions des Vosges et d'Alsace a été fourni par le BRGM afin de mettre au point et de valider les résultats. Enfin, la distribution spatiale des éléments tracés a été modélisée par des méthodes géostatistiques. Une estimation par la méthode de krigeage de probabilité a eu pour objectif la délimitation de la zone de pollution et l'établissement de cartes de risques face à un usage précis du sol.
16

Huchet, Quentin. "Utilisation des méthodes de Krigeage pour le dimensionnement en fatigue des structures éoliennes posées en mer." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC074/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte actuel de transition énergétique, les acteurs de la production électrique (dont EDF) s'orientent de plus en plus vers les technologies "bas carbone", permettant de développer leur mix énergétique et d'assurer une production toujours plus respectueuse de l'environnement. Parmi l'ensemble des alternatives progressivement industrialisées au cours de ces dernières décennies, l'énergie éolienne voit son développement s'accélérer. De nouveaux projets voient le jour, notamment avec le développement de parcs éoliens posés en mer le long des côtes françaises.Afin de garantir une sécurité maximale des installations vis-à-vis des défaillances mécaniques, les ingénieurs doivent mettre en place un ensemble de vérifications ayant pour but d'assurer l'intégrité structurelle pendant une durée de vie donnée. Cette étape, nécessaire à la certification et donc à l'industrialisation du projet, exige un investissement numérique important. Dans le cas particulier de l'estimation de l'endommagement à durée de vie, un ensemble complet d'analyses doit être effectué afin de simuler les réactions structurelles en différents points de la conception et ce, pour l'ensemble des conditions environnementales de chargement possibles (cas de charge). Au total, quelques milliers de simulations correspondant à l'ensemble des situations probables sont à prévoir pour la seule estimation de l'endommagement à durée de vie. De plus, la prise en compte des différents phénomènes physiques du problème (aérodynamique, hydrodynamique, mécanique élastique), ainsi que la considération des non-linéarités des réponses liées à l'asservissement de la turbine, impliquent l'utilisation de codes de résolution temporels et multi-physiques coûteux pour chacune des situations de chargement à simuler.Afin de réduire l'investissement lié à l'estimation de cet endommagement, l'utilisation de méthodes numériques de substitution (également appelées métamodèles) est une alternative prometteuse. Ces méthodologies ont montré leur efficacité dans divers domaines de l'ingénierie permettant d'approcher, par diverses hypothèses statistiques, la réponse de modèles numériques en ne considérant qu'un nombre réduit de simulations.Ce travail de thèse s'est focalisé sur le développement d'outils numériques pour le dimensionnement efficace des structures éoliennes en mer et plus particulièrement sur l'utilisation des métamodèles de Krigeage (ou méthode de régression par processus gaussien) pour l'estimation de l'endommagement mécanique. Sous certaines hypothèses, cette méthode de substitution se prête particulièrement bien à l'approximation des réponses de modèles physiques, notamment grâce à la mise en place facilitée d'architectures itératives d'enrichissement ("active learning strategy"). Deux domaines ont principalement été étudiés : l'estimation rapide des quantités d'endommagement structurel par le développement de la méthode "Adaptive Kriging for Damage Assessment" (AK-DA) et les possibilités d'utilisation de cette dernière dans le cadre d'études de la fiabilité conceptuelle au regard de la tenue à l'endommagement. L'applicabilité de ces méthodes a été illustrée via l'utilisation d'exemples numériques inspirés du contexte industriel et de ses contraintes
The mechanical certification of wind turbine structures is required for the funding of newoffshore projects on the French coasts. In order to ensure a maximal safety level of installations,a series of structural analyzes are required by the certification bodies. Amongst all, thedamage based computations represent an important numerical effort for EDF. The presentedworks focus on the applicability and the performances of Kriging metamodels for the estimationof the lifetime cumulated damage of offshore wind turbine structures (AK-DA approach)and the damage based reliability assessment of new designs (AK-MCS/AK-DA coupling)
17

Denimal, Enora. "Prédiction des instabilités de frottement par méta-modélisation et approches fréquentielles : Application au crissement de frein automobile." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC039/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le crissement de frein est une nuisance sonore qui représente des coûts importants pour l'industrie automobile. Il tire son origine dans des phénomènes complexes à l'interface frottante entre les plaquettes de frein et le disque. L'analyse de stabilité reste aujourd'hui la méthode privilégiée dans l'industrie pour prédire la stabilité d'un système de frein malgré ses aspects sur- et sous-prédictifs.Afin de construire un système de frein robuste, il est nécessaire de trouver la technologie qui permette de limiter les instabilités malgré certains paramètres incertains présents dans le système. Ainsi, l'un des objectifs de la thèse est de développer une méthode permettant de traiter et de propager l'incertitude et la variabilité de certains paramètres dans le modèle éléments finis de frein avec des coûts numériques abordables.Dans un premier temps, l'influence d'un premier groupe de paramètres correspondant à des contacts internes au système a été étudiée afin de mieux comprendre les phénomènes physiques mis en jeu et leurs impacts sur le phénomène de crissement. Une approche basée sur l'utilisation d'un algorithme génétique a été également mise en place afin d'identifier le jeu de paramètres le plus défavorable en terme de propension au crissement sur le système.Dans un second temps, différentes méthodes de méta-modélisation ont été proposées afin de prédire la stabilité du système de frein en fonction de différents paramètres qui peuvent être des paramètres de conception ou des paramètres incertains liés à l'environnement du système.Dans un troisième temps, une méthode d'analyse non-linéaire complémentaire de l'analyse de stabilité a été proposée et développée. Elle se base sur le suivi de la stabilité d'une solution vibratoire approchée et permet d'identifier les modes instables présents dans la réponse dynamique du système. Cette méthode a été appliquée sur un modèle simple avant d'illustrer sa faisabilité sur le modèle éléments finis de frein complet
Brake squeal is a noise nuisance that represents significant costs for the automotive industry. It originates from complex phenomena at the frictional interface between the brake pads and the disc. The stability analysis remains the preferred method in the industry today to predict the stability of a brake system despite its over- and under-predictive aspects.In order to build a robust brake system, it is necessary to find the technology that limits instabilities despite some uncertain parameters present in the system. Thus, one of the main objectives of the PhD thesis is to develop a method to treat and propagate the uncertainty and variability of some parameters in the finite element brake model with reasonable numerical costs.First, the influence of a first group of parameters corresponding to contacts within the system was studied in order to better understand the physical phenomena involved and their impacts on the squealing phenomenon. An approach based on the use of a genetic algorithm has also been implemented to identify the most unfavourable set of parameters in terms of squeal propensity on the brake system.In a second step, different meta-modelling methods were proposed to predict the stability of the brake system with respect to different parameters that may be design parameters or uncertain parameters related to the environment of the brake system.In a third step, a non-linear analysis method complementary to the stability analysis was proposed and developed. It is based on the tracking of the stability of an approximate vibrational solution and allows the identification of unstable modes present in the dynamic response of the system. This method was applied to a simple academic model before demonstrating its feasibility on the complete industrial brake finite element model under study
18

Zhu, Boyao. "Identification and metamodeling characterization of singularities in composite, highly dispersive media." Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. http://www.theses.fr/2024ECDL0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La surveillance de l'état des structures (SHM) joue un rôle crucial dans de nombreux domaines industriels pour garantir la sécurité, la fiabilité et les performances des structures critiques. Le développement de divers types de capteurs, d'analyseurs de données et de systèmes de communication sans fil permettent de récolter in situ des données attestant de l'état de la structure en temps réel via des modules SHM. Cependant, ces derniers requièrent des bases de données propres à la structure en présence ou pas de défauts de différentes natures et de différents niveaux de gravité. La simulation à base de modèles numériques tels que les modèles éléments finis est souvent utilisée pour construire cette base de données et prédire ainsi les indicateurs de défauts dans les structures. Cette approche est très couteuse lorsque le modèle étudié est complexe, ce qui est souvent le cas comptes tenus de la complexité des structures actuelles.Cette thèse s'inscrit dans ce cadre général. Elle traite du problème de l'obtention efficace de caractéristiques sensibles aux défauts de structures composites complexes. Plus spécifiquement, elle vise à définir et à développer des outils numériques efficaces aidant à la surveillance de structures composites complexes. Dans ce cadre, des approches de réduction de modèle et de métamodélisation basées respectivement sur les méthodes d'éléments finis d'onde (WFE) et de krigeage sont proposées et étudiées. L'objectif principal du présent travail est donc d'évaluer le potentiel de l'utilisation conjointe de la WFE et du krigeage pour prédire efficacement les caractéristiques structurelles et dynamiques de structures composites complexes. Cette efficacité est quantifiée par la précision des prédictions et le coût impliqué. Sur la base des propriétés dynamiques prédites, certains indicateurs (tels que les amplitudes, les fréquences propres et les déphasages) sensibles aux défauts sont définis et exploités pour évaluer l'état de santé des structures considérées. Les études réalisées ont montré que la stratégie proposée, à savoir l'association (WFEM, Krigeage), peut assurer une efficacité intéressante se traduisant par une précision appropriée des prédictions des propriétés structurelles et dynamiques mais en impliquant un coût inférieur à celui des calculs basés sur la méthode WFEM. De plus, la stratégie proposée permet de conserver les mêmes niveaux de sensibilité des propriétés dynamiques aux défauts considérés (fissures et délaminage) avec les niveaux de sévérité associés. La stratégie s'est avérée, par ailleurs, plus efficace lors de l'utilisation du krigeage avec un schéma d'échantillonnage adaptatif et intelligent
Structural health monitoring (SHM) plays a crucial role in many industrial fields to ensure the safety, reliability, and performance of critical structures. The development of various types of sensors, data analysis, and wireless communication systems, enables the collection in situ of data attesting to the real-time state of structures within the framework of SHM modules helping for more accurate and automated decision-making processes. However, the SHM modules require data basis characterizing safe and damaged structures. Simulations based on numerical modelling such as finite element methods, are often used to construct this data basis. However, this approach is very time-consuming especially when the finite element model is complex, which is often the case due to the increasing complexity of structures. This thesis is within this framework. Indeed, it deals with the problem of efficiently obtaining damage-sensitive features of complex composite structures. More specifically, it aims to define and develop efficient numerical tools helping for SHM of complex composite structures. Hence, model reduction and metamodeling approaches based on the Wave-finite element (WFE) and Kriging methods respectively are proposed and investigated. So, the main objective of the present work is to assess the potential of the combination of the WFE and kriging metamodeling to be useful and efficient in predicting the structural and dynamic characteristics of complex composite structures. This efficiency is quantified by the prediction accuracy and the involved cost. Based on the predicted dynamic properties, some damage-sensitive indicators (such as amplitudes, natural frequencies, phase shifts) are defined and exploited to evaluate the health status of the considered structures.Based on the accomplished studies, it is shown that the proposed strategy, namely the Kriging-based WFEM, can ensure an interesting efficiency resulting in a suitable accuracy of predictions of the structural and dynamical properties while involving a smaller cost than the WFEM-based calculations. Moreover, the proposed strategy has kept the same sensitivity levels of dynamic properties to the considered damages (cracks and delamination) with the associated indexes. The strategy proved to be more efficient when using the adaptive sampling scheme with kriging
19

Ghayyem, Fatemeh. "Positionnement optimal de capteurs pour l'estimation du signal." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux problèmes de traitement du signal peuvent être résolus à partir d'un cadre générique où un signal source se propage aux capteurs à travers un environnement donné. Dans ce cadre, on peut s'intéresser soit (i) à l'estimation du signal source, soit (ii) à l'environnement, soit même (iii) au champ de signaux résultant dans certaines régions de l'environnement. Dans tous ces cas, les signaux sont enregistrés par plusieurs capteurs situés à des positions différentes. En raison de contraintes de prix, d'énergie ou d'ergonomie, le nombre de capteurs est souvent limité et il devient crucial de placer quelques capteurs à des positions qui contiennent le maximum d'informations. Ce problème correspond à un placement optimal des capteurs et il se pose dans un grand nombre d'applications. La manière d'aborder le problème du placement optimal des capteurs dépend de celui des trois aspects mentionnés ci-dessus que nous voulons aborder.Dans cette thèse, nous nous concentrons sur l'estimation du signal source à partir d'un ensemble de mesures bruitées collectées par un nombre limité de capteurs. Notre approche diffère des approches classiques de placement optimal des capteurs basées sur le Krigeage, car ces dernières se concentrent sur la meilleure reconstruction du champ spatial mesuré. Pour résoudre le problème, nous proposons un premier critère qui maximise le rapport moyen signal/bruit du signal estimé. Expérimentalement, les performances obtenues par ce critère sont supérieures aux résultats obtenus avec les méthodes basées sur le Krigeage. Comme le rapport signal/bruit est incertain dans ce contexte, pour obtenir une extraction robuste du signal, nous proposons un deuxième critère de placement basé sur la maximisation de la probabilité que le RSB dépasse un seuil donné. Ce critère peut être facilement évalué en utilisant l'hypothèse du processus gaussien pour le signal, le bruit et l'environnement. De plus, pour réduire la complexité de calcul de la maximisation conjointe du critère par rapport à toutes les positions du capteur, nous proposons un algorithme gourmand où les positions du capteur sont sélectionnées séquentiellement (c'est-à-dire une par une). Les résultats expérimentaux montrent la supériorité du critère probabiliste par rapport au critère de SNR moyen. Enfin, pour améliorer l'algorithme cupide sous-optimal, nous présentons une approche d'optimisation permettant de localiser tous les capteurs en même temps. Dans ce but, nous ajoutons une contrainte au problème qui peut contrôler les distances moyennes entre les capteurs. Pour résoudre notre problème, nous utilisons une méthode de pénalité d'optimisation alternée. À la fin, nous présentons des résultats expérimentaux qui montrent la supériorité de l'algorithme proposé sur l'algorithme gourmand.Traduit avec www.DeepL.com/Translator (version gratuite)
Many signal processing problems can be cast from a generic setting where a source signal propagates through a given environment to the sensors. Under this setting, we can be interested either in (i) estimating the source signal, or (ii) the environment, or even (iii) the resulting field of signals in some regions of the environment. In all these cases, signals are recorded by multiple sensors located at different positions. Due to price, energy or ergonomic constraints, the number of sensors is often limited and it becomes crucial to place a few sensors at positions which contain the maximum information. This problem corresponds to optimal sensor placement and it is faced in a great number of applications. The way to tackle the problem of optimal sensor placement depends on which of three aspects mentioned above we want to address.In this thesis, we focus on estimating the source signal from a set of noisy measurements collected from a limited number of sensors. Our approach differs from classical Kriging based optimal sensor placement approaches, since the latter focus on best reconstruction of the spatial measured field. For solving the problem, we propose a first criterion which maximizes the average signal to noise ratio of the estimated signal. Experimentally, performance obtained by this criterion outperforms the results obtained using Kriging-based methods. Since the signal to noise ratio is uncertain in this context, to achieve a robust signal extraction, we propose a second placement criterion based on the maximization of the probability that the SNR exceeds a given threshold. This criterion can be easily evaluated using the Gaussian process assumption for the signal, the noise, and the environment. Moreover, to reduce the computational complexity of the joint maximization of the criterion with respect to all sensor positions, we propose a greedy algorithm where the sensor positions are sequentially (i.e. one by one) selected. Experimental results show the superiority of the probabilistic criterion com- pared to the average SNR criterion. Finally, for improving the sub-optimal greedy algorithm, we present an optimization approach to locate all the sensors at once. For this purpose, we add a constraint to the problem that can control the average distances between the sensors. To solve our problem, we use an alternating optimization penalty method. In the end, we present experimental results that show the superiority of the proposed algorithm over the greedy one
20

Ould, Isselmou Yahya. "Interpolation de niveaux d'exposition aux émissions radioélectriques in situ à l'aide de méthodes géostatistiques." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003423.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réglementations et normes radioélectriques précisent différentes valeurs limites d'exposition radioélectrique à ne pas dépasser. Les niveaux d'expositions constatés autour des antennes de radio et de télécommunications sont très en dessous des limites d'exposition recommandées par la commission de protection contre les rayonnements non-ionisants. Aujourd'hui, les personnes se trouvant à proximité des émetteurs radio ne cherchent plus simplement à vérifier la conformité aux normes. La demande porte sur l'évaluation du niveau d'exposition auquel ils sont soumis et la probabilité de dépassement d'un seuil donné. Le cadre probabiliste sur lequel sont fondées les méthodes géostatistiques offre la possibilité de répondre à cette question. Dans cette thèse nous présentons une application des méthodes géostatistiques linéaires ; en particulier le krigeage, pour l'estimation des niveaux d'exposition radioélectriques à partir d'un jeu de données simulées. Une application du krigeage avec dérive externe sur des mesures réelles est ensuite présentée. Dans ces applications, le modèle de variogramme de Cauchy montre une bonne adéquation avec la variabilité de la densité de la puissance. Un troisième exemple d'application a pour objectif d'évaluer la probabilité avec laquelle les niveaux d'exposition peuvent dépasser un seuil déterminé. Nous utilisons deux méthodes de la géostatistique non-linéaire basées sur un modèle "multigaussien" et comparons les résultats des calculs de probabilité de dépassement de seuil par ces deux méthodes sur un ensemble de mesures d'exposition prises dans le centre de la ville de Paris.
21

Buslig, Leticia. "Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4734/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Bouguila, Maissa. "Μοdélisatiοn numérique et οptimisatiοn des matériaux à changement de phase : applicatiοns aux systèmes cοmplexes." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR05.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les matériaux à changement de phase MCP révèlent des performances importantes dans le domaine de la gestion thermique. Ces matériaux ont une capacité importante de stockage thermique. L’excès de la chaleur dissipée par les composantes électroniques peut causer des graves défaillances. Un système de refroidissement développé basé sur les matériaux à changement de phase est l’une des solutions les plus recommandées afin d’assurer un fonctionnement sécurisé de ces composants microélectroniques. Bien que la faible conductivité de ces matériaux soit considérée comme la limitation majeure de leurs utilisations dans les applications de gestion thermique. L’objectif principal de cette thèse est l’amélioration de la conductivité thermique de ces matériaux et l’optimisation des dissipateurs thermiques. Dans les premiers chapitres, des modélisations numériques sont effectuées afin de déterminer la configuration optimale d’un dissipateur à partir de l’étude de plusieurs paramètres comme l’insertion des ailettes, la dispersion des nanoparticules et l’utilisation de multiples matériaux à changement de phase. L’innovation de cette étude est la modélisation du transfert thermique des matériaux à changement de phase avec une concentration des nanoparticules relativement importante par rapport à la littérature et plus précisément les travaux scientifiques expérimentaux. Des conclusions intéressantes sont extraites de cette étude paramétrique qui va nous permettre parla suite de proposer un nouveau modèle basé sur des multiples des matériaux à changement de phase améliorés avec les nanoparticules. Des études d’optimisation fiabiliste sont après réalisées.En premier lieu, une étude d’optimisation fiabiliste mono-objective a été réalisé dans le but est de proposer un modèle du dissipateur fiable à multiple NANOMCPS avec des dimensions optimales. Donc l’objectif est d'optimiser (minimiser) le volume total du dissipateur tout en considérant les différents contraintes géométriques et fonctionnels. La méthode hybride robuste (RHM) montre une efficacité à proposer un modèle fiable et optimal comparant à la méthode d’optimisation déterministe (DDO) et les différentes méthodes d’optimisation de la conception basée sur la fiabilité (RBDO) considérées. En plus de la nouveauté de modèle proposée basé sur des multiples NANOMCPs, l’intégration d’une méthode de RBDO développée (RHM) pour l’application de gestion thermique est considérée comme une innovation dans la littérature récente.En deuxième lieu, une étude d’optimisation fiabiliste multi objective est proposée. Deux objectives sont considérées : le volume total du dissipateur et le temps de décharge pour atteindre la température ambiante. De plus, l’utilisation d’une méthode d’optimisation RHM, et l’algorithme génétique de tri non dominée, sont adoptées afin de chercher le modèle optimal et fiable qui offre le meilleur compromis entre les deux objectifs. En outre, un modèle de substitution avancée est établi dans le but de réduire le temps de simulation vu que le nombre important des itérations jusqu'à aboutir à un modèle optimal
Phase-change materials exhibit considerable potential in the field of thermal management.These materials offer a significant thermal storage capacity. Excessive heat dissipated by miniature electronic components could lead to serious failures. A cooling system based on phase-change materials is among the most recommended solutions to guarantee the reliable performance of these microelectronic components. However, the low conductivity of these materials is considered a major limitation to their use in thermal management applications. The primary objective of this thesis is to address the challenge of improving the thermal conductivity of these materials. Numerical modeling is conducted, in the first chapters, to determine the optimal configuration of a heat sink, based on the study of several parameters such as fin insertion, nanoparticle dispersion, and the use of multiple phase-change materials. The innovation in this parametric study lies in the modeling of heat transfer from phase-change materials with relatively high nanoparticle concentration compared to the low concentration found in recent literature (experimental researchs). Significant conclusions are deducted from this parametric study, enabling us to propose a new model based on multiple phase-change materials improved with nanoparticles (NANOMCP). Reliable optimization studies are then conducted. Initially, a mono-objective reliability optimization study is carried out to propose a reliable and optimal model based on multiple NANOMCPs. The Robust Hybrid Method (RHM)proposes a reliable and optimal model, compared with the Deterministic Design Optimization method (DDO) and various Reliability Design Optimization methods (RBDO). Furthermore,the integration of a developed RBDO method (RHM) for the thermal management applicationis considered an innovation in recent literature. Additionally, a reliable multi-objective optimization study is proposed, considering two objectives: the total volume of the heat sink and the discharge time to reach ambient temperature. The RHM optimization method and the non-dominated sorting genetics algorithm (C-NSGA-II) were adopted to search for the optimal and reliable model that offers the best trade-off between the two objectives. Besides, An advanced metamodel is developed to reduce simulation time, considering the large number of iterations involved in finding the optimal model
23

Bachoc, François. "Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens : application à la quantification des incertitudes en simulation numérique." Phd thesis, Paris 7, 2013. http://www.theses.fr/2013PA077111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
The parametric estimation of the covariance function of a Gaussian process is studied, in the framework of the Kriging model. Maximum Likelihood and Cross Validation estimators are considered. The correctly specified case, in which the covariance function of the Gaussian process does belong to the parametric set used for estimation, is first studied in an increasing-domain asymptotic framework. The sampling considered is a randomly perturbed multidimensional regular grid. Consistency and asymptotic normality are proved for the estimators. It is then put into evidence that strong perturbations of the regular grid are always beneficial to Maximum Likelihood estimation. The incorrectly specified case, in which the covariance function of the Gaussian process does not belong to the parametric set used for estimation, is then studied. It is shown that Cross Validation is more robust than Maximum Likelihood in this case. Finally, two applications of the Kriging model with Gaussian processes are carried out on industrial data. For a validation problem of the friction model of the thermal-hydraulic code FLICA 4, where experimental results are available, it is shown that Gaussian process modeling of the FLICA 4 code model error enables to considerably improve its predictions. Finally, for a metamodeling problem of the GERMINAL thermal-mechanical code, the interest of the Kriging model with Gaussian processes, compared to neural network methods, is shown
24

Bachoc, François. "Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens : application à la quantification des incertitudes en simulation numérique." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00881002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
25

Marzat, Julien. "Diagnostic des systèmes aéronautiques et réglage automatique pour la comparaison de méthodes." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00647333.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire contribuent à la définition de méthodes pour la détection et le diagnostic de défauts affectant les systèmes aéronautiques. Un système représentatif sert de support d'étude, constitué du modèle non linéaire à six degrés de liberté d'un missile intercepteur, de ses capteurs et actionneurs ainsi que d'une boucle de guidage-pilotage. La première partie est consacrée au développement de deux méthodes de diagnostic exploitant l'information de commande en boucle fermée et les caractéristiques des modèles aéronautiques. La première méthode utilise les objectifs de commande induits par les lois de guidage-pilotage pour générer des résidus indiquant la présence de défauts. Ceci permet la détection des défauts sur les actionneurs et les capteurs, ainsi que leur localisation pour ces derniers. La deuxième méthode exploite la mesure de dérivées des variables d'état (via une centrale inertielle) pour estimer la valeur de la commande réalisée par les actionneurs, sans intégration du modèle non linéaire du système. Le diagnostic est alors effectué en comparant cette estimée avec la valeur désirée, ce qui permet la détection, la localisation et l'identification de défauts multiples sur les actionneurs.La seconde partie propose une méthodologie de réglage automatique des paramètres internes (les hyperparamètres) de méthodes de diagnostic. Ceci permet une comparaison plus objective entre les méthodes en évaluant la meilleure performance de chacune. Le réglage est vu comme un problème d'optimisation globale, la fonction à optimiser étant calculée via la simulation numérique (potentiellement coûteuse) de cas test. La méthodologie proposée est fondée sur un métamodèle de krigeage et une procédure itérative d'optimisation bayésienne, qui permettent d'aborder ce problème à faible coût de calcul. Un nouvel algorithme est proposé afin d'optimiser les hyperparamètres d'une façon robuste vis à vis de la variabilité des cas test pertinents.Mots clés : détection et diagnostic de défauts, guidage-pilotage, krigeage, minimax continu, optimisation globale, redondance analytique, réglage automatique, systèmes aéronautiques.
26

Oger, Julie. "Méthodes probabilistes pour l'évaluation de risques en production industrielle." Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-00982740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
27

Vazquez, Emmanuel. "Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010199.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
28

Lelièvre, Nicolas. "Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC045/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018
Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018
29

Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
30

Felder, Jean. "Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux." Phd thesis, Paris, ENMP, 2011. http://www.theses.fr/2011ENMP0076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes
Geostatistics provides many tools to characterize and deal with data spread in space. Most of these tools are based on the analysis and the modeling of a function called variogram. By characterizing the spatial correlation inherent to any data set, the variogram enables to build different spatial operators as estimation (kriging) and simulation ones. Variographic models are relatively intuitive: some variographic parameters can directly be interpreted as structural characteristics. These approaches are however limited since they are not enable to properly take into account the local data structure. There are several types of non-stationary geostatistical models. However, they are difficult to use in practice because they need a complicated, not really intuitive setting. Besides, they are not enable to take into account some types of non-stationarity. In order to answer the need for an effective and efficient consideration of non-stationarity of a data set, we have chosen, in the context of this PhD thesis, to compute local variographic parameters, called Moving Parameters (M-Parameters), by using image processing methods. Our approach relies mainly on the determination of morphological parameters of size and dimension. It follows from the determination of M-Parameters a better match between variographic models and structural characteristics of the data. These different methods for computing M-Parameters have been applied to bathymetry data, to data revealing complex geological bodies and to environmental data sets, such as air pollution in urban areas for example. These examples illustrate the improvements in the results of the geostatistical process using M-Parameters. Finally, based on the observation that some phenomena do not respect an euclidean metric (such as air pollution in urban areas), we have studied the influence of the choice of the distance metric on kriging results. Using geodesic distances, we have been able to obtain kriging results which are impossible to reproduce with an euclidean distance
31

Felder, Jean. "Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00681301.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes.
32

Durrande, Nicolas. "Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2001. http://tel.archives-ouvertes.fr/tel-00770625.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général de cette thèse est celui de la construction de modèles permettant d'approximer une fonction f lorsque la valeur de f(x) est connue pour un certain nombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage, peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espaces de Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens. Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, le nombre de points nécessaires pour la construction du modèle devient très important et les modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avons cherché à construire des modèles simplifiés en travaillant sur un objet clef des modèles de krigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation de noyaux additifs pour la construction de modèles additifs et la décomposition des noyaux usuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nous proposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVA des modèles associés et à l'analyse de sensibilité globale.
33

Durrande, Nicolas. "Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00844747.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
34

Labroquère, Jérémie. "Optimisation de dispositifs de contrôle actif pour des écoulements turbulents décollés." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4096/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les stratégies de contrôle d’écoulement, telles que le soufflage / aspiration, ont prouvé leur efficacité à modifier les caractéristiques d’écoulement à des fins diverses en cas de configurations usuellement simples. Pour étendre cette approche sur des cas industriels, la simulation de dispositifs à échelle réelle et l’optimisation des paramètres de contrôle s’avèrent nécessaires. L’objectif de cette thèse est de mettre en place une procédure d’optimisation pour résoudre cette catégorie de problèmes. Dans cette perspective, l’organisation de la thèse est divisé en trois parties. Tout d’abord, le développement et la validation d’un solveur d’écoulement turbulent compressible instationnaire, résolvant les équations de Navier-Stokes moyennées (RANS) dans le cadre d’une discrétisation mixte de type éléments finis / volumes finis (MEV) sont présentés. Une attention particulière est portée sur la mise en œuvre de modèles numériques de jet synthétique à l’aide de simulations sur une plaque plane. Le deuxième axe de la thèse décrit et valide la mise en œuvre d’une méthode d’optimisation globale basée sur un modèle réduit du type processus gaussien (GP), incluant une approche de filtrage d’erreurs numériques liées aux observations. Cette méthode EGO (Efficient Global Optimization), est validée sur des cas analytiques bruités 1D et 2D. Pour finir, l’optimisation de paramètres de contrôle de jet synthétique sur deux cas test pertinents pour les industriels : un profil d’aile NACA0015, avec objectif de maximiser la portance moyenne et une marche descendante avec objectif de minimiser la longueur de recirculation moyenne
Active flow control strategies, such as oscillatory blowing / suction, have proved their efficiency to modify flow characteristics for various purposes (e.g. skin friction reduction, separation delay, etc.) in case of rather simple configurations. To extend this approach to industrial cases, the simulation of a large number of devices at real scale and the optimization of parameters are required. The objective of this thesis is to set up an optimization procedure to solve this category of problems. In this perspective, the organization of the thesis is split into three main parts. First, the development and validation of an unsteady compressible turbulent flow solver using the Reynolds-Averaged Navier-Stokes (RANS) using a Mixed finite-Element/finite-Volume (MEV) framework is described. A particular attention is drawn on synthetic jet numerical model implementation by comparing different models in the context of a simulation over a flat plate. The second axis of the thesis describes and validates the implementation of a Gaussian Process surrogate model based global optimization method including an approach to account for some numerical errors during the optimization. This EGO (Efficient Global Optimization) method, is validated on noisy 1D and 2D analytical test cases. Finally, the optimization of two industrial relevant test cases using a synthetic jet actuator are considered: a turbulent flow over a NACA0015 for which the time-averaged lift is regarded as the control criterion to be maximized, and an incompressible turbulent flow over a Backward Facing Step for which the time-averaged recirculation length is minimized
35

Ioannidou, Despoina. "Characterization of environmental inequalities due to Polyaromatic Hydrocarbons in France : developing environmental data processing methods to spatialize exposure indicators for PAH substances." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1176/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La réduction des inégalités d’exposition environnementale constitue un axe majeur en santé publique en France comme en témoignent les priorités des différents Plan Nationaux Santé Environnement (PNSE). L’objectif de cette thèse est de développer une approche intégrée pour la caractérisation des inégalités environnementales et l’évaluation de l’exposition spatialisée de la population aux HAP en France.Les données produites dans le cadre des réseaux de surveillance de la qualités des milieux environnementaux sont le reflet de la contamination réelle des milieux et de l’exposition globale des populations. Toutefois, elles ne présentent généralement pas une représentativité spatiale suffisante pour caractériser finement les expositions environnementales, ces réseaux n’ayant pas été initialement conçus dans cet objectif. Des méthodes statistiques sont développées pour traiter les bases de données d’entrée (concentrations environnementales dans l’eau, l’air et le sol) et les rendre pertinentes vis à vis des objectifs définis de caractérisation de l’exposition. Un modèle multimédia d’exposition, interfacé avec un Système d’Information Géographique pour intégrer les variables environnementales, est développé pour estimer les doses d’exposition liées à l’ingestion d’aliments, d’eau de consommation, de sol et à l’inhalation de contaminants atmosphériques. La méthodologie a été appliquée pour trois Hydrocarbures Aromatiques Polycycliques (benzo[a]pyrène, benzo[ghi]pérylène et indéno[1,2,3-cd]pyrène) sur l’ensemble du territoire français. Les résultats permettent de cartographier des indicateurs d’exposition, d’identifier les zones de surexposition et de caractériser les déterminants environnementaux. Dans une logique de caractérisation de l’exposition, la spatialisation des données issues des mesures environnementales pose un certain nombre de questions méthodologiques qui confèrent aux cartes réalisées de nombreuses incertitudes et limites relatives à l’échantillonnage et aux représentativités spatiales et temporelles des données. Celles-ci peuvent être réduites par l’acquisition de données supplémentaires et par la construction de variables prédictives des phénomènes spatiaux et temporels considérés.Les outils de traitement statistique de données développés dans le cadre de ces travaux seront intégrés dans la plateforme PLAINE pour être déclinés sur d’autres polluants en vue de prioriser les mesures de gestion à mettre en œuvre
Reducing environmental exposure inequalities has become a major focus of public health efforts in France, as evidenced by the French action plans for health and the environment. The aim of this thesis is to develop an integrated approach to characterize environmental inequalities and evaluate the spatialized exposure to PAH in France.The data produced as part of the monitoring quality networks of environmental media reflect the actual contamination of the environment and the overall exposure of the populations. However they do not always provide an adequate spatial resolution to characterize environmental exposures as they are usually not assembled for this specific purpose. Statistical methods are employed to process input databases (environmental concentrations in water, air and soil) in the objective of characterizing the exposure. A multimedia model interfaced with a GIS, allows the integration of environmental variables in order to yield exposure doses related to ingestion of food, water and soil as well as atmospheric contaminants' inhalation.The methodology was applied to three Polycyclic Aromatic Hydrocarbon substances, (benzo[a]pyrene, benzo[ghi]perylene and indeno[1,2,3-cd]pyrene), in France. The results obtained, allowed to map exposure indicators and to identify areas of overexposure and characterize environmental determinants. In the context of exposure characterization, the direct spatialization of available data from environmental measurement datasets poses a certain number of methodological questions which lead to uncertainties related to the sampling and the spatial and temporal representativeness of data. These could be reduced by acquiring additional data or by constructing predictive variables for the spatial and temporal phenomena considered.Data processing algorithms and calculation of exposure carried out in this work, will be integrated in the French coordinated integrated environment and health platform-PLAINE in order to be applied on other pollutants and prioritize preventative actions
36

Ioannidou, Despoina. "Characterization of environmental inequalities due to Polyaromatic Hydrocarbons in France : developing environmental data processing methods to spatialize exposure indicators for PAH substances." Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La réduction des inégalités d’exposition environnementale constitue un axe majeur en santé publique en France comme en témoignent les priorités des différents Plan Nationaux Santé Environnement (PNSE). L’objectif de cette thèse est de développer une approche intégrée pour la caractérisation des inégalités environnementales et l’évaluation de l’exposition spatialisée de la population aux HAP en France.Les données produites dans le cadre des réseaux de surveillance de la qualités des milieux environnementaux sont le reflet de la contamination réelle des milieux et de l’exposition globale des populations. Toutefois, elles ne présentent généralement pas une représentativité spatiale suffisante pour caractériser finement les expositions environnementales, ces réseaux n’ayant pas été initialement conçus dans cet objectif. Des méthodes statistiques sont développées pour traiter les bases de données d’entrée (concentrations environnementales dans l’eau, l’air et le sol) et les rendre pertinentes vis à vis des objectifs définis de caractérisation de l’exposition. Un modèle multimédia d’exposition, interfacé avec un Système d’Information Géographique pour intégrer les variables environnementales, est développé pour estimer les doses d’exposition liées à l’ingestion d’aliments, d’eau de consommation, de sol et à l’inhalation de contaminants atmosphériques. La méthodologie a été appliquée pour trois Hydrocarbures Aromatiques Polycycliques (benzo[a]pyrène, benzo[ghi]pérylène et indéno[1,2,3-cd]pyrène) sur l’ensemble du territoire français. Les résultats permettent de cartographier des indicateurs d’exposition, d’identifier les zones de surexposition et de caractériser les déterminants environnementaux. Dans une logique de caractérisation de l’exposition, la spatialisation des données issues des mesures environnementales pose un certain nombre de questions méthodologiques qui confèrent aux cartes réalisées de nombreuses incertitudes et limites relatives à l’échantillonnage et aux représentativités spatiales et temporelles des données. Celles-ci peuvent être réduites par l’acquisition de données supplémentaires et par la construction de variables prédictives des phénomènes spatiaux et temporels considérés.Les outils de traitement statistique de données développés dans le cadre de ces travaux seront intégrés dans la plateforme PLAINE pour être déclinés sur d’autres polluants en vue de prioriser les mesures de gestion à mettre en œuvre
Reducing environmental exposure inequalities has become a major focus of public health efforts in France, as evidenced by the French action plans for health and the environment. The aim of this thesis is to develop an integrated approach to characterize environmental inequalities and evaluate the spatialized exposure to PAH in France.The data produced as part of the monitoring quality networks of environmental media reflect the actual contamination of the environment and the overall exposure of the populations. However they do not always provide an adequate spatial resolution to characterize environmental exposures as they are usually not assembled for this specific purpose. Statistical methods are employed to process input databases (environmental concentrations in water, air and soil) in the objective of characterizing the exposure. A multimedia model interfaced with a GIS, allows the integration of environmental variables in order to yield exposure doses related to ingestion of food, water and soil as well as atmospheric contaminants' inhalation.The methodology was applied to three Polycyclic Aromatic Hydrocarbon substances, (benzo[a]pyrene, benzo[ghi]perylene and indeno[1,2,3-cd]pyrene), in France. The results obtained, allowed to map exposure indicators and to identify areas of overexposure and characterize environmental determinants. In the context of exposure characterization, the direct spatialization of available data from environmental measurement datasets poses a certain number of methodological questions which lead to uncertainties related to the sampling and the spatial and temporal representativeness of data. These could be reduced by acquiring additional data or by constructing predictive variables for the spatial and temporal phenomena considered.Data processing algorithms and calculation of exposure carried out in this work, will be integrated in the French coordinated integrated environment and health platform-PLAINE in order to be applied on other pollutants and prioritize preventative actions
37

Zhang, Zebin. "Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles." Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires
The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations
38

Durrande, Nicolas. "Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste." Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0631/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale
The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis
39

Frémondière, Pierre. "L'évolution de l'accouchement dans la lignée humaine. Estimation de la contrainte fœto-pelvienne par deux méthodes complémentaires : la simulation numérique de l'accouchement et l'analyse discriminante des modalités d'accouchement au sein d'un échantillon obstétrical." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre objectif est d’étudier les modalités d’accouchement au sein de la lignée humaine. Pour cela, nous utilisons deux approches complémentaires : la simulation numérique de l’accouchement et l’analyse discriminante des modalités d’accouchement au sein d’un échantillon obstétrical. Dans un premier temps, nous construisons des maillages de bassins et de crânes de foetus fossiles grâce à une méthode d’interpolation : le krigeage. Les groupes fossiles considérés sont les Australopithèques, les premiers représentants du genre Homo (PRGH) et les représentants du genre Homo au Pléistocène moyen et supérieur (RPMS). Les dimensions des crânes juvéniles sont utilisées pour estimer « à rebours » les dimensions néonatales à l’aide de courbes de croissance humaine et de chimpanzé. Nous réalisons une simulation numérique de l’accouchement à partir des maillages de ces dyades « virtuelles ». Puis nous réalisons des analyses discriminantes avec un jeu de données issu de mesures réalisées sur le pelviscanner de femmes et sur les mesures du crâne de leur nouveau-né afin de séparer les modalités d’accouchement grâce aux variables foeto-pelviennes. Ces mêmes variables foeto-pelviennes sont mesurées chez les dyades fossiles afin d’identifier, par les analyses discriminantes, leurs modalités d’accouchement les plus probables. Nos résultats suggèrent un accouchement eutocique sans rotation intra-pelvienne chez les Australopithèques, eutocique avec rotation intrapelvienne chez les PRGH, dystocique ou eutocique chez les RPMS, l’accouchement eutocique est caractérisé par une rotation et une incurvation de la trajectoire de descente
The purpose of this thesis is to estimate delivery outcomes for extinct hominids. We therefore use two complementary methods : numerical simulation of childbirth and discriminant analysis of delivery outcomes from an obstetrical sample. First, we use kriging to construct meshes of pelves and neonatal skulls. Fossil hominid specimens included in the study are Australopithecines, early Homo (EH) and middle to early Pleistocene Homo (MEPH). We estimate fetal cranial dimensions with chimpanzee or human cranial growth curve that we reversly use and apply on juveniles skull measurements. “Virtual” dyads are formed from pelves and neonatal skulls. Then, we simulate childbirth of these « virtual » dyads. Different levels of laxity of the sacro-iliac junction and different positions of the fetal head are considered. Finally, we use an obstetrical sample: delivery outcome is noted, CT-scans are used to obtain maternal pelvic measurements and diameters of the fetal head were also measured after delivery. A discriminant analysis is performed using this obstetrical sample to separate delivery outcomes thanks to fetal-pelvic measurements. Fossil dyads were subsequently added in the discriminant analysis to assess delivery outcomes to which they belong. Results suggest small fetal-pelvic constraint for Austalopithecines. This constraint is moderate for EH. Fetal-pelvic constraint is more important for MEPH. We suggest that rotational birth appears with EH. The curved trajectory of the fetal head appears with MEPH. Emergence of rotational birth and curved trajectory of fetal head are probably explained by two major increases in brain size during late and middle Pleistocene
40

Franchi, Gianni. "Machine learning spatial appliquée aux images multivariées et multimodales." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la statistique spatiale multivariée et l’apprentissage appliqués aux images hyperspectrales et multimodales. Les thèmes suivants sont abordés :Fusion d'images :Le microscope électronique à balayage (MEB) permet d'acquérir des images à partir d'un échantillon donné en utilisant différentes modalités. Le but de ces études est d'analyser l’intérêt de la fusion de l'information pour améliorer les images acquises par MEB. Nous avons mis en œuvre différentes techniques de fusion de l'information des images, basées en particulier sur la théorie de la régression spatiale. Ces solutions ont été testées sur quelques jeux de données réelles et simulées.Classification spatiale des pixels d’images multivariées :Nous avons proposé une nouvelle approche pour la classification de pixels d’images multi/hyper-spectrales. Le but de cette technique est de représenter et de décrire de façon efficace les caractéristiques spatiales / spectrales de ces images. Ces descripteurs multi-échelle profond visent à représenter le contenu de l'image tout en tenant compte des invariances liées à la texture et à ses transformations géométriques.Réduction spatiale de dimensionnalité :Nous proposons une technique pour extraire l'espace des fonctions en utilisant l'analyse en composante morphologiques. Ainsi, pour ajouter de l'information spatiale et structurelle, nous avons utilisé les opérateurs de morphologie mathématique
This thesis focuses on multivariate spatial statistics and machine learning applied to hyperspectral and multimodal and images in remote sensing and scanning electron microscopy (SEM). In this thesis the following topics are considered:Fusion of images:SEM allows us to acquire images from a given sample using different modalities. The purpose of these studies is to analyze the interest of fusion of information to improve the multimodal SEM images acquisition. We have modeled and implemented various techniques of image fusion of information, based in particular on spatial regression theory. They have been assessed on various datasets.Spatial classification of multivariate image pixels:We have proposed a novel approach for pixel classification in multi/hyper-spectral images. The aim of this technique is to represent and efficiently describe the spatial/spectral features of multivariate images. These multi-scale deep descriptors aim at representing the content of the image while considering invariances related to the texture and to its geometric transformations.Spatial dimensionality reduction:We have developed a technique to extract a feature space using morphological principal component analysis. Indeed, in order to take into account the spatial and structural information we used mathematical morphology operators
41

Barbarroux, Loïc. "Contributions à la modélisation multi-échelles de la réponse immunitaire T-CD8 : construction, analyse, simulation et calibration de modèles." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC026/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors de l’infection par un pathogène intracellulaire, l’organisme déclenche une réponse immunitaire spécifique dont les acteurs principaux sont les lymphocytes T-CD8. Ces cellules sont responsables de l’éradication de ce type d’infections et de la constitution du répertoire immunitaire de l’individu. Les processus qui composent la réponse immunitaire se répartissent sur plusieurs échelles physiques inter-connectées (échelle intracellulaire, échelle d’une cellule, échelle de la population de cellules). La réponse immunitaire est donc un processus complexe, pour lequel il est difficile d’observer ou de mesurer les liens entre les différents phénomènes mis en jeu. Nous proposons trois modèles mathématiques multi-échelles de la réponse immunitaire, construits avec des formalismes différents mais liés par une même idée : faire dépendre le comportement des cellules TCD8 de leur contenu intracellulaire. Pour chaque modèle, nous présentons, si possible, sa construction à partir des hypothèses biologiques sélectionnées, son étude mathématique et la capacité du modèle à reproduire la réponse immunitaire au travers de simulations numériques. Les modèles que nous proposons reproduisent qualitativement et quantitativement la réponse immunitaire T-CD8 et constituent ainsi de bons outils préliminaires pour la compréhension de ce phénomène biologique
Upon infection by an intracellular pathogen, the organism triggers a specific immune response,mainly driven by the CD8 T cells. These cells are responsible for the eradication of this type of infections and the constitution of the immune repertoire of the individual. The immune response is constituted by many processes which act over several interconnected physical scales (intracellular scale, single cell scale, cell population scale). This biological phenomenon is therefore a complex process, for which it is difficult to observe or measure the links between the different processes involved. We propose three multiscale mathematical models of the CD8 immune response, built with different formalisms but related by the same idea : to make the behavior of the CD8 T cells depend on their intracellular content. For each model, we present, if possible, its construction process based on selected biological hypothesis, its mathematical study and its ability to reproduce the immune response using numerical simulations. The models we propose succesfully reproduce qualitatively and quantitatively the CD8 immune response and thus constitute useful tools to further investigate this biological phenomenon
42

Gauthier, Bertrand. "Approche spectrale pour l'interpolation à noyaux et positivité conditionnelle." Phd thesis, École Nationale Supérieure des Mines de Saint-Étienne, 2011. http://tel.archives-ouvertes.fr/tel-00631252.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces.
43

Gauthier, Bertrand. "Approche spectrale pour l’interpolation à noyaux et positivité conditionnelle." Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0615/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces
We propose a spectral approach for the resolution of kernel-based interpolation problems of which numerical solution can not be directly computed. Such a situation occurs in particular when the number of data is infinite. We first consider optimal interpolation in Hilbert subspaces. For a given problem, an integral operator is defined from the underlying kernel and a parameterization of the data set based on a measurable space. The spectral decomposition of the operator is used in order to obtain a representation formula for the optimal interpolator and spectral truncation allows its approximation. The choice of the measure on the parameters space introduces a hierarchy onto the data set which allows a tunable precision of the approximation. As an example, we show how this methodology can be used in order to enforce boundary conditions in kernel-based interpolation models. The Gaussian processes conditioning problem is also studied in this context. The last part of this thesis is devoted to the notion of conditionally positive kernels. We propose a general definition of symmetric conditionally positive kernels relative to a given space and exposed the associated theory of semi-Hilbert subspaces. We finally study the optimal interpolation problem in such spaces
44

Chocat, Rudy. "Évaluation de la fiabilité en tolérance aux dommages pour les composants de moteurs spatiaux." Electronic Thesis or Diss., Compiègne, 2018. http://www.theses.fr/2018COMP2435.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin d’assurer leur mission, la conception des moteurs spatiaux doit prévenir tous les modes de défaillance en suivant des règles de justification particulières. La tolérance aux dommages consiste à certifier la tenue des composants pendant la durée de la mission en présence d’une potentielle anomalie non détectée, qui est par hypothèse conservative, assimilée à une fissure. Pour éviter l’addition de conservatismes, la présence d’incertitudes, due notamment à l’utilisation de modèles numériques, peut être appréhendée par les approches probabilistes. L’objectif de ce travail est de proposer une méthodologie pour évaluer la fiabilité, définie par la probabilité de défaillance, en tolérance aux dommages des composants de moteurs spatiaux. Le nombre de vols restreint, les faibles probabilités visées ainsi que les modèles, possiblement coûteux, qui fournissent une information mixte respectivement quantitative, ou qualitative, dans le cas de composants sûrs, ou défaillants, limitent l’utilisation des méthodes existantes. Dans un premier temps, ce travail présente une méthode originale de sensibilités fiabilistes pour identifier les variables les plus influentes en dépit de l’indisponibilité du gradient dans la zone de défaillance. Dans un second temps, une méthodologie d’évaluation de la fiabilité qui couple méta-modèles de régression et de classification est proposée pour évaluer les faibles probabilités en limitant le nombre de simulations du modèle de tolérance aux dommages
To succeed their mission, the design of space engines must prevent the whole failure modes following dedicated design rules. The damage tolerance has to ensure the mechanical strength of the component considering the potential presence of a undetected defect which is, in a conservatve way, defined as a crack. To avoid the addition of unknown margins, uncertainties, implied by the use of numerical model, can be treated in the probabilitic framework. The goal of this work is to propose a methodology to assess the reliability (probability of failure), of damage tolernace for space engine components. The small rate of flights, the low targeted probability of failure and the use of models, possibly time consuming, which provide a mixed information respectively quantitative, or qualitaive, for a safe, or failed, component limit the use exting approaches. This work firstly present an orignal method to identify significant variables with a unavailable gradient in the failure region. Then, a reliability assessment methodology is proposed coupling regression and classification to compute low probabilities reducing the number of damage tolerance simulations. Finally, this contribution is applied to academical and damage tolerance test cases to lead to a complex space engine case
45

Fremondière, Pierre. "L'évolution de l'accouchement dans la lignée humaine. Estimation de la contrainte fœto-pelvienne par deux méthodes complémentaires : la simulation numérique de l'accouchement et l'analyse discriminante des modalités d'accouchement au sein d'un échantillon obstétrical." Thesis, 2015. http://www.theses.fr/2015AIXM5013/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre objectif est d’étudier les modalités d’accouchement au sein de la lignée humaine. Pour cela, nous utilisons deux approches complémentaires : la simulation numérique de l’accouchement et l’analyse discriminante des modalités d’accouchement au sein d’un échantillon obstétrical. Dans un premier temps, nous construisons des maillages de bassins et de crânes de foetus fossiles grâce à une méthode d’interpolation : le krigeage. Les groupes fossiles considérés sont les Australopithèques, les premiers représentants du genre Homo (PRGH) et les représentants du genre Homo au Pléistocène moyen et supérieur (RPMS). Les dimensions des crânes juvéniles sont utilisées pour estimer « à rebours » les dimensions néonatales à l’aide de courbes de croissance humaine et de chimpanzé. Nous réalisons une simulation numérique de l’accouchement à partir des maillages de ces dyades « virtuelles ». Puis nous réalisons des analyses discriminantes avec un jeu de données issu de mesures réalisées sur le pelviscanner de femmes et sur les mesures du crâne de leur nouveau-né afin de séparer les modalités d’accouchement grâce aux variables foeto-pelviennes. Ces mêmes variables foeto-pelviennes sont mesurées chez les dyades fossiles afin d’identifier, par les analyses discriminantes, leurs modalités d’accouchement les plus probables. Nos résultats suggèrent un accouchement eutocique sans rotation intra-pelvienne chez les Australopithèques, eutocique avec rotation intrapelvienne chez les PRGH, dystocique ou eutocique chez les RPMS, l’accouchement eutocique est caractérisé par une rotation et une incurvation de la trajectoire de descente
The purpose of this thesis is to estimate delivery outcomes for extinct hominids. We therefore use two complementary methods : numerical simulation of childbirth and discriminant analysis of delivery outcomes from an obstetrical sample. First, we use kriging to construct meshes of pelves and neonatal skulls. Fossil hominid specimens included in the study are Australopithecines, early Homo (EH) and middle to early Pleistocene Homo (MEPH). We estimate fetal cranial dimensions with chimpanzee or human cranial growth curve that we reversly use and apply on juveniles skull measurements. “Virtual” dyads are formed from pelves and neonatal skulls. Then, we simulate childbirth of these « virtual » dyads. Different levels of laxity of the sacro-iliac junction and different positions of the fetal head are considered. Finally, we use an obstetrical sample: delivery outcome is noted, CT-scans are used to obtain maternal pelvic measurements and diameters of the fetal head were also measured after delivery. A discriminant analysis is performed using this obstetrical sample to separate delivery outcomes thanks to fetal-pelvic measurements. Fossil dyads were subsequently added in the discriminant analysis to assess delivery outcomes to which they belong. Results suggest small fetal-pelvic constraint for Austalopithecines. This constraint is moderate for EH. Fetal-pelvic constraint is more important for MEPH. We suggest that rotational birth appears with EH. The curved trajectory of the fetal head appears with MEPH. Emergence of rotational birth and curved trajectory of fetal head are probably explained by two major increases in brain size during late and middle Pleistocene

To the bibliography