Academic literature on the topic 'Méthode de krigeage'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthode de krigeage.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthode de krigeage":

1

Joseph, Gonel, Karem Chokmani, Taha B. M. J. Ouarda, and André Saint-Hilaire. "Une évaluation de la robustesse de la méthode du krigeage canonique pour l’analyse régionale des débits." Revue des sciences de l'eau 20, no. 4 (January 21, 2008): 367–80. http://dx.doi.org/10.7202/016911ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Dans le présent article, on se propose d’évaluer la généralité et la robustesse du krigeage canonique, une méthode d’estimation régionale du débit, en l’appliquant pour l’estimation du débit moyen interannuel en régime hydrologique tropical et dans des conditions imparfaites de qualité et de disponibilité de données. Pour ce faire, la méthode du krigeage canonique a été appliquée au cas de Haïti dont le réseau de stations hydrométriques est très limité. Le krigeage canonique a été comparé à la régression linéaire, une méthode simple d’estimation régionale. Selon les critères de performance définis, le krigeage canonique paraît légèrement plus performant que la régression. Il produit des estimations moins biaisées (un biais relatif moyen de ‑ 13 % contre ‑ 20 % pour la régression) et des erreurs relatives légèrement moins importantes (54,4 % contre 59,6 %). Toutefois, le krigeage canonique a été moins performant pour l’estimation du débit des plus grands bassins versants, bien que ses performances globales demeurent acceptables. Par ailleurs, vu les conditions très défavorables dans lesquelles la méthode a été appliquée, il n’a pas été possible de relier la baisse dans les performances du krigeage canonique à une déficience dans la généralité de l’approche et/ou dans sa robustesse.
2

Chopart, Sophie, and Éric Sauquet. "Usage des jaugeages volants en régionalisation des débits d’étiage." Revue des sciences de l'eau 21, no. 3 (September 10, 2008): 267–81. http://dx.doi.org/10.7202/018775ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Cet article propose de valoriser les jaugeages volants dans un cadre de régionalisation de débits caractéristiques d’étiage. La variable examinée est le débit mensuel minimal annuel de fréquence quinquennale sèche (QMNA5). Le jeu de données est formé de 133 stations hydrométriques réparties dans le bassin Seine-Normandie. La méthode dite « des jaugeages épisodiques » calcule le QMNA5 en un site cible (peu jaugé) en multipliant la valeur de QMNA5 d’une station hydrométrique voisine par un coefficient k. Ce coefficient k est obtenu à partir d’observations concomitantes au site cible et à la station d’appui. Une étude de sensibilité à la stratégie de collecte des jaugeages et au degré de similitude entre le site cible et la station de référence montre une faible sensibilité au nombre de jaugeages volants (le risque d’erreur importante est cependant plus élevé avec peu de données). En outre, il semble préférable d’effectuer les mesures en période d’étiage, de rechercher une station d’appui sur le même linéaire et de calculer k selon le rapport des moyennes des débits synchrones. Cette méthode a été comparée à des méthodes d’interpolation classiques (régression et deux variantes du krigeage). Leur performance a été appréciée par validation croisée sur le jeu de données en considérant tour à tour chaque station comme peu jaugée. Les méthodes géostatistiques, équivalentes en matière d’efficience, sont plus fiables qu’une régression linéaire exploitant des données climatologiques, mais sont surpassées par la méthode des jaugeages volants. Enfin, la méthode des jaugeages épisodiques a été intégrée dans un cadre géostatistique pour extrapoler les valeurs obtenues aux sites peu jaugés. La validation croisée opérée montre que l’exploitation des jaugeages épisodiques, même en nombre réduit dans une méthode régionale, permet donc de mieux apprécier les valeurs de QMNA5.
3

Sall, Saïdou Nourou, Tégaye Diop, Dioumacor Fall, and Ramatoulaye Ndiaye. "Effets comparatifs du biochar, du phosphogypse et des résidus de baobab (Adansonia digitata) sur les activités microbiennes des sols salés de la cuvette rizicole Thiagar dans la Vallée du Fleuve Sénégal." International Journal of Biological and Chemical Sciences 17, no. 2 (May 31, 2023): 519–30. http://dx.doi.org/10.4314/ijbcs.v17i2.18.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La restauration des sols salés des cuvettes rizicoles de la Vallée du Fleuve Sénégal est un défi majeur l’autosuffisance en riz du pays. L’objectif de cette étude était d’évaluer par la méthode du Krigeage la distribution spatiale de la salinité dans la cuvette de Thiagar, zone à forte production rizicole, et de comparer le potentiel des amendements de biochar, du phosphogypse et de résidus de baobab (Adansonia digitata) à régénérer les activités biologiques des sols. Les cartes élaborées font apparaître une cuvette divisée en deux zones différentes selon les propriétés chimiques et biologiques des sols. Une zone qui renferme les sols avec des ESP, des activités enzymatiques FDA, des CEC et des teneurs en C les plus élevés. Et, une zone qui renferme les sols avec des CE et des pH les plus élevés et des ESP les plus faibles. Les sols étudiés ne sont pas sodiques. Les résidus de baobab, riches en N et en Ca ont induit des activités microbiennes significativement plus élevées dans les sols amendés comparés au biochar et au phosphogypse. Cette étude suggère l’orientation de la recherche vers les résidus de Adansonia digitata riches en calcium pour favoriser la résilience des sols les plus salés. The restoration of saline soils in the rice-growing basins of the Senegal River Valley is a major challenge to the country's rice self-sufficiency. The aim of this study was to evaluate the spatial distribution of salinity in the Thiagar basin, an area of high rice production, using the Kriging method, and to compare the potential of biochar, phosphogypsum and baobab (Adansonia digitata) residues to regenerate soil biological activities. The maps developed showed two different zones according to the chemical and biological properties of the soils. The first zone contains the soils with the highest ESP, FDA enzymatic activity, CEC and C content. The second zone contains the soils with the highest EC and pH and the lowest ESP. The soils studied are not sodic. The residues of Baobab, rich in N and Ca induced significantly higher microbial activities in the amended soils compared to biochar and gypsum. This suggests that organic residues rich in calcium such as Adansonia digitata, may be a promising means of alleviating the effects of salinization
4

Vincent Benjamin, Anongba Braphond Rodrigue, Adja Miessan Germain, and Djémin Edoukou Jacques. "Contribution à la Caractérisation des Sédiments Superficiels Quaternaires de la Partie Sud du Marais Poitevin (PoitouCharentes-France)." European Scientific Journal, ESJ 18, no. 40 (December 31, 2022): 211. http://dx.doi.org/10.19044/esj.2022.v18n40p211.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système hydrogéologique de la partie sud du marais Poitevin qui est comme une zone humide, est très peu connu. Cette étude vise à définir les caractéristiques sédimentologiques et physiques des formations du Quaternaire de cette partie sud du marais Poitevin en vue d’une meilleure connaissance du système hydrogéologique pour sa gestion durable. Ainsi, la cartographie de l’épaisseur des formations quaternaires par la méthode du krigeage, la granulométrie laser et la description minéralogique par diffractomètre des rayons X sont utilisées. Cette étude a montré que les épaisseurs des formations quaternaires varient de 0 à 22,5 m avec, des épaisseurs plus importantes au Nord et au Nord-ouest de la zone d’étude. Ces épaisseurs varient de façon spécifique de 0 à 54 m à Saint Hilaire la Palud susceptible de correspondre à une anomalie géologique. La granulométrie des formations quaternaires est plus grossière au Sud et plus fine au Nord de la partie du marais considérée. Les faciès rencontrés sont des limons généralement plus fins en surface qu’en profondeur avec ou sans coquillage, passant latéralement à des sables ou à des débris calcaires. Les sédiments en surface ont une faible perméabilité (inférieure à 10-7 m.s-1 ou de 10-7 à 10-6 m.s-1) par rapport à ceux rencontrés en profondeur où les valeurs de perméabilité peuvent atteindre 10-4 m.s-1. Cette perméabilité est plus élevée sur la bordure sud que sur la bordure nord de la partie du marais considérée. Le cortège minéralogique est dominé par le quartz et les feldspaths en surface et les minéraux carbonatés en profondeur. Ces minéraux sont associés à l’illite et la chlorite. Les formations quaternaires mettent en évidence la "nappe du Bri" en surface et les "pseudo-nappes" en profondeur. L'ensemble de ces formations quaternaires repose sur le substratum carbonaté Jurassique. Hydrogeological system of Poitevin marsh southern part, which is like a wetland, is very little known. This study aims to define sedimentological and physical characteristics of Quaternary formations of Poitevin marsh southern part in order to better understand hydrogeological system for its sustainable management. Thus, thickness mapping of Quaternary formations by kriging method, laser grain-size analysis and mineralogical description by X-ray diffractometer are used. This study showed that the thicknesses of Quaternary formations vary from 0 to 22.5 m with greater thicknesses to the north and northwest of the study area. These thicknesses vary specifically from 0 to 54 m in Saint Hilaire la Palud likely to correspond to a geological anomaly. The grain-size analysis of quaternary formations is coarser in South and finer in North of considered marsh part. Encountered facies are silts that are generally finer at the surface than at depth, with or without shells, passing laterally to sands or calcareous debris. The surface sediments have a low permeability (less than 10-7 m.s-1 or 10-7 to 10-6 m.s-1) compared to those encountered at depth where permeability values can reach 10-4 m.s-1. This permeability is higher on southern edge than on northern edge of considered marsh part. The mineralogical assemblage is dominated by quartz and feldspars at surface and carbonate minerals at depth. These minerals are associated with illite and chlorite. The quaternary formations highlight "Bri groundwater" at surface and "pseudo aquifers" at depth. The whole of these quaternary formations rest on the Jurassic carbonate substratum.
5

Rakotonirina, M. D. L., and Jean-Paul Ngbolua. "Modélisation géologique et estimation d’un gisement de Fer de Bekisopa, Madagascar." Revue Congolaise des Sciences & Technologies 2, no. 4 (February 10, 2022): 498–504. http://dx.doi.org/10.59228/rcst.023.v2.i4.56.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude a pour objectif de réaliser une analyse approfondie de la géologie du gisement de fer en question et d'explorer son potentiel d'exploitation. En combinant des observations sur le terrain, des opérations de forage, des analyses géologiques et l'utilisation d'outils de modélisation, notre intention est de parvenir à une compréhension approfondie de la composition, de la distribution et des caractéristiques géologiques du gisement de fer de Bekisopa découvert par H. Besairie en 1933. L'évaluation des réserves de fer a été menée en appliquant des méthodes géostatistiques, notamment le krigeage. Les données issues des forages, conjointement avec les informations géologiques provenant des modèles tridimensionnels, ont servi à établir des variogrammes et des modèles de continuité spatiale. Cette démarche a permis d'aboutir à une estimation quantitative des réserves de fer présentes dans le gisement. Un total de trente forages a été réalisé sur une superficie d'un kilomètre carré. Ces données de forages ont été cruciales pour calculer un volume du gisement de l'ordre de 25 000 000 de mètres cubes, compte tenu d'une densité moyenne du gisement de 4 500 kg/m3 et d'une teneur moyenne de 40%. Cette estimation a conduit à une valeur de ressources ferreuses avoisinant les quarante millions (40 000 000) de tonnes. Étant donné que le minerai se trouve à une profondeur relativement accessible en surface, l'option d'une exploitation à ciel ouvert se présente comme une alternative envisageable et attrayante. Ce type d'exploitation implique l'extraction du minerai à partir de vastes fosses découvertes, une approche économiquement viable lorsque les ressources minérales sont situées près de la surface. Mots clés : Modélisation, caractéristiques géologiques, Bekisopa, krigeage, variogramme.
6

TRICHEREAU, J., X. THAUVIN, A. MUKAKANAMUGIRE-RWAGAJU, S. HERNANDEZ, G. MANET, C. VERRET, J. B. MEYNARD,, J. M. AMAT-ROZE, R. MIGLIANI, and A. MAYET. "Pandémie grippale 2009 dans les armées : distribution géographique en France métropolitaine." Revue Médecine et Armées, Volume 40, Numéro 5 (December 1, 2012): 425–32. http://dx.doi.org/10.17184/eac.6637.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette étude était de réaliser la cartographie de la pandémie de grippe A (H1N1) pdm09 dans les armées afin d’avoir une approche spatiale visuelle de la propagation de l’épidémie sur le territoire métropolitain. Les données utilisées étaient issues de la surveillance quotidienne de la grippe dans les armées entre le 17 septembre 2009 et le 20 mars 2010. Seules les unités de la France métropolitaine ont été cartographiées et l’indicateur utilisé était le nombre de cas possible de grippe A (H1N1) pdm09, définis par la présence de signes généraux associés à des signes respiratoires. Deux méthodes de cartographie ont été appliquées à l’aide d’un système d’information géographique: la pondération par l’inverse de la distance et le krigeage. Au cours de la période d’étude, 6952 cas possibles de grippe ont été déclarés. La moyenne hebdomadaire du taux d’incidence des cas possibles de grippe déclarés était de 120 cas p. 100000 personnes-semaines. L’analyse cartographique révélait une hausse de l’incidence de la grippe en métropole à partir de septembre 2009, hausse fortement accentuée à partir de fin octobre atteignant un pic épidémique fin novembre avec une moyenne de 256 cas p. 100000 PS. Vers la fin de l’année 2009, une baisse d’incidence des cas possibles de grippe était observée, précédant le déclin de la pandémie grippale. Si les deux méthodes d’interpolation donnaient des résultats similaires, la pondération par l’inverse de la distance était plus simple d’utilisation. Les techniques de cartographie utilisant les systèmes d’information géographique constituent un bon outil descriptif des phénomènes épidémiques, particulièrement utile pour la rétro-information aux unités déclarantes. Les tendances cartographiques retrouvées à l’échelon militaire apparaissent similaires à celles retrouvées en population générale française. Cependant, en raison de la répartition non uniforme des unités militaires sur le territoire national et des spécificités de la population militaire, les comparaisons avec les données obtenues en population civile doivent s’interpréter avec précaution.
7

MOUSSA, Abdel Djalilou, Soufouyane ZAKARI, Mama DJOUGA, Ousséni AROUNA, and Ismaïla TOKO IMOROU. "Diversité floristique et structure de la végétation ligneuse de la forêt classée des ‘’Trois Rivières’’ et sa périphérie au Nord-Est du Bénin." Journal of Geospatial Science and Technology 4, no. 1 (May 16, 2023): 1–21. http://dx.doi.org/10.54222/afrigist/jgst/v4i1.1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La forêt classée des ‘’Trois Rivières’’ et sa périphérie subissent d’énormes pressions induites par une forte croissance démographique et le développement des activités socioéconomiques. La présente recherche a pour objectif d’analyser la diversité floristique et structurale des ligneux de cet écosystème. Les inventaires forestiers ont été réalisés dans 120 placeaux circulaires (rayon=18m). Les paramètres de structure et de diversité ont été calculés et spatialisés avec le logiciel ArcGis 10.6 par la technique de krigeage ordinaire. Dans l’ensemble, on dénombre 81 espèces ligneuses dont 68 espèces en forêt et 52 en périphérie. La densité et la surface terrière moyennes des arbres sont respectivement de 271 ± 114 arbre/ha, 11,83 ± 5,93 m²/ha en forêt contre 231 ± 193 arbre/ha et 12,37 ± 10,12 m²/ha en périphérie. L’indice de Shannon est de 2,06 ± 0,82 bits en forêt contre 1,76 ± 1,05 bits en périphérie ; la forêt est donc plus diversifiée que la périphérie. Respectivement, les indices de Pielou, Simpson et Hill sont de 0,84 ± 0,10 ; 0,69 ± 0,44 ; 0,49 ± 0,16 en forêt contre de 0,81± 0,15 ; 0,62 ± 0,35 ; 0,24 ± 0,92 dans la périphérie. La richesse spécifique des groupements, varie entre 3,17 ± 0,98 et 8 ± 1,84 espèces. Le groupement G2 est le plus diversifié (H = 2,56 ± 0,44 bits) et le faciès F1, le moins diversifié (H = 1,40 ± 0,46 bit). La prédominance des micros et mésophanérophytes dans les différents groupements confirme les pressions anthropiques dans le milieu. Il urge de revoir les stratégies et méthodes de gestion pour une meilleur conservation de la biodiversité dans le milieu. The forest reserve of ‘’Trois Rivières’’ and its periphery are under enormous pressures induced by a strong demographic growth and the development of socioe-conomic activities. The aim of this research is to analyze the floristic and structural diversity of woody species in this ecosystem. The forest inventories, have carried out in 120 circular plots (radius=18m). Structure and diversity parameters were calculated and spatialized with ArcGis 10.6 software using the ordinary kriging technique. Overall, there were 81 woody species, 68 in the forest and 52 in the periphery. The average density and basal area of trees are respectively 271 ± 114 trees/ha, 11.83 ± 5.93 m²/ha in the forest against 231 ± 193 trees/ha and 12.37 ± 10.12 m²/ha in the periphery. The Shannon index is 2.06 ± 0.82 bits in the forest versus 1.76 ± 1.05 bits in the periphery; the forest is therefore more diverse than the periphery. Respectively, the Pielou, Simpson and Hill indices are 0.84 ± 0.10; 0.69 ± 0.44; 0.49 ± 0.16 in the forest versus 0.81 ± 0.15; 0.62 ± 0.35; 0.24 ± 0.92 in the periphery. The species richness of the groups varies between 3.17 ± 0.98 and 8 ± 1.84 species. Grouping G2 is the most diverse (H = 2.56 ± 0.44 bits) and facies F1, the least diverse (H = 1.40 ± 0.46 bits). The predominance of micro and mesophanerophytes in the different groupings confirms the anthropic pressures in the environment. It is urgent to review management strategies and methods for a better conservation of biodiversity in the environment

Dissertations / Theses on the topic "Méthode de krigeage":

1

Hannat, Ridha. "Optimisation d'un système d'antigivrage à air chaud pour aile d'avion basée sur la méthode du krigeage dual." Mémoire, École de technologie supérieure, 2014. http://espace.etsmtl.ca/1302/1/HANNAT_Ridha.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse est de proposer une nouvelle méthodologie d’optimisation pour les systèmes d’antigivrage à air chaud pour ailes d’avions. La méthodologie est basée sur la méthode du krigeage dual. Le système d’antigivrage est constitué d’un tube piccolo placé le long de l’envergure de l’aile, dans la région du bord d’attaque. L’air chaud est injecté à travers de petites buses et impacte sur la paroi interne de l’aile. La fonction objectif ciblée par l’optimisation est l’efficacité de transfert thermique du système d’antigivrage. Cette efficacité de transfert thermique est considérée comme étant le rapport du flux de chaleur à la paroi interne de l’aile divisé par la somme de tous les flux de chaleur aux buses du système d’antigivrage. La méthodologie adoptée pour optimiser un système d’antigivrage comporte trois étapes. La première étape consiste à construire une base de données selon le plan de Box-Behnken. La fonction objectif est ensuite modélisée par la méthode du krigeage dual et enfin l’optimisation par la méthode SQP est appliquée sur le modèle de la fonction objectif. Un des avantages du krigeage dual est que le modèle passe exactement par tous les points de mesures, mais il peut aussi prendre en compte les erreurs numériques et dévier des points de mesures. En plus, le modèle krigé peut être mis à jour à chaque nouvelle expérience numérique. Ces caractéristiques du krigeage dual semblent en faire un bon outil pour construire les surfaces de réponse nécessaire à l’optimisation d’un système d’antigivrage. Le premier chapitre passe en revue la littérature pertinente sur le sujet ainsi que sur la problématique d’optimisation du système d’antigivrage. Les chapitres 2, 3 et 4 présentent les trois articles soumis. Le chapitre 2 est dédié à la validation des codes de CFD utilisés pour réaliser les simulations numériques d’un système d’antigivrage et au calcul du transfert de chaleur conjugué (CHT). Le CHT est calculé en prenant en compte l’écoulement externe autour de l’aile d’avion, l’écoulement interne dans le système d’antigivrage et la conduction dans l’aile. Les coefficients de transfert de chaleur à la paroi externe de l’aile ne changent pas tellement si l’on prend en compte ou non l’écoulement externe. Donc seul, l’écoulement interne est considéré dans les articles suivants. Le chapitre 3 concerne la matrice de design et la construction d’un modèle paramétrique d’ordre deux. La modélisation de la fonction objectif est basée sur le plan de design de Box-Behnken. Le modèle paramétrique qui découle des simulations numériques sert à la comparaison avec le modèle krigé du troisième article. Le chapitre 4 applique la méthode du krigeage dual pour la modélisation de l’efficacité de transfert thermique du système d’antigivrage et son optimisation. La possibilité d’inclure l’erreur numérique dans les résultats est explorée. Pour le cas test étudié, l’introduction de l’erreur numérique dans le processus d’optimisation n’améliore pas les résultats. La méthode du krigeage dual est aussi employée pour modéliser la distribution du flux de chaleur local et interpoler le flux de chaleur correspondant au design optimal du système d’antigivrage.
2

Bouhlel, Mohamed Amine. "Optimisation auto-adaptative en environnement d’analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l’énergie de l’air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L’optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d’optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l’adaptation d’unestratégie d’optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d’accélérer sa construction. Une des limitations connues du modèle de krigeage concernel’estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d’entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d’accélérerla convergence de l’estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d’améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d’optimisation globale sous contraintes pour la grande dimension, en s’appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d’optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d’optimisationsous contraintes en grande dimension. Différents critères d’enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l’optimum global sur des problèmes académiquesjusqu’à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l’industrie automobile (124 variables d’entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d’entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel
Aerospace turbomachinery consists of a plurality of blades. Their main function is to transfer energybetween the air and the rotor. The bladed disks of the compressor are particularly important becausethey must satisfy both the requirements of aerodynamic performance and mechanical resistance.Mechanical and aerodynamic optimization of blades consists in searching for a set of parameterizedaerodynamic shape that ensures the best compromise solution between a set of constraints.This PhD introduces a surrogate-based optimization method well adapted to high-dimensionalproblems. This kind of high-dimensional problem is very similar to the Snecma’s problems. Ourmain contributions can be divided into two parts : Kriging models development and enhancementof an existing optimization method to handle high-dimensional problems under a large number ofconstraints. Concerning Kriging models, we propose a new formulation of covariance kernel which is able toreduce the number of hyper-parameters in order to accelerate the construction of the metamodel.One of the known limitations of Kriging models is about the estimation of its hyper-parameters.This estimation becomes more and more difficult when the number of dimension increases. Inparticular, the initial design of experiments (for surrogate modelling construction) requires animportant number of points and therefore the inversion of the covariance matrix becomes timeconsuming. Our approach consists in reducing the number of parameters to estimate using the Partial LeastSquares regression method (PLS). This method provides information about the linear relationshipbetween input and output variables. This information is integrated into the Kriging model kernelwhile maintaining the symmetry and the positivity properties of the kernels. Thanks to this approach,the construction of these new models called KPLS is very fast because of the low number of newparameters to estimate. When the covariance kernel used is of an exponential type, the KPLS methodcan be used to initialize parameters of classical Kriging models, to accelerate the convergence of theestimation of parameters. The final method, called KPLS+K, allows to improve the accuracy of themodel for multimodal functions. The second main contribution of this PhD is to develop a global optimization method to tacklehigh-dimensional problems under a large number of constraint functions thanks to KPLS or KPLS+Kmethod. Indeed, we extended the self adaptive optimization method called "Efficient Global Optimization,EGO" for high-dimensional problems under constraints. Several enriching criteria have been tested. This method allows to estimate known global optima on academic problems up to 50 inputvariables. The proposed method is tested on two industrial cases, the first one, "MOPTA", from the automotiveindustry (with 124 input variables and 68 constraint functions) and the second one is a turbineblade from Snecma company (with 50 input variables and 31 constraint functions). The results showthe effectiveness of the method to handle industrial problems.We also highlight some importantlimitations
3

Soilahoudine, Moindzé. "Optimisation de structures aéronautiques : une nouvelle méthode à fidélité adaptative." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes d'optimisation à base de métamodèles avec enrichissement adaptatif (type Efficient Global Optimization) peuvent, malgré leurs atouts, être rédhibitoires en temps de calculs lorsqu'elles sont appliquées à des modèles numériques de grande taille avec plusieurs minimums locaux. Elles nécessitent la résolution d'un modèle complet à chaque simulation, ce qui peut conduire à des études irréalisables ou alors dans des durées incompatibles avec les échelles de temps typiques du processus de conception d'un produit. Cette thèse s'inscrit dans la thématique de l'optimisation de simulateurs numériquement couteux par l'utilisation des modèles simplifiés. Ces modèles simplifiés peuvent être notamment de deux types : des métamodèles ou des modèles d'ordre réduit. Nous proposons dans cette thèse une nouvelle méthodologie d'optimisation globale de systèmes mécaniques en couplant les méthodes d'optimisation à base de métamodèles adaptatifs avec les méthodes de réduction d'ordre. Les méthodes d'optimisation à base de métamodèles visent à réduire le nombre d'évaluations de la fonction objectif tandis que les méthodes de réduction d'ordre visent à diminuer la taille des modèles permettant ainsi une réduction de leur temps d'exécution. L'objectif de la méthodologie développée dans cette thèse est alors de réduire le nombre d'évaluations de la fonction objectif tout en diminuant également le temps d'exécution des modèles. L'idée de l'approche développée est de construire le métamodèle de la fonction objectif de manière adaptative. Cette construction fusionne des modèles complets et des modèles d'ordre réduit et adapte ainsi la fidélité aux besoins en précision de l'itération courante de l'optimisation. Les performances des algorithmes développés dans cette thèse ont été illustrées sur deux types d'applications : i. un problème d'identification des quatre propriétés orthotropes d'un composite stratifié à partir de mesures de champs de déplacement d'une plaque trouée en traction. ii. un problème de maximisation de la rigidité d'une plaque composite stratifiée. Les résultats ont permis de montrer que notre méthodologie permet d'obtenir des gains considérables, en temps de calcul, par rapport à un algorithme de type EGO classique
The surrogate based optimization method with adaptive enrichment (Efficient Global Optimization type approach) may, in spite of its strengths, be prohibitive in terms of computational cost when applied to large scale problems with several local minima. They require the resolution of a full numerical model for each simulation, which can lead to intractable studies or to simulation times incompatible with the times allotted for the design of a product. This PhD thesis falls within the scope of optimizing expensive simulator codes by using substitution models of the simulator. These substitutions models can be of two types: a metamodel or a reduced order model. We have proposed here a new methodology for global optimization of mechanical systems by coupling adaptive surrogate based optimization methods with the reduced order modeling methods. The surrogate based optimization methods aim to reduce the number of objective function evaluations while the reduced order model methods aim to reduce the dimensionality of a model and thus its computational cost. The objective of the methodology proposed in this thesis is thus to reduce the number of the objective function evaluations while at the same time significantly reducing the computational expense to the resolutions of the full mechanical model. The basic idea of the proposed approach resides in the adaptive construction the metamodel of the objective function. This construction fuses full and reduced order models and thus adapts the model fidelity to the accuracy requirements of the optimization at the current iteration. The efficiency of our proposed algorithms was illustrated on two types of applications: i. a problem of identification of orthotropic elastic constants from full field displacement measurements based on a tensile test on a plate with a hole ii. a problem of stiffness maximization of laminated plates. The results have shown that our methodology provides a significant speed-up in terms of computational cost, compared to the traditional EGO algorithm
4

Djerboua, Abdelatif. "Prédétermination des pluies et crues extrêmes dans les Alpes franco-italiennes : prévision quantitative des pluies journalières par la méthode des analogues." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ce travail, en première partie est de construire un atlas expérimental des précipitations extrêmes à pas de temps de 1 à 24 heures dans les Alpes franco-italiennes (Alpes françaises, le Piémont, la Ligurie). Les caractéristiques statistiques des précipitations extrêmes sont déterminées en ajustant soit une loi de Gumbel, soit par l’utilisation d’une méthode appelée TCEV, basée sur la régionalisation des paramètres statistiques de la loi. Ensuite, différentes méthodes d’interpolation spatiale (krigeage, régression multiple,…) sont utilisées. Ensuite, on compare, sur deux bassins versants proches des méthodes de calcul de prédétermination des crues, dont l’une utilise les méthodes sur les pluies (méthode du GRADEX), et l’autre méthode italienne VAPI utilise l’information donnée par les débits. Enfin, on présente une méthode de prévision quantitative des précipitations journalières (méthode des Analogues). Cette méthode a été appliquée en temps réel
5

Emery, Xavier. "Simulation conditionnelle de modèles isofactoriels." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
6

Benassi, Romain. "Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00864700.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
7

Dalla'Rosa, Alexandre. "Modélisation et optimisation de la localisation d'émetteurs dans des systèmes de communication sans fil." Paris 11, 2007. http://www.theses.fr/2007PA112299.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant les dernières décennies, l’évolution technologique associée aux systèmes de communication sans fil induit une augmentation significative des niveaux des signaux électromagnétiques dans l'environnement. Quand ces niveaux sont élevés, ils peuvent causer la défaillance et/ou le mauvais fonctionnement de composants électroniques, causant ainsi un problème de compatibilité électromagnétique (CEM). L’évolution des systèmes de transmission sans fil et des perturbations associées en environnement indoor oblige à se doter d’outils électromagnétiques permettant la caractérisation du canal de propagation. Dans les études de propagation indoor, la recherche de la meilleure position d’un émetteur conduit à un problème d’optimisation relativement difficile. Nous proposons dans ce travail la combinaison d’une méthode de calcul des champs (TLM - Transmission Line Method) et d’une technique d’interpolation (le Krigeage) afin d’évaluer le comportement des champs et de réaliser l’optimisation. Les différents environnements indoor étudiés sont composés de plusieurs milieux de propagation (béton, bois, verre, métal, etc. ). La modélisation de l’environnent et la distribution des champs électromagnétiques sont obtenus par le calcul TLM. Dans un premier temps les champs sont évalués lorsque l’émetteur est situé en certains points de ce maillage. Puis le Krigeage est utilisé afin d’évaluer le comportement de la fonction objectif (ici le niveau d'illumination électromagnétique dans l’environnement) dans la totalité du domaine d’étude. La démarche proposée permet d’approcher et d’évaluer rapidement la fonction objectif en vue de réaliser l’optimisation
During the last years, portability has been the “key” for the extraordinary expansion of the personal communication systems (PCS) in urban environments. People located anywhere, at any time, can access private and collective services, exchanging information, safely and quickly, without any fixed “wireline” connection (e. G. Bluetooth, WiFi, etc. ). One of the most important considerations in successful implementation of PCS is the indoor radio communication. For more than 10 years the indoor radio propagation channel is investigated and several tools were deployed based on two different approaches to deal with the wave propagation problem: empirical and deterministic approaches. In a few words, the main differences between these two techniques are the exactness and the waste time to build and solve a wave propagation problem. Up to now, most of the indoor PCS architectures are based on empirical approaches based on the simplicity and low computational cost. However, the evolution of the wireless systems and the associated disturbances in urban environment demands more efficient tools to guarantee an efficient expansion of PCS. In this work a technique is presented to investigate the indoor radio propagation channel and search for the optimal transmitter location. The TLM method and the Kriging technique are combined to approach an objective function in order to solve at low cost an optimization problem corresponding to an electromagnetic indoor environment prediction. The technique is applied to search the optimal transmitter location in a realistic problem
8

Ryazanova, Oleksiv Marta. "Approche statistique pour l'optimisation des stratégies d'analyses techniques basées sur des seuils." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose des approches probabilistes pour améliorer et optimiser un des instruments les plus populaires de l'analyse technique, les bandes de trading. Les parties I et II se concentrent sur l'optimisation des composantes des bandes de trading: ligne centrale (représentée par la moyenne mobile) et lignes des bandes. La partie III est dédiée à l'amélioration du processus de prise de décision. Dans la partie I on propose d'utiliser le krigeage, une approche géostatistique, pour l'optimisation des poids des moyennes mobiles. Le krigeage permet d'obtenir l'estimateur optimal, qui incorpore les caractéristiques statistiques des données. Contrairement aux méthodes classiques, qui sont utilisées en finance, celle ci peut être appliquée aux données échantillonnées à maille régulière ou irrégulière. La partie II propose une méthode, basée sur la transformation des données en une variable normale, qui permet de définir les valeurs extrêmes et en conséquence les valeurs des bandes sans imposition de contraintes sur la distribution des résidus. Enfin, la partie III présente l'application des méthodes de krigeage disjonctif , une autre méthode géostatistique, pour les décision plus informative sur le timing et le type de position. Le krigeage disjonctif permet d'estimer les probabilités que certain seuils seront atteints dans le futur. Les résultats expérimentaux prouvent que les techniques proposées sont prometteuses et peuvent être utilisées en pratique.
9

Bompard, Manuel. "MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00771799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
10

Ammar, Karim. "Conception multi-physique et multi-objectif des cœurs de RNR-Na hétérogènes : développement d’une méthode d’optimisation sous incertitudes." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112390/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis la fermeture de Phénix en 2010 le CEA ne possède plus de réacteur au sodium. Vus les enjeux énergétiques et le potentiel de la filière, le CEA a lancé un programme de démonstrateur industriel appelé ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), réacteur d’une puissance de 600MW électriques (1500 MW thermiques). L’objectif du prototype est double, être une réponse aux contraintes environnementales et démontrer la viabilité industrielle :• De la filière RNR-Na, avec un niveau de sureté au moins équivalent aux réacteurs de 3ème génération, du type de l’EPR. ASTRID intégrera dès la conception le retour d’expérience de Fukushima ;• Du retraitement des déchets (transmutation d’actinide mineur) et de la filière qui lui serait liée.La sûreté de l’installation est prioritaire, aucun radioélément ne doit être rejeté dans l’environnement, et ce dans toutes les situations. Pour atteindre cet objectif, il est impératif d’anticiper l’impact des nombreuses sources d’incertitudes sur le comportement du réacteur et ce dès la phase de conception. C’est dans ce contexte que s’inscrit cette thèse dont l’ambition est le développement de nouvelles méthodes d’optimisation des cœurs des RNR-Na. L’objectif est d’améliorer la robustesse et la fiabilité des réacteurs en réponse à des incertitudes existantes. Une illustration sera proposée à partir des incertitudes associées à certains régimes transitoires dimensionnant. Nous utiliserons le modèle ASTRID comme référence pour évaluer l’intérêt des nouvelles méthodes et outils développés.L’impact des incertitudes multi-Physiques sur le calcul des performances d’un cœur de RNR-Na et l’utilisation de méthodes d’optimisation introduisent de nouvelles problématiques :• Comment optimiser des cœurs « complexes » (i.e associés à des espaces de conception de dimensions élevée avec plus de 20 paramètres variables) en prenant en compte les incertitudes ?• Comment se comportent les incertitudes sur les cœurs optimisés par rapport au cœur de référence ?• En prenant en compte les incertitudes, les réacteurs sont-Ils toujours considérés comme performants ?• Les gains des optimisations obtenus à l’issue d’optimisations complexes sont-Ils supérieurs aux marges d’incertitudes (qui elles-Mêmes dépendent de l’espace paramétrique) ?La thèse contribue au développement et à la mise en place des méthodes nécessaires à la prise en compte des incertitudes dans les outils de simulation de nouvelle génération. Des méthodes statistiques pour garantir la cohérence des schémas de calculs multi-Physiques complexes sont également détaillées.En proposant de premières images de cœur de RNR-Na innovants, cette thèse présente des méthodes et des outils permettant de réduire les incertitudes sur certaines performances des réacteurs tout en les optimisant. Ces gains sont obtenus grâce à l’utilisation d’algorithmes d’optimisation multi-Objectifs. Ces méthodes permettent d’obtenir tous les compromis possibles entre les différents critères d’optimisations comme, par exemple, les compromis entre performance économique et sûreté
Since Phenix shutting down in 2010, CEA does not have Sodium Fast Reactor (SFR) in operating condition. According to global energetic challenge and fast reactor abilities, CEA launched a program of industrial demonstrator called ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), a reactor with electric power capacity equal to 600MW. Objective of the prototype is, in first to be a response to environmental constraints, in second demonstrates the industrial viability of:• SFR reactor. The goal is to have a safety level at least equal to 3rd generation reactors. ASTRID design integrates Fukushima feedback;• Waste reprocessing (with minor actinide transmutation) and it linked industry.Installation safety is the priority. In all cases, no radionuclide should be released into environment. To achieve this objective, it is imperative to predict the impact of uncertainty sources on reactor behaviour. In this context, this thesis aims to develop new optimization methods for SFR cores. The goal is to improve the robustness and reliability of reactors in response to existing uncertainties. We will use ASTRID core as reference to estimate interest of new methods and tools developed.The impact of multi-Physics uncertainties in the calculation of the core performance and the use of optimization methods introduce new problems:• How to optimize “complex” cores (i.e. associated with design spaces of high dimensions with more than 20 variable parameters), taking into account the uncertainties?• What is uncertainties behaviour for optimization core compare to reference core?• Taking into account uncertainties, optimization core are they still competitive? Optimizations improvements are higher than uncertainty margins?The thesis helps to develop and implement methods necessary to take into account uncertainties in the new generation of simulation tools. Statistical methods to ensure consistency of complex multi-Physics simulation results are also detailed.By providing first images of innovative SFR core, this thesis presents methods and tools to reduce the uncertainties on some performance while optimizing them. These gains are achieved through the use of multi-Objective optimization algorithms. These methods provide all possible compromise between the different optimization criteria, such as the balance between economic performance and safety

Books on the topic "Méthode de krigeage":

1

Emery, Xavier, and Serge Antoine Séguret. Geostatistics for the Mining Industry: Applications to Porphyry Copper Deposits. CRC Press LLC, 2023.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Emery, Xavier, and Serge Antoine Séguret. Geostatistics for the Mining Industry: Applications to Porphyry Copper Deposits. Taylor & Francis Group, 2020.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Emery, Xavier, and Serge Antoine Séguret. Geostatistics for the Mining Industry: Applications to Porphyry Copper Deposits. Taylor & Francis Group, 2020.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Emery, Xavier, and Serge Antoine Séguret. Geostatistics for the Mining Industry: Applications to Porphyry Copper Deposits. Taylor & Francis Group, 2020.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lorkowski, Peter. Monitoring Continuous Phenomena: Background, Methods and Solutions. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lorkowski, Peter. Monitoring Continuous Phenomena: Background, Methods and Solutions. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Lorkowski, Peter. Monitoring Continuous Phenomena. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lorkowski, Peter. Monitoring Continuous Phenomena: Background, Methods and Solutions. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Lorkowski, Peter. Monitoring Continuous Phenomena: Background, Methods and Solutions. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Méthode de krigeage":

1

MATTRAND, Cécile, Pierre BEAUREPAIRE, and Nicolas GAYTON. "Méthodes adaptatives basées sur le krigeage pour l’évaluation de probabilités de défaillance : focus sur les méthodes AK." In Ingénierie mécanique en contexte incertain, 223–54. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude fournit au lecteur un aperçu des méthodes adaptatives récentes de calcul de probabilité de défaillance basées sur l’utilisation du krigeage (dit « processus gaussien ») avec un focus sur les méthodes nommées AK (Adaptative and Kriging-based methods). Ces méthodes sont particulièrement efficaces en présence de modèles de comportement coûteux à évaluer.

To the bibliography