Дисертації з теми "Indice de sensibilité à la désertification"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Indice de sensibilité à la désertification.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-19 дисертацій для дослідження на тему "Indice de sensibilité à la désertification".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Kone, Alassane. "Modelling and Decision Support for a Desertification Issue Using Cellular Automata Approach." Electronic Thesis or Diss., Guyane, 2023. http://www.theses.fr/2023YANE0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La désertification, en tant que problématique majeure affectant la vie sur Terre, a d’énormes conséquences qui dégradent la qualité de vie des hommes, leurs activités quotidiennes et leurs moyens de subsistance. Pour lutter contre son avancée, les organisations internationales ont mis en place des actions pour ralentir ou arrêter son expansion et réduire ses impacts.Cette thèse s’inscrit dans la lutte contre la désertification en modélisant le processus de dégradation des terres conduisant à la désertification. Deux modèles sont développés : le premier combine des automates cellulaires continus et l'évaluation MEDALUS, évaluant la désertification sur la base des indices des facteurs sol, végétation, climat et management. Le deuxième modèle simule la dégradation des terres en utilisant le couple automates cellulaires/Modèle MEDALUS, enrichi par des facteurs anthropiques comme les pratiques d'utilisation des terres, le facteur d'exploitabilité et l’appartenance foncière, formant le Modèle Amélioré de Désertification. Ce modèle sert de base au logiciel DESERTIfication Cellular Automata Software (DESERTICAS), permettant de simuler l'évolution spatio- temporelle de la dégradation des terres. DESERTICAS facilite l'exploration de scénarios de dégradation des terres dans le temps et l'espace.Ces modèles développés intègrent des processus dynamiques dans le modèle MEDALUS à la base statique et permettent d’étendre la notion d’état des automates cellulaires classiques à des états continus. L’identification d’un facteur prédominant permet d’agir sur tout le système conduisant à la désertification. Notre étude met en évidence le management, action humaine, comme facteur prédominant affectant indirectement les autres facteurs. Agir positivement sur le management permet d’interrompre les sources de dégradation, de ralentir ou arrêter la dégradation des terres. La théorie du contrôle est également appliquée au modèle d'automates cellulaires développés et permet d’agir sur le facteur prédominant à partir des algorithmes génétiques. En intégrant des actions de protection des terres dans les simulations liées à la désertification, le logiciel DESERTICAS devient un outil d'aide à la décision
Desertification, as a significant challenge impacting life on Earth, has extensive consequences that degrade human life quality, daily activities, and livelihoods. In response, international organizations have implemented actions to slow or stop its progress and reduce its impacts. This thesis focuses on combating desertification by modelling the process of land degradation leading to desertification. Two models are developed: the first combines continuous Cellular Automata and the MEDALUS assessment, evaluating desertification based on soil, vegetation, climate, and management. The second model simulates land degradation using cellular automata approach, enriched with anthropogenic factors like land use practices, exploitability factor and ownership, forming the Enhanced Model of Desertification. This model serves as the basis for DESERTIfication Cellular Automata Software (DESERTICAS), simulating spatio- temporal land degradation evolution. DESERTICAS facilitates scenario exploration by simulating land degradation progression over time and space. The models incorporate dynamic processes into the MEDALUS model, expanding classical Cellular Automata to continuous states. Identifying a predominant factor influencing desertification, management emerges as crucial, affecting other factors indirectly. Positive management actions can interrupt degradation sources, slowing or halting land degradation. The thesis also applies control theory to the Cellular Automata model, aiming to influence the predominant factor using Genetic Algorithms. By integrating land protection actions into desertification simulations, the DESERTICAS software becomes a decision support tool
2

Beaulieu, Lucie. "Analyse de sensibilité d'un indice de risque de perte de phosphore en zone cultivée." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/22790/22790.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il existe différents modèles de gestion de la pollution diffuse par le phosphore en agriculture. Le modèle d’indice de risque de perte du phosphore (IRP) estime les risques environnementaux associés aux pratiques culturales et aux conditions édaphiques pour un terrain donné. Des analyses de sensibilité de l’IRP ont été faites pour les conditions de Beauce-Appalaches au Québec. La zone d’étude est caractérisée par une superficie de 1 030 067 ha dont 173 941 ha sont en culture, principalement en fourrage et pâturage. La précipitation moyenne annuelle atteint 1236,5 mm et la température moyenne annuelle est de 3,85 ºC. La zone d’étude présente essentiellement des sols de type loam, loam-limoneux, loam-argileux et loam-limono-argileux. Les coefficients de régression linéaires multiples ont servi d’indice de sensibilité pour évaluer l’influence des différentes composantes, variables intermédiaires et variables de base sur les valeurs de l’IRP. Les analyses de sensibilité présentées dans cette recherche sont basées sur la technique de Monte Carlo qui utilise les densités de probabilité et les fréquences relatives des variables d’entrée du modèle pour estimer leur influence sur les valeurs de sortie. Pour la zone d’étude, 81% de la variabilité de l’IRP est attribuée au sous-indice de source du phosphore et 17% au sous-indice de transport du phosphore. Ce sont les composantes PORGAN (doses d’engrais organiques phosphorés moins les besoins en phosphore des cultures), DRAIN (distance séparatrice des drains souterrains) et PTOTAL (doses d’engrais organiques et minéraux phosphorés moins les besoins en phosphore des cultures) qui influencent le plus la valeur de l’IRP. Une analyse de sensibilité sur les variables de base montre que le prélèvement de phosphore par la culture, la distance entre les drains et la quantité de phosphore sous forme organique appliquée au sol influencent le plus les valeurs de l’IRP.
3

San, Emeterio Cabañes José Luis. "Désertification ou reverdissement ? Etude multiscalaire de l'évolution du couvert végétal en Afrique Sahélienne à partir de données de télédétection." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La région sahélienne est devenue l'archétype de la désertification et de la dégradation des terres depuis les grandes sécheresses qui l'ont ravagée dans les années 70 et 80. Cependant, la relative reprise des précipitations depuis le milieu des années 90 et l'observation subséquente d'un « reverdissement» du Sahel à partir d'indices de végétation extraits grâce au développement de la Télédétection Spatiale ont contribué à nuancer la thèse de l'avancée irréversible de la désertification. Le lien entre ces indices et la dégradation des terres demeure néanmoins très complexe et les conclusions tirées de leur analyse sont parfois contradictoires. En effet, les profondes mutations du paysage inhérentes à la croissance démographique ou la grande variabilité climatique sont autant de facteurs qui rendent délicat tout diagnostic définitif. La forte interdépendance des échelles spatiales et temporelles de la dégradation des terres au Sahel nous conduit à proposer une analyse multiscalaire, avec l'objectif initial de comprendre la situation actuelle et d'établir la méthode la mieux adaptée au suivi de ce phénomène à l'échelle régionale. Cette analyse est réalisée pour l'ensemble de la région sahélienne durant la période 1982-2011 à partir de l'indice de végétation NDVI GIMMS-3g et des produits de précipitations. Elle est ensuite transposée au sud-ouest nigérien, où l'évolution du couvert végétal est étudiée à partir du NDVI MODIS ainsi que des photographies aériennes et satellitaires des dernières décennies
The Sahel region has become the archetype of desertification and land degradation since the important droughts that took place during the 70s and 80s. However, the rainfall recovery since the middle of the 90s and the re-greening trend observed from remoting sensed vegetation indexes has challenged the view of an advancing desertification in the Sahel. Nevertheless, the relation between these indexes and land degradation is very complex and the conclusions made are sometimes contradictory. In fact, the high climate variability and the important landscape mutations, due to demographic growth, make of land degradation assessment a difficult task in this region. The strong interdependency between temporal and spatial scales of land degradation, led to carry out a multi-scalar analysis to understand; what is the actual situation of the Sahel concerning land degradation, and what is the most effective way to assess this phenomenon at a regional scale. This analysis has been done for the entire Sahel region during the period 1982-2011using the NDVI GIMMS-3g vegetation index and rainfall products. It has been later transposed to south-west Niger using the NDVI MODIS index and aerial and satellite photographs of the last decades
4

Petitcolin, Marie-Anne. "Vieillissement artériel et sensibilité au calcium de la contraction : couplage entre récepteurs [alpha]1-adrénergiques et protéines G[indice i/o]." Nancy 1, 2000. http://www.theses.fr/2000NAN12012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Thèse de doctorat en sciences du médicament. Ce travail de thèse a eu pour objectif : 1] l'étude des mécanismes intracellulaires de régulation de la sensibilité au calcium intracellulaire ([Ca2+][indice i]) de la réponse contractile des cellules musculaires lisses, lors d'une stimulation par un agoniste, la noradrénaline, 2] la comparaison de ces mécanismes dans une artère musculaire de faible diamètre, l'artère caudale, et une artère de transfert, l'aorte, chez le rat, et 3] l'analyse des perturbations de ces mécanismes lors du vieillissement vasculaire. L'originalité de ce travail repose sur l'utilisation simultanée et sur la même artère d'une approche fonctionnelle et biochimique. La première a consisté à évaluer l'impact d'un traitement par la toxine pertussique, un inhibiteur des protéines G[indice i] et G[indice 01] sur le couplage [Ca2+][indice i]-vasoréactivité dans un segment perfusé d'artère caudale dé-endothélialisée ou sur la réponse contractile d'anneaux d'aorte dé-endothélialisée. L'approche biochimique a permis d'étudier le rôle des protéines G[indice i/o] dans la sensibilité au [Ca2+][indice i] de l'appareil contractile lors d'une stimulation par la noradrénaline. Ces deux approches ont été réalisées sur deux souches de rats normotendus (Wistar et WAG/Rij). [. . . ]
5

Jacques, Julien. "Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00011169.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Deux thèmes sont abordés dans cette thèse : l'analyse de sensibilité et l'analyse discriminante généralisée.

L'analyse de sensibilité globale d'un modèle mathématique étudie comment les variables de sortie de ce dernier réagissent à des perturbations de ses entrées. Les méthodes basées sur l'étude de la variance quantifient les parts de variance de la réponse du modèle dues à chaque variable d'entrée et chaque sous-ensemble de variables d'entrée. Le premier problème abordé est l'impact d'une incertitude de modèle sur les résultats d'une analyse de sensibilité. Deux formes particulières d'incertitude sont étudiées : celle due à une mutation du modèle de référence, et celle due à l'utilisation d'un modèle simplifié à la place du modèle de référence. Un second problème relatif à l'analyse de sensibilité a été étudié au cours de cette thèse, celui des modèles à entrées corrélées. En effet, les indices de sensibilité classiques n'ayant pas de signification (d'un point de vue interprétation) en présence de corrélation des entrées, nous proposons une approche multidimensionnelle consistant à exprimer la sensibilité de la sortie du modèle à des groupes de variables corrélées. Des applications dans le domaine de l'ingénierie nucléaire illustrent ces travaux.

L'analyse discriminante généralisée consiste à classer les individus d'un échantillon test en groupes, en utilisant l'information contenue dans un échantillon d'apprentissage, lorsque ces deux échantillons ne sont pas issus d'une même population. Ce travail étend les méthodes existantes dans un cadre gaussien au cas des données binaires. Une application en santé publique illustre l'utilité des modèles de discrimination généralisée ainsi définis.
6

Al-Rajeh, Mohammad Rasoul. "Evaluation de la sensibilité des mesures accélérométriques comme indice de performance locomotrice : évaluation thérapeutique de la pathologie coxarthrosique par arthroplastie et par différent voies d'abord." Rouen, 2013. https://theses.hal.science/tel-00918921.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La marche humaine est l'un des gestes les plus caractéristique de l'être humain. Ce geste si simple, est extrêmement difficile à reproduire fidèlement et fait donc l'objet de nombreuses études approfondies. Généralement les études sont menées avec des outils de recherche très performants dont l'utilisation impose des enregistrements en condition de laboratoire. Ces conditions peuvent être très éloignées des conditions réelles de terrain et la motricité du sujet se trouve alors perturbée. De plus, la durée d'enregistrement est très réduite alors que les phénomènes étudiés peuvent avoir un impact fonctionnel variable au cours du temps. Trouver un dispositif portable, reproductible, léger, qui permet l'enregistrement tout au long de la journée et sans les restreintes liées aux laboratoires a fait l'objet de notre travail expérimental. Pour l'évaluation de la fiabilité et la reproductibilité de l'accéléromètre nous avons opté pour la comparaison de plusieurs données en préopératoire entre les différents dispositifs. Les patients souffrants d'une coxarthrose symptomatique handicapant peuvent terminer par profiter de la pose d'une PTH, dont le but de cette intervention prothétique est d'apporter une amélioration à la vie quotidienne du patient. Dans ce chapitre nous avons tenté de prouver et d'une façon objective la réalité de l'amélioration en post-opératoire, en analysant numériquement et statistiquement des paramètres accélérométriques obtenus en pré et postopératoire à 6 mois. Au cours des dernières années, les chirurgiens orthopédiques ont adopté des nouvelles techniques chirurgicales moins invasives parmi eux une nouvelle voie d'abord pour l'insertion de la prothèse de la hanche marquée par une petite incision. Il est à espérer, mais pas encore prouvé d'une façon objective, que cela peut permettre d'accélérer, de récupération moins douloureuse et plus rapide retour aux activités normales. Dans le but de prouver la supériorité d'une voie ? Et la récupération postopératoire plus rapide nous avons travaillé sur les données du locomètre en préopératoire et postopératoire à 2 et 6 mois
Walking is the most convenient way to travel short distances. Free joint mobility and appropriate muscle force increase walking efficiency. Coxarthroses is a noninflammatory degenerative disease of the hip joint which usually appears in late middle or old age. The treatment of hip arthrosis is especially for decreasing the pain by medication, physics therapies and in the case of advanced coxarthrosis, total hip arthroplasty is used. Thus, we have tried in this research to evaluated a recent technology, the accelerometer, fixed to the sacral vertebrate, in the study we have compared the results of our apparatus with these of others (Vicon and locometer). As we have compared the results of the locometer by using tow surgical approaches, the first is anatomical MI and the other is traditional and we have find that the recovery is better by using the anatomical approach
7

Also, Alio Ramatou. "Influence de la densité mammaire, du traitement hormonal substitutif et de l'indice de masse corporelle sur la sensibilité et la spécificité de la mammographie de dépistage : Programme Québécois de Dépistage du Cancer du Sein (PQDCS) 2000-2005." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28624/28624.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Chastaing, Gaëlle. "Indices de Sobol généralisés par variables dépendantes." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un modèle qui peut s'avérer complexe et fortement non linéaire, les paramètres d'entrée, parfois en très grand nombre, peuvent être à l'origine d'une importante variabilité de la sortie. L'analyse de sensibilité globale est une approche stochastique permettant de repérer les principales sources d'incertitude du modèle, c'est-à-dire d'identifier et de hiérarchiser les variables d'entrée les plus influentes. De cette manière, il est possible de réduire la dimension d'un problème, et de diminuer l'incertitude des entrées. Les indices de Sobol, dont la construction repose sur une décomposition de la variance globale du modèle, sont des mesures très fréquemment utilisées pour atteindre de tels objectifs. Néanmoins, ces indices se basent sur la décomposition fonctionnelle de la sortie, aussi connue soue le nom de décomposition de Hoeffding. Mais cette décomposition n'est unique que si les variables d'entrée sont supposées indépendantes. Dans cette thèse, nous nous intéressons à l'extension des indices de Sobol pour des modèles à variables d'entrée dépendantes. Dans un premier temps, nous proposons une généralisation de la décomposition de Hoeffding au cas où la forme de la distribution des entrées est plus générale qu'une distribution produit. De cette décomposition généralisée aux contraintes d'orthogonalité spécifiques, il en découle la construction d'indices de sensibilité généralisés capable de mesurer la variabilité d'un ou plusieurs facteurs corrélés dans le modèle. Dans un second temps, nous proposons deux méthodes d'estimation de ces indices. La première est adaptée à des modèles à entrées dépendantes par paires. Elle repose sur la résolution numérique d'un système linéaire fonctionnel qui met en jeu des opérateurs de projection. La seconde méthode, qui peut s'appliquer à des modèles beaucoup plus généraux, repose sur la construction récursive d'un système de fonctions qui satisfont les contraintes d'orthogonalité liées à la décomposition généralisée. En parallèle, nous mettons en pratique ces différentes méthodes sur différents cas tests
A mathematical model aims at characterizing a complex system or process that is too expensive to experiment. However, in this model, often strongly non linear, input parameters can be affected by a large uncertainty including errors of measurement of lack of information. Global sensitivity analysis is a stochastic approach whose objective is to identify and to rank the input variables that drive the uncertainty of the model output. Through this analysis, it is then possible to reduce the model dimension and the variation in the output of the model. To reach this objective, the Sobol indices are commonly used. Based on the functional ANOVA decomposition of the output, also called Hoeffding decomposition, they stand on the assumption that the incomes are independent. Our contribution is on the extension of Sobol indices for models with non independent inputs. In one hand, we propose a generalized functional decomposition, where its components is subject to specific orthogonal constraints. This decomposition leads to the definition of generalized sensitivity indices able to quantify the dependent inputs' contribution to the model variability. On the other hand, we propose two numerical methods to estimate these constructed indices. The first one is well-fitted to models with independent pairs of dependent input variables. The method is performed by solving linear system involving suitable projection operators. The second method can be applied to more general models. It relies on the recursive construction of functional systems satisfying the orthogonality properties of summands of the generalized decomposition. In parallel, we illustrate the two methods on numerical examples to test the efficiency of the techniques
9

Causse, Mathieu. "Contributions à l'extension de la méthode des Sparse Grids pour les calculs de fiabilité en modélisation de processus." Toulouse 3, 2010. http://www.theses.fr/2010TOU30336.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est de montrer l'efficacité des Sparse Grids comme méthode d'approximation appliquée à des problèmes réels de dimension élevée. Pour ces problèmes la détection des paramètres principaux est fondamentale. Dans un premier temps je présente la méthode des Sparse Grids en mettant l'accent sur sa forme adaptative. Je montre ensuite l'efficacité de la méthode sur des cas tests analytiques en montrant les particularités de la méthode en terme de détection des paramètres principaux. La méthode est ensuite utilisée pour des problèmes réels pour lesquels des résultats précis sont obtenus avec une réduction importante des coûts de calcul. Dans un premier temps la méthode est appliquée à un problème de transport de polluant. La seconde application est dédiée à l'étude de la performance d'un réseau électrique de puissance
The aim of this thesis is to show the efficiency of Sparse Grid approximation method applied to high dimensional real-life problems. For that kind of problems main parameters detection is fundamental. First we introduce Sparse Grid approximation method and emphasize its adaptive form. Then we show the efficiency of the method on standard test functions to show Sparse Grid specificities in main parameters detection. Due to excellent performance properties of the method, we apply it to a real-life problem and obtain accurate results with a reduced computation cost. The first application is dedicated to a pollutant diffusion problem, the second one aims to evaluate the performance of a power network
10

Andrianandraina. "Approche d'éco-conception basée sur la combinaison de l'analyse de cycle de vie et de l'analyse de sensibilité : Cas d'application sur le cycle de vie du matériau d'isolation thermique biosourcé, le béton de chanvre." Ecole centrale de Nantes, 2014. http://www.theses.fr/2014ECDN0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail de thèse est d’établir une méthode d’éco-conception basée sur l’Analyse de Cycle de Vie, qui doit permettre d’identifier des leviers d’actions environnementaux propres à chacun des différents acteurs économiques intervenant dans le cycle de vie d’un produit. L’Analyse de Cycle de Vie a été couplée avec deux méthodes d’analyse de sensibilité, suivant cinq étapes décrites dans le mémoire : (i) la définition des objectifs et du système, (ii) la modélisation du calcul de l’inventaire et des indicateurs d’impacts avec des approches différenciées en premier et arrière-plan, (iii) la caractérisation des paramètres utilisés avec unetypologie définie selon les possibilités d’action de l’acteur économique concerné, (iv) la réalisation successive de deux méthodes d’analyse de sensibilité (Morris et Sobol) sur le modèle défini, (v) l’interprétation des résultats en vue de proposer des pistes efficaces d’amélioration. L’approche établie a été appliquée au cycle de vie du béton de chanvre, avec l’étude des étapes de production agricole, de transformation des fibres de chanvre et d’utilisation du béton de chanvre comme isolant thermique dans le bâtiment. L’approche permet d’identifier des scénarios technologiques potentiels, permettant d’améliorer les performances environnementales, pour chacun des acteurs du cycle de vie du produit. Mettre en oeuvre cette approche actuellement nécessite un surcroît d’informations, mais présente un gain à long terme car elle permet d’effectuer des choix robustes pour un produit donné
The purpose of this PhD thesis is to establish an ecodesign method based on Life Cycle Assessment, that should allow identifying action levers specific for each economic actor of the life cycle of a product, for improved environmental performances. Life Cycle Assessment was coupled with two methods of sensitivity analysis in five steps: (i) definition of objectives and system, (ii) modeling calculation of inventory and impact indicators with different approaches according to foreground and background sub-systems, (iii) characterization of parameters using a typology specific to possibilities of control of the considered economic actor, (iv) application of two sensitivity analysis methods (Morris and Sobol) and (v) results interpretation in order to identify potential efficient improvements. The approach was applied on the hemp concrete insulation product, including agricultural production, industrial transformation of hemp fibers, and use of hemp concrete as a thermal insulator for buildings. The approach provides potential technological scenarios improving environmental performances for each single economic actor of the product’s life cycle. Performing the method presently requires additional information, but will probably be paid back in the future by driving more robust choices for a given product
11

Wu, QiongLi. "Sensitivity Analysis for Functional Structural Plant Modelling." Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00719935.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Global sensitivity analysis has a key role to play in the design and parameterization of functional-structural plant growth models (FSPM) which combine the description of plant structural development (organogenesis and geometry) and functional growth (biomass accumulation and allocation). Models of this type generally describe many interacting processes, count a large number of parameters, and their computational cost can be important. The general objective of this thesis is to develop a proper methodology for the sensitivity analysis of functional structural plant models and to investigate how sensitivity analysis can help for the design and parameterization of such models as well as providing insights for the understanding of underlying biological processes. Our contribution can be summarized in two parts: from the methodology point of view, we first improved the performance of the existing Sobol's method to compute sensitivity indices in terms of computational efficiency, with a better control of the estimation error for Monte Carlo simulation, and we also designed a proper strategy of analysis for complex biophysical systems; from the application point of view, we implemented our strategy for 3 FSPMs with different levels of complexity, and analyzed the results from different perspectives (model parameterization, model diagnosis).
12

Kamari, Halaleh. "Qualité prédictive des méta-modèles construits sur des espaces de Hilbert à noyau auto-reproduisant et analyse de sensibilité des modèles complexes." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASE010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur le problème de l'estimation d'un méta-modèle d'un modèle complexe, noté m. Le modèle m dépend de d variables d'entrées X1,...,Xd qui sont indépendantes et ont une loi connue. Le méta-modèle, noté f∗, approche la décomposition de Hoeffding de m et permet d'estimer ses indices de Sobol. Il appartient à un espace de Hilbert à noyau auto-reproduisant (RKHS), noté H, qui est construit comme une somme directe d'espaces de Hilbert (Durrande et al. (2013)). L'estimateur du méta-modèle, noté f^, est calculé en minimisant un critère des moindres carrés pénalisé par la somme de la norme de Hilbert et de la norme empirique L2 (Huet and Taupin (2017)). Cette procédure, appelée RKHS ridge groupe sparse, permet à la fois de sélectionner et d'estimer les termes de la décomposition de Hoeffding, et donc de sélectionner les indices de Sobol non-nuls et de les estimer. Il permet d'estimer les indices de Sobol même d'ordre élevé, un point connu pour être difficile à mettre en pratique.Ce travail se compose d'une partie théorique et d'une partie pratique. Dans la partie théorique, j'ai établi les majorations du risque empirique L2 et du risque quadratique de l'estimateur f^ d'un modèle de régression où l'erreur est non-gaussienne et non-bornée. Il s'agit des bornes supérieures par rapport à la norme empirique L2 et à la norme L2 pour la distance entre le modèle m et son estimation f^ dans le RKHS H. Dans la partie pratique, j'ai développé un package R appelé RKHSMetaMod, pour la mise en œuvre des méthodes d'estimation du méta-modèle f∗ de m. Ce package s'applique indifféremment dans le cas où le modèle m est calculable et le cas du modèle de régression. Afin d'optimiser le temps de calcul et la mémoire de stockage, toutes les fonctions de ce package ont été écrites en utilisant les bibliothèques GSL et Eigen de C++ à l'exception d'une fonction qui est écrite en R. Elles sont ensuite interfacées avec l'environnement R afin de proposer un package facilement exploitable aux utilisateurs. La performance des fonctions du package en termes de qualité prédictive de l'estimateur et de l'estimation des indices de Sobol, est validée par une étude de simulation
In this work, the problem of estimating a meta-model of a complex model, denoted m, is considered. The model m depends on d input variables X1 , ..., Xd that are independent and have a known law. The meta-model, denoted f ∗ , approximates the Hoeffding decomposition of m, and allows to estimate its Sobol indices. It belongs to a reproducing kernel Hilbert space (RKHS), denoted H, which is constructed as a direct sum of Hilbert spaces (Durrande et al. (2013)). The estimator of the meta-model, denoted f^, is calculated by minimizing a least-squares criterion penalized by the sum of the Hilbert norm and the empirical L2-norm (Huet and Taupin (2017)). This procedure, called RKHS ridge group sparse, allows both to select and estimate the terms in the Hoeffding decomposition, and therefore, to select the Sobol indices that are non-zero and estimate them. It makes possible to estimate the Sobol indices even of high order, a point known to be difficult in practice.This work consists of a theoretical part and a practical part. In the theoretical part, I established upper bounds of the empirical L2 risk and the L2 risk of the estimator f^. That is, upper bounds with respect to the L2-norm and the empirical L2-norm for the f^ distance between the model m and its estimation f into the RKHS H. In the practical part, I developed an R package, called RKHSMetaMod, that implements the RKHS ridge group sparse procedure and a spacial case of it called the RKHS group lasso procedure. This package can be applied to a known model that is calculable in all points or an unknown regression model. In order to optimize the execution time and the storage memory, except for a function that is written in R, all of the functions of the RKHSMetaMod package are written using C++ libraries GSL and Eigen. These functions are then interfaced with the R environment in order to propose an user friendly package. The performance of the package functions in terms of the predictive quality of the estimator and the estimation of the Sobol indices, is validated by a simulation study
13

Niang, Ibrahima. "Quantification et méthodes statistiques pour le risque de modèle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal
In finance, model risk is the risk of loss resulting from using models. It is a complex risk which recover many different situations, and especially estimation risk and risk of model misspecification. This thesis focuses: on model risk inherent in yield and credit curve construction methods and the analysis of the consistency of Sobol indices with respect to stochastic ordering of model parameters. it is divided into three chapters. Chapter 1 focuses on model risk embedded in yield and credit curve construction methods. We analyse in particular the uncertainty associated to the construction of yield curves or credit curves. In this context, we derive arbitrage-free bounds for discount factor and survival probability at the most liquid maturities. In Chapter 2 of this thesis, we quantify the impact of parameter risk through global sensitivity analysis and stochastic orders theory. We analyse in particular how Sobol indices are transformed further to an increase of parameter uncertainty with respect to the dispersive or excess wealth orders. Chapter 3 of the thesis focuses on contrast quantile index. We link this latter with the risk measure CTE and then we analyse on the other side, in which circumstances an increase of a parameter uncertainty in the sense of dispersive or excess wealth orders implies and increase of contrast quantile index. We propose finally an estimation procedure for this index. We prove under some conditions that our estimator is consistent and asymptotically normal
14

Mtibaa, Mohamed. "Οptimisatiοn de cοuplage Ρrοcédé/Ρrοpriétés/Fiabilité des Structures en Μatériaux Cοmpοsites Fοnctiοnnels". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMLH03.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche se penche sur les défis et les interactions entre les procédés de fabrication RTM et CRTM, les propriétés mécaniques et la fiabilité des structures en matériaux composites fonctionnels. Des modèles numériques ont été développés pour simuler l’imprégnation de la suspension à travers le milieu fibreux dans ces deux procédés. Ces modèles ont été validés en comparant leurs résultats à des résultats expérimentaux, semi-analytiques et analytiques présentes dans la littérature. Une étude paramétrique a été menée pour démontrer l’impact des différents paramètres de procédé sur la distribution des particules dans le composite final. De plus, une comparaison entre les modes d’injection et de compression a été effectuée. Les résultats de cette partie ont montré que la distribution des particules dans la pièce finale dépend de la concentration initiale, de la distance parcourue et de la fraction volumique initiale des fibres, indépendamment des valeurs des paramètres d'injection et de compression. Il a également été observé que le procédé CRTM à pression d’injection imposée et à force de compression imposée représente le scénario le plus favorable pour produire des pièces composites. Afin de contrôler la distribution finale des particules dans le composite élaboré par le procédé RTM, deux étapes clés ont été identifiées et conduites. La première étape consiste en une analyse de sensibilité axée sur trois paramètres : l’évolution temporelle de la concentration initiale des particules, du champ de pression d’injection, et de la porosité initiale des fibres. Les conclusions indiquent un impact mineur de la porosité initiale et du champ de pression d’injection, tandis que l’évolution de la concentration initiale des particules injectées joue un rôle prépondérant. Dans une seconde étape, un algorithme d’optimisation a été intégré au modèle numérique du procédé RTM, visant à déterminer la configuration optimale de l’évolution de la concentration initiale des particules injectées afin de rapprocher la distribution des particules dans le composite final aux profils souhaités. Les résultats obtenus grâce à l’algorithme génétique ont démontré une maîtrise satisfaisante de cette répartition. Pour enrichir cette partie, un modèle évaluant le comportement mécanique de la pièce fabriquée a été développé. Les résultats indiquent une corrélation positive entre le taux de particules et certaines propriétés mécaniques telles que les modules d’élasticité E11 et E22, ainsi que les modules de cisaillement G12 et G23. Cependant, le coefficient de Poisson (Nu12) est inversement proportionnel au taux de particules. En outre, le module de cisaillement G12 était le plus influencé par le taux de particules.Dans cette partie, nous avons visé le contrôle des propriétés mécaniques des pièces composites fabriquées par le procédé CRTM, ensuite comparées aux résultats du procédé RTM. Les conclusions révèlent que le procédé RTM offre un meilleur contrôle de ces propriétés, tandis que le procédé CRTM améliore considérablement les propriétés mécaniques des pièces grâce à sa phase de compression, qui augmente la fraction volumique des fibres et donc améliorant ces propriétés.Par la suite, une analyse statique a été réalisée en développant un modèle numérique basé sur la méthode des éléments finis avec Ansys APDL. Cette analyse vise la détermination de la déformation maximale de la pièce en fonction de la configuration (encastrement, simplement appuyé) et de la charge répartie appliquée. Ce modèle est combiné avec ceux du procédé CRTM et du calcul des propriétés mécaniques. Dans le but d’ajuster les propriétés mécaniques de la pièce composite selon la configuration et la charge répartie, tout en minimisant son poids et en respectant des contraintes mécaniques prédéterminées, telles que la limite de déformation maximale, un algorithme d’optimisation a été intégré à notre modèle global. Les résultats obtenus répondent parfaitement à ces objectifs
This research focuses on the challenges and interactions between the manufacturing processes (Resin Transfer Molding ‘RTM’ and Compression Resin Transfer Molding ‘CRTM’), the mechanical properties, and the reliability of composite material structures; more specifically the functional composites. A number of numerical models have been developed for simulating the suspension (resin + particles) impregnation through the fibrous medium (fibers) in the RTM and CRTM processes. These models are validated by comparing their results with experimental, semi-analytical, and analytical ones from the literature. A parametric study is carried out to demonstrate the impact of various process parameters on particles’ distribution in the final composite. Moreover, a comparison between the injection and compression modes is done. The results of this part show that the distribution of particles in the final part depends on the initial concentration, the distance travelled, and the initial fibers’ volume fraction. However, it is independent of the parameters values of injection and compression. It is also observed that the CRTM process with imposed pressure injection and imposed force compression represents the most favorable scenario for producing composite parts.For the purpose of controlling the final particles’ distribution in the composite material, manufactured by the RTM process, two key steps have been identified. The first step consists in a sensitivity analysis that examines three parameters: the temporal evolution of the initial injected particles’ concentration, the injection pressure field and the initial fibers’ porosity. The conclusions indicate a minimal impact of the initial porosity and the injection pressure field; while the evolution of the initial concentration of the injected particles has a dominant effect. In a second step, an optimization algorithm is implemented in the numerical model of the RTM process. It is used to determine the optimal configuration of the initial injected particles’ concentration’s evolution; in order to approximate the particles’ distribution in the final composite to the desired profiles. The obtained results from the genetic algorithm provide a very satisfactory control of this distribution. To complete this section, a model, estimating the mechanical properties of the manufactured part, is developed. It is found that there is a positive correlation between the particles’ fraction and certain mechanical properties, namely the elastic modulus E11 and E22, and the shear modulus G12 and G23. Nevertheless, the Poisson’s ratio (Nu12) is inversely proportional to the particles’ fraction. Also, the shear module G12 is the most significantly influenced by this fraction.Following this, the control of the mechanical properties of the composite parts, manufactured by the CRTM process, is targeted, and compared to the results of the RTM process. The conclusions reveal that the RTM process offers a better control of these properties. Whereas, the CRTM process improves considerably the mechanical properties of the parts due to its compression phase, which increases the fibers’ volume fraction and consequently enhances these properties.Finally, a static analysis is conducted based on the developed numerical model that uses the finite element method (Ansys APDL). This model is combined with those of the CRTM process and the mechanical properties calculation. An optimization algorithm is integrated in our global model to adapt the mechanical properties of the composite part according to the configuration (cantilever or simply supported) and the load distribution. Moreover, it minimizes the composite part’s weight and ensures the respect of the predetermined mechanical constraints such as the maximum deformation limit. The obtained results correspond perfectly to these objectives
15

Parveaud, Claude-Eric. "Propriétés radiatives des couronnes de Noyers (Juglans nigra x J. regia) et croissance des pousses annuelles - Influence de la géométrie du feuillage, de la position des pousses et de leur climat radiatif." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00087909.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation du développement architectural des arbres en réponse aux facteurs environnementaux est un thème de recherche en plein essor grâce au développement récent de méthodes informatiques adéquates. Cependant, l'utilisation de couronnes 3D est fortement contrainte par la difficulté à collecter les données architecturales et géométriques nécessaires à leur reconstruction. Par ailleurs, la compréhension partielle des processus fonctionnels contrôlant la croissance des pousses au sein des couronnes limite actuellement l'analyse et la modélisation des processus impliqués. La confrontation des connaissances acquises sur la variabilité architecturale et morphologique du Noyer d'une part, et celles acquises sur la physiologie de sa croissance d'autre part offre la possibilité de mieux comprendre le développement de la couronne. A partir de mesures et d'échantillonnage de la topologie et de la géométrie de Noyers hybrides âgés de 7 à 9 ans, nous avons analysé l'impact sur l'interception de la lumière de variables nécessaires à la reconstruction de plantes virtuelles mais dont la mesure nécessite un travail long et difficile qui rend indispensable l'utilisation de méthodes d'extrapolation. Puis, nous avons quantifié la part de variance des variables de croissance qui peut être attribuée à la lumière interceptée vis-à-vis d'autres facteurs tels que la position topologique. Nos résultats quantifient les biais introduit par l'utilisation de relations allométriques et de lois statistiques pour reconstruire des couronnes tridimensionnelles de différentes tailles. Nous avons montré que l'agrégation du feuillage au sein de la couronne, y compris à l'échelle des feuilles (composées de folioles), détermine fortement les propriétés radiatives des couronnes reconstruites. Grâce à une approche corrélative et statistique, un effet de la lumière interceptée par les pousses mères sur la croissance des pousses filles a été mis en évidence. Les fortes corrélations observées entre d'une part la vigueur des pousses (quantifiée par un indice) et la longueur du chemin entre le collet et les pousses et d'autre part leur croissance suggèrent un rôle de l'architecture hydraulique
16

Vauchel, Nicolas. "Estimation des indices de Sobol à l'aide d'un métamodèle multi-éléments : application à la dynamique du vol." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse s'intéresse à une problématique concrète de sécurité des aéronefs. Le domaine de vol post-décroché est un domaine aérodynamiquement complexe où l'écoulement autour des surfaces portantes (ailes et gouvernes) peut présenter de fortes instabilités et peut être partiellement ou massivement décollé. Dans ce domaine de vol, atteignable de façon accidentelle ou volontaire (avions d'entraînement ou de voltige), les moyens de contrôle usuels sont moins efficaces, voire totalement inefficaces, ce qui peut mettre en danger le pilote et ses potentiels passagers. Le travail de recherche s'intéresse à la détermination des prévisions de vol dans le domaine de vol post-décroché, ainsi qu'à leurs dépendances aux structures de modèles utilisées pour les coefficients aérodynamiques et aux incertitudes des données expérimentales sur lesquelles ce modèle repose. La dynamique du mouvement de l'avion est régie par un système dynamique d'équations différentielles ordinaires autonomes non linéaires. Dans ces équations, les effets du fluide sur l'aéronef apparaissent par le biais des coefficients aérodynamiques globaux, qui sont les forces et les moments adimensionnés appliqués par le fluide sur l'aéronef. Ces coefficients dépendent de façon non-linéaire d'un grand nombre de variables, dont la géométrie de l'aéronef, sa vitesse et sa vitesse de rotation par rapport à la Terre, ainsi que des caractéristiques de l'écoulement qui l'entoure. Pour chaque coefficient, un modèle de représentation ayant une certaine structure est déterminé pour décrire ces dépendances complexes. Ce modèle s'appuie sur des données expérimentales recueillies sur des maquettes de taille réduite, les données de vol libre sur avion réel étant trop coûteuses et trop risquées à collecter dans le domaine post-décroché. Une autre piste pour l'établissement de ces bases serait d'utiliser des données venant de calculs numériques. Néanmoins, le caractère instationnaire et complexe de l'écoulement autour de la géométrie 3D de l'aéronef semble rendre les simulations trop coûteuses en terme de temps de calcul pour le moment, même si des études récentes explorent cette direction de recherche. Les modèles utilisés dans le cadre de notre étude sont bâtis exclusivement sur des données expérimentales. Dans le système dynamique, les coefficients aérodynamiques globaux sont évalués par interpolation dans ces tables de données d'après la structure du modèle choisie. De par la nécessité de sélectionner une structure simplificatrice du modèle de représentation des coefficients aérodynamiques globaux, ces modèles sont lacunaires. De plus, ils sont entachés d'incertitudes dues au caractère intrinsèque des expériences. Ces lacunes et ces incertitudes vont impacter les résultats des prévisions de vol. L'objectif initial de la thèse est d'étudier ces impacts.Lors des travaux de thèse, de nouveaux objectifs scientifiques ont émergé. En premier lieu, une nouvelle méthode multi-éléments basée sur des méthodes modernes d'apprentissage automatique est développée. Les méthodes multi-éléments sont des méthodes qui ont été développées pour pallier au manque de précision des polynômes du chaos en présence de discontinuités. En second lieu, une formule analytique reliant les indices de sensibilité de Sobol aux coefficients d'un métamodèle multi-éléments est démontrée. Ces méthodes sont ainsi utilisées dans le cas de la dynamique du vol pour répondre à l'objectif initial de la thèse. Les nombreuses bifurcations que possède le système dynamique du vol peuvent se traduire par des irrégularités et/ou des discontinuités dans l'évolution des variables d'état par rapport aux paramètres incertains. Les méthodes d'analyse de sensibilité et de quantification d'incertitude développées sont alors de bonnes candidates pour effectuer l'analyse du système
The thesis is addressing a concrete issue on aircrafts safety. The post-stall flight domain is a complex flight domain where flows around an airfoil may be highly unstable and massively stalled. In this domain, which can be reached on purpose or accidentally, usual controls are less efficient or completely inefficient, which can endanger the pilot and its passengers. The thesis is about the determination of the flight predictions in the post-stall flight domain, their dependences to the selected model structure and about the uncertainties of the experimental data the model relies on. The dynamic of the motion of the aircraft is governed by a dynamic system of ordinary non-linear differential equations. In these equations, the effects from the fluid on the aircraft are traduced by the global aerodynamic coefficients, the dimensionless forces and moments applied by the fluid on the aircraft. These coefficients depend on a high number of variables in a non-linear fashion. Among these variables are the geometry of the aircraft, its velocity and its rotation rates compared to earth, and characteristics of the surrounding flow. A representation model having a selected structure is determined for every aerodynamic coefficient, in order to represent these complex dependences. This model rely on experimental data obtained on a scale model, free flight data on a real aircraft being too expensive and too risky to get in the post-stall domain. Another way of obtaining data would be to use computational simulations. Nevertheless, the complex and unsteady flows around the 3D geometry of the aircraft makes the simulation too expensive with the current ressources, even if some recent studies begin to explore this direction of research. The selected models in the thesis are built on experimental data only. In the dynamic system, the global aerodynamic coefficients are evaluated by interpolation in these databases according to the selected model structure. The fact of selecting a simplified structure of the model makes it deficient. Moreover, as these models rely on experimental data, they are uncertain. The gaps and the uncertainties of the model have some impacts on the flight predictions. The initial objective of the thesis is therefore to study these impacts.During the thesis, new scientific objectives appeared, objectives going beyond the scope of Flight Dynamics. First, a new multi-element surrogate model for Uncertainty Quantification based on modern Machine learning methods is developed. Multi-element surrogate models were developed to address the loss of accuracy of Polynomial Chaos model in presence of discontinuities. Then, a formula linking the sensitivity Sobol indices to the coefficient of a multi-element surrogate model is derived. These results are used in the case of Flight Dynamics in order to address the issue raised in the initial objective of the thesis. The numerous bifurcations of the dynamic system can be traduced by discontinuities and/or irregularities in the evolution of the state variables compared to the uncertain parameters. The methods of Sensitivity Analysis and of Uncertainty Quantification developed in the thesis are therefore good candidates to analyse the system
17

Passelergue, Jean-Christophe. "Interactions des dispositifs FACTS dans les grands réseaux électriques." Phd thesis, Grenoble INPG, 1998. http://www.theses.fr/1998INPG0148.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'augmentation des transits de puissance dans les réseaux d'énergie électrique ainsi que les contraintes environnementales ont conduit à l'introduction des dispositifs FACTS (Flexible AC Transmission Systems) pour l'amélioration de l'exploitation des réseaux. Ces dispositifs sont capables de remplir diverses fonctions comme le maintien de la tension, le contrôle des flux de puissance, l'amélioration de la stabilité du réseau, l'augmentation de la puissance transmissible maximale, etc. De plus, grâce à leur temps de réponse rapide, ils sont apparus comme des outils efficaces pour l'amortissement des oscillations électromécaniques très basses fréquences. Cette nouvelle fonction des dispositifs FACTS est d'autant plus importante que les réseaux mondiaux sont de plus en plus interconnectés, donc sensibles aux oscillations électromécaniques inter-régions. Cependant, le recours à de nombreux dispositifs FACTS dans un réseau nécessite d'étudier attentivement les éventuels problèmes d'interaction de régulation des dispositifs FACTS entre eux, mais aussi avec les autres éléments du réseau. Le travail réalisé dans le cadre de cette thèse traite des phénomènes dynamiques liés aux problèmes d'interaction résultant de l'insertion d'un ou plusieurs dispositifs FACTS shunt. Des indices de sensibilité et d'influence sont définis depuis les concepts de commandabilité et d'observabilité respectivement afin de prévoir l'importance des phénomènes d'interaction liés à l'insertion d'un dispositif FACTS et d'identifier les zones d'influence du dispositif FACTS. Ces indices sont appliqués à un réseau test 2 zones 4 machines et à un réseau réel simplifié 29 machines. Deux méthodes de coordination (méthode de type " minimax " et méthode linéaire quadratique décentralisée) sont mises en œuvre pour coordonner les dispositifs FACTS entre eux et avec les stabilisateurs de puissance (PSS - Power System Stabilizer) dans le réseau test 2 zones 4 machines
Power fiow increase and environmental constraints in power Systems hâve led to FACTS (Flexible AC Transmission Systems) devices insertion in order to improve the power System exploitation. Thèse devices are able to cany out some funétions such as the voltage support, the power transfer control and the increase of power transfer capability. Moreover, due to their fast response time, they are an efficient tool for damping low frequency oscillations. This new FACTS devices application is important as power Systems are more and more interconnected and thereby more sensitive to inter-area eîectromechanical oscillations. However, the recourse to several FACTS devices in a power System requires the careful study of the possible controller interaction phenomena between FACTS devices and with others system éléments. This thesis deals with the analysis and resolution of dynamic phenomena due to interaction problems resulting from the insertion of one or several shunt FACTS devices. Sensitivity and influence indices are defined from the controllability and observability notions, respectively, in order to preview the interaction phenomena importance due to a FACTS device insertions and to identify the influence areas of a FACTS device. Thèse indices are applied to a two-area four-machine test system and to a simplified real 29-machine power system. Two coordination methods (" minimax " method and decentralized linear quadratic method) are used to coordinate the FACTS devices themselves and a FACTS device and PSS (Power System Stabilizer) in the two-area four-machine test system
18

Gohore, Bi Goue D. "Évaluation et contrôle de l'irrégularité de la prise médicamenteuse : proposition et développement de stratégies rationnelles fondées sur une démarche de modélisations pharmacocinétiques et pharmacodynamiques." Thèse, 2010. http://hdl.handle.net/1866/4535.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
The heterogeneity of PK and/or PD profiles in patients undergoing the same treatment regimen should be avoided during treatment or clinical trials. Two traditional approaches are continually used to achieve this purpose. One builds on the interactive synergy between the health caregiver and the patient to exert the patients to become a whole part of his own compliance. Another attempt is to develop drugs or drug dosing regimens that forgive the poor compliance. The main objective of this thesis was to develop new methodologies for assessing and monitoring the impact of irregular drug intake on the therapeutic outcome. Specifically, the first phase of this research was to develop algorithms for evaluation of the efficacy of a treatment by improving classical breakpoint estimation methods to the situation of variable drug disposition. This method introduces the ``efficiency'' of a PK profile by using the efficacy function as a weight in the area under curve ($AUC$) formula. It gives a more powerful PK/PD link and reveales, through some examples, interesting issues about uniqueness of therapeutic outcome indices and antibiotic resistance problems. The second part of this thesis was to determine the optimal sampling times by accounting for the intervariability in drug disposition in collectively treated pigs. For this, we have developed an advanced mathematical model able to generate different PK profiles for various feed strategies. Three algorithms have been performed to identify the optimal sampling times with the criteria of minimizing the PK intervariability . The median-based method yielded suitable sampling periods in terms of convenience for farm staff and animal welfare. The last part of our research was to establish a rational way to delineate drugs in terms of their ``forgiveness'', based on drugs PK/PD properties. For this, a global sensitivity analysis (GSA) has been performed to identify the most sensitive parameters to dose omissions. Then we have proposed a comparative drug forgiveness index to rank the drugs in terms of their tolerability to non compliance with application to four calcium channel blockers. The classification of these molecules in terms of drug forgiveness is in concordance to what has been reported in experimental studies. The strategies developed in this Ph.D. project and essentially based on the analysis of complex relationships between drug intake history, pharmacokinetic and pharmacodynamic properties are able to assess and regulate noncompliance impact with an acceptable uncertainly. In general, the algorithms that imply these approaches will be undoubtedly efficient tools in patient monitoring during dosing regimen. Moreover, they will contribute to control the harmful impact of non-compliance by developing new drugs able to tolerate sporadic dose omission.
19

Gohore, Bi Gouê Denis. "Évaluation et contrôle de l'irrégularité de la prise médicamenteuse : proposition et développement de stratégies rationnelles fondées sur une démarche de modélisations pharmacocinétiques et pharmacodynamiques." Thèse, 2010. http://hdl.handle.net/1866/4535.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
The heterogeneity of PK and/or PD profiles in patients undergoing the same treatment regimen should be avoided during treatment or clinical trials. Two traditional approaches are continually used to achieve this purpose. One builds on the interactive synergy between the health caregiver and the patient to exert the patients to become a whole part of his own compliance. Another attempt is to develop drugs or drug dosing regimens that forgive the poor compliance. The main objective of this thesis was to develop new methodologies for assessing and monitoring the impact of irregular drug intake on the therapeutic outcome. Specifically, the first phase of this research was to develop algorithms for evaluation of the efficacy of a treatment by improving classical breakpoint estimation methods to the situation of variable drug disposition. This method introduces the ``efficiency'' of a PK profile by using the efficacy function as a weight in the area under curve ($AUC$) formula. It gives a more powerful PK/PD link and reveales, through some examples, interesting issues about uniqueness of therapeutic outcome indices and antibiotic resistance problems. The second part of this thesis was to determine the optimal sampling times by accounting for the intervariability in drug disposition in collectively treated pigs. For this, we have developed an advanced mathematical model able to generate different PK profiles for various feed strategies. Three algorithms have been performed to identify the optimal sampling times with the criteria of minimizing the PK intervariability . The median-based method yielded suitable sampling periods in terms of convenience for farm staff and animal welfare. The last part of our research was to establish a rational way to delineate drugs in terms of their ``forgiveness'', based on drugs PK/PD properties. For this, a global sensitivity analysis (GSA) has been performed to identify the most sensitive parameters to dose omissions. Then we have proposed a comparative drug forgiveness index to rank the drugs in terms of their tolerability to non compliance with application to four calcium channel blockers. The classification of these molecules in terms of drug forgiveness is in concordance to what has been reported in experimental studies. The strategies developed in this Ph.D. project and essentially based on the analysis of complex relationships between drug intake history, pharmacokinetic and pharmacodynamic properties are able to assess and regulate noncompliance impact with an acceptable uncertainly. In general, the algorithms that imply these approaches will be undoubtedly efficient tools in patient monitoring during dosing regimen. Moreover, they will contribute to control the harmful impact of non-compliance by developing new drugs able to tolerate sporadic dose omission.

До бібліографії