Dissertations / Theses on the topic 'Optimisation probabiliste'

To see the other types of publications on this topic, follow the link: Optimisation probabiliste.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation probabiliste.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Scherrer, Bruno. "Application et optimisation de l'échantillonnage probabiliste en écologie continentale." Montpellier 2, 1987. http://www.theses.fr/1987MON20115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bouillard, Anne. "Optimisation et analyse probabiliste de systèmes à évènements discrets." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0337.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'étude des performances dans les systèmes à évènements discrets. Trois modèles différents de ces systèmes sont étudiés. Dans une première partie, nous nous intéressons aux groupes de traces. Après avoir donné une formule simple, semblable à la formule de Möbius pour les monoïdes de traces, de la série génératrice des groupes de traces, nous montrons l'existence et l'algébricité du taux de croissance asymptotique de la hauteur des traces. Une deuxième partie de cette thèse est consacrée aux réseaux à choix libres temporisés, une sous-classe importante de réseaux de Petri. Nous définissons une notion de débit dans ces réseaux et étudions la variation du débit en fonction de la politique de résolution de conflits choisie. Tout d'abord, nous montrons comment calculer ce débit. Ensuite, nous nous intéressons aux politiques qui le maximisent ou le minimisent. Enfin, nous donnons une méthode efficace de simulation exacte du processus des marquages pour l'évaluation numérique du débit. Enfin, nous étudions le calcul des garanties de performances dans les réseaux à l'aide des techniques du Network Calculus. Nous montrons la stabilité des fonctions ultimement pseudo-périodiques par les opérations du network calculus et donnons des algorithmes pour le calcul de ces fonctions. Ces techniques sont ensuite appliquées à l'étude des garanties de performances dans les graphes avec angles interdits
This thesis deals with the study of discrete event systems. Three different models are considered. In the first part, we are interested in the trace groups. After giving a simple Möbius-like formula for the generating series of the trace groups, we show the existence and the algebraicity of the asymptotic growth rate of the height of the traces. The second part is devoted to timed free-choice nets, an important sub-class of Petri nets. We define the notion of throughput in those nets and study the variation of the throughput in function of the conflict resolution policies. First, we show how to compute the throughput, then we are interested in the policy that maximizes or minimizes the throughput. Finally, we give an efficient method to generate a marking according to its exact distribution in order to numerically evaluate the throughput. In the last part, we study the computation of performance guarantees in networks thanks to Network Calculus techniques. We show the stability of the ultimately pseudo-periodic functions with the operations of the Network Calculus and give algorithms to compute these functions. These techniques are then applied to the study of performance guarantees in graphs with turn prohibition
3

Scherrer, Bruno. "Application et optimisation de l'échantillonnage probabiliste en écologie continentale." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37609751c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Schmitt, Lucie. "Durabilité des ouvrages en béton soumis à la corrosion : optimisation par une approche probabiliste." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La maîtrise de la durabilité des ouvrages neufs et la nécessité de prolonger la durée de vie des structures existantes correspondent à des enjeux sociétaux de tout premier ordre et s’inscrivent dans les principes d’une économie circulaire. La durabilité des ouvrages en béton occupe ainsi une position centrale dans le contexte normatif. Ces travaux de thèse font suite à ceux de J. Mai-Nhu* et ont pour objectif d’étendre le domaine d’application du modèle SDReaM-crete en intégrant les bétons à base d’additions et en définissant un critère d’état limite basé sur une quantité de produits corrodés. Une approche basée sur une optimisation numérique des calculs prédictifs est mise en place pour réaliser des calculs d’indices de fiabilité en considérant les principaux mécanismes liés à la corrosion des armatures, carbonatation et chlorures. Ce modèle permet d’optimiser le dimensionnement des enrobages et les performances du béton en intégrant davantage les conditions environnementales telles qu’elles sont définies dans les normes
Mastering the durability of new structures and the need to extand the lifespan of existing constructions correspond to social issues of the highest order and are part of the principles of a circular economy. The durability of concrete structures thus occupies a central position in the normative context. This thesis works follow those of J. Mai-Nhu* and aims at extending the field of application the SDReaM-crete model by integrating mineral additions based concretes and by defining a limit state criterion based on a quantity of corroded products. An approach based on a numerical optimization of predictive computations is set up to perform reliability analyses by considering the main mechanisms related to the corrosion of reinforcement, carbonation and chlorides. This model enables the optimization of the sizing of the concrete covers and performances by further integrating the environmental conditions as defined by the standards
5

Bérard, Jean. "Contributions à l'étude probabiliste des algorithmes d'évolution." Lyon 1, 2001. http://www.theses.fr/2001LYO10223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre objectif principal est d'étudier précisément le comportement d'algorithmes d'évolution simplifiée afin de parvenir, sur des exemples spécifiques, à une compréhension détaillée des effets des étapes de mutation, sélection, et de la tailles de population. Du fait de leur simplicité, les modèles étudiés présentent un intérêt limité du point de vue de l'optimisation, mais ils ont été utilisés en biologie. Leur étude mathématique présente de sérieuses difficultés et des techniques spécifiques doivent être développées. Les deux premiers modèles étudiés se rattachent à la catégorie des modèles fitness-space. Le troisième modèle aborde le cas où le paysage de fitness comporte des irrégularités aléatoires. Nous présentons également des résultats expérimentaux sur l'utilisation des méthodes de fitness-sharing dans le cadre du filtrage particulaire.
6

Belkora, Samir. "Les méthodes d'optimisation multiobjectif : synthèse et considérations théoriques : application d'un modèle probabiliste de choix au problème d'optimisation multiobjectif." Aix-Marseille 2, 1986. http://www.theses.fr/1986AIX24012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail traite des methodes d'optimisation multiobjectif. Dans une premiere grande partie, nous avons effectue la synthese des methodes multiobjectifs en suivant une classification traditionnelle qui divise les methodes en trois classes importantes : - les methodes necessitant une ponderation "a priori" des objectifs. - les methodes necessitant une ponderation "progressive" des objectifs ou methodes interactives. - les methodes conduisant a une ponderation "a posteriori" des objectifs. Dans une seconde partie, nous essayons d'apporter une contribution theorique a l'amelioration d'une methode appartenant a la classe des methodes interactives en integrant un modele probabiliste de choix qualitatif qui autorise des specifications assez souples, le modele probit conditionnel
This work treat of multiple objective optimization methods. In a first large part, we accomplished the multiple objective methods synthesis by following a traditional classification which separate the methods in three major class : - the methods which require "a priori" ponderation of the objectives. - the methods which require "progressive" ponderation of the objectives or the interactive methods. - the methods which lead to "a posteriori" ponderation of the objectives. In a second part, we try to provide a theorical contribution to improve a method which belongs to the interactive methods class by integrating a qualitative choice probabilistic model which authorize sufficiently versatile specifications, the conditional probit model
7

Souissi, Salma. "Problème du Bin Packing probabiliste à une dimension." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Problème de Bin Packing Probabiliste (PBPP) tient compte de la disparition de certains objets après avoir été placés dans les boîtes. Le problème consiste à réarranger les objets restants en utilisant la solution a priori. L’arrangement initial est effectué en utilisant l’heuristique Next Fit Decreasing (NFD). Nous considérons deux stratégies de résolution: la stratégie de redistribution suivant NFD et la stratégie a priori. Dans la première, l’algorithme Next Fit est appliqué à la nouvelle liste. Dans la seconde, des groupes successives de boîtes sont réarrangés d’une façon optimale. Dans les deux cas, nous développons une analyse en moyenne pour le PBPP. Nous prouvons la loi des grands nombres et le théorème central limite pour le nombre de boîtes obtenu par chacune de ces stratégies quand le nombre d’objets initial tend vers l’infini. Nous vérifions ces résultats théoriques par simulation
In the Probabilistic Bin Packing Problem (PBPP) the random deletion of some items once placed into bins. The problem is to rearrange the residual items, using the a priori solution. The initial arrangement being done with the Next Fit Decreasing Heuristic (NFD). We propose two resolution methodologies: the redistribution strategy according to NFD and the a priori strategy. In the first one, the Next fit algorithm is applied to the new list. In the second one, successive groups of bins are optimally rearranged. In both cases, we develop an average case analysis for the (PBPP). We prove the law of large numbers and the central limit theorem for the number of occupied bins as the initial number of items tends to infinity. We verify these theoretical results by simulation
8

Bahloul, Khaled. "Optimisation combinée des coûts de transport et de stockage dans un réseau logistique dyadique, multi-produits avec demande probabiliste." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00695275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette thèse est de proposer des méthodes de gestion des approvisionnements adaptées à des contextes particuliers afin de minimiser les coûts logistiques engendrés dans un réseau logistique multi produits, multi niveaux confronté à une demande probabiliste. Au cours de cette thèse, nous nous sommes attachés à : - Proposer des méthodes de gestion des stocks et du transport pour des familles de produits dans différents contextes : o Une première politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande aléatoire et répétitive. Cette politique est définie par un niveau de commande et par un niveau de ré-complètement de stock pour chaque produit et une période de réapprovisionnement. Dès qu'un produit atteint le niveau de commande, un réapprovisionnement de tous les produits de la famille est déclenché. o Une deuxième politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande très aléatoire et ponctuelle. Cette politique est basée sur les ruptures de stock. A chaque rupture d'un produit présent dans le stock il y a déclenchement d'un réapprovisionnement de tous les produits de la famille. - Proposer une méthode de classification multicritères afin de constituer des groupes de produits relevant d'une politique donnée, chaque classe ou famille regroupant des produits réagissant identiquement. Cette classification des produits en familles homogènes permet d'identifier les caractéristiques déterminantes dans le choix des méthodes de gestion de stock et de transport. - Analyser et comparer les performances de ces deux politiques d'approvisionnement par rapport à des politiques de référence, ainsi que leur sensibilité au regard de quelques paramètres discriminants : variabilité de la demande ; coût des produits ; coût des commandes urgentes...
9

Royer, Clément. "Algorithmes d'optimisation sans dérivées à caractère probabiliste ou déterministe : analyse de complexité et importance en pratique." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30207/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation d'aspects aléatoires a contribué de façon majeure aux dernières avancées dans le domaine de l'optimisation numérique; cela est dû en partie à la recrudescence de problèmes issus de l'apprentissage automatique (machine learning). Dans un tel contexte, les algorithmes classiques d'optimisation non linéaire, reposant sur des principes déterministes, se révèlent en effet bien moins performants que des variantes incorporant de l'aléatoire. Le coût de ces dernières est souvent inférieur à celui de leurs équivalents déterministes; en revanche, il peut s'avérer difficile de maintenir les propriétés théoriques d'un algorithme déterministe lorsque de l'aléatoire y est introduit. Effectuer une analyse de complexité d'une telle méthode est un procédé très répandu dans ce contexte. Cette technique permet déstimer la vitesse de convergence du schéma considéré et par là même d'établir une forme de convergence de celui-ci. Les récents travaux sur ce sujet, en particulier pour des problèmes d'optimisation non convexes, ont également contribué au développement de ces aspects dans le cadre déterministe, ceux-ci apportant en effet un éclairage nouveau sur le comportement des algorithmes. Dans cette thèse, on s'intéresse à l'amélioration pratique d'algorithmes d'optimisation sans dérivées à travers l'introduction d'aléatoire, ainsi qu'à l'impact numérique des analyses de complexité. L'étude se concentre essentiellement sur les méthodes de recherche directe, qui comptent parmi les principales catégories d'algorithmes sans dérivées; cependant, l'analyse sous-jacente est applicable à un large éventail de ces classes de méthodes. On propose des variantes probabilistes des propriétés requises pour assurer la convergence des algorithmes étudiés, en mettant en avant le gain en efficacité induit par ces variantes: un tel gain séxplique principalement par leur coût très faible en évaluations de fonction. Le cadre de base de notre analyse est celui de méthodes convergentes au premier ordre, que nous appliquons à des problèmes sans ou avec contraintes linéaires. Les bonnes performances obtenues dans ce contexte nous incitent par la suite à prendre en compte des aspects d'ordre deux. A partir des propriétés de complexité des algorithmes sans dérivées, on développe de nouvelles méthodes qui exploitent de l'information du second ordre. L'analyse de ces procédures peut être réalisée sur un plan déterministe ou probabiliste: la deuxième solution nous permet d'étudier de nouveaux aspects aléatoires ainsi que leurs conséquences sur l'éfficacité et la robustesse des algorithmes considérés
Randomization has had a major impact on the latest developments in the field of numerical optimization, partly due to the outbreak of machine learning applications. In this increasingly popular context, classical nonlinear programming algorithms have indeed been outperformed by variants relying on randomness. The cost of these variants is usually lower than for the traditional schemes, however theoretical guarantees may not be straightforward to carry out from the deterministic to the randomized setting. Complexity analysis is a useful tool in the latter case, as it helps in providing estimates on the convergence speed of a given scheme, which implies some form of convergence. Such a technique has also gained attention from the deterministic optimization community thanks to recent findings in the nonconvex case, as it brings supplementary indicators on the behavior of an algorithm. In this thesis, we investigate the practical enhancement of deterministic optimization algorithms through the introduction of random elements within those frameworks, as well as the numerical impact of their complexity results. We focus on direct-search methods, one of the main classes of derivative-free algorithms, yet our analysis applies to a wide range of derivative-free methods. We propose probabilistic variants on classical properties required to ensure convergence of the studied methods, then enlighten their practical efficiency induced by their lower consumption of function evaluations. Firstorder concerns form the basis of our analysis, which we apply to address unconstrained and linearly-constrained problems. The observed gains incite us to additionally take second-order considerations into account. Using complexity properties of derivative-free schemes, we develop several frameworks in which information of order two is exploited. Both a deterministic and a probabilistic analysis can be performed on these schemes. The latter is an opportunity to introduce supplementary probabilistic properties, together with their impact on numerical efficiency and robustness
10

Bonnard, Cécile. "Optimisation de potentiels statistiques pour un modèle d'évolution soumis à des contraintes structurales." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00495973.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernières années, plusieurs modèles d'évolution moléculaire, basés sur l'hypothèse que les séquences des protéines évoluent sous la contrainte d'une structure bien dénie et constante au cours de l'évolution, ont été développés. Cependant, un tel modèle repose sur l'expression de la fonction repr ésentant le lien entre la structure et sa séquence. Les potentiels statistiques proposent une solution intéressante, mais parmi l'ensemble des potentiels statistiques existants, lequel serait le plus approprié pour ces modèles d'évolution ? Dans cette thèse est développé un cadre probabiliste d'optimisation de potentiels statistiques, dans le contexte du maximum de vraisemblance, et dans une optique de protein design. Le potentiel statistique utilisé ici est composé d'un terme de contact entre deux acides aminés et un terme d'accessibilité au solvant, mais le cadre statistique peut être très facilement généralisé à des formes plus complexes de potentiel. Ce cadre intègre diérentes méthodes d'optimisation, incluant la prise en compte de structures alternatives (decoys) pour l'optimisation des potentiels, et utilise une amélioration algorithmique permettant l'obtention rapide de potentiels statistiques adaptés au contexte. Tout cela nous fournit un cadre robuste et des tests statistiques (à la fois dans le contexte de l'optimisation des potentiels et dans le contexte de l'évolution moléculaire), permettant de comparer diérentes méthodes d'optimisation de potentiels statistiques pour les modèles soumis à des contraintes structurales.
11

Odeh, Khaled. "Nouveaux algorithmes pour le traitement probabiliste et logique des arbres de défaillance." Compiègne, 1995. http://www.theses.fr/1995COMPD846.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'arbre de défaillance est un outil majeur dans les études de sûreté de fonctionnement des systèmes complexes. Ce modèle représente graphiquement les combinaisons d'événements conduisant à la réalisation de l'événement indésirable. Les analyses qualitative et quantitative de ce modèle sont des problèmes NP-difficiles. Notre but est de développer de nouveaux algorithmes et d'améliorer les algorithmes existants pour que l'on puisse effectuer ces analyses sur des gros arbres de défaillance. Nous proposons un algorithme de factorisation par rapport aux événements répétés et complémentaires afin de calculer la probabilité d'occurrence de l'événement indésirable. Le diagramme de décision binaire s'est avéré efficace dans le traitement des gros arbres de défaillance. Utilisant cette représentation, nous généralisons aux arbres de défaillance non-cohérents un algorithme de calcul des coupes minimales et nous proposons un algorithme de calcul du facteur d'importance de Birnbaum. Dans la continuité de l'étude précédente, nous nous sommes intéressés à la maintenance des composants dans les systèmes complexes. Nous étudions les principales politiques de maintenance systématique et proposons une résolution numérique de l'optimisation de la politique de remplacement en bloc. Nous appliquons cette dernière sur un exemple d'arbre de défaillance.
12

Matoiri, Chaibati Nadare. "Méthode probabiliste générique de qualification de la durabilité / fiabilité du béton dans son environnement." Thesis, Angers, 2020. http://www.theses.fr/2020ANGE0021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution des techniques de construction, l’innovation et la prise en compte des normes environnementales poussent les acteurs du domaine de la construction à proposer des matériaux performants et innovants pour la construction des bâtiments et des différentes infrastructures dans le monde. Le matériau béton reste de nos jours le plus utilisé dans le domaine de la construction. La normalisation de la formulation des bétons se base généralement sur des règles prescriptives tenant compte du rapport Eau/Ciment,de la classe de résistance minimale, de la teneur minimale en ciment, teneur minimal en air, etc.Cette méthode prescriptive reste satisfaisante mais doit être complétée par une autre alternative permettant de prendre en compte l’utilisation de composition de béton non mentionnée dans la norme. Ainsi, l’approche performancielle de la durabilité du béton a été proposée.Le principe est de permettre la fabrication d’un béton avec une formule différente de celle de la norme tout en montrant qu’elle est aussi performante que celle de la norme. Cette démonstration de performance passe par l’utilisation des indicateurs de durabilité et des essais performanciels. Les résultats des essais réalisés sur la nouvelle formulation de béton pourront montrer si sa performance est égale ou supérieure à celle de la norme. Le problème se pose sur le nombre d’essais à réaliser afin de garantir la performance du béton. Dans cette thèse, une méthode générique de qualification de la Durabilité/Fiabilité du béton avec un plan d’essais optimisé est proposée pour différents types d’environnement. Cette méthode permet d’estimer la Durabilité/Fiabilité du béton dans son environnement avec une garantie donnée et une statistique des essais à réaliser. Le processus de Wiener est utilisé afin de modéliser les processus de dégradation dans le béton. Une application de la méthode est réalisée pour le cas d’un béton soumis à la carbonatation
The evolution of construction techniques, innovation and the environmental consideration standards are driving construction players to offer efficient and innovative materials for the construction of buildings and various infrastructures around the world. The material remains the most widely used in the construction industry today.Concrete standardization is generally based on prescriptive rules that take into account the Water/Cement ratio, the minimum resistance class, the minimum cement content, minimum air content, etc. This prescriptive method remains satisfactory but must be supplemented by another alternative to take into account the use of concrete composition not mentioned in the standard. Thus, the performance-based approach to concrete durability has been proposed. The aimis to allow the manufacture of concrete with a different formula than the standard while showing that it is as efficient as that of the standard. This performance demonstration involves the use of durability indicators and performance tests.The results of the tests carried out on the new concrete formulation will show whether its performance is equal to or above that of the standard. The problem arises in the number of tests to be carried out in order to guarantee the performance of the concrete. In this thesis, a generic method of qualifying the durability/Reliability of concrete with an optimized test plan is proposed for different types of environments. This method allows to estimate the durability/reliability of concrete in its environment with a given guarantee and a statistic of the tests to be carried out. The Wiener process is used to model degradation processes in concrete.An application of the method is carried out for the case of a concrete subject to carbonation
13

Goka, Edoh. "Analyse des tolérances des systèmes complexes – Modélisation des imperfections de fabrication pour une analyse réaliste et robuste du comportement des systèmes." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’analyse des tolérances a pour but de vérifier lors de la phase de conception, l’impact des tolérances individuelles sur l’assemblage et la fonctionnalité d’un système mécanique. Les produits fabriqués possèdent différents types de contacts et sont sujets à des imperfections de fabrication qui sont sources de défaillances d’assemblage et fonctionnelle. Les méthodes généralement proposées pour l’analyse des tolérances ne considèrent pas les défauts de forme. L’objectif des travaux de thèse est de proposer une nouvelle procédure d’analyse des tolérances permettant de prendre en compte les défauts de forme et le comportement géométriques des différents types de contacts. Ainsi, dans un premier temps, une méthode de modélisation des défauts de forme est proposée afin de rendre les simulations plus réalistes. Dans un second temps, ces défauts de forme sont intégrés dans la modélisation du comportement géométrique d’un système mécanique hyperstatique, en considérant les différents types de contacts. En effet, le comportement géométrique des différents types de contacts est différent dès que les défauts de forme sont considérés. La simulation de Monte Carlo associée à une technique d’optimisation est la méthode choisie afin de réaliser l’analyse des tolérances. Cependant, cette méthode est très couteuse en temps de calcul. Pour pallier ce problème, une approche utilisant des modèles probabilistes obtenus grâce à l’estimation par noyaux, est proposée. Cette nouvelle approche permet de réduire les temps de calcul de manière significative
Tolerance analysis aims toward the verification of the impact of individual tolerances on the assembly and functional requirements of a mechanical system. The manufactured products have several types of contacts and their geometry is imperfect, which may lead to non-functioning and non-assembly. Traditional methods for tolerance analysis do not consider the form defects. This thesis aims to propose a new procedure for tolerance analysis which considers the form defects and the different types of contact in its geometrical behavior modeling. A method is firstly proposed to model the form defects to make realistic analysis. Thereafter, form defects are integrated in the geometrical behavior modeling of a mechanical system and by considering also the different types of contacts. Indeed, these different contacts behave differently once the imperfections are considered. The Monte Carlo simulation coupled with an optimization technique is chosen as the method to perform the tolerance analysis. Nonetheless, this method is subject to excessive numerical efforts. To overcome this problem, probabilistic models using the Kernel Density Estimation method are proposed
14

Macherey, Arthur. "Approximation et réduction de modèle pour les équations aux dérivées partielles avec interprétation probabiliste." Thesis, Ecole centrale de Nantes, 2021. http://www.theses.fr/2021ECDN0026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse à la résolution numérique de modèles régis par des équations aux dérivées partielles admettant une interprétation probabiliste. Dans un premier temps, nous considérons des équations aux dérivées partielles en grande dimension. En nous basant sur une interprétation probabiliste de la solution qui permet d’obtenir des évaluations ponctuelles de celle-ci via des méthodes de Monte-Carlo, nous proposons un algorithme combinant une méthode d’interpolation adaptative et une méthode de réduction de variance pour approcher la solution sur tout son domaine de définition. Dans un deuxième temps, nous nous intéressons aux méthodes de bases réduites pour les équations aux dérivées partielles paramétrées. Nous proposons deux algorithmes gloutons reposant sur une interprétation probabiliste de l’erreur. Nous proposons également un algorithme d’optimisation discrète probably approximately correct en précision relative qui nous permet, pour ces deux algorithmes gloutons, de sélectionner judicieusement un snapshot à ajouter à la base réduite en se basant sur la représentation probabiliste de l’erreur d’approximation
In this thesis, we are interested in the numerical solution of models governed by partial differential equations that admit a probabilistic interpretation. In a first part, we consider partial differential equations in high dimension. Based on a probabilistic interpretation of the solution which allows to obtain pointwise evaluations of the solution using Monte-Carlo methods, we propose an algorithm combining an adaptive interpolation method and a variance reduction method to approximate the global solution. In a second part, we focus on reduced basis methods for parametric partial differential equations. We propose two greedy algorithms based on a probabilistic interpretation of the error. We also propose a discrete optimization algorithm probably approximately correct in relative precision which allows us, for these two greedy algorithms, to judiciously select a snapshot to add to the reduced basis based on the probabilistic representation of the approximation error
15

Hadj-Ahmed, Réda. "Modélisation des assemblages collés : Application à l'optimisation du transfert des efforts par cisaillement." Marne-la-vallée, ENPC, 1999. http://www.theses.fr/1999ENPC9926.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La technique d’assemblage de matériau par collage a connu ces dernières années un grand essor dans son développement de par ses avantages par rapport au soudage ou au boulonnage. On peut citer sa quasi universalité (presque tous les matériaux peuvent être collés), sa bonne tenue aux chocs et vibrations et l’amélioration de la rigidité d’une structure collée. Cependant, d’un point de vue mécanique, les joints de colle classiques (à épaisseurs de couches constantes) présentent des surcontraintes près des bords libres de la couche de colle. Si plusieurs formes de joints permettant de diminuer les surcontraintes existent dans la littérature, l’utilisation des éléments finis demeure quasiment le seul moyen d’analyse de contraintes dans ces joints. Ce travail de thèse consiste dans un premier temps à écrire un « modèle multiparticulaire » dans le cas d’un assemblage collé ayant des épaisseurs de couches variables. La construction du modèle est basée sur la formulation variationnelle d’Hellinger-Reissner. La résolution des équations du modèle se fait numériquement en établissant une formulation variationnelle. Le modèle est validé par comparaison avec les résultats éléments finis sur des joints classiques, avec biseau extérieur, avec biseau intérieur et à cisaillement uniforme. Dans un second temps, il s’agit d’étudier l’effet d’échelle dans la résistance au cisaillement des joints de colle. L’écriture d’une loi d’échelle donnant le cisaillement critique en fonction de l’épaisseur de colle permet d’établir une procédure d’optimisation tenant compte de l’effet d’échelle. Cet effet d’échelle est souvent lié à la présence de défauts dans la colle. Une loi de probabilité de résistance d’un joint de colle est ainsi établie. Elle permet de retrouver l’existence d’une épaisseur de colle optimale et une longueur de recouvrement limite dans les joints classiques et de poser un problème d’optimisation probabiliste par minimisation d’une fonctionnelle de l’épaisseur de colle
The use of adhesives to manufacture in plane force-transmitting joints between various structural material is now very spread because joining presents some advantages with regard to the others traditional techniques of material assembly. However, from a mechanical point of view, the classical joints (layers with constant thicknesses) present stress concentrations near the ends of the bond. Several shapes of joints are proposed in the literature to decrease the stress concentrtions but the analysis of stresses in these joints often requires a finite element method. The initial part of this work consists in rewriting a multiparticle model in the case of an adhesive bonded joint having layers with non constant thickness. The resolution of the model equations is done numerically by establishing a variational formulation. The model is validated by comparaison with finite element results on classical joints, scarfed joints, tapered joints and joints with uniform shear stress. The second part of this study deals with the scale effects for the shear strenght of adhesive joints. We propose a scale law giving the critical shear stress as a function of the adhesive thickness. This allows us to etablisk a procedure of optimization taking account of the scale effet. This scale effect is often related to the presence of defects in the adhesive. A law giving the probability of adhesive joint resistance is established. It makes it possible to find an optimal adhesive thickness and a limiting overlap length. This analysis allows also to definite clearly the problem of the proabilistic optimization of an adhesive joint. Indeed, it comes to the minimization of a functional of the adhesive thickness
16

Piegay, Nicolas. "Optimisation multi-objectif et aide à la décision pour la conception robuste. : Application à une structure industrielle sur fondations superficielles." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0393/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception des ouvrages en Génie Civil se fait habituellement de manière semi-probabiliste en employant des valeurs caractéristiques auxquelles sont associées des facteurs partiels de sécurité. Toutefois, de telles approches ne permettent pas de garantir la robustesse de l’ouvrage conçu vis-à-vis des sources d’incertitudes susceptibles d’affecter ses performances au cours de sa réalisation et de son fonctionnement. Nous proposons dans ce mémoire une méthodologie d’aide à la décision pour la conception robuste des ouvrages qui est appliquée à une structure métallique reposant sur des fondations superficielles. La conception de cet ouvrage est conduite en intégrant le phénomène d’interaction sol-structure qui implique que les choix de conception faits sur la fondation influencent ceux faits sur la structure supportée (et réciproquement). La démarche de conception proposée fait appel à des outils d’optimisation multi-objectif et d’aide à la décision afin d’obtenir une solution qui offre le meilleur compromis entre l’ensemble des préférences énoncées par le décideur sur chaque critère de conception. Des analyses de sensibilité sont menées parallèlement dans le but d’identifier et de quantifier les sources d’incertitude les plus influentes sur la variabilité des performances de l’ouvrage. Ces sources d’incertitude représentées sous une forme probabiliste sont intégrées dans la procédure de conception et propagées à l’aide d’une méthode d’échantillonnage par hypercube latin. Une partie du mémoire est consacrée à l’analyse des effets de l’incertitude relative à la modélisation des paramètres géotechniques sur la réponse de l’ouvrage et sur la démarche plus globale d’optimisation
Design in Civil Engineering is usually performed in a semi-probabilistic way using characteristic values which are associated with partial safety factors. However, this approach doesn’t guarantee the structure robustness with regard to uncertainties that could affect its performance during construction and operation. In this thesis, we propose a decision aid methodology for robust design of steel frame on spread foundations. Soil-structure interaction is taken into consideration in the design process implying that the design choices on foundations influence the design choices on steel frame (and vice versa). The proposed design approach uses multi-objective optimization and decision aid methods in order to obtain the best solution with respect to the decision-maker’s preferences on each criterion. Furthermore, sensitivity analyzes are performed in order to identify and quantify the most influencing uncertainty sources on variability of the structure performances. These uncertainties are modeled as random variables and propagated in the design process using latin hypercube sampling. A part of this dissertation is devoted to the effects of uncertainties involved in soil properties on the structure responses and on the design global approach
17

Mbaye, Moustapha. "Conception robuste en vibration et aéroélasticité des roues aubagées de turbomachines." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00529002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les roues aubagées sont des composants dont le comportement dynamique est très sensible au désaccordage involontaire causé par les tolérances de fabrication qui rendent les aubes légèrement différentes les unes des autres. Cette sensibilité se traduit généralement par une amplification des vibrations. L'objectif de ce travail de recherche est de proposer de nouvelles méthodologies permettant d'optimiser la conception en vibration des roues aubagées vis à vis du désaccordage involontaire. L'optimisation est faite pour la réponse forcée et sous une contrainte de marge à la stabilité aéroélastique. Dans ce contexte, le désaccordage intentionnel par modification géométrique des aubes est utilisé. Pour réduire les temps de calcul, une nouvelle méthode de réduction de modèles de roues aubagées désaccordées intentionnellement par modification géométrique est développée et validée. La modélisation des incertitudes incluant le désaccordage involontaire, est faite avec une approche probabiliste non paramétrique. Une application à l'optimisation de la conception en vibration d'une roue réelle a finalement été effectuée en deux phases : (1) une optimisation de la répartition des différentes aubes désaccordées intentionnellement sur la roue aubagée et (2) une optimisation du niveau de modification géométrique de ces aubes. Les résultats montrent qu'une conception robuste par désaccordage intentionnel de la roue aubagée a été effectuée
18

Nelakanti, Anil Kumar. "Modélisation du langage à l'aide de pénalités structurées." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01001634.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations.
19

Vidal, Vincent. "Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708530.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale.
20

Mazigh, Mourad. "Solutions probabilistes de problèmes en optimisation." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ60944.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Dubourg, Vincent. "Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
22

Haddad, Marcel Adonis. "Nouveaux modèles robustes et probabilistes pour la localisation d'abris dans un contexte de feux de forêt." Electronic Thesis or Diss., Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLD021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A cause du réchauffement climatique, le nombre et l’intensité des feux de forêts augmentent autour du globe. Dansce contexte, la construction de refuges contre le feu est une solution de plus en plus envisagée. Le problème consisteessentiellement à localiser p refuges de sorte à minimiser la distance maximale qui sépare un usager du plus procherefuge accessible en cas de feux. Le territoire considéré est divisé en zones et est modélisé comme un graphe auxarêtes pondérées. Un départ de feux sur une seule zone (c’est-à-dire sur un sommet). La principale conséquence d’unfeu est que les chemins d’évacuation sont modifiés de deux manières. Premièrement, un chemin d’évacuation ne peutpas traverser le sommet en feu. Deuxièmement, le fait qu’une personne proche de l’incendie puisse avoir un choix limitéde direction d’évacuation, ou être sous stress, est modélisé à l’aide d’une stratégie d’évacuation nouvellement définie.Cette stratégie d’évacuation induit des distances d’évacuation particulières qui rendent notre modèle spécifique. Selon letype de données considéré et l’objectif recherché, nous proposons deux problèmes avec ce modèle: le Robust p-CenterUnder Pressure et le Probabilistic p-Center Under Pressure. Nous prouvons que ces deux problèmes sont NP-difficilessur des classes de graphes pertinentes pour notre contexte. Nous proposons également des résultats d’approximationet d’inapproximation. Finalement, nous développons des algorithmes polynomiaux sur des classes de graphes simples,et nous développons des algorithmes mathématiques basés sur la programmation linéaire
The location of shelters in different areas threatened by wildfires is one of the possible ways to reduce fatalities in acontext of an increasing number of catastrophic and severe forest fires. The problem is basically to locate p sheltersminimizing the maximum distance people will have to cover to reach the closest accessible shelter in case of fire. Thelandscape is divided in zones and is modeled as an edge-weighted graph with vertices corresponding to zones andedges corresponding to direct connections between two adjacent zones. Each scenario corresponds to a fire outbreak ona single zone (i.e., on a vertex) with the main consequence of modifying evacuation paths in two ways. First, an evacuationpath cannot pass through the vertex on fire. Second, the fact that someone close to the fire may have limited choice, ormay not take rational decisions, when selecting a direction to escape is modeled using a new kind of evacuation strategy.This evacuation strategy, called Under Pressure, induces particular evacuation distances which render our model specific.We propose two problems with this model: the Robust p-Center Under Pressure problem and the Probabilistic p-CenterUnder Pressure problem. First we prove hardness results for both problems on relevant classes of graphs for our context.In addition, we propose polynomial exact algorithms on simple classes of graphs and we develop mathematical algorithmsbased on integer linear programming
23

Benhida, Soufia. "De l'optimisation pour l'aide à la décision : applications au problème du voyageur de commerce probabiliste et à l'approximation de données." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR27.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La 1ere partie de ce travail traite l'optimisation des tournées sous forme d'un problème d'optimisation nommé Le problème de Voyageur de Commerce. Dans cette partie nous nous intéressons à faire une riche présentation du problème de Voyageur de Commerce, ses variantes, puis nous proposons une stratégie de génération de contrainte pour la résolution du TSP. Ensuite on traite sa version stochastique : le problème de Voyageur de commerce Probabiliste. Nous proposons une formulation mathématique du PTSP et nous présentons des résultats numériques obtenus par résolution exacte pour une série d'instances de petite taille. Dans la seconde partie, nous proposons une méthode d'approximation générale permettant d'approcher différents type de données, d'abord nous traitons l'approximation d'un signal de vent (cas simple, ID), ensuite l'approximation d'un champ de vecteurs avec prise en compte de la topographie qui constitue la principale contribution de cette partie
The first part of this work deals with route optimization in the form of an optimization problem named The Traveler's Business Problem. In this part we are interested to make a rich presentation of the problem of Traveler Commerce, its variants, then we propose a strategy of constraint generation for the resolution of the TSP. Then we treat its stochastic version : the probabilistic business traveler problem. We propose a mathematical formulation of the PTSP and we present numerical results obtained by exact resolution for a series of small instances. In the second part, we propose a method of general approximation to approximate different type of data, first we treat the approximation of a wind signal (simple case, 1D), then the approximation of a vector field taking into account the topography which is the main contribution of this part
24

Andrieu, Laetitia. "Optimisation sous contrainte en probabilité." Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des stimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problèeme de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
25

Ducamp, Gaspard. "PROCOP : probabilistic rules compilation and optimisation." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Adoptées depuis plus de 20 ans par le monde de l’industrie, les règles métiers (business rules) offrent la possibilité à des utilisateurs non-informaticiens de définir des politiques de prise de décision de manière simple et intuitive. Pour faciliter leurs utilisations, des systèmes à base de règles, dits « systèmes de gestion des règles métier », ont été développés, séparant la logique métier de l’application informatique. S’ils sont adaptés pour traiter des données structurées et complètes, ils ne permettent pas aisément de travailler sur des données probabilistes. PROCOP (Probabilistic Rules Optimized and COmPilation) est une thèse proposant une nouvelle approche pour l’intégration de raisonnement probabiliste dans IBM Operational Decision Manager (ODM), le système de gestion des règles métier développé par IBM, notamment via l’introduction d’une notion de risque global sur l'évaluation des conditions d'exécution d'une action, complexifiant la phase de compilation du système mais augmentant l’expressivité des règles métiers. Diverses méthodes sont explorées, implémentées et comparées afin de permettre l'utilisation d'une telle capacité de raisonnement à large échelle, notamment afin de répondre aux problématiques liées à l'utilisation de modèles graphiques probabilistes dans des réseaux complexes
Widely adopted for more than 20 years in industrial fields, business rules offer the opportunity to non-IT users to define decision-making policies in a simple and intuitive way. To facilitate their use, rule-based systems, known as business rule management systems, have been developed, separating the business logic from the computer application. While they are suitable for processing structured and complete data, they do not easily allow working with probabilistic data. PROCOP (Probabilistic Rules Optimized and COmPilation) is a thesis proposing a new approach for the integration of probabilistic reasoning in IBM Operational Decision Manager (ODM), IBM's business rules management system, in particular through the introduction of a concept of global risk on the evaluation of the execution conditions of an action, complicating the compilation phase of the system but increasing the expressiveness of the business rules. Various methods are explored, implemented and compared in order to allow the use of such a powerful reasoning capacity on a large scale, in particular in order to answer the problems linked to the use of probabilistic graphical models in complex networks
26

Ayadi, Inès. "Optimisation des politiques de maintenance préventive dans un cadre de modélisation par modèles graphiques probabilistes." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1072/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, les équipements employés dans les milieux industriels sont de plus en plus complexes. Ils exigent une maintenance accrue afin de garantir un niveau de service optimal en termes de fiabilité et de disponibilité. Par ailleurs, souvent cette garantie d'optimalité a un coût très élevé, ce qui est contraignant. Face à ces exigences la gestion de la maintenance des équipements est désormais un enjeu de taille : rechercher une politique de maintenance réalisant un compromis acceptable entre la disponibilité et les coûts associés à l'entretien du système. Les travaux de cette thèse partent par ailleurs du constat que dans plusieurs applications de l'industrie, le besoin de stratégies de maintenance assurant à la fois une sécurité optimale et une rentabilité maximale demeure de plus en plus croissant conduisant à se référer non seulement à l'expérience des experts, mais aussi aux résultats numériques obtenus via la résolution des problèmes d'optimisation. La résolution de cette problématique nécessite au préalable la modélisation de l'évolution des comportements des états des composants constituant le système, i.e, connaître les mécanismes de dégradation des composants. Disposant d'un tel modèle, une stratégie de maintenance est appliquée au système. Néanmoins, l'élaboration d'une telle stratégie réalisant un compromis entre toutes ces exigences représente un verrou scientifique et technique majeur. Dans ce contexte, l'optimisation de la maintenance s'impose pour atteindre les objectifs prescrits avec des coûts optimaux. Dans les applications industrielles réelles, les problèmes d'optimisation sont souvent de grande dimension faisant intervenir plusieurs paramètres. Par conséquent, les métaheuristiques s’avèrent une approche intéressante dans la mesure où d'une part, elles sacrifient la complétude de la résolution au profit de l'efficacité et du temps de calcul et d'autre part elles s'appliquent à un très large panel de problèmes.Dans son objectif de proposer une démarche de résolution d'un problème d'optimisation de la maintenance préventive, cette thèse fournit une méthodologie de résolution du problème d'optimisation des politiques de maintenance préventive systématique appliquée dans le domaine ferroviaire à la prévention des ruptures de rails. Le raisonnement de cette méthodologie s'organise autour de trois étapes principales : 1. Modélisation de l'évolution des comportements des états des composants constituant le système, i.e, connaître les mécanismes de dégradation des composants et formalisation des opérations de maintenance. 2. Formalisation d'un modèle d'évaluation de politiques de maintenance tenant compte aussi bien du facteur sûreté de fonctionnement du système que du facteur économique conséquent aux procédures de gestion de la maintenance (coûts de réparation, de diagnostic, d'indisponibilité). 3. Optimisation des paramètres de configuration des politiques de maintenance préventive systématique afin d'optimiser un ou plusieurs critères. Ces critères sont définis sur la base du modèle d'évaluation des politiques de maintenance proposé dans l'étape précédente
At present, equipments used on the industrial circles are more and more complex. They require a maintenance increased to guarantee a level of optimal service in terms of reliability and availability. Besides, often this guarantee of optimalité has a very high cost, what is binding. In the face of these requirements the management of the maintenance of equipments is from now on a stake in size: look for a politics of maintenance realizing an acceptable compromise between the availability and the costs associated to the maintenance of the system. The works of this thesis leave besides the report that in several applications of the industry, the need for strategies of maintenance assuring(insuring) at the same time an optimal safety and a maximal profitability lives furthermore there
27

Serra, Romain. "Opérations de proximité en orbite : évaluation du risque de collision et calcul de manoeuvres optimales pour l'évitement et le rendez-vous." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de l'évitement de collision entre un engin spatial opérationnel, appelé objet primaire, et un débris orbital, dit secondaire. Ces travaux concernent aussi bien la question de l'estimation du risque pour une paire d'objets sphériques que celle du calcul d'un plan de manoeuvres d'évitement pour le primaire. Pour ce qui est du premier point, sous certaines hypothèses, la probabilité de collision s'exprime comme l'intégrale d'une fonction gaussienne sur une boule euclidienne, en dimension deux ou trois. On en propose ici une nouvelle méthode de calcul, basée sur les théories de la transformée de Laplace et des fonctions holonomes. En ce qui concerne le calcul de manoeuvres de propulsion, différentes méthodes sont développées en fonction du modèle considéré. En toute généralité, le problème peut être formulé dans le cadre de l'optimisation sous contrainte probabiliste et s'avère difficile à résoudre. Dans le cas d'un mouvement considéré comme relatif rectiligne, l'approche par scénarios se prête bien au problème et permet d'obtenir des solutions admissibles. Concernant les rapprochements lents, une linéarisation de la dynamique des objets et un recouvrement polyédral de l'objet combiné sont à la base de la construction d'un problème de substitution. Deux approches sont proposées pour sa résolution : une première directe et une seconde par sélection du risque. Enfin, la question du calcul de manoeuvres de proximité en consommation optimale et temps fixé, sans contrainte d'évitement, est abordée. Par l'intermédiaire de la théorie du vecteur efficacité, la solution analytique est obtenue pour la partie hors-plan de la dynamique képlérienne linéarisée
This thesis is about collision avoidance for a pair of spherical orbiting objects. The primary object - the operational satellite - is active in the sense that it can use its thrusters to change its trajectory, while the secondary object is a space debris that cannot be controlled in any way. Onground radars or other means allow to foresee a conjunction involving an operational space craft,leading in the production of a collision alert. The latter contains statistical data on the position and velocity of the two objects, enabling for the construction of a probabilistic collision model.The work is divided in two parts : the computation of collision probabilities and the design of maneuvers to lower the collision risk. In the first part, two kinds of probabilities - that can be written as integrals of a Gaussian distribution over an Euclidean ball in 2 and 3 dimensions -are expanded in convergent power series with positive terms. It is done using the theories of Laplace transform and Definite functions. In the second part, the question of collision avoidance is formulated as a chance-constrained optimization problem. Depending on the collision model, namely short or long-term encounters, it is respectively tackled via the scenario approach or relaxed using polyhedral collision sets. For the latter, two methods are proposed. The first one directly tackles the joint chance constraints while the second uses another relaxation called risk selection to obtain a mixed-integer program. Additionaly, the solution to the problem of fixed-time fuel minimizing out-of-plane proximity maneuvers is derived. This optimal control problem is solved via the primer vector theory
28

Karri, Senanayak Sesh Kumar. "On the Links between Probabilistic Graphical Models and Submodular Optimisation." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’entropie d’une distribution sur un ensemble de variables aléatoires discrètes est toujours bornée par l’entropie de la distribution factorisée correspondante. Cette propriété est due à la sous-modularité de l’entropie. Par ailleurs, les fonctions sous-modulaires sont une généralisation des fonctions de rang des matroïdes ; ainsi, les fonctions linéaires sur les polytopes associés peuvent être minimisées exactement par un algorithme glouton. Dans ce manuscrit, nous exploitons ces liens entre les structures des modèles graphiques et les fonctions sous-modulaires. Nous utilisons des algorithmes gloutons pour optimiser des fonctions linéaires sur des polytopes liés aux matroïdes graphiques et hypergraphiques pour apprendre la structure de modèles graphiques, tandis que nous utilisons des algorithmes d’inférence sur les graphes pour optimiser des fonctions sous-modulaires. La première contribution de cette thèse consiste à approcher par maximum de vraisemblance une distribution de probabilité par une distribution factorisable et de complexité algorithmique contrôlée. Comme cette complexité est exponentielle dans la largeur arborescente du graphe, notre but est d’apprendre un graphe décomposable avec une largeur arborescente bornée, ce qui est connu pour être NP-difficile. Nous posons ce problème comme un problème d’optimisation combinatoire et nous proposons une relaxation convexe basée sur les matroïdes graphiques et hypergraphiques. Ceci donne lieu à une solution approchée avec une bonne performance pratique. Pour la seconde contribution principale, nous utilisons le fait que l’entropie d’une distribution est toujours bornée par l’entropie de sa distribution factorisée associée, comme conséquence principale de la sous-modularité, permettant une généralisation à toutes les fonctions sous-modulaires de bornes basées sur les concepts de modèles graphiques. Un algorithme est développé pour maximiser les fonctions sous-modulaires, un autre problème NP-difficile, en maximisant ces bornes en utilisant des algorithmes d’inférence vibrationnels sur les graphes. En troisième contribution, nous proposons et analysons des algorithmes visant à minimiser des fonctions sous-modulaires pouvant s’écrire comme somme de fonctions plus simples. Nos algorithmes n’utilisent que des oracles de ces fonctions simple basés sur minimisation sous-modulaires et de variation totale de telle fonctions
The entropy of a probability distribution on a set of discrete random variables is always bounded by the entropy of its factorisable counterpart. This is due to the submodularity of entropy on the set of discrete random variables. Submodular functions are also generalisation of matroid rank function; therefore, linear functions may be optimised on the associated polytopes exactly using a greedy algorithm. In this manuscript, we exploit these links between the structures of graphical models and submodular functions: we use greedy algorithms to optimise linear functions on the polytopes related to graphic and hypergraphic matroids for learning the structures of graphical models, while we use inference algorithms on graphs to optimise submodular functions.The first main contribution of the thesis aims at approximating a probabilistic distribution with a factorisable tractable distribution under the maximum likelihood framework. Since the tractability of exact inference is exponential in the treewidth of the decomposable graph, our goal is to learn bounded treewidth decomposable graphs, which is known to be NP-hard. We pose this as a combinatorial optimisation problem and provide convex relaxations based on graphic and hypergraphic matroids. This leads to an approximate solution with good empirical performance. In the second main contribution, we use the fact that the entropy of a probability distribution is always bounded by the entropy of its factorisable counterpart mainly as a consequence of submodularity. This property of entropy is generalised to all submodular functions and bounds based on graphical models are proposed. We refer to them as graph-based bounds. An algorithm is developped to maximise submodular functions, which is NPhard, by maximising the graph-based bound using variational inference algorithms on graphs. As third contribution, we propose and analyse algorithms aiming at minimizing submodular functions that can be written as sum of simple functions. Our algorithms only make use of submodular function minimisation and total variation oracles of simple functions
29

Murat, Cécile. "Les problèmes d'optimisation combinatoire probabilistes dans les graphes." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'optimisation combinatoire probabiliste de problèmes définis en termes de graphes. Dans ce cadre, un système de probabilités est associé aux sommets du graphe afin de traduire le fait que nous ne connaissons pas le sous-graphe pour lequel le problème sera à résoudre. L'approche utilisée consiste alors à définir une solution dite a priori, qui sous-entend que tous les éléments du graphe d'origine soient présents. Pour une sous-instance donnée, pour laquelle certains éléments du graphe sont absents, il faudra adapter la solution a priori, à l'aide d'un algorithme appelé stratégie de modification, afin qu'elle devienne solution de l'instance considérée. Après avoir situé ces problèmes, par rapport à ceux étudiés dans le cadre de la théorie des graphes aléatoires, nous présentons la méthodologie employée et la formalisons. Nous proposons alors, un état de l'art des travaux réalisés avec cette approche pour les problèmes dont l'instance est un graphe. Puis, nous présentons les résultats que nous avons établis pour les problèmes du stable probabiliste, de la couverture de sommets probabiliste et de plus longs chemins probabilistes. Ceci nous amène a opérer une première classification et structuration de problèmes d'optimisation combinatoire probabilistes selon leur complexité et résolution. La dernière partie de cette thèse, constitue un développement du formalisme du cadre d'étude. Pour cela, nous présentons nos premières réflexions concernant l'utilisation de nouveaux critères. Enfin, nous finissons en introduisant les premières notions nécessaires à la mise en place d'un cadre structure pour l'étude de l'approximation des problèmes d'optimisation combinatoire probabilistes.
30

Besson, Rémi. "Decision making strategy for antenatal echographic screening of foetal abnormalities using statistical learning." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX037/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous proposons une méthode pour construire un outil d'aide à la décision pour le diagnostic de maladie rare. Nous cherchons à minimiser le nombre de tests médicaux nécessaires pour atteindre un état où l'incertitude concernant la maladie du patient est inférieure à un seuil prédéterminé. Ce faisant, nous tenons compte de la nécessité dans de nombreuses applications médicales, d'éviter autant que possible, tout diagnostic erroné. Pour résoudre cette tâche d'optimisation, nous étudions plusieurs algorithmes d'apprentissage par renforcement et les rendons opérationnels pour notre problème de très grande dimension. Pour cela nous décomposons le problème initial sous la forme de plusieurs sous-problèmes et montrons qu'il est possible de tirer partie des intersections entre ces sous-tâches pour accélérer l'apprentissage. Les stratégies apprises se révèlent bien plus performantes que des stratégies gloutonnes classiques. Nous présentons également une façon de combiner les connaissances d'experts, exprimées sous forme de probabilités conditionnelles, avec des données cliniques. Il s'agit d'un aspect crucial car la rareté des données pour les maladies rares empêche toute approche basée uniquement sur des données cliniques. Nous montrons, tant théoriquement qu'empiriquement, que l'estimateur que nous proposons est toujours plus performant que le meilleur des deux modèles (expert ou données) à une constante près. Enfin nous montrons qu'il est possible d'intégrer efficacement des raisonnements tenant compte du niveau de granularité des symptômes renseignés tout en restant dans le cadre probabiliste développé tout au long de ce travail
In this thesis, we propose a method to build a decision support tool for the diagnosis of rare diseases. We aim to minimize the number of medical tests necessary to achieve a state where the uncertainty regarding the patient's disease is less than a predetermined threshold. In doing so, we take into account the need in many medical applications, to avoid as much as possible, any misdiagnosis. To solve this optimization task, we investigate several reinforcement learning algorithm and make them operable in our high-dimensional. To do this, we break down the initial problem into several sub-problems and show that it is possible to take advantage of the intersections between these sub-tasks to accelerate the learning phase. The strategies learned are much more effective than classic greedy strategies. We also present a way to combine expert knowledge, expressed as conditional probabilities, with clinical data. This is crucial because the scarcity of data in the field of rare diseases prevents any approach based solely on clinical data. We show, both empirically and theoretically, that our proposed estimator is always more efficient than the best of the two models (expert or data) within a constant. Finally, we show that it is possible to effectively integrate reasoning taking into account the level of granularity of the symptoms reported while remaining within the probabilistic framework developed throughout this work
31

Bellalouna, Monia. "Problèmes d'optimisation combinatoires probabilistes." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://pastel.archives-ouvertes.fr/pastel-00568759.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude du domaine récent que constituent les problèmes d'optimisation combinatoires probabilistes (POCPs) forme le sujet de cette thèse. Les POCPs sont des généralisations des problèmes d'optimisation combinatoires classiques dont les formulations contiennent explicitement des éléments probabilistes. Plusieurs motivations ont provoqué cette étude. Deux d'entre elles sont particulièrement importantes. La première correspond au désir de formuler et d'analyser des modèles qui sont plus appropriés pour des problèmes pratiques pour lesquels l'aléatoire est une source constante de préoccupations, les modèles de nature probabiliste sont plus particulièrement attractifs comme abstraction mathématique des systèmes réels. La seconde motivation est d'analyser la stabilité des solutions optimales des problèmes déterministes lorsque les exemplaires sont perturbés : les perturbations sont simulées par la présence ou l'absence de sous-ensembles des données. Notre étude s'appuie sur certains de ces problèmes et en particulier : problème du voyageur de commerce; problème d'ordonnancement des travaux probabiliste et le problème du bin-packing probabiliste. Les questions soulevées et les résultats obtenus sont dans les domaines suivants : complexités des problèmes et analyse d'heuristiques pour les POCPs ; analyse du comportement asymptotique des problèmes lorsque les exemplaires correspondent à des problèmes de grandes tailles ; dégager une méthodologie générale d'étude de la stabilité des solutions des problèmes d'optimisation combinatoires classiques.
32

Faimun, Faimun. "Probability based optimisation of non-linear multi-layered orthotropic plates." Thesis, University of Newcastle Upon Tyne, 2009. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.545776.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Laamiri, Hassan. "Optimisation methods in structural systems reliability." Thesis, Imperial College London, 1991. http://hdl.handle.net/10044/1/46878.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Schliebs, Stefan. "Heterogeneous probabilistic models for optimisation and modelling of evolving spiking neural networks." AUT University, 2010. http://hdl.handle.net/10292/963.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis proposes a novel feature selection and classification method employing evolving spiking neural networks (eSNN) and evolutionary algorithms (EA). The method is named the Quantum-inspired Spiking Neural Network (QiSNN) framework. QiSNN represents an integrated wrapper approach. An evolutionary process evolves appropriate feature subsets for a given classification task and simultaneously optimises the neural and learning-related parameters of the network. Unlike other methods, the connection weights of this network are determined by a fast one-pass learning algorithm which dramatically reduces the training time. In its core, QiSNN employs the Thorpe neural model that allows the efficient simulation of even large networks. In QiSNN, the presence or absence of features is represented by a string of concatenated bits, while the parameters of the neural network are continuous. For the exploration of these two entirely different search spaces, a novel Estimation of Distribution Algorithm (EDA) is developed. The method maintains a population of probabilistic models specialised for the optimisation of either binary, continuous or heterogeneous search spaces while utilising a small and intuitive set of parameters. The EDA extends the Quantum-inspired Evolutionary Algorithm (QEA) proposed by Han and Kim (2002) and was named the Heterogeneous Hierarchical Model EDA (hHM-EDA). The algorithm is compared to numerous contemporary optimisation methods and studied in terms of convergence speed, solution quality and robustness in noisy search spaces. The thesis investigates the functioning and the characteristics of QiSNN using both synthetic feature selection benchmarks and a real-world case study on ecological modelling. By evolving suitable feature subsets, QiSNN significantly enhances the classification accuracy of eSNN. Compared to numerous other feature selection techniques, like the wrapper-based Multilayer Perceptron (MLP) and the Naive Bayesian Classifier (NBC), QiSNN demonstrates a competitive classification and feature selection performance while requiring comparatively low computational costs.
35

Nelakanti, Anil Kumar. "Modélisation du langage à l'aide de pénalités structurées." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation de la langue naturelle est l¿un des défis fondamentaux de l'intelligence artificielle et de la conception de systèmes interactifs, avec applications dans les systèmes de dialogue, la génération de texte et la traduction automatique. Nous proposons un modèle log-linéaire discriminatif donnant la distribution des mots qui suivent un contexte donné. En raison de la parcimonie des données, nous proposons un terme de pénalité qui code correctement la structure de l'espace fonctionnel pour éviter le sur-apprentissage et d'améliorer la généralisation, tout en capturant de manière appropriée les dépendances à long terme. Le résultat est un modèle efficace qui capte suffisamment les dépendances longues sans occasionner une forte augmentation des ressources en espace ou en temps. Dans un modèle log-linéaire, les phases d'apprentissage et de tests deviennent de plus en plus chères avec un nombre croissant de classes. Le nombre de classes dans un modèle de langue est la taille du vocabulaire, qui est généralement très importante. Une astuce courante consiste à appliquer le modèle en deux étapes: la première étape identifie le cluster le plus probable et la seconde prend le mot le plus probable du cluster choisi. Cette idée peut être généralisée à une hiérarchie de plus grande profondeur avec plusieurs niveaux de regroupement. Cependant, la performance du système de classification hiérarchique qui en résulte dépend du domaine d'application et de la construction d'une bonne hiérarchie. Nous étudions différentes stratégies pour construire la hiérarchie des catégories de leurs observations
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations
36

Moussa, Kaouther. "Estimation de domaines d'attraction et contrôle basé sur l'optimisation : application à des modèles de croissance tumorale." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse consiste à proposer des algorithmes ainsi que des approches, basés sur des méthodes avancées de l’automatique, afin de guider la synthèse des traitements de cancer. Cette thèse a également pour but de relever l’importance de la considération des différentes incertitudes stochastiques qui peuvent affecter ce genre de systèmes.Le phénomène de croissance tumorale et ses différentes dynamiques sont encore à nosjours un sujet de recherche ouvert. La complexité de ce type de systèmes vient de leur nature incertaine ainsi que de la méconnaissance de leurs comportements. Par ailleurs, ces systèmes sont souvent décrits par des dynamiques non-linéaires complexes et requièrent la prise en compte de différentes contraintes liées à la physiologie ainsi que la biologie de l’être humain.Ce sujet regroupe plusieurs ingrédients de complexité en termes de synthèse de contrôle, tels que les dynamiques non-linéaires, la prise en considération des contraintes ainsi que des problèmes d’optimalité. Pour cela, nous proposons dans cette thèse d’utiliser une méthode récente de contrôle optimal basée sur l’optimisation par les moments. Cette approche a pour avantage de considérer les différentes variables d’état et de contrôle comme étant des densités de probabilité, rendant la prise en considération d’incertitudes décrites par des distributions de probabilité directe dans le problème de contrôle optimal. Nous utilisons cette méthodologie dans la Partie II afin de synthétiser des contrôles optimauxet robustes, représentant des profils d’injection de médicaments.Le second problème qu’on considère dans la Partie III consiste en l’estimation derégions d’attraction pour des modèles dynamiques de cancer. Ce problème est intéressant dans le contexte de traitements de cancer, car ces régions caractérisent l’ensemble des conditions initiales (volume tumoral et indicateurs de santé), qui peuvent être amenées à une région saine, où le patient est considéré comme guéri. Par ailleurs, on analyse des méthodologies permettant de prendre en considération des modèles dynamiques présentant des incertitudes paramétriques
The main objective of this thesis is to propose frameworks and algorithms that are based on advanced control approaches, in order to guide cancer treatments scheduling. It also aims at pointing out the importance of taking into account the problem of stochastic uncertainties handling in the drug scheduling design, since cancer dynamical systems are considered to be highly uncertain phenomena.Cancer dynamical interactions are still an open research topic which is not fully understood yet. The complexity of such dynamics comes from their partially unknown behavior and their uncertain nature. Additionally, they are often described by nonlinear complex dynamics and require taking into consideration many constraints related to physiology as well as biology.In terms of control design, this topic gathers many complexity ingredients such asnonlinear dynamics, constraints handling and optimality issues. Therefore, in this thesis, we propose to use a recent optimal control approach that is based on moment optimization. This framework has the advantage of considering all the state and input variables as probability densities, allowing therefore to explicitly consider parametric as well as initial state uncertainties in the optimal control problem. We use this framework in Part II, in order to design robust optimal control schedules that represent cancer drugs injection profiles.The second problem that we address in Part III consists in the estimation of regionsof attraction for cancer interactions models. This problem is interesting in the context of cancer treatment design, since it provides the set of all possible initial conditions (tumor and patient health indicators), that can be driven to a desired targeted safe region, where the patient is considered to be healed. Furthermore, we focus on the assessment of methodologies that take into consideration the parametric uncertainties that can affect the dynamical model
37

Klopfenstein, Olivier. "Optimisation robuste des réseaux de télécommunications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00321868.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à la prise en compte de données incertaines dans les problèmes d'optimisation. On se concentre sur la programmation mathématique sous contraintes probabilistes, dont le but est de trouver la meilleure solution qui sera réalisable avec une probabilité minimale garantie. Par ailleurs, on s'intéresse à la prise en compte de variables de décisions entières, qui sont souvent requises en pratique.

Pour résoudre de tels problèmes combinatoires sous contraintes probabilistes, on s'appuie d'abord sur l'optimisation robuste. Les liens théoriques entre ces deux familles de méthodes sont mis en évidence. A partir de modèles robustes appropriés, des algorithmes de résolution heuristique sont définis. On s'intéresse ensuite à la résolution optimale de problèmes combinatoires sous contraintes probabilistes. Des tests numériques illustrent les méthodes présentées et montrent leur efficacité pratique. Enfin, deux applications au domaine des télécommunications sont développées. Elles concernent toutes deux la localisation de fonctions dans un réseau.
38

Nierhoff, Till. "The k-center-problem and r-independent sets : a study in probabilistic analysis /." Aachen : Shaker, 1999. http://catalogue.bnf.fr/ark:/12148/cb37323988q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Ghribi, Dhafer. "Optimisation des corrections de forme dans les engrenages droits et hélicoïdaux : Approches déterministes et probabilistes." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00873973.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif de mener une optimisation des corrections de forme des engrenages cylindriques, droits et hélicoïdaux. Le travail se décompose en quatre parties principales. Dans la première partie, on présente un état de l'art sur les différents types de corrections de forme proposées dans la littérature. Une analyse des travaux d'optimisation, menés jusqu'à présent, est conduite. La deuxième partie est focalisée sur une approche déterministe visant à cerner l'influence des corrections de dentures sur les principaux critères de performance. Dans ce contexte, on propose un développement analytique qui caractérise les fluctuations d'erreur de transmission quasi-statique permettant d'obtenir des relations approchées originales. En présence de plusieurs paramètres de corrections, un algorithme génétique est utilisé afin d'identifier, en un temps réduit, les solutions optimales. Nous proposons, en troisième partie, une étude probabiliste pour caractériser les corrections robustes. Ainsi, on définit une fonction objectif de robustesse faisant intervenir des paramètres statistiques. Après une étape de validation, l'estimation de ces paramètres est effectuée en utilisant les formules de quadrature de Gauss. Plusieurs études paramétriques sont ensuite menées et qui reflètent entre autre l'influence des classes de qualité, la forme de la correction, etc. Enfin, on a conduit une optimisation multicritère en utilisant un algorithme d'optimisation spécifique : " NSGA-II ".
40

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)
This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
41

Rawlik, Konrad Cyrus. "On probabilistic inference approaches to stochastic optimal control." Thesis, University of Edinburgh, 2013. http://hdl.handle.net/1842/8293.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
While stochastic optimal control, together with associate formulations like Reinforcement Learning, provides a formal approach to, amongst other, motor control, it remains computationally challenging for most practical problems. This thesis is concerned with the study of relations between stochastic optimal control and probabilistic inference. Such dualities { exempli ed by the classical Kalman Duality between the Linear-Quadratic-Gaussian control problem and the filtering problem in Linear-Gaussian dynamical systems { make it possible to exploit advances made within the separate fields. In this context, the emphasis in this work lies with utilisation of approximate inference methods for the control problem. Rather then concentrating on special cases which yield analytical inference problems, we propose a novel interpretation of stochastic optimal control in the general case in terms of minimisation of certain Kullback-Leibler divergences. Although these minimisations remain analytically intractable, we show that natural relaxations of the exact dual lead to new practical approaches. We introduce two particular general iterative methods ψ-Learning, which has global convergence guarantees and provides a unifying perspective on several previously proposed algorithms, and Posterior Policy Iteration, which allows direct application of inference methods. From these, practical algorithms for Reinforcement Learning, based on a Monte Carlo approximation to ψ-Learning, and model based stochastic optimal control, using a variational approximation of posterior policy iteration, are derived. In order to overcome the inherent limitations of parametric variational approximations, we furthermore introduce a new approach for none parametric approximate stochastic optimal control based on a reproducing kernel Hilbert space embedding of the control problem. Finally, we address the general problem of temporal optimisation, i.e., joint optimisation of controls and temporal aspects, e.g., duration, of the task. Specifically, we introduce a formulation of temporal optimisation based on a generalised form of the finite horizon problem. Importantly, we show that the generalised problem has a dual finite horizon problem of the standard form, thus bringing temporal optimisation within the reach of most commonly used algorithms. Throughout, problems from the area of motor control of robotic systems are used to evaluate the proposed methods and demonstrate their practical utility.
42

Ngah, Mohammad Fahmi. "Statistical process optimisation and probabilistic performance assessment of resin infused carbon-epoxy composite laminates." Thesis, Imperial College London, 2005. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.418251.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Hobbs, Dale. "Probabilistic estimation of hosting capacity and operating reserve including optimisation of PV installation capacity." Thesis, Hobbs, Dale (2019) Probabilistic estimation of hosting capacity and operating reserve including optimisation of PV installation capacity. Honours thesis, Murdoch University, 2019. https://researchrepository.murdoch.edu.au/id/eprint/52466/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In recent times the need to deploy additional sustainable generation means has become more apparent due to the ever-changing landscape of the global energy generation sector. Australia’s changing consumer needs means new technologies like renewable generation sources such as solar PV systems have increased in popularity over time, though their full capability has not yet been met. Though their intermittent generation is cause for concern in maintaining a stable and quality power supply. This thesis aims to address the issues by developing a probabilistic methodology for the day ahead estimate of the maximum hosting limits capacity and minimum operating reserve requirements of a microgrid containing high levels of PV penetration. Before the commencement and development of the project, a wide range of methods from literature were analysed regarding microgrids and their use in this project. The comprehensive range of concepts of microgrids and their distributed generation were divulged and incorporated into the project methodology. To understand how to provide the probabilistic estimate of the maximum hosting capacity, three previously methods in literature were analysed, each providing more technically advanced approaches than the last. The same research approach was used to understand the methodology of developing a probabilistic estimate of the operating reserve. These methods range in methodology, from the Monte Carlo simulation method to advanced artificial neural networks. To provide the day ahead estimates, an artificial neural network is developed to generate the network parameter forecasts required, providing with it, a probabilistic range of input to a network model. The maximum hosting capacity limit will ensure the amount of renewable generation expected will not exceed the performance indexes required for, voltage level, line loading limits and generator reverse power flow. The minimum operating reserve will provide an estimate of the reserve generation required if there were to be a sudden drop in the renewable energy supply. The estimates are created by modelling the IEEE 13-bus network in PowerFactory containing high levels of renewable generation. The programming functionality in this package has been utilised to automate the immense simulation, calculation and data collection processes required on a case by case basis. Statistical analysis is performed to define the probability of these estates occurring. The probabilities of these estimates will help network operators in making decisions for the control of the microgrid. Adding to these estimates were the PV generation capacity optimisations to increase the maximum hosting capacity limit. Several test cases were created to analyse the performance of the modelling automation developed. Each of these cases created a different insight into the estimation and optimisation cases and their interaction with the performance indexes. The probabilistic estimations derived produced a normal distribution of values for each of the cases tested. Probability statistics are applied to provide the probability of such estimates occurring for the next day's operation. The optimisation successfully provided the maximised PV generation, setting a maximum hosting capacity within the performance index limits. The methodology developed was successful in providing the probabilistic estimation required and optimising the PV installed capacity. This method offered the use of advanced technology, such as artificial neural networks, to provide more reliable predictions into the network operation.
44

Marceau, Caron Gaetan. "Optimization and uncertainty handling in air traffic management." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112183/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de la gestion du trafic aérien et plus précisément, de l’optimisation globale des plans de vol déposés par les compagnies aériennes sous contrainte du respect de la capacité de l’espace aérien. Une composante importante de ce travail concerne la gestion de l’incertitude entourant les trajectoires des aéronefs. Dans la première partie du travail, nous identifions les principales causes d’incertitude au niveau de la prédiction de trajectoires. Celle-ci est la composante essentielle à l’automatisation des systèmes de gestion du trafic aérien. Nous étudions donc le problème du réglage automatique et en-ligne des paramètres de la prédiction de trajectoires au cours de la phase de montée avec l’algorithme d’optimisation CMA-ES. La principale conclusion, corroborée par d’autres travaux de la littérature, implique que la prédiction de trajectoires des centres de contrôle n’est pas suffisamment précise aujourd’hui pour supporter l’automatisation complète des tâches critiques. Ainsi, un système d’optimisation centralisé de la gestion du traficaérien doit prendre en compte le facteur humain et l’incertitude de façon générale.Par conséquent, la seconde partie traite du développement des modèles et des algorithmes dans une perspective globale. De plus, nous décrivons un modèle stochastique qui capture les incertitudes sur les temps de passage sur des balises de survol pour chaque trajectoire. Ceci nous permet d’inférer l’incertitude engendrée sur l’occupation des secteurs de contrôle par les aéronefs à tout moment.Dans la troisième partie, nous formulons une variante du problème classique du Air Traffic Flow and Capacity Management au cours de la phase tactique. L’intérêt est de renforcer les échanges d’information entre le gestionnaire du réseau et les contrôleurs aériens. Nous définissons donc un problème d’optimisation dont l’objectif est de minimiser conjointement les coûts de retard et de congestion tout en respectant les contraintes de séquencement au cours des phases de décollage et d’attérissage. Pour combattre le nombre de dimensions élevé de ce problème, nous choisissons un algorithme évolutionnaire multiobjectif avec une représentation indirecte du problème en se basant sur des ordonnanceurs gloutons. Enfin, nous étudions les performances et la robustesse de cette approche en utilisant le modèle stochastique défini précédemment. Ce travail est validé à l’aide de problèmes réels obtenus du Central Flow Management Unit en Europe, que l’on a aussi densifiés artificiellement
In this thesis, we investigate the issue of optimizing the aircraft operators' demand with the airspace capacity by taking into account uncertainty in air traffic management. In the first part of the work, we identify the main causes of uncertainty of the trajectory prediction (TP), the core component underlying automation in ATM systems. We study the problem of online parameter-tuning of the TP during the climbing phase with the optimization algorithm CMA-ES. The main conclusion, corroborated by other works in the literature, is that ground TP is not sufficiently accurate nowadays to support fully automated safety-critical applications. Hence, with the current data sharing limitations, any centralized optimization system in Air Traffic Control should consider the human-in-the-loop factor, as well as other uncertainties. Consequently, in the second part of the thesis, we develop models and algorithms from a network global perspective and we describe a generic uncertainty model that captures flight trajectories uncertainties and infer their impact on the occupancy count of the Air Traffic Control sectors. This usual indicator quantifies coarsely the complexity managed by air traffic controllers in terms of number of flights. In the third part of the thesis, we formulate a variant of the Air Traffic Flow and Capacity Management problem in the tactical phase for bridging the gap between the network manager and air traffic controllers. The optimization problem consists in minimizing jointly the cost of delays and the cost of congestion while meeting sequencing constraints. In order to cope with the high dimensionality of the problem, evolutionary multi-objective optimization algorithms are used with an indirect representation and some greedy schedulers to optimize flight plans. An additional uncertainty model is added on top of the network model, allowing us to study the performances and the robustness of the proposed optimization algorithm when facing noisy context. We validate our approach on real-world and artificially densified instances obtained from the Central Flow Management Unit in Europe
45

Klopfenstein, Olivier. "Optimisation robuste des réseaux de télécommunication." Compiègne, 2008. http://www.theses.fr/2008COMP1740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à la prise en compte de données incertaines dans les problèmes d'optimisation. On se concentre sur la programmation mathématique sous contraintes probabilistes, dont le but est de trouver la meilleure solution qui sera réalisable avec une probabilité minimale garantie. Par ailleurs, on s'intéresse à la prise en compte de variables de décisions entières, qui sont souvent requises en pratique. Pour résoudre de tels problèmes combinatoires sous contraintes probabilistes, on s'appuie d'abord sur l'optimisation robuste. Les liens théoriques entre ces deux familles de méthodes sont mis en évidence. A partir de modèles robustes appropriés, des algorithmes de résolution heuristique sont définis. On s'intéresse ensuite à la résolution optimale de problèmes combinatoires sous contraintes probabilistes. Des tests numériques illustrent les méthodes présentées et montrent leur efficacité pratique. Enfin, deux applications au domaine des télécommunications sont développées. Elles concernent toutes deux la localisation de fonctions dans un réseau
This thesis deals with taking uncertain data into account in optimization problems. Our focus is on mathematical programs with chance constraints. In this approach, the goal is to find the best solution, given a unfeasibility probability tolerance. Furthermore, we concentrate on integer variables, since they are often required for practical applications. To solve such chance-constrained combinatorial problems, we first rely on robust optimization. The theoretical links between these two families of approaches are studied. Based on appropriate robust models, solution algorithms to chance-constrained combinatorial problems are designed. Then, the optimal solution of such problems is also investigated. Specific theoretical results and algorithms are given to reach optimality. Finally, two specific telecommuniation applications are developed. Both of them deal with location in a network
46

Dantan, Jérôme. "Une approche systémique unifiée pour l’optimisation durable des systèmes socio-environnementaux : ingénierie des systèmes de décision en univers incertain." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1045/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, la durabilité des activités humaines devient une préoccupation majeure dans le monde entier. Il s’agit d’évaluer ces activités non seulement en matière d’efficacité et de productivité, mais aussi en ce qui concerne leurs durabilités économique, sociale, environnementale, etc. Pour cela, les experts de ces différents domaines doivent travailler en collaboration. Dans ce contexte, les sociétés humaines sont confrontées à plusieurs défis majeurs qui sont les suivants : (1) traiter de grandes quantités d’informations (« big data »), (2) évoluer dans un monde réel dynamique et imparfait, (3) prévoir et évaluer les états futurs de ses activités.Les recherches que nous avons menées dans cette thèse contribuent plus particulièrement au domaine de l’ingénierie des systèmes de décision en univers incertain. Nous prenons comme objet d'étude général le domaine des systèmes socio-environnementaux, et plus particulièrement le domaine pluridisciplinaire de l’agriculture. Nous proposons une approche systémique pour l’optimisation durable des systèmes socio-environnementaux : (1) la méta-modélisation des systèmes socio-environnementaux, (2) la représentation générique de l’imperfection des informations qui circulent dans ces systèmes, associée à un modèle de décision en contexte incertain et enfin (3) la simulation et l’évaluation de ces systèmes en environnement dynamique en vue de prises de décisions par des experts, que nous avons illustrée par un modèle d’architecture orientée services ainsi que des études de cas appliquées au domaine de l’agriculture
Nowadays, the sustainability of human activities is a major worldwide concern. The challenge is to evaluate such activities not only in terms of efficiency and productivity, but also in terms of their economic, social, environmental, etc. durability. For this, the experts of these areas need to work collaboratively. In this context, human societies are facing several major challenges such as: (1) process a large amount of information whose volume increases exponentially (“big data”), (2) live in a both dynamic and imperfect real world, (3) predict and assess future states of its activities.The researches we have conducted in this thesis contribute in particular to the domain of decision systems engineering under uncertainty. We have chosen the field of general socio-environmental systems as subject of study, particularly the multidisciplinary field of agriculture. We propose a systemic approach for the sustainable optimization of socio-environmental systems: (1) the meta-modeling of socio-environmental systems, (2) the generic representation of data imperfection flowing in such systems, associated to a decision model in uncertain environment and finally (3) the simulation and the assessment of such systems in dynamic environment for the purpose of decision making by experts which we have illustrated by both a service-oriented architecture model and case studies applied to the agriculture domain
47

Alekseychuk, Oleksandr. "Detection of crack-like indications in digital radiography by global optimisation of a probabilistic estimation function." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2006. http://nbn-resolving.de/urn:nbn:de:swb:14-1154450084263-67485.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A new algorithm for detection of longitudinal crack-like indications in radiographic images is developed in this work. Conventional local detection techniques give unsatisfactory results for this task due to the low signal to noise ratio (SNR ~ 1) of crack-like indications in radiographic images. The usage of global features of crack-like indications provides the necessary noise resistance, but this is connected with prohibitive computational complexities of detection and difficulties in a formal description of the indication shape. Conventionally, the excessive computational complexity of the solution is reduced by usage of heuristics. The heuristics to be used, are selected on a trial and error basis, are problem dependent and do not guarantee the optimal solution. Not following this way is a distinctive feature of the algorithm developed here. Instead, a global characteristic of crack-like indication (the estimation function) is used, whose maximum in the space of all possible positions, lengths and shapes can be found exactly, i.e. without any heuristics. The proposed estimation function is defined as a sum of a posteriori information gains about hypothesis of indication presence in each point along the whole hypothetical indication. The gain in the information about hypothesis of indication presence results from the analysis of the underlying image in the local area. Such an estimation function is theoretically justified and exhibits a desirable behaviour on changing signals. The developed algorithm is implemented in the C++ programming language and testet on synthetic as well as on real images. It delivers good results (high correct detection rate by given false alarm rate) which are comparable to the performance of trained human inspectors
In dieser Arbeit wurde ein neuer Algorithmus zur Detektion rissartiger Anzeigen in der digitalen Radiographie entwickelt. Klassische lokale Detektionsmethoden versagen wegen des geringen Signal-Rausch-Verhältnisses (von ca. 1) der Rissanzeigen in den Radiographien. Die notwendige Resistenz gegen Rauschen wird durch die Benutzung von globalen Merkmalen dieser Anzeigen erzielt. Das ist aber mit einem undurchführbaren Rechenaufwand sowie Problemen bei der formalen Beschreibung der Rissform verbunden. Üblicherweise wird ein übermäßiger Rechenaufwand bei der Lösung vergleichbarer Probleme durch Anwendung von Heuristisken reduziert. Dazu benuzte Heuristiken werden mit der Versuchs-und-Irrtums-Methode ermittelt, sind stark problemangepasst und können die optimale Lösung nicht garantieren. Das Besondere dieser Arbeit ist anderer Lösungsansatz, der jegliche Heuristik bei der Suche nach Rissanzeigen vermeidet. Ein globales wahrscheinlichkeitstheoretisches Merkmal, hier Schätzfunktion genannt, wird konstruiert, dessen Maximum unter allen möglichen Formen, Längen und Positionen der Rissanzeige exakt (d.h. ohne Einsatz jeglicher Heuristik) gefunden werden kann. Diese Schätzfunktion wird als die Summe des a posteriori Informationsgewinns bezüglich des Vorhandenseins eines Risses im jeden Punkt entlang der hypothetischen Rissanzeige definiert. Der Informationsgewinn entsteht durch die Überprüfung der Hypothese der Rissanwesenheit anhand der vorhandenen Bildinformation. Eine so definierte Schätzfunktion ist theoretisch gerechtfertigt und besitzt die gewünschten Eigenschaften bei wechselnder Anzeigenintensität. Der Algorithmus wurde in der Programmiersprache C++ implementiert. Seine Detektionseigenschaften wurden sowohl mit simulierten als auch mit realen Bildern untersucht. Der Algorithmus liefert gute Ergenbise (hohe Detektionsrate bei einer vorgegebenen Fehlalarmrate), die jeweils vergleichbar mit den Ergebnissen trainierter menschlicher Auswerter sind
48

Alekseychuk, Oleksandr. "Detection of crack-like indications in digital radiography by global optimisation of a probabilistic estimation function." Doctoral thesis, Technische Universität Dresden, 2005. https://tud.qucosa.de/id/qucosa%3A24919.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A new algorithm for detection of longitudinal crack-like indications in radiographic images is developed in this work. Conventional local detection techniques give unsatisfactory results for this task due to the low signal to noise ratio (SNR ~ 1) of crack-like indications in radiographic images. The usage of global features of crack-like indications provides the necessary noise resistance, but this is connected with prohibitive computational complexities of detection and difficulties in a formal description of the indication shape. Conventionally, the excessive computational complexity of the solution is reduced by usage of heuristics. The heuristics to be used, are selected on a trial and error basis, are problem dependent and do not guarantee the optimal solution. Not following this way is a distinctive feature of the algorithm developed here. Instead, a global characteristic of crack-like indication (the estimation function) is used, whose maximum in the space of all possible positions, lengths and shapes can be found exactly, i.e. without any heuristics. The proposed estimation function is defined as a sum of a posteriori information gains about hypothesis of indication presence in each point along the whole hypothetical indication. The gain in the information about hypothesis of indication presence results from the analysis of the underlying image in the local area. Such an estimation function is theoretically justified and exhibits a desirable behaviour on changing signals. The developed algorithm is implemented in the C++ programming language and testet on synthetic as well as on real images. It delivers good results (high correct detection rate by given false alarm rate) which are comparable to the performance of trained human inspectors.
In dieser Arbeit wurde ein neuer Algorithmus zur Detektion rissartiger Anzeigen in der digitalen Radiographie entwickelt. Klassische lokale Detektionsmethoden versagen wegen des geringen Signal-Rausch-Verhältnisses (von ca. 1) der Rissanzeigen in den Radiographien. Die notwendige Resistenz gegen Rauschen wird durch die Benutzung von globalen Merkmalen dieser Anzeigen erzielt. Das ist aber mit einem undurchführbaren Rechenaufwand sowie Problemen bei der formalen Beschreibung der Rissform verbunden. Üblicherweise wird ein übermäßiger Rechenaufwand bei der Lösung vergleichbarer Probleme durch Anwendung von Heuristisken reduziert. Dazu benuzte Heuristiken werden mit der Versuchs-und-Irrtums-Methode ermittelt, sind stark problemangepasst und können die optimale Lösung nicht garantieren. Das Besondere dieser Arbeit ist anderer Lösungsansatz, der jegliche Heuristik bei der Suche nach Rissanzeigen vermeidet. Ein globales wahrscheinlichkeitstheoretisches Merkmal, hier Schätzfunktion genannt, wird konstruiert, dessen Maximum unter allen möglichen Formen, Längen und Positionen der Rissanzeige exakt (d.h. ohne Einsatz jeglicher Heuristik) gefunden werden kann. Diese Schätzfunktion wird als die Summe des a posteriori Informationsgewinns bezüglich des Vorhandenseins eines Risses im jeden Punkt entlang der hypothetischen Rissanzeige definiert. Der Informationsgewinn entsteht durch die Überprüfung der Hypothese der Rissanwesenheit anhand der vorhandenen Bildinformation. Eine so definierte Schätzfunktion ist theoretisch gerechtfertigt und besitzt die gewünschten Eigenschaften bei wechselnder Anzeigenintensität. Der Algorithmus wurde in der Programmiersprache C++ implementiert. Seine Detektionseigenschaften wurden sowohl mit simulierten als auch mit realen Bildern untersucht. Der Algorithmus liefert gute Ergenbise (hohe Detektionsrate bei einer vorgegebenen Fehlalarmrate), die jeweils vergleichbar mit den Ergebnissen trainierter menschlicher Auswerter sind.
49

Birman, Jessie. "Quantification et propagation d'incertitude dans les phases amont de projets de conception d'avions : de l'optimisation déterministe à l'optimisation sous contraintes probabilistes." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2269/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le " Conceptual Design " est la première étape d'un projet d'avion de transport de passagers. Classiquement, au cours de ce processus, un grand nombre de configurations possibles sont comparées après avoir été dimensionnées sur la base d'un processus d'optimisation déterministe, multidisciplinaire sous contraintes. L'objectif est de définir les paramètres principaux de l'avion qui répondent à un cahier des charges donné de haut niveau. A ce stade du projet, les ingénieurs doivent résoudre le problème en ayant très peu de connaissances sur le produit final et donc beaucoup d'incertitude. La gestion de l'incertitude est un point crucial : réussir à comprendre au plus tôt l'impact qu'elle aura sur la configuration et les performances de l'avion peut permettre de choisir les configurations qui présentent le meilleur rapport bénéfice sur risque ainsi que de réduire le temps de conception ultérieur et donc les coûts. Cette thèse introduit une nouvelle méthodologie pour la résolution d'un problème d'optimisation de configuration avion affecté par de l'incertitude. Dans un premier temps, la source principale d'incertitude présente à ce stade du projet est identifiée comme étant de l'incertitude de prédiction des modèles de simulation. Cette incertitude est de type épistémique. Elle est quantifiée à l'aide d'outils probabilistes. Pour ce faire, et en nous inspirant de la loi Béta, nous avons créé une nouvelle loi de probabilité générique, capable de s'ajuster à des distributions de formes très différentes, intitulée distribution Beta-Mystique. Dans un second temps, nous réalisons des études de propagation d'incertitudes à l'aide des méthodes de Monte Carlo et de propagation des moments, afin d'analyser la robustesse d'une configuration avion par rapport à une quantité d'incertitude donnée. Enfin, une optimisation sous contraintes probabilistes est résolue afin de générer des configurations avions robustes. Deux stratégies sont mises en place : l'approximation des contraintes probabilistes à l'aide de surfaces de réponses et la résolution du problème à l'aide de la méthode de propagation des moments
Conceptual aircraft sizing is the first step in the development project of a passenger transport aircraft. Classically, in this phase, a lot of aircraft configurations are compared after having been globally sized thanks to a deterministic, multidisciplinary and constrained optimisation problem. The purpose is to determine the main characteristics of the airplane according to a set of Top Level Requirements. At preliminary stage, designers have to deal with limited knowledge and high uncertainty when solving this problem. Managing that uncertainty is a major issue: assessing its impact on the design in the early stage allows to save time and cost. This PhD thesis introduces a new methodology to solve the aircraft design optimisation affected by uncertainty. First of all, the main source of uncertainty involved at this stage is identified as predictive model uncertainty, which is part of epistemic uncertainty. This uncertainty is quantified within a probabilistic framework. For that purpose, based on the Beta distribution, we create a new generic distribution function able to assume a wide range of distribution shapes: it is called Beta-Mystique distribution. Second of all, we realise uncertainty propagation studies with Monte Carlo and moment propagation methods, in order to analyse the robustness of aircraft configuration according to a set of uncertainties. Finally, a chance constrained optimisation is solved to produce a robust aircraft configuration. Two strategies are considered: the use of Surrogate models to approximate the probabilities and the resolution of the optimisation problem thanks to the moment propagation method
50

Ben, Dbabis Makram. "Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II." Phd thesis, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00833856.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d'assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d'une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l'accent sur le problème de valorisation économique des passifs d'assurance vie lié aux options incluses dans les contrats d'assurance et donc d'obtention de la distribution de la situation nette à un 1 an et donc de son quantile d'ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :- Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,- Algorithme d'accélération des simulations dans les simulations pour contourner les limites de la première approche,- Approche par portefeuille répliquant- Approche par fonction de perteDans une deuxième partie, l'accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d'un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l'optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance

To the bibliography