Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Optimisation du processus.

Dissertationen zum Thema „Optimisation du processus“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Optimisation du processus" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Damaj, Rabih. „Inférence statistique sur le processus de Mino“. Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS369/document.

Der volle Inhalt der Quelle
Annotation:
Le sujet de cette thèse concerne l’inférence statistique sur le processus de Mino que nous définissons comme un processus auto-excité de mémoire 1 dont l’intensité est de forme particulière. Nous donnons tout d’abord une description générale des processus auto-excités et des méthodes possibles pour estimer les paramètres de l’intensité de ces processus. Puis, nous considérons le cas particulier d’un processus auto-excité de mémoire 1 que l’on rencontre en traitement du signal et que nous avons dénommé : processus de Mino. Nous montrons que ce processus est un processus de renouvellement dont les interarrivées ont une distribution particulière que nous étudions en détails. Nous envisageons alors le problème de l’estimation des paramètres de l’intensité du processus de Mino en utilisant la méthode du maximum de vraisemblance. Nous résolvons les équations de vraisemblance en utilisant l’algorithme de Newton-Raphson. La méthode est appliquée à des données simulées. La convergence de l’algorithme de Newton-Raphson est démontrée, de même que l’existence et l’unicité des estimateurs. Nous terminons par la construction d’un test d’hypothèses qui permet de détecter si un processus ponctuel est auto-excité ou non
The subject of this PhD thesis is the statistical inference on Mino process that we define as a one-memory self-exciting point process which intensiy has a special form. We begin with a general description of self-exciting point processes and we present methods used to estimate the intensity parameters of these processes. We consider the special case of a one-memory self-exciting point process, used in signal processing. We call the process: the Mino process. This process can be interpreted as a renewal process which interarrival times that follow a special distribution that we study in details. In order to estimate the parameters of a Mino process intensity, we utilize the maximum likelihood method. We solve the likelihood equations with a Newton-Raphson algorithm. We show the efficiency of the method on simulated data. The convergence of the Newton-Raphson algorithm and, the existence and uniqueness of the maximun likelihood estimators are proved. Lastly, we construct a test of hypothesis to assess whether a point process is self-exciting or not
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Djebali, Sonia. „Optimisation globale du processus d'usinage des surfaces gauches“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2496/.

Der volle Inhalt der Quelle
Annotation:
Les surfaces gauches sont utilisées actuellement dans divers domaines d'activité tels que la définition de moules ou de matrices d'emboutissage. Pour ce type d'application, ces surfaces présentent un ensemble de zones convexes, concaves ou à double courbure, et exigent un niveau de qualité élevé et des défauts de formes réduits. Ceci rend leur usinage long, coûteux et peu optimisé, à ce jour : il s'effectue souvent à l'aide d'un outil sphérique et seul le critère de rugosité est pris en compte. L'objectif de cette étude est de minimiser le temps d'usinage des surfaces gauches par outil torique suivant la stratégie par plans parallèles tout en respectant le critère de rugosité. Le temps d'usinage n'est pas une fonction analytique connue. Par hypothèse, il est supposé proportionnel à la longueur de la trajectoire totale parcourue par l'outil sur la surface. Cette dernière dépend de la direction d'usinage qui est influencée par la topologie de la surface et de la hauteur de crête maximum à ne pas dépasser. Afin d'avoir une direction d'usinage optimale pour toute la surface gauche, cette dernière est découpée en zones à faible variation de la normale. Pour chaque zone, une direction d'usinage optimale est calculée et la distance d'usinage optimale est évaluée. Par ailleurs, une pénalité reflétant le temps de déplacement de l'outil d'une zone à une autre est prise en compte. Le problème d'optimisation est donc de minimiser la distance totale parcourue par l'outil sous la contrainte de ne pas dépasser une hauteur de crête imposée. Les paramètres de l'optimisation sont : le nombre et la géométrie des zones de découpage de la surface ainsi que leur direction d'usinage. Pour la résolution du problème de minimisation de trajectoire de l'outil en usinage par zones, les méthodes d'optimisation mises en œuvre sont des méthodes d'optimisation. Les méthodes d'optimisation sont testées sur diverses surfaces tests. Après simulations, analyses et comparaisons entre les différentes méthodes d'optimisation, les résultats obtenus présentent un gain de temps significatif comparé à ce qui se fait actuellement : l'usinage en mono-zone, généralement avec un outil sphérique
Currently, free-form surfaces are used in various fields of activity, such as a manufacturing moulds or matrix used to make the models. The free form surfaces present a set of curved zones, i. E. Concave and convex zones, these surfaces require a high quality level and reduced shape defects. Their machining is long, not optimized and costly, to date: the machining of free form surfaces is done using the spherical tool with respecting roughness quality. The object of this study is to minimize the machining time of the free-form surfaces using toric end mill cutter and parallel planes milling strategy, with respecting roughness quality. The analytical expression of the machining time is unknown and by hypothesis, it is assumed to be proportional to the paths length crossed by the cutting tool. Those paths length depend on the feed direction and the maximal scallop height criteria must not be exceeded. To have an optimal feed direction at any point, the surface is divided into zones with low variation of the steepest slope direction. The optimization problem was formulated in order to minimize the global path length. Furthermore, a penalty reflecting the time loss due to the movement of the tool from one zone to another one is taken into account. The optimization problem is to minimize the path long trajectory crossed by the tool on the surface while respecting scallop height criteria. The optimization parameters are the number and the geometrical of the zones and the optimal feed direction in each zone. To resolve this problem, several optimization methods are used: combinatorial optimization and stochastic optimization. These methods are applied on a test surface and after simulations, the results obtained present a significant saving of paths length compared to the machining in one zone with spherical tool
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ben, Amor Ichrak. „Analyse et optimisation du processus de régénération des polyamides“. Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1268.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse consiste à développer un processus de régénération optimisé des déchets issus du moulage par injection. L'étude se concentre sur l'impact du recyclage mécanique sur les propriétés mécaniques et physiques de mélanges de polyamide 6 (PA6) et polyamide 66 (PA66), en variant les pourcentages de matière recyclée de 10% à 100% par incréments de 10%. Six cycles de recyclage ont été réalisés, et les propriétés des mélanges ont été analysées en fonction du taux de matière recyclée. Jusqu'au sixième cycle, des variations légères ont été observées dans les propriétés mécaniques, à l'exception de l'allongement. Les propriétés physiques ont montré une tendance à la baisse de la résistance à la flexion et du module d’Young, avec une augmentation de l'allongement. Une analyse microscopique a révélé que pour le PA6 la porosité a augmenté à mesure que le nombre de cycles de recyclage augmentait. L'étude aborde également l'influence du vieillissement hygrothermique sur les polyamides étudiés, examinant les modifications résultantes dans leurs propriétés mécaniques. Suite à ces modifications remarquables, une simulation numérique a été réalisée pour évaluer l'impact du changement des caractéristiques de la matière recyclée sur les paramètres du processus de moulage par injection. Les résultats indiquent que plusieurs paramètres, en particulier le temps de remplissage du moule et le temps de refroidissement de la pièce injectée, sont influencés par les modifications des propriétés des matériaux. Des défauts tels que les bulles d'air et les lignes de soudure ont été observés, soulignant l'importance de les prendre en considération dans le processus de fabrication. Cette étude offre ainsi une compréhension approfondie des effets du recyclage sur les propriétés des polyamides, ainsi que des implications pratiques de ces changements dans le contexte du moulage par injection.Mots clés : Régénération, Polyamide 6, Polyamide 66, Moulage par injection, Simulation
The aim of this thesis is to develop an optimized regeneration process for waste generated from injection molding. The study focuses on the impact of mechanical recycling on the mechanical and physical properties of blends of polyamide 6 (PA6) and polyamide 66 (PA66), changing the proportions of recycled material from 10% to 100% in increments of 10%. Six recycling cycles were conducted, and the properties of the blends were analyzed based on the recycled material content. Up to the sixth cycle, slight variations were observed in mechanical properties, except for elongation. Physical properties exhibited a trend of decreasing flexural strength and Young's modulus, with an increase in elongation. Microscopic analysis revealed that for PA6, porosity increased as the number of recycling cycles increased. The study also addresses the influence of hygrothermal aging on the studied polyamides, examining resulting changes in their mechanical properties. Following these notable modifications, a numerical simulation was performed to assess the impact of changes in recycled material characteristics on injection molding process parameters. The results indicate that several parameters, especially mold filling time and injected part cooling time, are influenced by material property changes. Defects such as air bubbles and weld lines were observed, emphasizing the importance of considering them in the manufacturing process. This study provides a comprehensive understanding of the effects of recycling on polyamide properties, as well as the practical implications of these changes in the context of injection molding.Keywords: Regeneration, Polyamide 6, Polyamide 66, Injection molding, Simulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Glardon, Carmen. „Simulation et optimisation du processus constructif de rénovation d'immeubles /“. [S.l.] : [s.n.], 1995. http://library.epfl.ch/theses/?nr=1355.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lagresle, Charly. „Analyse du processus d’usure abrasive et optimisation d’engrenage aéronautique“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI113.

Der volle Inhalt der Quelle
Annotation:
Les organes de transmission de puissance par engrenages sont couramment utilisés dans de nombreux domaines, parmi lesquels celui de l'aéronautique. Le système étudié dans ces travaux de thèse est un réducteur d'hélicoptère. Son rôle est de transmettre la puissance générée par le turbomoteur à la boîte de transmission principale, tout en adaptant la vitesse de rotation au besoin de cette dernière. Pour maximiser la puissance massique des systèmes, les engrenages aéronautiques peuvent être dotés de voiles minces, réduisant la masse de l'ensemble, mais favorisant aussi leurs flexibilités. Très sollicités en termes de nombre de rotations et de conditions de fonctionnement, ces engrenages à voile mince du réducteur présentent un risque d’apparition de surpressions locales et sont d'autant plus susceptibles d’être soumis à un certain nombre d'avaries, telles que l'usure abrasive, le grippage ou encore le micro-écaillage. Le premier objectif de ces travaux de thèse est la compréhension et la simulation du processus d'usure abrasive sur les engrenages. Ce processus d'arrachement de matière sur le flanc des dentures est simulé par l'intermédiaire de la loi d'Archard adaptée aux contacts lubrifiés. Lors des différentes phases de vol (décollage, atterrissage, etc.), les conditions de fonctionnement évoluent et modifient les paramètres quasi-statiques de l’engrènement, la lubrification du système et par conséquent la quantité de matière arrachée. Afin de prendre en considération les évolutions des conditions de fonctionnement dans le processus d'usure, une méthodologie de cumul de l'usure a été adoptée et adaptée aux besoins de la simulation. Il est alors possible d'étudier la cinétique et l'intensité de l'usure sur les différentes phases de vol afin d'en déterminer les plus sévères. Le second objectif fait écho au premier. Après avoir cerné la problématique de l'usure, l'optimisation des paramètres quasi-statiques de l'engrenage à voile mince est mise en place. Cette optimisation, basée sur la recherche d'une micro-géométrie idéale, a pour vocation de réduire les causes potentielles de ces avaries, notamment les surpressions de contact ou le facteur de grippage d'Almen. Le problème étant qualifié de complexe, un algorithme MO-TRIBES d'optimisation multivariables et multicritères est déployé. De nombreux exemples d'optimisation sont proposés afin d'améliorer le comportement de cet engrenage à voile mince : réduction des fluctuations des signaux d'erreur de transmission sous-charge, des pressions maximales de contact, des facteurs de grippage, en simple et en multi-objectifs. Le choix des corrections de denture et de leur forme est aussi abordé. Finalement, grâce à ce module d'optimisation, il est possible de réduire l'arrachement de matière afin d'allonger la durée de vie de l'engrenage
Powers transmissions are commonly used in many areas, including aeronautics. The studied system in this thesis is a helicopter gearbox. Its purpose is to transmit the power generated by the turbine engine to the main gearbox and to adapt the rotational speed of the input shaft. Aeronautical gears are light weight in order to maximize the power to weight ratio of the system. With thin rims, the mass of the system is reduced but its flexibility is increased. These types of gears, subjected to large number of revolutions and severe operating conditions, are more likely to be exposed to failures such as abrasive wear, scoring or micro-pitting. The first objective of this PhD thesis is the understanding and the simulation of the abrasive wear process for spur and helical gears. The material removal calculation is based on the well-known Archard equation, adapted to lubricated contacts. During the different phases of flight (take-off, landing, hover flight), the specific working conditions change. Consequently, the quasi-static gearing behaviour, the lubrication and therefore the quantity of wear need to be adapted. To this end, a new methodology is proposed to accumulate wear depths over several and different working conditions. This methodology makes it possible to analyze the kinetics and the intensity of the abrasive wear process and deduce the most severe phases of flight. The second goal echoes the first one. Following the identification of the problem of abrasive wear, a multi-objective optimization of the quasi-static behaviour of the thin rimmed gear is proposed. The goal of this optimization, based on the search of optimal tooth modifications, is to reduce potential sources of gear failures, in particular localized overpressures on tooth flanks or the Almen factor governing scuffing. Due to the complexity of the problem, a meta-heuristic multi-variable optimization algorithm (MO-TRIBES) is introduced. Multiple mono- and multi-objective gear optimization examples are provided in order to improve the quasi-static behaviour of the aeronautical gear : minimization of fluctuations of the transmission error under load, reduction of the maximal contact pressures, decrease of the scuffing risk factors. The ideal type of tooth modifications is discussed. Finally, by using the optimization module, the amount of wear is significantly reduced and a comfortable lifetime extension for the studied gear is provided
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Brandy, Anthony. „optimisation d'un processus de conception par quantification de l'usage“. Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0018.

Der volle Inhalt der Quelle
Annotation:
Les dispositifs médicaux forment une catégorie de produits bien à part des produits classiques par le fait qu’ils agissent sur la santé du patient. De cette destination première, l’usage de ces dispositifs entraine potentiellement des risques pour la santé du patient notamment dans le cas d’une défaillance ou d’une mauvaise utilisation. Ces produits peuvent être destinés à une large cible d’utilisateurs en usage autonome ou assisté. Cette diversité en matière de références et d’usages possibles, combinée à la criticité de ces dispositifs, implique une prise en compte significative de l’utilisateur et de l’ergonomie dans leur conception. Cela est d’autant plus important que les dispositifs médicaux constituent un milieu industriel fortement innovant en lien constant avec les avancées technologiques. Ces évolutions se doivent alors d’être adaptées aux utilisateurs qui ne disposent pas toujours des connaissances nécessaires à leur utilisation. Néanmoins, alors que le cadre (normatif et réglementaire) met en avant le besoin d’une prise en compte de l’utilisateur, cette démarche est relativement peu ou mal mise en œuvre par les entreprises dont la plupart sont des PME avec des ressources associées pour le moins modestes. Toutefois, certaines carences sont présentes en matière d’outils et de méthodes destinés à ce milieu industriel pour pouvoir déployer cette pratique qui, de plus, se heurte à des barrières liées notamment aux habitudes de conception, au caractère pluridisciplinaire et aux contraintes induites par le milieu médical. Afin d’apporter une réponse industriellement réaliste prenant en compte l’utilisateur dans la conception du produit, un outil de quantification de l’utilisabilité a été conçu. Cet outil s’appuie à la fois sur une méthode de mesure et sur des présentations de résultats de la quantification adaptées aux concepteurs et au Grand Public. Il résulte des expérimentations une cohérence de l’indice proposé dans le cadre de la thèse avec un indice de référence (SUS) tout en donnant une plus grande finesse dans le détail des résultats (tâches, priorités du panel en matière de composantes de l’utilisabilité) et en nécessitant des ressources modestes (temps, coût, connaissances). Ces retours ont montré à la fois un taux de compréhension élevé de l’outil par l’intermédiaire des propositions de représentations et un intérêt significatif pour ce type d’outil que ce soit chez les concepteurs ou le Grand Public. Ces retours ont également montré l’apport positif que peut avoir l’outil dans l’amélioration de la communication entre les concepteurs et dans la prise en compte de l’utilisabilité dans les choix de conception y compris dans les phases amonts et notamment en créativité
The medical devices make up a specific group beside classical products by their actions on the patients’ health. By this indication, the use of such devices potentially induces risk on the patients’ health especially in case of failure or misuse. These products may be used by a large target of users themselves or assisted. This diversity in terms of references and possible use, combined to the critical aspect of these products implies a significant taking into account of the user and usability during the product design. This is all the more important because as the medical devices form a very innovative industrial sector linked to the technological advances. These developments need to be adapted to the users who do not have always all the knowledge needed to their use. Nevertheless, while the framework (standards and regulations) emphasis on the need to take into account the user, this approach is little implemented by the companies which are, for a large part, SME’s with limited resources. At the same time, some weaknesses about the tools and methods in matter of use analysis are present. Moreover, this approach collides with barriers induced by design habits, multidisciplinary context and constraints related to the medical field. In the aim to give a realistic industrial answer to implement the user into the design process, a quantification tool of usability was developed. This tool draws on measurement methods and dedicated results presentation towards designers and General Public. From the experimentations, the proposed index appeared consistent against a gold standard index (SUS) and adds more details in the results (tasks, panel priority about usability components). These feedbacks showed a high understanding level of this tool and a significant interest by the designers but also the General Public. In addition, the experimentations highlighted the positive contribution of the proposed tool in the design team communication but also in the design choice by implementing usability approach including the upstream phases, especially in creativity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Cheickh, Obeid Nour Eldin. „Régulation de processus multivariables par optimisation d'un critère fuyant“. Besançon, 1987. http://www.theses.fr/1988BESA2018.

Der volle Inhalt der Quelle
Annotation:
Résume de comportement de processus physiques pilotes par une loi de commande issue de la minimisation d'un critère fuyant. La commande appliquée au processus est interprétée au sens des critères d'optimisation habituels. Présentation d'une application a un processus thermique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Cheickh, Obeid Nour Eldin. „Régulation de processus multivariables par optimisation d'un critère fuyant“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37603879k.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Mezghani, Aïda. „Optimisation du calcul des dispersions angulaires tridimensionnelles“. Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00576363.

Der volle Inhalt der Quelle
Annotation:
Ce travail de recherche traite un problème qui joue un rôle très important pour le succès desprogrammes de fabrication : le tolérancement tridimensionnel, essentiel pour définir la géométried'une pièce mécanique assurant sa meilleure fonctionnalité dans un assemblage avec uneprécision optimale.Une méthode des chaînes de cotes angulaires tridimensionnelles a été développée. Cette méthodepermet d'une part l'optimisation du calcul des dispersions angulaires tridimensionnelles etd'autre part de valider la gamme de fabrication par la vérification du respect des tolérancesimposées par le bureau d'études en tenant compte des précisions des procédés utilisés.Cette étude est basée sur l'analyse de deux fonctions paramétrées qui sont étudiées pourdéterminer le défaut fabriqué : le défaut angulaire et la longueur projetée. Le défaut angulairereprésente le cumul des défauts angulaires générés par le processus de fabrication de la pièce. Lesdéfauts angulaires sont déterminés en fonction de la précision des machines outils. La longueurprojetée de la surface tolérancée est une caractéristique qui dépend uniquement de la forme de lasurface.Ensuite, à partir de ces deux fonctions paramétrées, le défaut fabriqué est déterminé puiscomparé avec la condition fonctionnelle afin de vérifier si la gamme choisie permet en fin duprocessus de fabrication de donner une pièce conforme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Legault-Michaud, Ariane. „Optimisation du processus d'approvisionnement des clients américains chez Groupe Leclerc“. Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/36678.

Der volle Inhalt der Quelle
Annotation:
Le projet d’optimisation du processus d’approvisionnement des clients américains du Groupe Leclerc a pour but de revoir le réseau de distribution de l’entreprise concernant leurs clients américains Client A et Client B en évaluant et comparant différents scénarios d’approvisionnement proposés par M. Stéphane Labillois, Vice-Président logistique chez Groupe Leclerc. Le réseau de distribution actuel fonctionne à partir de deux centres de consolidation du Groupe Leclerc qui sont situés à Québec et en Pennsylvanie. Le centre de consolidation de Québec approvisionne les 16 centres de distribution du Client A, et celui de Pennsylvanie, les 16 centres de distribution du Client B. Cependant, en observant la localisation de ces 32 centres de distribution, on constate que plusieurs d’entre eux sont situés près les uns des autres. La proximité des centres de distribution a mené M. Labillois à se questionner sur la possibilité d’utiliser seulement un des deux centres de consolidation afin d’approvisionner tous les centres de distribution du Client A et du Client B. De plus, M. Labillois aimerait évaluer la possibilité de confier la distribution des produits du Client A à C.H. Robinson, une entreprise qui se chargerait d’effectuer la livraison de la marchandise dans les 16 centres de distribution du Client A à partir de son hub au New Jersey. Ces différentes alternatives nous permettent donc d’établir quatre scénarios différents d’approvisionnement, soit : 1) Consolidation à Québec [S1] 2) Consolidation en Pennsylvanie [S2] 3) Consolidation à Québec avec utilisation du hub pour le Client A de [S3] 4) Consolidation en Pennsylvanie avec utilisation du hub pour le Client A [S4] Pour chacun de ces scénarios, nous avons comparé deux alternatives de transport, soit le transport en charges partielles (LTL) et le transport en charges pleines (TL). Les résultats obtenus pour les différents scénarios de transport sont présentés dans le Tableau 1 et le Tableau 2.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Contal, Emile. „Méthodes d’apprentissage statistique pour l’optimisation globale“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN038/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se consacre à une analyse rigoureuse des algorithmes d'optimisation globale équentielle. On se place dans un modèle de bandits stochastiques où un agent vise à déterminer l'entrée d'un système optimisant un critère. Cette fonction cible n'est pas connue et l'agent effectue séquentiellement des requêtes pour évaluer sa valeur aux entrées qu'il choisit. Cette fonction peut ne pas être convexe et contenir un grand nombre d'optima locaux. Nous abordons le cas difficile où les évaluations sont coûteuses, ce qui exige de concevoir une sélection rigoureuse des requêtes. Nous considérons deux objectifs, d'une part l'optimisation de la somme des valeurs reçues à chaque itération, d'autre part l'optimisation de la meilleure valeur trouvée jusqu'à présent. Cette thèse s'inscrit dans le cadre de l'optimisation bayésienne lorsque la fonction est une réalisation d'un processus stochastique connu, et introduit également une nouvelle approche d'optimisation par ordonnancement où l'on effectue seulement des comparaisons des valeurs de la fonction. Nous proposons des algorithmes nouveaux et apportons des concepts théoriques pour obtenir des garanties de performance. Nous donnons une stratégie d'optimisation qui s'adapte à des observations reçues par batch et non individuellement. Une étude générique des supremums locaux de processus stochastiques nous permet d'analyser l'optimisation bayésienne sur des espaces de recherche nonparamétriques. Nous montrons également que notre approche s'étend à des processus naturels non gaussiens. Nous établissons des liens entre l'apprentissage actif et l'apprentissage statistique d'ordonnancements et déduisons un algorithme d'optimisation de fonctions potentiellement discontinue
This dissertation is dedicated to a rigorous analysis of sequential global optimization algorithms. We consider the stochastic bandit model where an agent aim at finding the input of a given system optimizing the output. The function which links the input to the output is not explicit, the agent requests sequentially an oracle to evaluate the output for any input. This function is not supposed to be convex and may display many local optima. In this work we tackle the challenging case where the evaluations are expensive, which requires to design a careful selection of the input to evaluate. We study two different goals, either to maximize the sum of the rewards received at each iteration, or to maximize the best reward found so far. The present thesis comprises the field of global optimization where the function is a realization from a known stochastic process, and the novel field of optimization by ranking where we only perform function value comparisons. We propose novel algorithms and provide theoretical concepts leading to performance guarantees. We first introduce an optimization strategy for observations received by batch instead of individually. A generic study of local supremum of stochastic processes allows to analyze Bayesian optimization on nonparametric search spaces. In addition, we show that our approach extends to natural non-Gaussian processes. We build connections between active learning and ranking and deduce an optimization algorithm of potentially discontinuous functions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Ben, salem Malek. „Model selection and adaptive sampling in surrogate modeling : Kriging and beyond“. Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-03097719.

Der volle Inhalt der Quelle
Annotation:
Les surfaces de réponses, dites aussi méta-modèles sont généralement utilisées pour remplacer une fonction coûteuse. Ces méta-modèles sont également utilisés pour accélérer l’estimation d’une caractéristique de cette fonction (un optimum, une ligne de niveau, …). Dans ce travail, nous nous sommes intéressés à trois aspects de la méta-modélisation.1/ Il est difficile de choisir le méta-modèle ainsi que ses paramètres les plus appropriés pour un plan d’expérience donné. En effet, il est difficile d'évaluer la qualité d'un méta-modèle sans des données de validation. Nous proposons un critère de qualité de méta-modèle et nous présentons deux algorithmes de sélection en se basant sur ce critère.2/ L’avantage principal de la régression par processus gaussiens (GP) est qu'elle fournit partout une mesure d'incertitude associée à la prédiction. C’est un outil efficace pour construire des stratégies d’échantillonnage séquentiel. Nous proposons un algorithme permettant d'estimer une distribution de prédiction pour n'importe quel méta-modèle, qui permet d’étendre les méthodes d’échantillonnage séquentielles basées sur les GP à tous les méta-modèles. On l'appelle la distribution universelle de prédiction.3/ De nombreux problèmes de conception font appel à un grand nombre de variables ce qui rend l'exploration de l’espace paramétrique difficile. Dans certains cas seules quelques variables sont influentes. Nous proposons un algorithme réalisant simultanément l'apprentissage d'une caractéristique et la réduction de dimension. La méthode est basée sur des résultats théoriques issus du cadre de la régression par processus gaussien. Notre méthode s'appelle l’algorithme Split-and-Doubt
Surrogate models are used to replace an expensive-to-evaluate function to speed-up the estimation of a feature of a given function (optimum, contour line, …). Three aspects of surrogate modeling are studied in the work:1/ We proposed two surrogate model selection algorithms. They are based on a novel criterion called the penalized predictive score. 2/ The main advantage of probabilistic approach is that it provides a measure of uncertainty associated with the prediction. This uncertainty is an efficient tool to construct strategies for various problems such as prediction enhancement, optimization or inversion. We defined a universal approach for uncertainty quantification that could be applied for any surrogate model. It is based on a weighted empirical probability measure supported by cross-validation sub-models’ predictions.3/ We present the so-called Split-and-Doubt algorithm that performs sequentially both feature estimation and dimension reduction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Boulet, Jean-François. „Optimisation simultanée des processus de production et des stratégies de maintenance“. Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/560/1/BOULET_Jean%2DFran%C3%A7ois.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans ce projet, le problème de la planification de la production et de la maintenance d'un système manufacturier affecté par des pannes et des réparations aléatoires, sera considéré. L'analyse du système manufacturier, sera faite en intégrant des notions supplémentaires aux modèles existants. Également, l'ajout de fluctuation aléatoire à différents paramètres permettra d'analyser les impacts des hypothèses simplificatrices, présentes dans les modèles analytiques de la littérature. Notre objectif est de déterminer des politiques conjointes de production et de maintenance plus flexible et de facilité leurs adaptions dans certain contexte industriel bien précis. Afin de restreindre le nombre d'hypothèses simplificatrices, nécessaire pour la résolution analytique, une approche expérimentale basée sur la combinaison des outils de simulation et des techniques de modélisation et d'optimisation statistiques sera privilégiée. Cette méthode regroupe les plans d'expérience, la méthodologie des surfaces de réponse et l'analyse de la variance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Virin, Teddy. „Modélisation, optimisation et contrôle d'un processus d'épandage pour les applications agricoles“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00717799.

Der volle Inhalt der Quelle
Annotation:
Du fait d'une stratégie inadaptée, l'épandage d'engrais minéraux par procédé centrifuge engendre des défauts de fertilisation. Pour déterminer les séquences de consigne à appliquer à l'entrée des distributeurs qui permettent de limiter les erreurs de répartition, nous proposons plusieurs méthodes basées sur l'optimisation avec contraintes. Tout d'abord, nous modélisons la distribution spatiale d'engrais dans les parcelles et, formalisons un problème d'optimisation sous contraintes en plein champ. Pour le résoudre, nous développons une approche de fenêtres glissantes et implémentons un algorithme de Lagrangien augmenté associé à la méthode LBFGS. En appliquant deux différentes techniques reposant sur ces principes, nous parvenons à réduire les défauts en bordure et avoir plus de 80% des surfaces correctement fertilisées. Une autre stratégie utilisant la résolution d'un problème de contrôle optimal est également développée et apporte des premiers résultats encourageants
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Jansen, Yann. „Modélisation et optimisation du processus de formage de pièces en zinc“. Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0055.

Der volle Inhalt der Quelle
Annotation:
Le but de cette étude est de prédire la rupture de tôles en alliage de Zinc via des simulations par éléments finis. Pour ce faire, la caractérisation du comportement mécanique a été fait grâce à des essais de traction sur différentes nuances et orientation. Ces essais ont fait ressortir une grande anisotropie ainsi qu'un grande sensibilité à la vitesse de déformation et à la température. L'ensemble de ces données expérimentales est modélisé avec une loi de comportement de Norton Hoff et le critère de plasticité de Hill48. De plus la formabilité ainsi que son anisotropie ont été caractérisées avec des essais de traction, de traction plane et de gonflage hydraulique. Une grande anisotropie de formabilité, inédite dans la littérature, est observée. Celle-ci est modélisée via différents modèles de rupture issus de la littérature où que nous avons développés spécifiquement pour les alliages de Zinc. Enfin un modèle de rupture en contrainte, paraissant le plus adéquat pour la prédiction de la formabilité, a été choisi. Il a été ensuite implémenté dans le logiciel Forge2009®. Des essais académiques mais aussi industriels de mise en forme ont été simulé par le logiciel Forge2009® et ont donné de bonnes modélisations du comportement mécanique des tôles en alliage de Zinc ainsi que de bonnes prédictions de sa rupture
The aim of this study is to predict the rupture of Zinc alloy sheets by the mean of Finite Element Method simulations. The mechanical behaviour of the material has been tested by tensile tests for several directions and for several Zinc grades. The materials show a high anisotropic mechanical response and high strain rate and temperature sensitivity. This set of experimental data has been modelled by the mean of the Norton Hoff law and the Hill 48 plastic criterion. Moreover, the formability has been tested by tensile and plane strain tests, and also hydraulic bulge tests. A high anisotropic formability, unseen in the literature, has been observed. This formability is modelled with different rupture criteria coming from the literature or specifically developed for the Zinc alloy study. A stress criterion model has been chosen to predict the formability. This criterion has been implemented into Forge2009® software. Academic and industrial forming processes have been simulated with Forge2009® and lead to an accurate description of the mechanical behaviour and the rupture localisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Boulet, Jean-François. „Optimisation simultanée des processus de production et des stratégies de maintenance /“. Thèse, Montréal : École de technologie supérieure, 2007. http://proquest.umi.com/pqdweb?did=1456294201&sid=2&Fmt=2&clientId=46962&RQT=309&VName=PQD.

Der volle Inhalt der Quelle
Annotation:
Thèse (M. Ing) -- École de technologie supérieure, Montréal, 2007.
" Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise en génie de la production automatisée." CaQMUQET Bibliogr. : f. [143]-145. Également disponible en version électronique. CaQMUQET
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Balme, Quentin. „Etude paramétrique et optimisation d'un processus de combustion de charges organiques“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI091/document.

Der volle Inhalt der Quelle
Annotation:
Le LPTI/CEA (Laboratoire des Procédés Thermiques Innovants) développe un procédé d’incinération-vitrification de déchets radioactifs. La première étape du dispositif consiste en l’élimination de la charge organique (polymère) par incinération du déchet suspendu dans un four. L’objectif du travail présenté dans ce document est d’étudier les paramètres opératoires susceptibles de modifier la vitesse de dégradation des polymères, pour pouvoir optimiser l’étape d’incinération.Dans cette étude, le taux de dégradation est mesuré par la perte de masse des composés. Une macro-thermobalance permettant de travailler avec des masses de polymère (polyéthylène et néoprène) allant de 5g à 65g a été développée et mise au point afin de mener les études paramétriques (masse d’échantillon, température du four, pourcentage d’oxygène dans le gaz, type de contenant) nécessaires à l’évaluation des vitesses de dégradation du polyéthylène et du néoprène. Ces études seront par la suite étendues à l’évaluation des cinétiques de combustion de systèmes organiques complexes confinés dans différents vecteurs.Parallèlement, deux modèles, l’un décrivant la phase gazeuse par CFD et le polymère par un modèle « 0D » considérant la température homogène dans l’échantillon, et l’autre décrivant les deux phases par CFD (Computational Fluid Dynamic) ont été développés. L’objectif de ces modèles, résolus en mode transitoire, est de calculer la vitesse de dégradation du polyéthylène lors de sa combustion dans la macro-thermobalance afin de décrire le comportement observé expérimentalement.Les résultats expérimentaux et de modélisation montrent l’importance de la position de la flamme et des transferts thermique dans le polymère sur sa vitesse de dégradation. Pour le néoprène dont la dégradation produit du char, il est montré expérimentalement que l’étape d’oxydation du char est, aux températures de l’étude (>600°C), limitée par le transfert d’oxygène dans les résidus solides
The LPTI / CEA (Innovative Thermal Processes Laboratory) is developing a process for the incineration-vitrification of radioactive waste. The first step consists in the elimination of the organic charge (polymer) by incineration of the waste suspended in an oven. The objective of the work presented in this document is to study the operating parameters likely to modify the rate of degradation of the polymers, in order to optimize the incineration step.In this study, the degradation rate is measured by the mass loss of the compounds. A macro-thermobalance allowing to work with masses of polymer (polyethylene and neoprene) going from 5g to 65g was developed in order to carry out the parametric studies (mass of sample, temperature of the furnace, percentage of oxygen in gas, type of container) needed to evaluate the degradation rates of polyethylene and neoprene. These studies will then be extended to evaluate the kinetics of combustion of complex organic systems confined in different vectors.In parallel, two models were developped. The first describes the gas phase by CFD and the polymer by a "0D" model considering the homogeneous temperature in the sample, and the second is describing the two phases by CFD (Computational Fluid Dynamic). The objective of these models, solved in transient mode, is to calculate the rate of degradation of the polyethylene during its combustion in the macro-thermobalance to describe the behavior observed experimentally.Experimental and modeling results show the importance of flame position and heat transfer in the polymer on its rate of degradation. For the neoprene whose degradation produces carboneous residues (char), it is shown experimentally that the stage of oxidation of the char is, at the study temperatures (> 600 ° C), limited by the transfer of oxygen in the solid residues
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Mauger, Clémence. „Optimisation de l'utilité des données lors d'un processus de k-anonymisation“. Electronic Thesis or Diss., Amiens, 2021. http://www.theses.fr/2021AMIE0076.

Der volle Inhalt der Quelle
Annotation:
Pour donner des garanties de protection de la vie privée aux bases de données anonymisées, des modèles d'anonymisation ont vu le jour ces dernières décennies. Parmi ceux-ci, on peut citer la k-anonymité, la l-diversité, la t-proximité ou encore la confidentialité différentielle. Dans cette thèse, je me suis intéressée au modèle de k-anonymité à travers une analyse approfondie des manières de produire des bases remplissant ces critères de confidentialité tout en optimisant l'utilité des données. Partant d'une base de données, on peut en effet construire plusieurs versions k-anonymes de cette base. Certaines de ces versions k-anonymes comportent moins de modifications des données que les autres et maintiennent ainsi une meilleure utilité des données lors de leur publication. Mes travaux proposent une étude de l'optimisation de l'utilité des données lors du processus de k-anonymisation d'une base. Dans un premier temps, j'ai étudié des métriques de perte d'information permettant d'estimer la quantité d'information perdue dans une table lors d'un processus de k-anonymisation. Les métriques ont été utilisées dans un algorithme de k-anonymisation pour guider les fusions de classes d'équivalence menant à la production d'une table k-anonyme. J'ai tâché de dégager de cette étude des caractéristiques dans les définitions des métriques de perte d'information permettant de produire des tables k-anonymes de bonne qualité au regard de plusieurs critères. Dans un second temps, je me suis intéressée à la répartition des données sensibles dans les tables k-anonymes grâce aux modèles de l-diversité et de t-proximité. Plus précisément, j'ai proposé des stratégies d'optimisation mêlant métrique de perte d'information, l-diversité et t-proximité à utiliser dans un algorithme de k-anonymisation. L'objectif a été de maintenir de bons niveaux de l-diversité et de t-proximité dans les tables k-anonymes produites sans sacrifier l'utilité des données. Dans un troisième temps, je suis revenue sur la formulation du problème de k-anonymisation d'une table. Je me suis appuyée sur une nouvelle notion, les groupes de généralisation, pour énoncer le problème de k-anonymisation d'une table en fonction de la matrice d'incidence d'un hypergraphe. Grâce à cette nouvelle représentation, j'ai proposé une procédure ainsi que cinq algorithmes permettant de construire une table k-anonyme par partitionnement des classes d'équivalence d'une table k'-anonyme avec k'>= k. Des expérimentations menées sur deux tables publiques ont montré que les algorithmes proposés surpassent les performances de l'algorithme de k-anonymisation utilisé précédemment en termes de préservation d'information
So that providing privacy guarantees to anonymized databases, anonymization models have emerged few decades ago. Among them, you can find k-anonymity, l-diversity, t-proximity or differential confidentiality. In this thesis, we mainly focused on the k-anonymity model through an in-depth analysis of the ways to produce databases that meet these confidentiality criteria while optimizing data utility. From a table, you can consider the set of its k-anonymous versions, which can be of exponential cardinality according to k. In a vacuum, these k-anonymous versions can be scored thanks to the amount of data modification that is correlated to the data utility. Thus, this work proposes a study of how to optimize the data utility during the process of k-anonymizing a database.First, we studied information loss metrics to estimate the amount of information lost in a table during a k-anonymization process. The metrics were used within a k-anonymization algorithm to guide equivalence class mergers leading to the production of a k-anonymous table. We tried to identify from this study characteristics in the definitions of information loss metrics allowing the production of good quality k-anonymous tables with regard to several criteria.Second, we were interested in the distribution of sensitive data into k-anonymous tables by using l-diversity and t- proximity models. More specifically, we proposed optimization strategies combining information loss metrics, l-diversity and t-proximity to be used during a k-anonymization process. The aim was then to preserv good levels of l-diversity and t-proximity of the k-anonymous tables produced, and this without sacrificing the data utility.Third, we tackled the question of the formulation of the problem of k-anonymization of a table. We relied on the original notion of generalization groups, to state the problem of k-anonymization of a table according to the incidence matrix of its associated hypergraph. Thanks to this new representation, we proposed an original procedure, declined to five algorithms, allowing to build a k-anonymous table by partitioning the equivalence classes of a k’-anonymous table with k′ >= k. Experiments carried out on two public tables have shown that the proposed algorithms outperfom the k-anonymization algorithm used previously in terms of information preservation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Baysse, Camille. „Analyse et optimisation de la fiabilité d'un équipement opto-électrique équipé de HUMS“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00986112.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de l'optimisation de la fiabilité, Thales Optronique intègre désormais dans ses équipements, des systèmes d'observation de leur état de fonctionnement. Cette fonction est réalisée par des HUMS (Health & Usage Monitoring System). L'objectif de cette thèse est de mettre en place dans le HUMS, un programme capable d'évaluer l'état du système, de détecter les dérives de fonctionnement, d'optimiser les opérations de maintenance et d'évaluer les risques d'échec d'une mission, en combinant les procédés de traitement des données opérationnelles (collectées sur chaque appareil grâce au HUMS) et prévisionnelles (issues des analyses de fiabilité et des coûts de maintenance, de réparation et d'immobilisation). Trois algorithmes ont été développés. Le premier, basé sur un modèle de chaînes de Markov cachées, permet à partir de données opérationnelles, d'estimer à chaque instant l'état du système, et ainsi, de détecter un mode de fonctionnement dégradé de l'équipement (diagnostic). Le deuxième algorithme permet de proposer une stratégie de maintenance optimale et dynamique. Il consiste à rechercher le meilleur instant pour réaliser une maintenance, en fonction de l'état estimé de l'équipement. Cet algorithme s'appuie sur une modélisation du système, par un processus Markovien déterministe par morceaux (noté PDMP) et sur l'utilisation du principe d'arrêt optimal. La date de maintenance est déterminée à partir des données opérationnelles, prévisionnelles et de l'état estimé du système (pronostic). Quant au troisième algorithme, il consiste à déterminer un risque d'échec de mission et permet de comparer les risques encourus suivant la politique de maintenance choisie.Ce travail de recherche, développé à partir d'outils sophistiqués de probabilités théoriques et numériques, a permis de définir un protocole de maintenance conditionnelle à l'état estimé du système, afin d'améliorer la stratégie de maintenance, la disponibilité des équipements au meilleur coût, la satisfaction des clients et de réduire les coûts d'exploitation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Mercier, Sophie. „Modèles et optimisation de politiques de maintenance de systèmes“. Université de Marne-la-Vallée, 2000. http://www.theses.fr/2000MARN0087.

Der volle Inhalt der Quelle
Annotation:
Nous proposons, dans cette these, differentes methodes afin d'ameliorer les performances d'un systeme reparable. Dans un premier temps, nous supposons que le systeme evolue selon un processus markovien, du moins tant qu'il est en marche, les reparations suivant des lois generales. Ces reparations peuvent etre plus ou moins completes et nous recherchons celles qui rendent la disponibilite asymptotique optimale. Nous donnons des conditions pour que ces reparations optimales ne soient pas aleatoires et correspondent au redemarrage dans un etat fixe. Nous montrons qu'un systeme vieillissant est d'autant plus disponible que les reparations sont completes. Le caractere vieillissant et le degre d'achevement des reparations sont mesures avec l'ordre pour le taux de hasard inverse. Dans un second temps, nous faisons subir a ce systeme une politique de maintenance preventive : on l'inspecte de temps en temps (a des instants aleatoires dependant de l'evolution du systeme) jusqu'a ce qu'on le trouve dans un etat degrade. On l'arrete alors pour le maintenir. Nous etudions l'apport de cette politique de maintenance pour la disponibilite et le cout moyen asymptotiques, ainsi que son optimisation, tant d'un point de vue theorique que pratique. Nous montrons dans un cas particulier que le plan d'inspections optimal est deterministe. Dans un troisieme temps, nous considerons un systeme semi-markovien qui est, lui aussi, soumis a une politique de maintenance preventive : on l'inspecte a un instant aleatoire. Si on le trouve en marche, on l'arrete pour le maintenir. Le critere etudie est ici la disponibilite asymptotique que l'on complete par la disponibilite instantanee lorsque l'instant d'inspection suit une loi exponentielle. Nous etudions l'apport de la politique de maintenance ainsi que son optimisation, et montrons dans un cas particulier que l'instant optimal d'inspection est deterministe. Differents comportements possibles pour le taux de panne apres redemarrage sont envisages
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

El, Falou Salah. „Programmation répartie, optimisation par agent mobile“. Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00123168.

Der volle Inhalt der Quelle
Annotation:
Pour bien fonctionner, une application répartie nécessite de communiquer
et d'échanger des informations entre ces différentes entités. Les agents
mobiles apparaissent dans ce contexte comme une solution prometteuse
permettant la construction d'applications flexibles, adaptables aux
contraintes de l'application et de l'environnement d'exécution. Dans
cette thèse, la mobilité est étudiée sous deux angles. D'une part,
l'envoi du code sur le serveur permet d'adapter les services distants
aux exigences du client ce qui permet la réduction du trafic réseau.
D'autre part, une machine surchargée peut déléguer l'exécution de
certaines de ces tâches à une autre machine ce qui permet de gagner au
niveau du temps d'exécution. Une architecture basée sur la technologie
d'agents mobiles est proposée. Elle permet l'équilibrage de charge dans
une application répartie. L'architecture proposée est décentralisée et
l'équilibrage de charge se fait d'une façon dynamique. Un agent mobile
collecteur est utilisé afin de construire une vision globale du système.
Pour la réduction du trafic, nous proposons la communication par un
agent intelligent hybride. L'agent utilise ainsi deux modes,
client/serveur ou migration (échange locale), pour sa communication. Le
processus décisionnel de Markov est utilisé pour trouver la politique
optimale du déplacement de l'agent. Un travail d'expérimentation sur des
problèmes concrets permet de valider les algorithmes proposés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Lopez, Arellano Raquel. „La qualité de comprimés à libération prolongée : optimisation du processus de fabrication“. Lyon 1, 1990. http://www.theses.fr/1990LYO1T119.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ultré, Pierre. „Analyse critique et optimisation d'un processus de production d'éléments préfabriqués en bois“. Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33041.

Der volle Inhalt der Quelle
Annotation:
La construction industrialisée est actuellement en plein essor au Québec et ailleurs dans le monde. Le secteur étant toutefois fortement fragmenté, beaucoup de petits producteurs font face à un manque de capacité et ont des processus de gestion de la production peu développés. Ce projet de maîtrise s'intéresse aux façons d’améliorer les processus de production dans ce domaine pour gagner en efficacité. Une revue de la littérature permet tout d’abord de faire un état des lieux de la planification et de la gestion de la production dans la construction industrialisée. Elle compare ce secteur à la construction traditionnelle et au secteur manufacturier puis recense les différents problèmes auxquels les entreprises peuvent faire face ainsi que leurs solutions si elles sont connues. Une étude de cas concernant une entreprise québécoise spécialisée dans la production d'éléments préfabriqués étudie par la suite en détail un processus de production de panneaux de murs et présente des améliorations qui pourraient être effectuées afin de diminuer les temps d’opération et de mieux utiliser la capacité de production tout en respectant la contrainte de disponibilité de la main d'oeuvre. Un modèle de simulation est alors développé afin d’éprouver ces propositions d’amélioration et d’évaluer le gain en efficacité que chacune peut fournir pour répondre à une augmentation de la demande. Il est alors montré que les améliorations les plus intéressantes sont celles nécessitant un investissement dans les technologies d’automatisation.
Currently, industrialized housing is facing an increased demand while a lot of small producers have to deal with a lack of capacity and non-automated production processes. This master thesis focuses on the way to improve the production processes in this field in order to gain efficiency. First, a literature review leads to a comprehensive state of the art concerning scheduling and production management practices in industrialized housing. It compares this sector to the traditional construction field and the manufacturing industry. It then identifies the various problems enterprises may face while suggesting potential solutions. Thereafter a case study involving a company specialized in producing prefabricated elements is studied in detail. The focus is on the processes conducted to manufacture panels. Improvements that should be implemented in order to decrease operation times as well as better use the production capacity while respecting the labor’s availability constraint are proposed. A simulation model is therefore developed to test those suggestions and to evaluate the gain each solution can generate so as to meet a rise in demand. Results show that the most interesting improvements are those involving to invest in automation technologies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Calandre, Thibaut. „Optimisation d'observables de premier passage pour des processus de diffusion intermittents confinés“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066141/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions les propriétés d’un mouvement de diffusion intermittent dans un milieu confiné.Dans ce but, nous considérons un modèle minimal de catalyse hétérogène, mettant en jeu une particule soumise à un mouvement de diffusion “surface-mediated”, alternant des phases de diffusion volumique à l’intérieur d’un disque, et des phases de diffusion surfacique sur le pourtour du disque. Pour un tel mouvement, nous obtenons des résultats pour plusieurs observables de premier passage (i) le temps moyen de premier passage d'atteindre une cible, (ii) la probabilité de splitting d’atteindre une cible spécifique, (iii) le territoire exploré avant de sortir du disque (iv) la probabilité de réaction avec des sites catalytiques. Selon la position relative de départ de de ces quantités vis-à-vis du temps d'adsorption moyen sur la surface. Nous avons montré que des excursions volumiques peuvent minimiser le temps de recherche d’une cible, même si celle-ci est située sur la surface. Nous présentons également un modèle simple de milieu poreux ordonné, constitué d’un réseau hypercubique de cavités identiques. Nous présentons deux modèles : (i) pour un mouvement brownien simple, (ii) pour un mouvement intermittent, en introduisant un paramètre de persistance. Nous montrons que ces deux modèles, dans la limite de non-persistance, converge vers le même résultat. Nous avons aussi etudié le comportement et l’optimisation du coefficient de diffusion vis-à-vis du temps moyen d’adsorption. Pour évaluer nos résultats théoriques, nous utilisons des simulations de Monte-Carlo et des résolutions numériques par le méthode des éléments finis
In this thesis, we study first-passage properties for an intermittent Brownian motion inside a confining domain. We consider a minimal model of heterogenous catalysis in which a molecule performs surface-mediated diffusion inside a confining domain whose boundary contains catalytic sites. We obtain results for several observables : (i) the mean first-passage time to reach a target, (ii) the splitting probabilities that the molecule reach a specific target, (iii) the covered territory on the confining surface before the molecule exits the domain, (iv) the probability of reacting with catalytic sites. These results are exact for point like-targets, and are shown to be accurate also for extended targets, located on the surface or inside the bulk. Depending of the relative positions of the entrance and exit points, very different behaviors with respect to the mean adsorption time of the molecule on the surface are found. Although non-intuitive for bulk targets, it is found that boundary excursions, can minimize the search time. We also present a simple model of an ordered porous media. We present two models : (i) for a simple Brownian motion, (ii) for a surface-mediated diffusion with a parameter of persistence b. This model leads to a less simple result for the efficient diffusion coefficient. Our main result shows that in the limit of non persistence (b=0), both results are the same. We also provide an analysis of the behaviors of the efficient diffusion coefficient with respect to the mean adsorption time, showing optimisation possibilities. Numericals Monte-Carlo simulations and finite element solver have been used to evaluate our theoretical results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Aliakbari, Alireza. „Étude et optimisation des processus d’usinage utilisant des dispositifs à amortissement passif“. Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE002.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les objectifs les plus importants et les plus critiques de toutes les unités industrielles sont la production de masse à un coût moindre en termes de matériel et de ressources, et l'industrie de l'usinage ne fait pas exception. La vibration est l'un des problèmes les plus nuisibles auxquels est confronté le processus d'usinage, qui affecte considérablement la qualité du produit final. Les vibrations des machines-outils sont le résultat des forces générées dans le processus. Au cours des dernières décennies, de nombreuses recherches ont été menées sur ce sujet sous différents aspects. La compréhension, la modélisation, la détection, la suppression, etc. ont récemment été l'objectif des recherches précédentes qui ont conduit à diverses méthodologies pour éviter le broutage et les vibrations des machines-outils.Ce projet intitulé " Etude et optimisation des procédés d'usinage par dispositifs d'amortissement passif " est un contrat de doctorat CIFRE (Convention Industrielle de Formation par la Recherche). Il est accordé par l'ANRT (Association Nationale de la Recherche et de la Technologie) en collaboration avec la société SECO et AMVALOR (branche commerciale Arts et Métiers). Ce projet associe SECO R&D et le laboratoire LISPEN afin d'améliorer l'efficacité et la productivité du produit Steadyline en menant des investigations techniques et scientifiques sur le comportement dynamique du procédé utilisant ces dispositifs. Steadyline est une famille de porte-outils anti-vibration connus pour minimiser ou même éliminer les vibrations pendant toutes sortes de processus d'usinage. Le principe clé du Steadyline est un amortisseur de masse accordé qui atténue les vibrations du porte-outil, ce qui se traduit par un meilleur état de surface et une productivité accrue. Ce type de solution, adopté par la plupart des fabricants de porte-outils dans le monde, est devenu populaire parmi les machinistes, mais les réactions des machinistes soulignent certains inconvénients comme une robustesse insuffisante et une efficacité erratique. Les principaux objectifs de cette recherche sont d'analyser le comportement actuel de Steadyline, avec et sans processus d'usinage, et de proposer des solutions pour améliorer son efficacité et mieux atténuer les problèmes de broutage. Ces solutions sont destinées à être transmises à l'industrie et au marché dans une phase ultérieure d'industrialisation
The most significant and critical objectives of all industrial units nowadays are mass production at a lower cost in terms of material and resources and machining industry is not and exception. Vibration is one of the most harmful problems facing machining process, which significantly affects the quality of the final product. Machine tools vibration is a result of generated forces in the process. During the last decades many research has been done in relation to this topic from different aspects. Understanding, modeling, detection, suppression, etc. have recently been the aim of previous research that has led to various methodologies to avoid chatter and machine tools vibration.This project with the title of " Study and optimization of machining processes using passive damping devices " is a CIFRE Ph.D. contract that stands for Industrial Agreement of Training through Research. The proposal is granted by ANRT (Association Nationale de la Recherche et de la Technologie) in collaboration with the SECO company and AMVALOR (Arts et Métiers commercial branch). This project brings together SECO R&D and LISPEN Laboratory to boost Steadyline product efficiency and productivity by undertaking technical and scientifical investigation of the dynamics behavior of the process using these devices. Steadyline is a family of anti-vibration toolholders known for minimizing or even eliminating vibration during all sorts of machining processes. The key principle of the Steadyline is a tuned mass damper which mitigate the toolholder vibration resulting in better surface finish and higher productivity. This kind of solution, adopted by most of the toolholder maker in the world, become popular among the machinist, but the feed-back from machinists points out some drawbacks like insufficient robustness and erratic efficiency. The key objectives of this research are to analyze existing Steadyline behavior, both with and without machining process, and to propose solutions to improve its efficiency and to better mitigate chatter problems. These solutions are intended to be fed to industry and the market in an later industrialization phase
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Groc, Michel. „Optimisation et conduite de procédés sous haut flux d'énergie : soudage laser“. Perpignan, 1998. http://www.theses.fr/1998PERP0341.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Plassart, Stéphan. „Optimisation en-ligne pour les systèmes dynamiques en temps-réel“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM017.

Der volle Inhalt der Quelle
Annotation:
La consommation d'énergie est un enjeu crucial pour les systèmes temps réel,c'est pourquoi l'optimisation en ligne, c'est-à-dire pendant l'exécution du processeur, est devenue essentielle et sera le but de cette thèse.Cette optimisation se fait en adaptant la vitesse du processeur lors de l'exécution des tâches.Cette thèse aborde plusieurs situations avec des connaissances différentes sur les caractéristiques des tâches passées, actuelles et futures.Tout d'abord, nous considérons que toutes les caractéristiques des tâches sont connues (le cas hors ligne),et nous proposons un algorithme linéaire en temps pour déterminer les choix de vitesses pour exécuter n tâches sur un seul processeur.Deuxièmement, en utilisant les processus de décision de Markov, nous résolvons le cas où les caractéristiques des tâches passées et actuelles sont entièrement connues,et pour les futures tâches, seule la distribution de probabilité des caractéristiques des tâches (heures d'arrivée, temps d'exécution et délais) est connue.Troisièmement, nous étudions un cas plus général : le temps d'exécution n'est découvert que lorsque la tâche est terminée.En outre, nous considérons également le cas où nous n'avons aucune connaissance statistique des tâches,nous devons donc utiliser des méthodes d'apprentissage pour déterminer les vitesses optimales du processeur en ligne.Enfin, nous proposons une analyse de faisabilité (la capacité du processeur à exécuter toutes les tâches avant leurs échéances quand il fonctionne toujours à vitesse maximale) de plusieurs politiques en ligne classiques,et nous montrons que notre algorithme de programmation dynamique est également le meilleur en terme de faisabilité
The energy consumption is a crucial issue for real-time systems,that's why optimizing it online, i.e. while the processor is running, has become essential and will be the goal of this thesis.This optimization is done by adapting the processor speed during the job execution.This thesis addresses several situations with different knowledge on past, active and future job characteristics.Firstly, we consider that all job characteristics are known (the offline case),and we propose a linear time algorithm to determine the speed schedule to execute n jobs on a single processor.Secondly, using Markov decision processes, we solve the case where past and active job characteristics are entirely known,and for future jobs only the probability distribution of the jobs characteristics (arrival times, execution times and deadlines) are known.Thirdly we study a more general case: the execution is only discovered when the job is completed.In addition we also consider the case where we have no statistical knowledge on jobs,so we have to use learning methods to determine the optimal processor speeds online.Finally, we propose a feasibility analysis (the processor ability to execute all jobs before its deadline when it works always at maximal speed) of several classical online policies,and we show that our dynamic programming algorithm is also the best in terms of feasibility
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Ouazène, Yassine. „Maîtrise des systèmes industriels : optimisation de la conception des lignes de production“. Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0025/document.

Der volle Inhalt der Quelle
Annotation:
Lors de la phase de conception d'un système de production, toutes les alternatives fonctionnelles et technologiques doivent être étudiées afin de proposer la ou les meilleures solutions possibles. Ceci se traduit souvent par une conjugaison de plusieurs sous-problèmes tels que: la sélection de pièces d'équipements à partir d'un ensemble de solutions candidates pour chaque opération de fabrication; l'équilibrage et le dimensionnement des postes de travail; le dimensionnement des zones de stockage; le dimensionnement des systèmes de transport et l'aménagement des emplacements.Dans ce contexte, nous nous sommes intéressés à l’évaluation des performances ainsi qu’à l’optimisation de la conception d’un système de production très répandus dans l'industrie manufacturière à gros volume à savoir les lignes de production en série.Nous avons proposé une nouvelle méthode analytique d’évaluation de performances dite « Méthodes par Machines Equivalentes ». Cette méthode présente les avantages d'être plus précise et plus rapide que les approches existantes dans la littérature. Nous avons aussi montré la pertinence de cette méthode pour l’évaluation du taux de production des systèmes en configuration séries-parallèles ainsi que les lignes avec des machines ayant plusieurs modes de défaillance. Nous avons aussi développé un nouvel algorithme de programmation non linéaire afin d’optimiser le dimensionnement des stocks intermédiaires
During the design phase of a production system, all functional and technological alternatives should be explored in order to propose the best possible solutions. This often results in a combination of several sub-problems such as: selection of pieces of equipments from a set of candidate solutions for each manufacturing operation, dimensioning and allocation of buffers and storage areas, balancing workload among the different workstations, the specification of the type and capacity of the material handling system and the layout of equipments which consists of determining which workstations should be adjacent to each other and how they should be connected.In this context, we were interested in performance evaluation and optimization of serial production lines which are very common in high volume production systems.We have proposed a new analytical method, known as « Equivalent Machines Method» to evaluate the production line throughput. This method has the advantages to be more accurate and faster than the existing approaches in the literature.We have also established the relevance of this method for evaluating the production rate of series-parallel systems and other serial lines with machines having multiple failure modes.We have also developed a new algorithm based on nonlinear programming approach to solve the buffer allocation problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Cocquempot, Vincent. „Surveillance des processus industriels complexes : génération et optimisation des relations de redondance analytiques“. Lille 1, 1993. http://www.theses.fr/1993LIL10053.

Der volle Inhalt der Quelle
Annotation:
Ce memoire est consacre a la surveillance des processus industriels complexes a partir d'un modele comportemental de l'installation. Les methodes que nous developpons sont fondees sur l'utilisation des relations de redondance analytique. L'exploitation de ces relations fournit un ensemble d'indicateurs appeles communement residus. Apres avoir defini les principes generaux et le but d'un systeme de surveillance au sein d'un systeme automatise de production, nous comparons deux methodes classiques de generation de residus a partir d'une modelisation du systeme considere dans l'espace d'etat. La premiere repose sur la projection des equations du modele dans l'espace de parite, la seconde repose sur l'utilisation d'observateurs de luenberger. Dans le cas des systemes complexes, la modelisation dans l'espace d'etat n'est pas adaptee. Nous developpons alors une approche structurelle de generation des residus a partir de la decomposition hierarchique du systeme considere. Le troisieme point developpe dans ce memoire concerne l'optimisation des indicateurs de defaillances en fonction de criteres de robustesse et de sensibilite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Massoulié, Laurent. „Stabilite, simulation et optimisation des systemes a evenements discrets“. Paris 11, 1995. http://www.theses.fr/1995PA112172.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite des systemes stochastiques dynamiques a evenements discrets, ou systemes entraines par des processus ponctuels. La premiere partie est consacree a l'etude qualitative de ces systemes, et plus precisement a leurs proprietes de stabilite. Ici, on entend par stabilite l'existence d'un unique regime stationnaire, et la convergence vers cet etat stationnaire pour une classe de conditions initiales. Premierement, on etablit plusieurs resultats de stabilite pour une categorie de processus ponctuels en interaction. Ces processus decrivent d'une part certains reseaux de files d'attente, et modelisent d'autre part le comportement des reseaux de neurones. Deuxiemement, la stabilite des reseaux de files d'attente dits de polling est demontree sous des hypotheses minimales d'ergodicite sur les processus d'entree dans le systeme. Sous ces memes hypotheses minimales, on montre la stabilite d'un modele d'atelier de production. Dans une deuxieme partie, on se consacre a l'optimisation des prformances de ce systeme de production. Pour cela, on calcule au moyen d'une technique d'analyse de perturbations des estimateurs du gradient des indices de performance du systeme. L'obtention de tels estimateurs est possible car l'information contenue dans les trajectoires des systemes a evenements discrets est tres redondante: ceci est l'idee de base de l'analyse de perturbations. Enfin, ces estimateurs sont utilises dans des algorithmes adaptatifs du type gradient stochastique pour la recherche en temps reel du mode de fonctionnement optimal du systeme
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Yu, Haiyang. „Optimisation de la fiabilité et de la disponibilité des systèmes à composants dépendants“. Troyes, 2006. http://www.theses.fr/2006TROY0021.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui, les activités humaines dépendent plus que jamais des performances des systèmes qu’ils conçoivent. Un haut niveau de performances des systèmes est nécessaire, alors qu’il implique un coût élevé. L’optimisation de la fiabilité/disponibilité des systèmes (F/DS) a pour but d’équilibrer la F/DS et le coût. Dans cette thèse, nous étudions d’abord l’état de l’art sur l’optimisation de la F/DS, en portant attention aux disciplines fondamentales. D’après cette étude, nous arrivons à l’idée d’intégrer l’optimisation à l’approche dynamique, et de reprendre des paramètres stochastiques des systèmes comme variables de décisions. Ainsi, nous testons cette idée sur deux systèmes simples dont les caractères stochastiques nous ont aidé à la résolution optimale. Par une étude sur deux systèmes typiques, il est montré que la dépendance entre composants peut améliorer la F/DS. De plus, nous observons que c’est la dépendance qui essentiellement distingue l’approche dynamique de l’approche statique. C’est la raison pour laquelle nous présentons une bibliographie sur tous les types et les principaux modèles de dépendance. Puis, nous proposons la notion de dépendance redondante, et la décrivons de manière quantitative par l’introduction de la fonction de dépendance (FdD). Ensuite, nous nous intéressons à l’évaluation de deux systèmes redondants à composants dépendants. Pour les deux cas, le rôle de la FdD est essentiel pour la procédure d’optimisation. L’efficacité de la combinaison entre modèle stochastique et optimisation a ainsi été démontrée pour l’étude de F/DS
Nowadays, human beings depend much than ever on the performance of man-made systems. A high level of system performance is often necessary whereas it causes huge cost in systems. Our study on system reliability/availability optimization (SR/AO) will balance the performance and the cost. In this thesis, we firstly presented the state-of-the-art on SR/AO with attention on the essential disciplines. Due to this review, we decided to combine the dynamic approach with optimization resolution, and to choose the parameters of stochastic systems as decision variables. Then, this idea of combination is tested on two simple systems. It is shown that the characters of the stochastic systems have contributed to the optimization procedure. Meanwhile, through a study on two typical systems, the dependency is recognized as a significant option to improve the system performance. In particular, the dependency essentially identifies the dynamic approaches from the static ones. Hence, we established a survey on diverse types of dependencies in the literature. Due to its importance, the redundant dependency is defined and then quantified by the so named dependence function. After that, we study two redundant systems, in the R/A of which the redundant dependency has been considered. For both optimization models, the quantitative structure induced by the dependence function has been indispensable in establishing the optimisation procedure. The effectiveness of combining stochastic analysis and optimization resolution in studying SR/AO is therefore justified
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Gaudrie, David. „High-Dimensional Bayesian Multi-Objective Optimization“. Thesis, Lyon, 2019. https://tel.archives-ouvertes.fr/tel-02356349.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à l'optimisation simultanée de fonctions coûteuses à évaluer et dépendant d'un grand nombre de paramètres. Cette situation est rencontrée dans de nombreux domaines tels que la conception de systèmes en ingénierie au moyen de simulations numériques. L'optimisation bayésienne, reposant sur des méta-modèles (processus gaussiens) est particulièrement adaptée à ce contexte.La première partie de cette thèse est consacrée au développement de nouvelles méthodes d'optimisation multi-objectif assistées par méta-modèles. Afin d'améliorer le temps d'atteinte de solutions Pareto optimales, un critère d'acquisition est adapté pour diriger l'algorithme vers une région de l'espace des objectifs plébiscitée par l'utilisateur ou, en son absence, le centre du front de Pareto introduit dans nos travaux. Outre le ciblage, la méthode prend en compte le budget d'optimisation, afin de restituer un éventail de solutions optimales aussi large que possible, dans la limite des ressources disponibles.Dans un second temps, inspirée par l'optimisation de forme, une approche d'optimisation avec réduction de dimension est proposée pour contrer le fléau de la dimension. Elle repose sur la construction, par analyse en composantes principales de solutions candidates, de variables auxiliaires adaptées au problème, hiérarchisées et plus à même de décrire les candidats globalement. Peu d'entre elles suffisent à approcher les solutions, et les plus influentes sont sélectionnées et priorisées au sein d'un processus gaussien additif. Cette structuration des variables est ensuite exploitée dans l'algorithme d'optimisation bayésienne qui opère en dimension réduite
This thesis focuses on the simultaneous optimization of expensive-to-evaluate functions that depend on a high number of parameters. This situation is frequently encountered in fields such as design engineering through numerical simulation. Bayesian optimization relying on surrogate models (Gaussian Processes) is particularly adapted to this context.The first part of this thesis is devoted to the development of new surrogate-assisted multi-objective optimization methods. To improve the attainment of Pareto optimal solutions, an infill criterion is tailored to direct the search towards a user-desired region of the objective space or, in its absence, towards the Pareto front center introduced in our work. Besides targeting a well-chosen part of the Pareto front, the method also considers the optimization budget in order to provide an as wide as possible range of optimal solutions in the limit of the available resources.Next, inspired by shape optimization problems, an optimization method with dimension reduction is proposed to tackle the curse of dimensionality. The approach hinges on the construction of hierarchized problem-related auxiliary variables that can describe all candidates globally, through a principal component analysis of potential solutions. Few of these variables suffice to approach any solution, and the most influential ones are selected and prioritized inside an additive Gaussian Process. This variable categorization is then further exploited in the Bayesian optimization algorithm which operates in reduced dimension
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Gérard, Karine Aletti Pierre. „Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des contrôles qualité par la Maîtrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI)“. S. l. : S. n, 2008. http://www.scd.inpl-nancy.fr/theses/2008_GERARD_K.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Raufaste, Eric. „Psychologie Ergonomique de l'Optimisation des Processus Décisionnels“. Habilitation à diriger des recherches, Université Toulouse le Mirail - Toulouse II, 2003. http://tel.archives-ouvertes.fr/tel-00316445.

Der volle Inhalt der Quelle
Annotation:
L'expression « psychologie ergonomique » affirme « un ancrage dans la psychologie et ses différentes branches, sans exclusive : psychologie cognitive, psychologie sociale, psychologie des émotions, etc. » (Grosjean, Raufaste, Giboin, 2003, p. 194). Pour aborder la question de la modélisation des processus qui permettent à un individu d'adapter sa performance aux exigences de son environnement, nous convoquerons aussi les connaissances de diverses sciences cognitives, de l'intelligence artificielle aux neurosciences, en passant par la linguistique.
Le chapitre I présente la méthode que nous avons développée, « l'Analyse Rationnelle des Situations de Travail ». Les valeurs de rationalité y sont définies comme les dimensions de l'activité cognitive sur lesquelles opère l'optimisation. Une exploration empirique en médecine d'urgence est rapportée, au regard notamment des va-leurs de richesse, pertinence et flexibilité. Le chapitre II aborde la question du choix des cadres normatifs utilisables pour la pertinence et la flexibilité. Pour la pertinence, des expériences montrent, dans le diagnostic radiologique, la meilleure plausibilité psychologique de la théorie des possibilités comparée à la théorie des probabilités. Pour la flexibilité, nous présentons le tout premier test d'une axiomatisation du raisonnement non monotone, le système P.
Au niveau descriptif, nos travaux visent à comprendre les processus qui gèrent les valeurs de rationalité. Les chapitres III à VI présentent le développement d'un modèle théorique global des processus qui gèrent les valeurs de richesse (chapitre III), pertinence (chapitres IV et V), et flexibilité (chapitres VI), respectivement. Des expériences menées auprès de radiologues et de médecins urgentistes sont présentées. Les chapitres III et IV sont basés sur les mécanismes associationnistes de notre modèle théorique initial. Le chapitre IV présente des investigations en vue d'intégrer un module affectif dans notre modèle théorique. Trois modèles structuraux y soutiennent la plausibilité de l'heuristique d'affect dans le jugement et la décision. Le chapitre VI constitue une extension de notre modèle théorique général en vue de le rendre capable de rendre compte de la flexibilité. Bien que la flexibilité soit généralement conçue comme l'adaptation de la représentation aux données externes, nous fournissons à la fin de ce chapitre des données sur une autre forme de flexibilité : l'ajustement des données à la représentation.
La partie projet du document commence par un examen critique des travaux présentés dans la partie bilan. La substance du projet est ensuite exposée en trois chapitres. Le premier traite des investigations expérimentales que nous projetons de réaliser. Le deuxième présente nos projets de simulations informatiques. Le troisième et dernier volet est consacré à l'exposé de recherches plus orientées vers la recherche appliquée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Habibi, Muhammad Khoirul Khakim. „Optimisation d'une chaîne logistique inverse avec la prise en compte des processus de désassemblage“. Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM005.

Der volle Inhalt der Quelle
Annotation:
Il est connu que l'intégration des décisions dans les chaînes logistiques directes permet de proposer de meilleurs décisions. Dans cette thèse, une approche similaire est proposée pour une chaîne logistique inverse. Nous supposons que l'intégration de décisions concernant la collecte des produits en fin de vie avec celles de leur désassemblage permet d`optimiser la chaîne logistique inverse.D'abord, un problème déterministe, appelé le problème de collecte et désassemblage, intégrant les décisions de collecte de produits en fin de vie et la planification de leur désassemblage a été proposé et étudié. Etant donné qu'il n'y a pas d'instance de ce problème dans la littérature, les instances sont générées pour pouvoir effectuer les tests des modèles développés. Une comparaison de la formulation intégrée avec celle non-intégrée est effectuée. Selon les résultats obtenus, il s'avère que l'intégration permet d'optimiser les coûts totaux. Des méthodes approchées sont également proposées car le solveur CPLEX n'est pas capable de fournir les solutions optimales des instances de grand taille avec les temps de calcul acceptables. Ensuite, le problème est étendu en considérant l'incertitude sur les paramètres associés à la qualité et la quantité des produits en fin de vie et les demandes en composants. En considérant également la possibilité d'avoir plusieurs véhicules pour la collecte de produits en fin de vie, le problème stochastique de collecte et désassemblage dans sa version multi-véhicule est introduit. Sa formulation est développée sous forme d'une programmation stochastique en bi-niveau. Nous supposons qu'au moment de la planification, les paramètres incertains sont considérés comme des variables aléatoires avec des lois de distribution connues. Les réalisations de ces variables ne sont connues qu'au moment d'exécution du plan. Deux méthodes de résolution en utilisant une procédure d'approximation par échantillonnage sont implémentées afin de fournir les solutions.Finalement, un autre problème est également posé et étudié ou les décisions concernant la collecte de produits en fin de vie sont associées au problème de l'équilibrage de ligne de désassemblage
This dissertation supports and proposes better management in the implementation of the cir-cular economy by integrating activities of reverse supply chains. The hypothesis states thatintegrating decisions of at least two activities in reverse supply chain leads to better decisionsnotably the collection of End-of-Life products and their disassembly.A deterministic problem, called Collection-Disassembly Problem, integrating both collectionand disassembly processes as well as its formulation are introduced and developed. Due to lackof available instances in the literature, some instances are generated. Another non-integratedformulation is developed and solved using the commercial solver CPLEX. The obtained resultsshow that the integrated model proposes better decisions in terms of total cost. Some ap-proximate methods are developed because the commercial solver CPLEX is unable to provideoptimal solutions under acceptable CPU times notably for large size instances.An extended version of the problem is introduced due to the fact that reverse supply chainsfrequently deal with the uncertainty of certain parameters such as the quality and the quantityof End-of-Life products as well as the demands of components. Also, there is often more thanone vehicle available to collect the products. Thus, this second problem suggested which is calledStochastic Multi-Vehicle Collection-Disassembly Problem and its formulation is developed. Theproblem is formalised as two-stage stochastic programming by assuming that the parametersunder uncertainty follow some known probability distributions and their realisation comes afterthe planning stage. To provide the solutions, two methods combined with an algorithmicframework of Sample Average Approximation are developed.Another problem called Integrated Procurement-Disassembly Problem is also studied. Alongwith the decisions on collection process, this problem emphasises on the decisions of disassemblyline balancing problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Groff, Arnaud. „Optimisation de l'innovation par l'élaboration d'un processus de créativité industrielle : cas de l'industrie automobile“. Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0012.

Der volle Inhalt der Quelle
Annotation:
Aujourd'hui, la complexité et la compétitivité des marchés demandent aux entreprises de favoriser l'innovation. Cette innovation est le fruit de la collaboration optimum des acteurs de la conception, aussi pluridisciplinaires soient-ils. Or dans le secteur automobile la nature oligopolistique du marché oblige les constructeurs à aller jusqu'à l'optimisation de l'innovation pour survivre. Nous avons donc travaillé sur cette problématique dans le secteur automobile en adoptant une approche à la fois organisationnelle et procédurale. Après avoir effectué un état de l'art concernant l'innovation en milieu industriel, notre positionnement en recherche-action avec un grand groupe automobile nous a permis de mettre en avant la problématique d'optimisation de l'activité de créativité dans le processus de conception comme étant une source majeure de gain en innovation dans le milieu automobile. Ces travaux de recherche ont donc pour objet de formaliser l'organisation et le management de l'activité de recherche de solutions créatives et innovantes en conception de produits industriels. L'objectif final étant d'optimiser l'innovation en conception de produits en améliorant l'efficacité et l'adéquation du travail entre les équipes projets et les services créativité-innovation. Nous avons donc mis en avant la problématique d'intégration de l'activité de créativité dans le processus de conception comme étant une source majeure de gain en innovation dans le milieu automobile. Nos hypothèses et nos travaux expérimentaux nous ont alors permis d'élaborer un Processus de Créativité Industrielle et son outil de pilotage qui intègre la complexité des métiers et de l'innovation
Today, the complexity and the competitiveness of markets ask to the companies to favour the innovation. This innovation is the optimal fruit of the collaboration of the actors of the design, so multi-field they are. Now in the automotive sector the oligopolistique nature of the market obliges the builders to go to the optimization of the innovation to survive. We thus worked on this problem in the automotive sector by adopting an at the same moment organizational approach (professions) and procedural (actions). Having made a state of the art concerning the innovation in industrial environment, our positioning in search-action with a big automotive group allowed us to advance the problem of optimization of the activity of creativity in the process of design as being a major source of gain in innovation in the automotive environment. These research works thus have for object to formalize the organization and the management of the activity of search for creative and innovative solutions in design of manufactured goods. The final goal being to optimize the innovation in design of products by improving the efficiency and the equivalence of the work between the team's projects and the services creativity-innovation. We thus advanced the problem of integration of the activity of creativity in the process of design as being a major source of gain in innovation in the automotive environment. Our hypotheses and our experimental works then allowed us to elaborate a Process of Industrial Creativity and its tool of piloting to integrate the complexity of the professions and the innovation and so, answer our problem
Today, the complexity and the competitiveness of markets ask to the companies to favour the innovation the optimal fruit of collaboration actors of the design, so multi-fied they are. Now in the automotive sector the oligopolistique nature of the market obliges the builders to go to the optimization of the innovation to survive. We thus worked on this problem in the automotive sector by adopting an at the same moment organizational approach (professions) and procedural (actions). Having made a state of the art concerning the innovation in industrial environment, our positioning in search-action with a big automotive group allowed us to advance the problem of optimization of the activity of creativity in the process of design as being as being a major source of gain in innovation in the automotive environment. These research works thus have for object to formalize the organization and management of the activity of search for creative and innovation solutions in design of manufactured goods. The final goal being to optimize the innovation in design products by improving the efficiency and equivalence of the work between the team’s projects and the services creativity-innovation. We thus advanced the problem of integration of the activity of creativity in process of design as being a major source of gain in innovation in the automotive environment. Our hypotheses and our experimental works then allowed us to elaborate a process of industrial creativity and its tool of piloting to integrate the complexity of the professions and the innovation and so, answer our problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Rupprecht, Jean-Francois. „Optimisation de processus de recherche par des marcheurs aleatoires symetriques, avec biais ou actifs“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066488/document.

Der volle Inhalt der Quelle
Annotation:
Les marches aléatoires avec recherche de cible peuvent modéliser des réactions nucléaires ou la quête de nourriture par des animaux. Dans cette thèse, nous identifions des stratégies qui minimisent le temps moyen de première rencontre d’une cible (MFPT) pour plusieurs types de marches aléatoires. Premièrement, pour des marches symétriques ou avec biais, nous déterminons la distribution des temps de première sortie par une ouverture dans une paroi en forme de secteur angulaire, d’anneau ou de rectangle. Nous concluons sur la minimisation du MFPT en termes de la géométrie du confinement. Deuxièmement, pour des marches alternant entre diffusions volumique et surfacique, nous déterminons le temps moyen de première sortie par une ouverture dans la surface de confine- ment. Nous montrons qu’il existe un taux de désorption optimal qui minimise le MFPT. Nous justifions la généralité de l’optimalité par l’étude des rôles de la géométrie, de l’adsorption sur la surface et d’un biais en phase volumique. Troisièmement, pour des marches actives composées de phases balistiques entrecoupées par des réorientations aléatoires, nous obtenons l’expression du taux de réorientation qui minimise le MFPT en géométries sphériques de dimension deux ou trois. Dans un dernier chapitre, nous modélisons le mouvement de cellules eucaryotes par des marches browniennes actives. Nous expliquons pourquoi le temps de persistance évolue expo- nentiellement avec la vitesse de la cellule. Nous obtenons un diagramme des phases des types de trajectoires. Ce modèle minimal permet de quantifier l’efficacité des processus de recherche d’antigènes par des cellules immunitaires
Random search processes can model nuclear reactions or animal foraging. In this thesis, we identify optimal search strategies which minimize the mean first passage time (MFPT) to a target for various processes. First, for symmetric and biased Brownian particles, we compute the distribution of exit times through an opening within the boundary of angular sectors, annuli and rectangles. We conclude on the optimizability of the MFPT in terms of geometric parameters. Second, for walks that switch between volume and surface diffusions, we determine the mean exit time through an opening inside the bounding surface. Under analytical criteria, an optimal desorption rate minimizes the MFPT. We justify that this optimality is a general property through a study of the roles of the geometry, of the adsorption properties and of a bias in the bulk random walk. Third, for active walks composed of straight runs interrupted by reorientations in a random direction, we obtain the expression of the optimal reorientation rate which minimizes the MFPT to a centered spherical target within a spherical confinement, in two and three dimensions. In a last chapter, we model the motion of eukaryotic cells by active Brownian walks. We explain an experimental observation: the persistence time is exponentially coupled with the speed of the cell. We also obtain a phase diagram for each type of trajectories. This model is a first step to quantify the search efficiency of immune cells in terms of a minimal number of biological parameters
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Ramirez, serrano Oscar. „Optimisation et pilotage du processus d’innovation de medicalex : application aux implants orthopédiques sur mesure“. Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0080/document.

Der volle Inhalt der Quelle
Annotation:
Pour la plupart des entreprises, l’innovation est devenue un élément indispensable, garant de la pérennité de l’entreprise.Cependant, durant les phases de développement des produits, le concepteur est confronté lors des principaux jalons du processus à faire des choix de conception. Ces prises de décisions ont par la suite un fort impact sur l’acceptabilité ou non des produits par le marché. Le monde de la conception des implants orthopédiques n’y échappe pas.Le but de ce travail de thèse est de montrer qu’il est possible d’intégrer dans les phases amonts du processus de développement d’implants orthopédiques, un outil d’aide à la décision pour le choix de concepts intégrant des critères techniques, médicaux, chirurgicaux et économiques permettant de réduire les risques pour le patient mais aussi les risques d’un possible échec commercial.La première partie de ce document s’intéresse à l’analyse du contexte de cette étude et en particulier aux dispositifs médicaux. Ensuite, l’état de l’art étudie les différents processus d’innovation et plus spécifiquement les processus de conception dans le secteur médical des implants orthopédiques. Ces travaux nous ont amené à nous questionner et à analyser les méthodes d’évaluation du potentiel d’innovation disponibles au sein de la littérature scientifique, et de leur intégration au sein du secteur des implants.De cette analyse a émergé une question se situant au cœur de nos travaux de recherche : comment concevoir des implants innovants avec un niveau de risques faibles (risque clinique, risque de défaillance, risque d’utilisation) ?La réponse à cette question s’est traduite par la proposition d’un nouvel outil d’aide à la décision (hypothèse1) intégré aux phases amont d’un processus de conception adapté (hypothèse2) au développement d’implants. Celles-ci ont ensuite été vérifiées et validées lors de 3 expérimentations qui ont aboutis à la réalisation d’implants orthopédiques posés sur des patients
For a majority of companies, innovation has become an essential element of corporate sustainability.However, during the product development phase the designer is forced to make decisions on design. These decisions subsequently have a strong impact on the acceptability of the products by the market. Orthopaedics implants design is no exception.The aim of this thesis is to show that it is possible to integrate, in the early phases of the orthopaedic implant development process, a tool for decision-making; in choosing concepts that incorporate technical, medical, surgical and economic criteria. The goal is to reduce the risk for the patient but also reduce the risk of commercial failure.The first part of this document focuses on analysing the context of this study, particularly for medical devices. Following this, the state of the art studies the various innovation processes and more specifically, the design process of medical orthopaedic implants. This work forced us to question and analyse evaluation methods for potential innovations available in the scientific literature, and integrate them into the implant sector.From this analysis, a question emerged lying at the heart of our research: how to design innovative implants with a low level of risk (clinical risk, default risk, risk of use)?The answer to this question has resulted in the proposal of a new tool for decision-making (Hypothesis 1) integrated within upstream phases of a suitable decision process (Hypothesis 2) for developing implants. These were then checked and validated in three experiments that resulted in the development of orthopaedic implants that were successfully inserted into patients
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Gauthier, Alexis, und Alexis Gauthier. „Processus interactif d'optimisation avec prise en charge des préférences de l'utilisateur“. Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37034.

Der volle Inhalt der Quelle
Annotation:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020.
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020.
Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée.
Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée.
A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Frécon, Jordan. „Méthodes d'optimisation pour l'analyse de processus invariants d'échelle“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN031/document.

Der volle Inhalt der Quelle
Annotation:
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation
Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Nivot, Christophe. „Analyse et étude des processus markoviens décisionnels“. Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0057/document.

Der volle Inhalt der Quelle
Annotation:
Nous explorons l'étendue du champ applicatif des processus markoviens décisionnels au travers de deux problématiques. La première, de nature industrielle, propose l'étude numérique de l'optimisation d'un processus d'intégration lanceur en collaboration avec Airbus DS. Il s'agit d'un cas particulier des problèmes de gestion d'inventaire dans lequel un calendrier de tirs joue un rôle central. La modélisation adoptée entraîne l'impossibilité d'appliquer les procédures d'optimisation classiques liées au formalisme des processus markoviens décisionnels. Nous étudions alors des algorithmes basés sur des simulations qui rendent des stratégies optimales non triviales et qui sont utilisables dans la pratique. La deuxième problématique, de nature théorique, se concentre sur les questions d'arrêt optimal partiellement observables. Nous proposons une méthode d'approximation par quantification de ces problèmes lorsque les espaces d'états sont quelconques. Nous étudions la convergence de la valeur optimale approchée vers la valeur optimale réelle ainsi que sa vitesse. Nous appliquons notre méthode à un exemple numérique
We investigate the potential of the Markov decision processes theory through two applications. The first part of this work is dedicated to the numerical study of an industriallauncher integration process in co-operation with Airbus DS. It is a particular case of inventory control problems where a launch calendar has a key role. The model we propose implies that standard optimization techniques cannot be used. We then investigate two simulation-based algorithms. They return non trivial optimal policies which can be applied in actual practice. The second part of this work deals with the study of partially observable optimal stopping problems. We propose an approximation method using optimal quantization for problems with general state space. We study the convergence of the approximated optimal value towards the real optimal value. The convergence rate is also under study. We apply our method to a numerical example
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Achab, Massil. „Apprentissage statistique pour séquences d’évènements à l’aide de processus ponctuels“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX068/document.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est de montrer que l'arsenal des nouvelles méthodes d'optimisation permet de résoudre des problèmes d'estimation difficile basés sur les modèles d'évènements.Alors que le cadre classique de l'apprentissage supervisé traite les observations comme une collection de couples de covariables et de label, les modèles d'évènements ne regardent que les temps d'arrivée d'évènements et cherchent alors à extraire de l'information sur la source de donnée.Ces évènements datés sont ordonnés de façon chronologique et ne peuvent dès lors être considérés comme indépendants.Ce simple fait justifie l'usage d'un outil mathématique particulier appelé processus ponctuel pour apprendre une certaine structure à partir de ces évènements.Deux exemples de processus ponctuels sont étudiés dans cette thèse.Le premier est le processus ponctuel derrière le modèle de Cox à risques proportionnels:son intensité conditionnelle permet de définir le ratio de risque, une quantité fondamentale dans la littérature de l'analyse de survie.Le modèle de régression de Cox relie la durée avant l'apparition d'un évènement, appelé défaillance, aux covariables d'un individu.Ce modèle peut être reformulé à l'aide du cadre des processus ponctuels.Le second est le processus de Hawkes qui modélise l'impact des évènements passés sur la probabilité d'apparition d'évènements futurs.Le cas multivarié permet d'encoder une notion de causalité entre les différentes dimensions considérées.Cette thèse est divisée en trois parties.La première s'intéresse à un nouvel algorithme d'optimisation que nous avons développé.Il permet d'estimer le vecteur de paramètre de la régression de Cox lorsque le nombre d'observations est très important.Notre algorithme est basé sur l'algorithme SVRG (Stochastic Variance Reduced Gradient) et utilise une méthode MCMC (Monte Carlo Markov Chain) pour approcher un terme de la direction de descente.Nous avons prouvé des vitesses de convergence pour notre algorithme et avons montré sa performance numérique sur des jeux de données simulés et issus de monde réel.La deuxième partie montre que la causalité au sens de Hawkes peut être estimée de manière non-paramétrique grâce aux cumulants intégrés du processus ponctuel multivarié.Nous avons développer deux méthodes d'estimation des intégrales des noyaux du processus de Hawkes, sans faire d'hypothèse sur la forme de ces noyaux. Nos méthodes sont plus rapides et plus robustes, vis-à-vis de la forme des noyaux, par rapport à l'état de l'art. Nous avons démontré la consistence statistique de la première méthode, et avons montré que la deuxième peut être réduite à un problème d'optimisation convexe.La dernière partie met en lumière les dynamiques de carnet d'ordre grâce à la première méthode d'estimation non-paramétrique introduite dans la partie précédente.Nous avons utilisé des données du marché à terme EUREX, défini de nouveaux modèles de carnet d'ordre (basés sur les précédents travaux de Bacry et al.) et appliqué la méthode d'estimation sur ces processus ponctuels.Les résultats obtenus sont très satisfaisants et cohérents avec une analysé économétrique.Un tel travail prouve que la méthode que nous avons développé permet d'extraire une structure à partir de données aussi complexes que celles issues de la finance haute-fréquence
The guiding principle of this thesis is to show how the arsenal of recent optimization methods can help solving challenging new estimation problems on events models.While the classical framework of supervised learning treat the observations as a collection of independent couples of features and labels, events models focus on arrival timestamps to extract information from the source of data.These timestamped events are chronologically ordered and can't be regarded as independent.This mere statement motivates the use of a particular mathematical object called point process to learn some patterns from events.Two examples of point process are treated in this thesis.The first is the point process behind Cox proportional hazards model:its conditional intensity function allows to define the hazard ratio, a fundamental quantity in survival analysis literature.The Cox regression model relates the duration before an event called failure to some covariates.This model can be reformulated in the framework of point processes.The second is the Hawkes process which models how past events increase the probability of future events.Its multivariate version enables encoding a notion of causality between the different nodes.The thesis is divided into three parts.The first focuses on a new optimization algorithm we developed to estimate the parameter vector of the Cox regression in the large-scale setting.Our algorithm is based on stochastic variance reduced gradient descent (SVRG) and uses Monte Carlo Markov Chain to estimate one costly term in the descent direction.We proved the convergence rates and showed its numerical performance on both simulated and real-world datasets.The second part shows how the Hawkes causality can be retrieved in a nonparametric fashion from the integrated cumulants of the multivariate point process.We designed two methods to estimate the integrals of the Hawkes kernels without any assumption on the shape of the kernel functions. Our methods are faster and more robust towards the shape of the kernels compared to state-of-the-art methods. We proved the statistical consistency of the first method, and designed turned the second into a convex optimization problem.The last part provides new insights from order book data using the first nonparametric method developed in the second part.We used data from the EUREX exchange, designed new order book model (based on the previous works of Bacry et al.) and ran the estimation method on these point processes.The results are very insightful and consistent with an econometric analysis.Such work is a proof of concept that our estimation method can be used on complex data like high-frequency financial data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Waycaster, Garrett. „Stratégies d'optimisation par modélisation explicite des différents acteurs influençant le processus de conception“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30122/document.

Der volle Inhalt der Quelle
Annotation:
Le succès ou l'échec commercial des systèmes complexes (e.g. avions de transport commercial) ne dépend pas que de la qualité technique intrinsèque du produit mais il est aussi notablement affectée par les différentes interactions avec les autres acteurs du milieu tels la concurrence, les utilisateurs finaux et les organismes de réglementation. Des produits qui manquent de performances, ont un coût trop élevé, ou sont considérées comme dangereux ou nuisibles seront inévitablement surmontés par des produits concurrents qui répondent mieux aux besoins des clients et de la société dans son ensemble. Dans cette thèse, nous cherchons à utiliser le cadre de la théorie des jeux afin d'intégrer directement l'effet de ces interactions dans un problème d'optimisation de conception qui vise à maximiser la rentabilité du concepteur du système. Cette approche permet aux concepteurs de prendre en considération les effets de l'incertitude venant d'une part des sources traditionnelles de variabilités (propriétés matériaux, tolérances géométriques, etc) ainsi que d'autres incertitudes de nature non technique reflétant par exemple l'incertitude du futur marché ou les interactions avec les autres parties prenantes (nouveaux produits concurrents, nouvelles règlementations, etc). Dans ce cadre nous développons également des techniques de modélisation utilisant des modèles causaux afin de comprendre la nature d'interactions complexes à partir des données observées. Enfin, nous examinons les effets complexes entre sureté de fonctionnement et conception en examinant l'histoire de la réglementation fédérale sur l'industrie du transport. Ces travaux ont mené à plusieurs résultats clés. D'abord, en considérant l'effet des interactions entre les différents acteurs, les concepteurs peuvent être amenés à faire des choix techniques très différents de ceux qu'ils auraient fait sans considérer ces interactions. Cela est illustré sur plusieurs études de cas avec des applications à la conception d'avions de transport commercial. Deuxièmement, nous avons développé une nouvelle méthode de construction de modèles causaux qui permet aux concepteurs d'évaluer le niveau de confiance dans leur compréhension des interactions entre les différents acteurs. Enfin, nous avons montré par une étude liens entre la réglementation et les améliorations de la sureté que la demande pour l'amélioration de la sureté ne répond pas toujours à une rationalité économique. En revanche la demande pour plus de sureté est fortement influencée par des facteurs tels que le niveau de responsabilité personnelle et la nature et ampleur des accidents potentiels
The commercial success or failure of engineered systems has always been significantly affected by their interactions with competing designs, end users, and regulatory bodies. Designs which deliver too little performance, have too high a cost, or are deemed unsafe or harmful will inevitably be overcome by competing designs which better meet the needs of customers and society as a whole. Recent efforts to address these issues have led to techniques such as design for customers or design for market systems. In this dissertation, we seek to utilize a game theory framework in order to directly incorporate the effect of these interactions into a design optimization problem which seeks to maximize designer profitability. This approach allows designers to consider the effects of uncertainty both from traditional design variabilities as well as uncertain future market conditions and the effect of customers and competitors acting as dynamic decision makers. Additionally, we develop techniques for modeling and understanding the nature of these complex interactions from observed data by utilizing causal models. Finally, we examine the complex effects of safety on design by examining the history of federal regulation on the transportation industry. These efforts lead to several key findings; first, by considering the effect of interactions designers may choose vastly different design concepts than would otherwise be considered. This is demonstrated through several case studies with applications to the design of commercial transport aircraft. Secondly, we develop a novel method for selecting causal models which allows designers to gauge the level of confidence in their understanding of stakeholder interactions, including uncertainty in the impact of potential design changes. Finally, we demonstrate through our review of regulations and other safety improvements that the demand for safety improvement is not simply related to ratio of dollars spent to lives saved; instead the level of personal responsibility and the nature and scale of potential safety concerns are found to have causal influence on the demand for increased safety in the form of new regulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Rageul, Nicolas. „Vers une optimisation du processus d'analyse en ligne de données 3D : cas des fouilles archéologiques“. Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24791/24791.pdf.

Der volle Inhalt der Quelle
Annotation:
L'archéologie est une discipline des sciences humaines dont l'objet d'étude est l'ensemble des vestiges matériels laissés par l'Homme (objets, bâtiments, infrastructures, paysages...). Une technique précise, la fouille, est employée afin de tirer toutes les informations possibles des sols et structures fouillés en tenant compte de la localisation exacte des objets découverts, de l'étude de la succession des différentes couches de terrain déblayé afin de pouvoir procéder à une datation stratigraphique. L’analyse d’une fouille archéologique demande souvent beaucoup d’efforts pour l’archéologue car, à ce jour, aucun système informatique n’a permis de clairement les aider dans l’analyse de leurs données. Ainsi, pour exploiter des données issues d’une fouille archéologique, nous avons identifié trois critères : la rapidité et la facilité d’utilisation, la possibilité de faire évoluer les données dans le système (les interprétations de l'archéologue suivant des heuristiques qui ne peuvent pas toujours être formalisées de façon absolue) et la visualisation tridimensionnelle. L’outil d’analyse en ligne de type SOLAP est optimisé pour une analyse interactive dite multidimensionnelle où les requêtes, même celles de types agrégatives sont simples et leurs réponses sont rapides. Reste donc à l’optimiser sur les deux autres critères retenus pour exploiter les données issues d’une fouille archéologique et qui marquent les principales faiblesses de l’outil : l’évolution des données pendant la phase d’analyse et l’intégration de la 3e dimension. Ce projet de maîtrise vise à apporter des nouveaux concepts permettant à un utilisateur de réviser ces données pendant sa phase d’analyse. Par la suite, un prototype appliqué à l’archéologie a été élaboré afin de vérifier simplement si les efforts pour réviser des données pouvaient être compatibles avec les efforts d’un outil d’analyse en ligne en conservant la fluidité d’exploration interactive. D’autre part, ce projet de maîtrise a permis d’étudier la faisabilité d’un SOLAP 3D et de soulever une interrogation sur la nécessité d’introduire la 3e dimension à un outil d’analyse en ligne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Karpouzas, Yannis. „Modelisation des processus biologiques : identification, optimisation et controle optimal des systemes lineaires ou non lineaires“. Paris 6, 1987. http://www.theses.fr/1987PA066449.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Herro, Ziad. „Optimisation du processus de croissance PVT pour l'obtention des cristaux de SiC de haute qualité“. Montpellier 2, 2004. http://www.theses.fr/2004MON20052.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Karpouzas, Yannis. „Modélisation des processus biologiques identification, optimisation et contrôle optimal des systèmes linéaires ou non linéaires /“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37606342k.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Prawatya, Yopa Eka. „Multivariate optimisation and statistical process control of polymer triboelectric charging“. Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2262/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de la thèse a été d'étudier le comportement triboélectrique des contacts glissants à sec entre matériaux polymères (ABS, PE, PP, PS et deux types de PVC), incluant la possibilité de contrôler et d'optimiser les résultats générés, en termes de charge électrique et d’usure. Un tribomètre linéaire a été conçu et construit, afin de permettre le réglage des principales variables de contrôle du processus de charge triboélectrique : force normale, vitesse de glissement, durée et course. Ce dispositif facilite la mesure de certaines grandeurs physiques caractérisant les conditions de frottement: les variations des forces normale et tangentielle, ainsi que le déplacement relatif entre les éprouvettes. De plus, la charge électrique générée et l’augmentation de la température à la surface du polymère ont été aussi été mesurées et mise en relation avec les propriétés tribologiques. Les expériences ont montré que le niveau et la distribution de la charge générée par le frottement sec dépendent de la force normale appliquée, du temps de frottement (le nombre de cycles), de la vitesse de glissement, des propriétés mécaniques des matériaux et de la rugosité ou de la texture des surfaces en contact. La décharge couronne peut être utilisée pour déposer une charge initiale sur les surfaces avant le glissement. La modélisation du processus de charge triboélectrique a été faite avec la méthodologie des plans d’expériences. Les résultats peuvent alors être utilisés pour prédire et optimiser la charge triboélectrique. Des cartes de contrôle peuvent assurer le monitoring du processus et la détection de variations non-maîtrisés de la charge générée par effet triboélectrique
The main objective of the thesis was to study the triboelectric behavior of dry sliding contacts between polymeric materials (ABS, PE, PP, PS and two types of PVC), including the possibility to control and optimize the results in terms of either surface charge generated or wear. A linear tribometer with tribocharging capabilities was designed and built, to enable the study of the sliding contact between solids and to allow the adjustment of main tribocharging control variables: normal force, sliding speed, time and stroke. This device also provided measurement data to characterize the friction condition: the variations of the normal and tangential forces, as well as the relative displacement between the specimens. Furthermore, the electric charge generated and temperature raise due to rubbing on the surface of the polymer were measured, so that to investigate the relationship between the tribological properties. The experiments showed that the level and distribution of the charge generated by dry friction depends on the normal force applied, friction time (cycle), sliding speed, material mechanical properties and surface roughness or texture. Corona discharge may be used to provide initial charge on the surfaces before sliding. Modelling of tribocharging processes was done using the design of experiments methodology. The models can be used to predict and optimize the tribocharging. Control charts were used to monitor the process and detect the special causes of variation in the charge generated by triboelectric effect
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Balesdent, Mathieu. „Optimisation multidisciplinaire de lanceurs“. Phd thesis, Ecole centrale de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00659362.

Der volle Inhalt der Quelle
Annotation:
La conception de lanceurs est un problème d'optimisation multidisciplinaire (MDO) complexe qui a la particularité d'intégrer une optimisation de trajectoire très contrainte, difficile à résoudre et fortement couplée à toutes les autres disciplines entrant en jeu dans le processus de conception (e.g. propulsion, aérodynamique, structure, etc.). Cette thèse s'intéresse aux méthodes permettant d'intégrer judicieusement l'optimisation de la trajectoire au sein du processus d'optimisation des variables de conception. Une nouvelle méthode, appelée "Stage-Wise decomposition for Optimal Rocket Design" (SWORD), a été proposée. Celle-ci décompose le processus de conception suivant les différentes phases de vol et transforme le problème d'optimisation de lanceur multiétage en un problème de coordination des optimisations de chacun des étages, plus facile à résoudre. La méthode SWORD a été comparée à la méthode MDO classique (Multi Discipline Feasible) dans le cas d'une optimisation globale d'un lanceur tri-étage. Les résultats montrent que la méthode SWORD permet d'améliorer l'efficacité du processus d'optimisation, tant au niveau de la vitesse de recherche de l'espace de solutions faisables que de la qualité de l'optimum trouvé en temps de calcul limité. Afin d'améliorer la vitesse de convergence de la méthode tout en ne requérant pas de connaissance a priori de l'utilisateur au niveau de l'initialisation et l'espace de recherche, une stratégie d'optimisation dédiée à la méthode SWORD a été développée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Mohammadi, Hossein. „Kriging-based black-box global optimization : analysis and new algorithms“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEM005/document.

Der volle Inhalt der Quelle
Annotation:
L’«Efficient Global Optimization» (EGO) est une méthode de référence pour l’optimisation globale de fonctions «boites noires» coûteuses. Elle peut cependant rencontrer quelques difficultés, comme le mauvais conditionnement des matrices de covariance des processus Gaussiens (GP) qu’elle utilise, ou encore la lenteur de sa convergence vers l’optimum global. De plus, le choix des paramètres du GP, crucial car il contrôle la famille des fonctions d’approximation utilisées, mériterait une étude plus poussée que celle qui en a été faite jusqu’à présent. Enfin, on peut se demander si l’évaluation classique des paramètres du GP est la plus appropriée à des fins d’optimisation. \\Ce travail est consacré à l'analyse et au traitement des différentes questions soulevées ci-dessus.La première partie de cette thèse contribue à une meilleure compréhension théorique et pratique de l’impact des stratégies de régularisation des processus Gaussiens, développe une nouvelle technique de régularisation, et propose des règles pratiques. Une seconde partie présente un nouvel algorithme combinant EGO et CMA-ES (ce dernier étant un algorithme d’optimisation globale et convergeant). Le nouvel algorithme, nommé EGO-CMA, utilise EGO pour une exploration initiale, puis CMA-ES pour une convergence finale. EGO-CMA améliore les performances des deux algorithmes pris séparément. Dans une troisième partie, l’effet des paramètres du processus Gaussien sur les performances de EGO est soigneusement analysé. Finalement, un nouvel algorithme EGO auto-adaptatif est présenté, dans une nouvelle approche où ces paramètres sont estimés à partir de leur influence sur l’efficacité de l’optimisation elle-même
The Efficient Global Optimization (EGO) is regarded as the state-of-the-art algorithm for global optimization of costly black-box functions. Nevertheless, the method has some difficulties such as the ill-conditioning of the GP covariance matrix and the slow convergence to the global optimum. The choice of the parameters of the GP is critical as it controls the functional family of surrogates used by EGO. The effect of different parameters on the performance of EGO needs further investigation. Finally, it is not clear that the way the GP is learned from data points in EGO is the most appropriate in the context of optimization. This work deals with the analysis and the treatment of these different issues. Firstly, this dissertation contributes to a better theoretical and practical understanding of the impact of regularization strategies on GPs and presents a new regularization approach based on distribution-wise GP. Moreover, practical guidelines for choosing a regularization strategy in GP regression are given. Secondly, a new optimization algorithm is introduced that combines EGO and CMA-ES which is a global but converging search. The new algorithm, called EGO-CMA, uses EGO for early exploration and then CMA-ES for final convergence. EGO-CMA improves the performance of both EGO and CMA-ES. Thirdly, the effect of GP parameters on the EGO performance is carefully analyzed. This analysis allows a deeper understanding of the influence of these parameters on the EGO iterates. Finally, a new self-adaptive EGO is presented. With the self-adaptive EGO, we introduce a novel approach for learning parameters directly from their contribution to the optimization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie