Literatura académica sobre el tema "Optimisation du Risque"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Optimisation du Risque".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Optimisation du Risque"

1

Desrosiers, Stéphanie, Jean-François L’Her y Meimei Xuan. "Répartition de l’actif d’un portefeuille d’actions internationales et exposition au risque de change". Articles 78, n.º 4 (7 de diciembre de 2004): 511–38. http://dx.doi.org/10.7202/007263ar.

Texto completo
Resumen
Résumé Cet article présente un cadre d’analyse général du problème double de la décision de répartition de l’actif d’un portefeuille d’actions internationales à travers les marchés boursiers et de la décision d’exposition au risque de change selon que ces décisions sont déterminées de façon passive ou font l’objet d’une optimisation. Quatre approches possibles sont examinées en se basant sur les données historiques des indices boursiers Morgan Stanley Capital International du G-7 de juillet 1976 à juin 2001. La performance relative de chacune des approches est comparée a posteriori. Dans le cas des stratégies d’optimisa­tion, l’accent est mis sur le gain marginal obtenu par le relâchement des contraintes pratiques relatives aux marchés boursiers (importance de l’écart par rapport à la capitalisation relative de l’indice boursier) et/ou aux devises (couverture du risque de change, couverture croisée, exposition au risque de change).
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Carrié, Cédric, Noémie Sauvage y Matthieu Biais. "Optimisation du traitement par β-Lactamines chez le patient de réanimation en hyperclairance rénale". Médecine Intensive Réanimation 30, n.º 2 (18 de mayo de 2021): 157–64. http://dx.doi.org/10.37051/mir-00059.

Texto completo
Resumen
L'optimisation du traitement par β-Lactamines représente toujours un défi complexe chez le patient de soins critiques, compte tenu de la large variabilité des concentrations d'antibiotiques en relation avec d’importantes interactions pharmacocinétiques et pharmacodynamiques (PK/PD). D’une part, il est communément admis que les patients présentant une insuffisance rénale justifient une diminution des posologies afin de limiter le risque de toxicité. D’autre part, certains patients peuvent également présenter une hyperclairance rénale (HCR), désormais reconnue comme un des principaux facteurs de risque de sous-dosage et d’échec thérapeutique des agents anti-infectieux à élimination urinaire. L’hyperclairance est une entité fréquente en réanimation chirurgicale, probablement sous-diagnostiquée en l’absence de mesure de clairance urinaire de la créatinine (CLCR). Pour certaines β-lactamines prescrites en probabiliste, plusieurs études de pharmacocinétique suggèrent une augmentation des posologies recommandées afin d’atteindre les objectifs PK/PD chez les patients atteints d'HCR. En cas d’impossibilité de monitorer les concentrations plasmatiques dans des délais brefs, l'optimisation des posologies de β-lactamines selon le monitorage quotidien de la CLCR est une stratégie sûre et efficace pour améliorer les taux de succès thérapeutique. L’HCR étant un phénomène fluctuant, cette stratégie impose un monitorage quotidien de la CLCR afin d’adapter les posologies et limiter le risque de surdosage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Sevestre, M. A., J. Labarere, S. Brin, P. Carpentier, J. Constans, M. Degeilh, B. Deslandes et al. "Optimisation de l’interrogatoire dans l’évaluation du risque de maladie thromboembolique veineuse : l’étude OPTIMEV". Journal des Maladies Vasculaires 30, n.º 4 (septiembre de 2005): 217–27. http://dx.doi.org/10.1016/s0398-0499(05)88206-x.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

MALGOYRE, A., H. SANCHEZ y N. KOULMANN. "Ethique du sport et éthique de la guerre : optimisation des performances physiques du combattant". Revue Médecine et Armées, Volume 43, Numéro 3 (1 de junio de 2015): 257–64. http://dx.doi.org/10.17184/eac.6885.

Texto completo
Resumen
Les capacités physiques du soldat sont un point déterminant de son efficacité au combat. Partant de ce constat, améliorer le potentiel physique est un objectif légitime du commandement pour la réussite de la mission. En parallèle, le commandement a aussi le devoir de garantir la sécurité des combattants. Ainsi, le port de protections balistiques pour mieux protéger le soldat a aussi ajouté de nouvelles contraintes physiques auxquelles le combattant doit pouvoir faire face mais pas par tous les moyens. Cela nécessite de nouvelles stratégies de préparation physique, peut-être une redéfinition des normes d’aptitude, des améliorations techniques et une doctrine d’emploi ajustée au risque. Être mieux préparé, mieux protégé que l’adversaire fait partie de l’objectif même de la guerre et se distingue ainsi du principe d’équité des chances entre compétiteurs dans les rencontres sportives. Ainsi la notion de dopage issue du monde sportif ne peut s’appliquer en tant que telle aux conditions de combat. Si l’augmentation des performances humaines ne peut être d’emblée rejetée dans le cadre d’une éthique appliquée au combat (qui ne dépend pas du cadre législatif du sport de haut niveau), toute action envisagée aura pour nécessité non négociable de ne pas nuire à la santé de l’homme non seulement à court terme mais aussi à long terme. L’évaluation du rapport bénéfices-risques est essentielle quand il s’agit d’améliorer la performance physique d’hommes sains. Les différents moyens envisagés pour augmenter les capacités physiques seront abordés ici, avec un souci de hiérarchisation en termes d’efficacité, de sécurité et d’acceptabilité pour le soldat. Enfin, chercheur et médecin ont un rôle important à tenir dans cette réflexion pour garantir la préservation de l’état de santé du militaire et son devenir au-delà des enjeux opérationnels de la mission. C’est la notion même de conseil éclairé au commandement et au soldat qui se pose au médecin, et qui nécessite une double approche scientifique et éthique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Latorzeff, I. "Optimisation du contrôle local des cancers de la prostate à haut risque par les traitements multimodaux". Progrès en Urologie 29 (junio de 2019): S8—S19. http://dx.doi.org/10.1016/s1166-7087(19)30166-6.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Dumay, Muriel, Jean-Marc Dersot y Brenda Mertens. "Optimisation parodontale du sourire : adresser au bon moment pour un réel bénéfice esthétique". L'Orthodontie Française 89, n.º 1 (marzo de 2018): 93–110. http://dx.doi.org/10.1051/orthodfr/2018007.

Texto completo
Resumen
Introduction : De nos jours, la demande esthétique devient un des premiers motifs de consultation des patients. Soumis aux diktats de la beauté imposés par notre société, le sourire est un élément clé dans cette quête de l’esthétique parfaite. Ainsi, l’orthodontiste est souvent le premier spécialiste consulté par les adolescents, mais aussi de plus en plus par les adultes. Celui-ci doit être en mesure de réaliser, grâce à des outils simples, une analyse précise du patient comprenant son examen orthodontique, mais aussi parodontal avec un diagnostic parodontal esthétique. Objectifs : Dans cette analyse, l’orthodontiste doit pouvoir identifier le morphotype parodontal de son patient et évaluer si celui-ci est à risque de complications durant son traitement. L’une des principales complications est la récession parodontale. Impactant l’esthétique et suscitant l’inquiétude chez le patient, l’orthodontiste peut vite se retrouver démuni. En cas de doute, il est impératif d’orienter son patient vers l’omnipraticien ou le parodontiste. Matériels et méthodes : Les auteurs décriront dans cet article l’arbre décisionnel qui peut être un outil didactique aidant le praticien dans la prise en charge de son patient. Discussion : Une synergie dans la prise en charge globale des patients est gage d’un résultat optimal des traitements inscrivant le patient dans un schéma thérapeutique individuel et adapté.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Gerlier, C., T. Poinsat, M. Sitbon, H. Beaussier, J. Corny y O. Ganansia. "Identification de facteurs de risque d’erreur de prescription médicamenteuse aux urgences : optimisation d’une activité de conciliation médicamenteuse à l’UHCD". Annales françaises de médecine d’urgence 9, n.º 3 (17 de marzo de 2019): 156–62. http://dx.doi.org/10.3166/afmu-2019-0146.

Texto completo
Resumen
Introduction : Les patients hospitalisés au décours d’un passage aux urgences sont à risque d’erreur médicamenteuse. Le déploiement de l’activité de conciliation médicamenteuse à l’admission en unité d’hospitalisation de courte durée (UHCD) permet d’identifier les divergences non intentionnelles (DNI) de prescription médicamenteuse hospitalière en comparaison avec le traitement pris à domicile, puis de les corriger. L’objectif de l’étude était d’identifier les facteurs prédictifs d’erreurs de prescription médicamenteuse aux urgences, afin de mieux prioriser la conciliation médicamenteuse pour les patients admis à l’UHCD. Méthode : Nous avons mené une étude rétrospective, monocentrique et observationnelle incluant tous les patients ayant bénéficié d’une conciliation médicamenteuse à l’admission à l’UHCD pendant six mois. L’association entre les caractéristiques des patients et la survenue d’au moins une DNI a été étudiée à l’aide d’une régression logistique en ajustant sur les facteurs de confusion (analyse multivariée). Résultats : Parmi 200 patients inclus, 111 étaient concernés par la survenue d’au moins une DNI (56 %) avec une médiane de deux par patient. Les erreurs étaient principalement des omissions, en majorité pour des traitements à visée cardiovasculaire et du système nerveux central. La majorité des patients étaient exposés à un potentiel événement indésirable lié aux soins (n = 70, 63 %), mais aucun à un événement indésirable de gravité potentielle catastrophique. Dans l’analyse multivariée, la présence d’au moins cinq lignes de traitement dans l’observation médicale de l’urgentiste était très prédictive de la survenue d’au moins une DNI (OR : 1,30 ; IC 95 % : [1,15–1,26] ; p < 0,01). Cette variable concernait principalement un groupe de patients distincts d’âge supérieur ou égal à 75 ans et connus pour au moins deux comorbidités dont la majorité a été concernée par au moins une DNI (69 %). Les facteurs organisationnels propres à l’hospitalisation en situation urgente n’étaient pas prédictifs de la survenue de DNI. Conclusion : Pour le pharmacien de l’UHCD, la présence d’au moins cinq lignes de traitement dans l’observation médicale d’un patient doit être considérée comme une alerte et déclencher l’activité de conciliation médicamenteuse, en priorisant les patients âgés de plus de 75 ans et polypathologiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Wenzel, Sven, Christina Tietmann y Frank Bröseler. "Préservation d’une dent par extrusion magnétique forcée". SWISS DENTAL JOURNAL SSO – Science and Clinical Topics 127, n.º 9 (11 de septiembre de 2017): 766–72. http://dx.doi.org/10.61872/sdj-2017-09-05.

Texto completo
Resumen
Les dents présentant des pertes de substance im- portantes en raison de caries ou de traumatismes ont souvent besoin d’une réhabilitation prothétique. Lorsque la conservation de la dent est possible, il est important de stabiliser la substance dentaire dure restante par un sertissage d’ampleur suffisante. Cela nécessite une préparation sous-gingivale souvent profonde, comportant un risque de violation de la largeur (ou espace) biologique. Dans ces cas, l’allongement de la couronne est indiqué en phase de prérestauration. Outre la procédure chirurgicale et en tant qu’alternative, la couronne dentaire peut être prolongée par extrusion. Un avantage de cette méthode, c’est que l’on peut alors se dispenser de l’élimination de certaines parties osseuses supportant la dent. De plus, et surtout dans la zone esthétique, le contour de la gencive marginale peut être corrigé favorablement. Cependant, cette approche prend du temps car elle nécessite un plus grand nombre de séances de traitement. L’extrusion est possible à l’aide d’appareils orthodontiques ou d’aimants. En raison de leur petite taille, les aimants peuvent être intégrés dans une construction provisoire en restant invisibles, ce qui offre des avantages supplémentaires en zone esthétique. La procédure d’extrusion magnétique forcée d’une canine profondément détruite, avec optimisation du contour gingival marginal, est illustrée dans le présent rapport de cas.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Bernard, L., B. Lecomte, B. Pereira, A. Proux, A. Boyer y V. Sautou. "Optimisation de la prévention de la bronchiolite à VRS chez les nouveaux-nés à risque et les prématurés : mesure de l’impact d’une intervention éducative ciblée". Archives de Pédiatrie 22, n.º 2 (febrero de 2015): 146–53. http://dx.doi.org/10.1016/j.arcped.2014.11.015.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Straub, B., P. Bouletreau y P. Breton. "La prise en charge parodontale en chirurgie orthognathique : le dépistage précoce du risque parodontal et sa prise en charge actuelle pour une optimisation des traitements orthodontico-chirurgicaux". Revue de Stomatologie, de Chirurgie Maxillo-faciale et de Chirurgie Orale 115, n.º 4 (septiembre de 2014): e19-e29. http://dx.doi.org/10.1016/j.revsto.2014.05.002.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Tesis sobre el tema "Optimisation du Risque"

1

Seck, Babacar. "Optimisation stochastique sous contrainte de risque et fonctions d'utilité". Phd thesis, Ecole des Ponts ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004576.

Texto completo
Resumen
Dans un contexte d'ouverture à la concurrence et d'émergence des marchés de l'énergie, la production d'électricité est affectée par de nouvelles sources d'aléas : le risque de marché. Nous étudions la possibilité d'introduire des contraintes de risque financier dans le processus d'optimisation de la production de l'électricité. Nous distinguons l'approche "ingénieur" (prise en compte du risque par des mesures de risque) de l'approche "économiste" (prise en compte du risque par des fonctions d'utilité), au Chapitre 1. Ces deux points de vue sont rapprochés dans le Chapitre 2. Une application numérique relativement simple est présentée pour illustrer le lien qui existe entre la Conditional Value-at-Risk et l'aversion aux pertes. Le résultat d'équivalence obtenu dans le Chapitre 2 est étendu à un cadre d'optimisation dynamique dans le Chapitre 3. Une application numérique de cette approche et une programmation dynamique sous contrainte de risque sont faites au Chapitre 4 pour résoudre un problème de gestion de production de l'électricité sous une contrainte de Condition al Value-at-Risk.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ngoupeyou, Armand Brice. "Optimisation des portefeuilles d'actifs soumis au risque de défaut". Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0012/document.

Texto completo
Resumen
Cette thèse porte sur l'optimisation des portefeuilles d'actifs soumis au risque de défaut. La crise actuelle nous a permis de comprendre qu'il est important de tenir compte du risque de défaut pour pouvoir donner la valeur réelle de son portefeuille. En effet dûs aux différents échanges des acteurs du marché financier, le système financier est devenu un réseau de plusieurs connections dont il est indispensable d'identifier pour évaluer le risque d'investir dans un actif financier. Dans cette thèse, nous définissons un système financier avec un nombre fini de connections et nous proposons un modèle de la dynamique d'un actif dans un tel système en tenant compte des connections entre les différents actifs. La mesure de la corrélation sera faite à travers l'intensité de sauts des processus. A l'aide des Equations stochastiques Différentielles Rétrogrades (EDSR), nous déduirons le prix d'un actif contingent et nous tiendrons compte du risque de modèle afin de mieux évaluer la consommation et la richesse optimal si on investit dans un tel marché
The topic of this thesis is about the optimization of portfolio of defaultable assets. The subprime crisis show us that in the future, we should deal with the default risk to get the real value of the portfolio. In fact, there are so many exchanges in the markets that the financial market become a network with many connections and we should identity it to understand the real risk that we take when we deal with financial assets. In this thesis; we define a financial system with a finite number of connections and we give a model for the dynamics of the asset in such system considering the connections in the network. We deal with the jumps intensity processes to take account the correlation in the network. Using Backward Stochastic Differential Equations (BSDE), we get the price of a contingent claim and we consider the model risk to get the optimal consumption and terminal wealth in such financial network
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Andrieu, Laetitia. "Optimisation sous contrainte en probabilité". Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001239.

Texto completo
Resumen
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des stimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problèeme de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Alais, Jean-Christophe. "Risque et optimisation pour le management d'énergies : application à l'hydraulique". Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1071/document.

Texto completo
Resumen
L'hydraulique est la principale énergie renouvelable produite en France. Elle apporte une réserve d'énergie et une flexibilité intéressantes dans un contexte d'augmentation de la part des énergies intermittentes dans la production. Sa gestion soulève des problèmes difficiles dus au nombre des barrages, aux incertitudes sur les apports d'eau et sur les prix, ainsi qu'aux usages multiples de l'eau. Cette thèse CIFRE, effectuée en partenariat avec Electricité de France, aborde deux questions de gestion hydraulique formulées comme des problèmes d'optimisation dynamique stochastique. Elles sont traitées dans deux grandes parties.Dans la première partie, nous considérons la gestion de la production hydroélectrique d'un barrage soumise à une contrainte dite de cote touristique. Cette contrainte vise à assurer une hauteur de remplissage du réservoir suffisamment élevée durant l'été avec un niveau de probabilité donné. Nous proposons différentes modélisations originales de ce problème et nous développons les algorithmes de résolution correspondants. Nous présentons des résultats numériques qui éclairent différentes facettes du problème utiles pour les gestionnaires du barrage.Dans la seconde partie, nous nous penchons sur la gestion d'une cascade de barrages. Nous présentons une méthode de résolution approchée par décomposition-coordination, l'algorithme Dual Approximate Dynamic Programming (DADP). Nousmontrons comment décomposer, barrage par barrage, le problème de la cascade en sous-problèmes obtenus en dualisant la contrainte de couplage spatial ``déversé supérieur = apport inférieur''. Sur un cas à trois barrages, nous sommes en mesure de comparer les résultats de DADP à la solution exacte (obtenue par programmation dynamique), obtenant desgains à quelques pourcents de l'optimum avec des temps de calcul intéressants. Les conclusions auxquelles nous sommes parvenu offrent des perspectives encourageantes pour l'optimisation stochastique de systèmes de grande taille
Hydropower is the main renewable energy produced in France. It brings both an energy reserve and a flexibility, of great interest in a contextof penetration of intermittent sources in the production of electricity. Its management raises difficulties stemming from the number of dams, from uncertainties in water inflows and prices and from multiple uses of water. This Phd thesis has been realized in partnership with Electricité de France and addresses two hydropower management issues, modeled as stochastic dynamic optimization problems. The manuscript is divided in two parts. In the first part, we consider the management of a hydroelectric dam subject to a so-called tourist constraint. This constraint assures the respect of a given minimum dam stock level in Summer months with a prescribed probability level. We propose different original modelings and we provide corresponding numerical algorithms. We present numerical results that highlight the problem under various angles useful for dam managers. In the second part, we focus on the management of a cascade of dams. We present the approximate decomposition-coordination algorithm called Dual Approximate Dynamic Programming (DADP). We show how to decompose an original (large scale) problem into smaller subproblems by dualizing the spatial coupling constraints. On a three dams instance, we are able to compare the results of DADP with the exact solution (obtained by dynamic programming); we obtain approximate gains that are only at a few percents of the optimum, with interesting running times. The conclusions we arrived at offer encouraging perspectives for the stochastic optimization of large scale problems
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Martin, Yvan. "Maintenance par la fiabilité : optimisation au sens de la maîtrise des risques". Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0015.

Texto completo
Resumen
Le thème de recherche, objet de la thèse, concerne l'étude de modèles probabilistes et l'élaboration d'outils et techniques statistiques permettant une gestion optimisée des procédures de maintenance industrielle, avec prise en compte des concepts liés, de qualité et de sûreté de fonctionnement. Après avoir effectué une modélisation pertinente de la loi de survie la plus couramment observée en Fiabilité mécanique ("la courbe en baignoire"), une fréquence optimale de remplacement intégrant des critères économiques a été déterminée par une simulation auto-adaptative. Une optimisation des commandes de pièces détachées, pour une demande aléatoire, a été développée par une technique évolutionnaire, avec, comme préalable, une étude de complexité. A partir de typologies d'arrêts d'exploitation (approche systémique), une heuristique d'optimisation financière a été développée concernant la maintenance opportuniste. Dans le cadre d'une maîtrise de risques financiers, une partie des calculs précédents a été affinée en intégrant une dimension aléatoire prenant en compte la connaissance imparfaite de la loi de survie et des délais de réapprovisionnement
The aim of our work is the study of probabilistic models and the design of tools and statistical methods in order to optimize industrial maintenance process, taking into account Reliability, Quality and Availability. After a careful modelling of the most common life-cycle function (namely the "Bath-Curve"), an optimal frequency of replacement is determined using a "self-adaptive" Simulation method. A complexity study lead us to use a numerical method, based on evolutionary algorithm, in order to optimize stock management in case of hazardous material requisition. Through an analysis of the standards of production: stops, an heuristical method allows us to optimize maintenance policy in the context of opportunistic maintenance. Thinking about financial risk assessment, we integrate imperfect knowledge of life-cycle function and supplies process in all methods developed above
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Therrien, Karine. "Validation et optimisation d'une méthode d'indice de risque de perte de phosphore". Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24468/24468.pdf.

Texto completo
Resumen
La dégradation de la qualité des eaux de surface par le phosphore (P) provenant de sources diffuses, surtout agricoles, a initié le développement d’outils de prédiction des risques de perte de P tenant compte des facteurs transport et source. Aux États-Unis, plusieurs indices de perte de phosphore (IPP) ont été mis au point. Ces IPP n'étant pas nécessairement applicables au Québec, une méthode d’indice modifiée a été proposée : l'Indice de Risque de Phosphore (IRP). L’objectif de ce projet de recherche était de valider et, possiblement, d’améliorer la méthode IRP en se basant sur les pertes de P mesurées sur neuf parcelles expérimentales situées sur la ferme de l’IRDA à Saint-Lambert-de-Lauzon. Les pertes de P par érosion hydrique, par ruissellement et par drainage souterrain ont été mesurées en continu durant deux années (2001-2002) par des systèmes automatiques de mesure et d’échantillonnage quantifiant les volumes d’eau ruisselée et drainée et leur concentration en P pour chaque parcelle. Les pertes de P total (PT) ont été en moyenne de 540 g ha-1, dont 95 % a été perdu par le drainage souterrain. Pour chaque parcelle expérimentale, l’indice de classe de risque sélectionné pour chaque composante de la méthode IRP a été multiplié par le poids de chaque composante pour obtenir une valeur pondérée. Les valeurs pondérées de chaque composante ont ensuite été additionnées pour donner la valeur finale de l’IRP. Les résultats montrent que les masses de PT perdues et les valeurs de l'IRP correspondantes sont corrélées à 0,63. Afin d’améliorer la relation entre les pertes réelles de P et les valeurs de l'IRP, l’algorithme Trust-region de la procédure de programmation non-linéaire (proc NLP) de SAS a été utilisée pour optimiser la valeur des poids et le classement de la valeur des composantes. L'optimisation a résulté en un ensemble de poids et de valeurs de classement ayant une corrélation de 0,92. Les changements apportés ont conservé la structure additive de la méthode IRP. Il faut souligner que les résultats ne sont valides que pour le site de Saint-Lambert. Une généralisation à l'ensemble du territoire agricole du Québec nécessiterait des sites expérimentaux couvrant un plus large éventail de conditions climatiques, édaphiques et agronomiques. Néanmoins, les résultats obtenus montrent la possibilité d'améliorer la capacité prédictive de la méthode IRP. Mots-clés : indice de risque de phosphore, perte de phosphore, optimisation, évaluation du risque, facteurs source, facteurs transport.
Surface water quality impairment is primarily caused by phosphorus (P) lost from surrounding agricultural fields. This knowledge triggered the development of P losses predicting tools taking into account transport and source factors. In the United States, a great number of P index (PI) approaches has been developed and adopted. Because these PIs are not necessarily applicable in the province of Québec, a P index specific to Québec has been developed : the Phosphorus Risk Index (PRI). The objective of this research was to validate and possibly improve the PRI method using P losses measured on nine experimental agricultural plots located on the IRDA farm in Saint-Lambert-de-Lauzon. For each plot, P losses and the amounts of water from runoff and tile-drainage were continuously measured during a two-year period (2001-2002) using automated systems. The total P losses were on average 540 g ha-1 from which 95% was exported via the subsurface drainage system. For each plots, the selected P loss value of each of the PRI components were multiplied by the weight assigned to each components and summed to obtain the final PRI value which is associated to one of the five P loss ratings (i.e. very low, low, medium, high and very high). Results indicate that the measured total P losses and PRI values showed a correlation coefficient of 0.63. In order to improve the relationship between P losses and the IRP, the Trust-region algorithm of the SAS none-linear programming (proc. NLP) was used to optimize weights and P loss potential values of the components. Optimization resulted in a correlation coefficient of 0.92. Modifications to the method kept the additive structure of the PRI method. Results were only valid for the Saint-Lambert plots. Generalization across Québec would require experiments on a range of soil, climate, and agronomic conditions. Results from this research indicated possible improvement in the predictive accuracy of the PRI method. Keywords: Phosphorus index, phosphorus losses, optimization, risk assessment, source factors, transport factors.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hamdi, Faiza. "Optimisation et planification de l'approvisionnement en présence du risque de rupture des fournisseurs". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0002/document.

Texto completo
Resumen
La libéralisation des échanges, le développement des moyens de transport de marchandises à faible coût et l’essor économique des pays émergents font de la globalisation (mondialisation) des chaînes logistiques un phénomène irréversible. Si ces chaines globalisées permettent de réduire les coûts, en contrepartie, elles multiplient les risques de rupture depuis la phase d’approvisionnement jusqu’à la phase finale de distribution. Dans cette thèse, nous nous focalisons sur la phase amont. Nous traitons plus spécifiquement le cas d’une centrale d’achat devant sélectionner des fournisseurs et allouer les commandes aux fournisseurs retenus. Chacun des fournisseurs risque de ne pas livrer ses commandes pour des raisons qui lui sont propres (problèmes internes, mauvaise qualité) ou externes (catastrophe naturelle, problèmes de transport). Selon que les fournisseurs sélectionnés livrent ou non leurs commandes, l’opération dégagera un profit ou sera déficitaire. L’objectif de cette thèse, est de fournir des outils d’aide à la décision à un décideur confronté à ce problème tout en prenant en compte le comportement du dit décideur face au risque. Des programmes stochastiques en nombre entiers mixtes ont été proposés pour modéliser ce problème. La première partie du travail porte sur l’élaboration d’un outil visuel d’aide à la décision permettant à un décideur de trouver une solution maximisant le profit espéré pour un risque de perte fixé. La deuxième partie applique les techniques d’estimation et de quantification du risque VAR et CVaR à ce problème. L’objectif est d’aider un décideur qui vise à minimiser la valeur de l’espérance du coût (utilisation de VaR) ou à minimiser la valeur de l’espérance du coût dans le pire des cas (utilisation de VAR et CVaR). Selon nos résultats, il apparaît que le décideur doit prendre en compte les différents scénarios possibles quelque soit leurs probabilités de réalisation, pour que la décision soit efficace
Trade liberalization, the development of mean of transport and the development economic of emerging countries which lead to globalization of supply chain is irreversible phenomen. They can reduce costs, in return, they multiply the risk of disruption from upstream stage to downstream stage. In this thesis, we focus on the inbound supply chain stage. We treat more specifically the case of a purchasing central to select suppliers and allocate the orders. Each of the suppliers cannot deliver its orders due to internal reasons (poor quality problems) or external reasons (natural disasters, transport problems). According to the selected suppliers deliver their orders or not, the transaction operation will generate a profit or loss. The objective of this thesis is to provide decision support tools to a decision maker faced with this problem by taking into account the behavior of decision maker toward risk. We proposed stochastic mixed integer linear programs to model this problem. In the first part, we focuses on the development of a decision support visual tool that allows a decision maker to find a compromise between maximizing the expected profit and minimize the risk of loss. In the second part, we integrated the techniques of estimation of risk VaR and CVaR in this problem. The objective is to help decision maker to minimize the expected cost and minimize the conditional value at risk simultanously via calculating of VaR. Result shows that the decision maker must tack into account the different scenarios of disruption regardless their probability of realisation
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Forsell, Nicklas. "Planification dans le risque et l'incertain : optimisation des stratégies de gestion spatiale des forêts". Toulouse 3, 2009. http://www.theses.fr/2009TOU30260.

Texto completo
Resumen
Cette thèse s'intéresse à l'optimisation de politiques de gestion à grande échelle dans le risque et l'incertain. Dans l'article I, nous nous concentrons sur le problème de résolution de problèmes de gestion à grande échelle des ressources naturelles spatiales et temporelles. Pour modéliser ce type de problème, le cadre des Processus Décisionnels de Markov sur Graphe (PDMG) peut être utilisé. Deux algorithmes pour le calcul de politiques de gestion de grande qualité sont proposés : le premier basé sur le Programmation Linéaire Approchée (PLA), le second sur une Itération de la Politique Approchée et sur une approximation de Champ Moyen (IPA-CM). L'efficacité et l'adéquation de ces algorithmes ont été démontrées par leur capacité à calculer des politiques de gestion quasi-optimales pour deux problèmes de gestion à grande échelle. La conclusion a été que ces deux algorithmes calculent des politiques de qualité semblable. Cependant, l'algorithme IPACM est souhaitable lorsque l'on requiert à la fois la politique et la valeur attendue de la politique calculée, alors que l'algorithme PLA est préférable lorsque seulement la politique est demandée. Dans l'article II, sont présentés certains algorithmes d'apprentissage par renforcement que l'on peut utiliser pour calculer des politiques de gestion pour des PDMG lorsque la fonction de transition ne peut être simulée parce que sa formulation explicite est inconnue. Des études sur l'efficacité de ces algorithmes dans le cas de trois problèmes de gestion nous ont amenés à conclure que certains de ces algorithmes pouvaient calculer des politiques quasi-optimales. Dans l'article III, nous avons utilisé le cadre PDMG pour optimiser des politiques de gestion forestière à long terme dans le cas d'événements liés aux risques de tempête stochastiques. Ce modèle a été démontré dans l'étude par l'étude d'un domaine forestier de 1 200 hectares, divisé en 623 parcelles. .
This thesis concentrates on the optimization of large-scale management policies under conditions of risk and uncertainty. In paper I, we address the problem of solving large-scale spatial and temporal natural resource management problems. To model these types of problems, the framework of graph-based Markov decision processes (GMDPs) can be used. Two algorithms for computation of high-quality management policies are presented: the first is based on approximate linear programming (ALP) and __ the second is based on mean-field approximation and approximate policy iteration (MF-API). The applicability and efficiency of the algorithms were demonstrated by their ability to compute near-optimal management policies for two large-scale management problems. It was concluded that the two algorithms compute policies of similar quality. However, the MF-API algorithm should be used when both the policy and the expected value of the computed policy are required, while the ALP algorithm may be preferred when only the policy is required. In paper II, a number of reinforcement learning algorithms are presented that can be used to compute management policies for GMDPs when the transition function can only be simulated because its explicit formulation is unknown. Studies of the efficiency of the algorithms for three management problems led us to conclude that some of these algorithms were able to compute near-optimal management policies. In paper III, we used the GMDP framework to optimize long-term forestry management policies under stochastic wind-damage events. The model was demonstrated by a case study of an estate consisting of 1,200 ha of forest land, divided into 623 stands. We concluded that managing the estate according to the risk of wind damage increased the expected net present value (NPV) of the whole estate only slightly, less than 2%, under different wind-risk assumptions. Most of the stands were managed in the same manner as when the risk of wind damage was not considered. However, the analysis rests on properties of the model that need to be refined before definite conclusions can be drawn
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Gérard, Henri. "Stochastic optimization problems : decomposition and coordination under risk". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1111/document.

Texto completo
Resumen
Nous considérons des problèmes d'optimisation stochastique et de théorie des jeux avec des mesures de risque. Dans une première partie, nous mettons l'accent sur la cohérence temporelle. Nous commençons par prouver une équivalence entre cohérence temporelle et l'existence d'une formule imbriquée pour des fonctions. Motivés par des exemples bien connus dans les mesures de risque, nous étudions trois classes de fonctions: les fonctions invariantes par translation, les transformées de Fenchel-Moreau et les fonctions supremum. Ensuite, nous étendons le concept de cohérence temporelle à la cohérence entre joueurs, en remplaçant le temps séquentiel par un ensemble non ordonné et les fonctions par des relations binaires. Enfin, nous montrons comment la cohérence entre joueurs est liée à des formes de décomposition séquentielles et parallèles en optimisation. Dans une seconde partie, nous étudions l'impact des mesures de risque sur la multiplicité des équilibres dans les problèmes de jeux dynamiques dans les marchés complets et incomplets. Nous concevons un exemple où l'introduction de mesures de risque conduit à l'existence de trois équilibres au lieu d'un dans le cas risque neutre. Nous analysons la capacité de deux algorithmes différents à trouver les différents équilibres. Nous discutons des liens entre la cohérence des joueurs et les problèmes d'équilibre dans les jeux. Dans une troisième partie, nous étudions l'optimisation robuste pour l'apprentissage automatique. En utilisant des mesures de risque convexes, nous fournissons un cadre unifié et proposons un algorithme adapté couvrant trois ensembles d'ensembles d'ambiguïté étudiés dans la littérature
We consider stochastic optimization and game theory problems with risk measures. In a first part, we focus on time consistency. We begin by proving an equivalence between time consistent mappings and the existence of a nested formula. Motivated by well-known examples in risk measures, we investigate three classes of mappings: translation invariant, Fenchel-Moreau transform and supremum mappings. Then, we extend the concept of time consistency to player consistency, by replacing the sequential time by any unordered set and mappings by any relations. Finally, we show how player consistency relates to sequential and parallel forms of decomposition in optimization. In a second part, we study how risk measures impact the multiplicity of equilibria in dynamic game problems in complete and incomplete markets. We design an example where the introduction of risk measures leads to the existence of three equilibria instead of one in the risk neutral case. We analyze the ability of two different algorithms to recover the different equilibria. We discuss links between player consistency and equilibrium problems in games. In a third part, we study distribution ally robust optimization in machine learning. Using convex risk measures, we provide a unified framework and propose an adapted algorithm covering three ambiguity sets discussed in the literature
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Texto completo
Resumen
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Libros sobre el tema "Optimisation du Risque"

1

Ekici, Berk. Towards self-sufficient high-rises: Performance optimisation using artificial intelligence. Delft: BK Books, 2022.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Rasmussen, Mikkel. Quantitative Portfolio Optimisation, Asset Allocation and Risk Management (Finance and Capital Markets). Palgrave Macmillan, 2003.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

ERIC, A. B. Sécurité Couche Deux Dans un Réseau d´Entreprise Optimisé: Optimisation Avec les VLANs, les Risques d'Attaque Dans les Commutateurs,déploiement de la Solution de Sécurité , ACL. Independently Published, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Optimisation du Risque"

1

Makowski, David y Hervé Monod. "Optimisation des décisions et gestion des risques". En Analyse statistique des risques agro-environnementaux, 97–124. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0251-0_4.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Chen, Huiyi, Kaixun Dong y Weiwei Bu. "Multi-Objective Scheduling Optimisation for Super High-Rise Projects Considering the MRCPSP". En Lecture Notes in Operations Research, 661–75. Singapore: Springer Nature Singapore, 2024. http://dx.doi.org/10.1007/978-981-97-1949-5_46.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Yang, Yang, Marco Cimillo y Xi Chen. "Energy Performance Optimisation of Low-Rise Lightweight Steel-Frame Houses by Evolutionary Approach". En Lecture Notes in Civil Engineering, 489–97. Singapore: Springer Nature Singapore, 2024. http://dx.doi.org/10.1007/978-981-99-9947-7_51.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Babu, Bincy Ann y N. Elangovan. "Digital Transformation Initiatives for Enhancing Customer Experience in OTT Video Platforms". En Advances in Marketing, Customer Relationship Management, and E-Services, 219–50. IGI Global, 2024. http://dx.doi.org/10.4018/979-8-3693-4466-8.ch009.

Texto completo
Resumen
The rise of Over-the-Top (OTT) video platforms has transformed the way users access and interact with video content. With growing competition, it is crucial for OTT providers to improve customer experience. This chapter integrates digital transformation initiatives tailored to OTT video platforms to enhance the customer experience in the agile market. The growth of OTT video platforms depends on their ability to formulate digital transformation strategies to enhance customer experience. The key digital transformation initiatives implemented by OTT platforms to enhance the customer experience are personalisation, content curation, social media interactivity, user interface optimisation, community building, technological innovation, optimisation of monetisation plans, multi-device integration, interactive initiatives, and customer support. This chapter highlights the importance of digital transformation initiatives for meeting consumers evolving preferences and demands. This chapter offers actionable guidelines for OTT video platforms seeking to thrive in a dynamic digital landscape.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Sahoo, Soumya, Sushruta Mishra, Brojo Kishore Kishore Mishra y Monalisa Mishra. "Analysis and Implementation of Artificial Bee Colony Optimization in Constrained Optimization Problems". En Advances in Computational Intelligence and Robotics, 413–32. IGI Global, 2018. http://dx.doi.org/10.4018/978-1-5225-2857-9.ch021.

Texto completo
Resumen
The growing complexity of real-world problems has motivated computer scientists to search for efficient problem-solving methods. Evolutionary computation and swarm intelligence meta-heuristics are outstanding examples that nature has been an unending source of inspiration. The behaviour of bees, bacteria, glow-worms, fireflies, slime moulds, cockroaches, mosquitoes and other organisms have inspired swarm intelligence researchers to devise new optimisation algorithms. Swarm Intelligence appears in biological swarms of certain insect species. It gives rise to complex and often intelligent behavior through complex interaction of thousands of autonomous swarm members. In this chapter, the ABC algorithm has been extended for solving constrained optimization problems and applied to a set of constrained problems.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Lee, Xiang Loon y Sucharita Srirangam. "Architectural Challenges for Designing Social Interactive Spaces in Luxury High-Rise Residential Buildings in Kuala Lumpur". En Advances in Civil and Industrial Engineering, 297–318. IGI Global, 2023. http://dx.doi.org/10.4018/978-1-6684-8253-7.ch016.

Texto completo
Resumen
Affluent high-rise residential developments are booming in Mont Kiara and the City Centre of Kuala Lumpur, Malaysia. However, upscale high life subjects to social alienation issues. Research indicates that social spaces promote human health, but their integration in vertical living is still insignificant. This study investigates challenges with social space design in luxury high-rise buildings in Kuala Lumpur from designers' perspectives. Interviews were conducted with three architectural firms on the challenges they faced in implementation. Findings revealed challenges with synergistic relationships, architectural branding, spatial order, private-public articulation, space design, space optimisation, and space psychology. Subsequently, three characteristics of challenges on culture, impact, and communication were discussed for designers to respond to. On this basis, it is recommended that aspiring designers develop an awareness of these concerns in future designs and examine more challenges to identify tailored solutions to address these issues.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Anifa, Mansurali, Harish V. y Raja Perumal. "Pricing It Right". En Advances in Business Information Systems and Analytics, 238–71. IGI Global, 2024. http://dx.doi.org/10.4018/979-8-3693-2823-1.ch012.

Texto completo
Resumen
Price is one of the 4Ps that captures value for the company, while the other parts of marketing create value for stakeholders; therefore, getting pricing right is crucial to profitability. Setting the proper price is always a huge challenge and strategy because it must satisfy customers and boost corporate profits. Managing price can boost a company's margin by 7% annually. Traditional pricing setting increases risk and misses possibilities. Data-driven decisions and a rise in analytics have made price decisions more precise for customers and the company. Pricing and analytics can help capitalize on latent benefits and gain a competitive edge. Pricing analytics aims to offer the appropriate price to the right consumer through the right channel. Multiple pricing models can enable analytics-enabled pricing decision making, such as solver-based price optimisation, sensitivity analysis and demand curves, linear and nonlinear regressing, etc. This chapter will explore the above and other analytically enabled pricing approaches to set and strategically adjust prices.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Elhosni, Soumaya y Sami Faiz. "GIS-Based Evolutionary Approaches Using Multiple-Criteria Decision Analysis for Spatial Issues". En Interdisciplinary Approaches to Spatial Optimization Issues, 49–61. IGI Global, 2021. http://dx.doi.org/10.4018/978-1-7998-1954-7.ch003.

Texto completo
Resumen
Geographic information systems (GIS) have been considered as good decision support tools to provide the decision maker (DM). However, their spatial data functionalities fail to provide any report about the potentials of the information and cannot make rational choice between conflicting alternatives. Literature review shows that the integration of GIS with multiple-criteria decision analysis (MCDA) makes GIS more robust in decision making process. While MCDA are used to support DMs to deal and solve spatial multi-objective optimisation problems (SMOPs), the use of their methods are suited for eliciting the preferences of small group of stakeholders. Unlike to MCDA, Multi-Objective Evolutionary Algorithms (MOEA) perform well on solving SMOPS conflicting objectives since only one iteration of the algorithm gives rise to a set of trade-off solutions. However, only choosing better compromise doesn't completely solve the problem. Recently, a growing interest in combining MCDA and MOEA techniques has been seen. The chapter approaches the idea of integration of GIS, MOEA, and MCDA to solve SMOP.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Metzger, Jonathan y Sherif Zakhour. "The politics of new urban professions: the case of urban development engineers". En Planning and Knowledge, 181–96. Policy Press, 2019. http://dx.doi.org/10.1332/policypress/9781447345244.003.0014.

Texto completo
Resumen
This chapter provides evidence of a new urban profession of development engineers within public bureaucracies whose position is increasingly detached from the sphere of public policy in which they operate. It reveals that the rise of the professional category of development engineer has led to the institutionalisation of a narrowly conceived and short-termist economic optimisation rationality. This rationality, which is institutionally solidified in legally binding agreements between the city and property developers, comes to set a very rigid frame for any additional considerations regarding, for example, social justice or balanced urban development. To a large extent, this rationality has come to steer urban development considerations in the city of Stockholm. The chapter concludes that while it might be expected that public land ownership would allow public authorities to promote a more ‘progressive’ and mindful urban development, the development engineers who are presently in the proverbial driving seat of the management of public land do not see the pursuit of such goals to be part of their professional responsibility.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Guidicini, Giovanna. "Edinburgh and Venice: Comparing the Evolution in Communal Living in Geographically Challenged Mercantile Communities". En The Architecture of Scotland, 1660-1750, 442–54. Edinburgh University Press, 2020. http://dx.doi.org/10.3366/edinburgh/9781474455268.003.0023.

Texto completo
Resumen
Through a comparison with the urban and residential solutions employed in the city of Venice in the period 1500-1780, this chapter provides a reasoned contextualisation of the Scottish tenement within a broader European scenario. In Edinburgh, this typology evolved from organic and self-organised juxtaposition of private and semi-private spaces, vertical accesses, and commercial spaces in the Old Town, to its structured and respectable reinterpretation as New Town building-block. This is in turn compared with the parallel evolution of its Venetian counterpart, the residential and commercial casa fondaco, also an experimentation with and progressive optimisation in the design of compact, high-rise, mixed-use urban dwellings. While Edinburgh embraced expansion and the potential of the tenement model - once regularised and restructured - to offer accommodation in the modern context of the New Town, Venice was unable to transform a way of life bound by the social, economic, and spatial constraints, leading to further fragmentation. The strength of the Scottish tenement model lay in its flexibility rather than in its exceptionality;it celebrates its successful transformation from organic agglomerate to codified, respectable residence - a transformation which, the Venetian case study reveals, is not to be taken for granted.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Optimisation du Risque"

1

Deschamps, Frédéric y Grégoire Savary. "Optimisation d'architectures de systèmes aéronautiques certifiables basée sur l'approche modèle". En Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61806.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Milcent, F. y T. Prosvirnova. "Optimisation de la maintenance d’une flotte de matériels basée sur une modélisation dynamique". En Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56199.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Al-Dalal, A., A. Al-Watyan y J. L. Freire. "Sustainable Success: Boosting Reservoir Performance Through Rapid Screening Technique, Case Studies from South and East Kuwait". En SPE Symposium and Exhibition - Production Enhancement and Cost Optimisation. SPE, 2024. http://dx.doi.org/10.2118/220639-ms.

Texto completo
Resumen
Summary The supergiant Greater Burgan Field has been producing billions of commercial volumes since 1946 from the primary clastic sandstone Burgan and Wara reservoirs and from the secondary Burgan Marrat, Magwa Marrat and Burgan Minagish carbonate reservoirs. At present, a concerning rise in water influx is observed within the principal sandstone reservoirs with water cut levels approaching 60%. This threatens future production efficiency and recovery volumes. To maintain desired output levels, increased focus will be necessary on optimal management of the secondary carbonate reservoirs. One of the main oil contributors is the Cretaceous Middle Minagish Oolite (MO) Formation, discovered in 1979, has been on production (primary depletion) for over 52 years due to the rapid pressure depletion in 2018 the reservoir management strategy changes to peripherical waterflood pressure support. MO is a structurally controlled field with unified oil water contact (OWC) with high H2S content, its development as of now considers the balance of dynamic pressures and flow rates behavior, completion effectiveness diagnosis and best practices in well intervention execution. In order to maintain MO production target an accurate identification of performance outliers wells using normalization methods from time-based production data enables assessment of their potential. The methodology unlocks anomalous behavior at the macro level. Combining key reservoir properties facilitates a field-wide pattern analysis, aiding in the definition of well types and performance benchmarking. Visual analytics techniques were used to contextualize inter-well relationships and localized effects such as productivity index, water cut, drawdown, flowrate in a spatial framework. Nodal analysis was performed to evidence the impact of the expected production increase and rank the wells to include in the workover campaign for matrix stimulation. Coil tubing and bullheading were the methods selected to deploy the treatment, the candidates were ranked based on their expected production increase, detailed intervention job was planned, design and analyzed with rig and rigless, and crucial information like cased hole logs and production logs was obtained during the intervention to confirm the results of the methodology. Nine wells were selected for acid-based stimulation treatments based on the methodology output. These treatments demonstrated successful results, with Fold of increase [FOI] ranging from a maximum of 37 to minimum of 3, reflecting the increase of productivity and effectiveness of the treatment. The drawdown required for production now is extremely low ranging from 20 psi to 700 psi in compared to the previous behavior, allowing to achieve sustainable recovery and stay away from the bubble point pressure while reducing the risk of the water breakthrough. The results obtained confirm and validate that the methodology generates opportunities for production optimization campaigns. After the campaign total oil production of 32,500 Bopd [15,840 Bopd Incremental] was achieved that represent 35% production increase from the wells that produce from MO reservoir.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Marle, L., J. Blondel, A. Berlatier, D. Faure y F. Brissaud. "Optimisation de la maintenance des postes de détente du réseau de transport de gaz naturel". En Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61770.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Colmenares, Fernando, Daniele Pascovici, Stephen Ogaji, Pericles Pilidis, Alexander Garci´a y Luis Latorre. "Future Aero-Engines’ Optimisation for Minimal Operating Costs". En ASME Turbo Expo 2008: Power for Land, Sea, and Air. ASMEDC, 2008. http://dx.doi.org/10.1115/gt2008-50127.

Texto completo
Resumen
While aircraft environmental performance has been important since the beginnings of commercial aviation, continuously increasing passenger traffic and a rise in public awareness have made aircraft noise and emissions two of the most pressing issues hampering commercial aviation growth today. The focus of this study is to determine the feasibility of vey-high bypass ratio, geared and contra-rotating aero engines (see figures 2–4) for short range commercial aircraft in terms of economics and environment. This involves optimising the engines’ design point to minimise the direct operating cost and evaluating the economic and environmental impact. The results present a great potential benefit of the geared turbofan compared to high BPR one (baseline) to reduce DOC; however this may involve NOx penalties, that is an increase of 11.6% in comparison to the baseline. The CRTF engine seems to be, at least according to the simulations, a very promising solution in terms of environmental and economical performance. This is one on the series of work that would be carried out using the design tool proposed. Further work on the assessment of more radical turbofans at different economical and environmental scenarios would be published when completed.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Noergaard, Christian, Daniel B. Roemer y Michael M. Bech. "Modelling of Moving Coil Actuators in Fast Switching Valves Suitable for Digital Hydraulic Machines". En ASME/BATH 2015 Symposium on Fluid Power and Motion Control. American Society of Mechanical Engineers, 2015. http://dx.doi.org/10.1115/fpmc2015-9593.

Texto completo
Resumen
The efficiency of digital hydraulic machines is strongly dependent on the valve switching time. Recently, fast switching have been achieved by using a direct electromagnetic moving coil actuator as the force producing element in fast switching hydraulic valves suitable for digital hydraulic machines. Mathematical models of the valve switching, targeted for design optimisation of the moving coil actuator, are developed. A detailed analytical model is derived and presented and its accuracy is evaluated against transient electromagnetic finite element simulations. The model includes an estimation of the eddy currents generated in the actuator yoke upon current rise, as they may have significant influence on the coil current response. The analytical model facilitates fast simulation of the transient actuator response opposed to the transient electro-magnetic finite element model which is computationally expensive. Fast simulation of the problem is crucial for optimising the switching valves, especially when using several design variables in an optimisation algorithm.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Power, John, Owen Humphreys, Mark Hartnet y Denis Dowling. "Using In-Situ Process Monitoring To Enhance The Homogeneity Of Printed Ti-6Al-4V Alloy Microstructures At Overhangs". En Euro Powder Metallurgy 2024 Congress & Exhibition. EPMA, 2024. http://dx.doi.org/10.59499/ep246277046.

Texto completo
Resumen
The evolution of laser powder bed fusion (L-PBF) has provided increased design flexibility in the fabrication of a range of parts, including aerospace components and medical devices. The presence of overhangs in metal alloy print structures, however, can give rise to enhanced levels of print defects such as porosity. This is associated with overheating of the alloy meltpool in the region around the overhang structures. This study demonstrated the effectiveness of in-situ meltpool process monitoring as a route to assist laser parameter optimisation for printed Ti-6Al-4V alloy parts. Informed by the observations from the process monitoring of the laser meltpool, the laser parameters are controlled to prevent overheating in the area around the overhang, yielding a more homogeneous printed part's microstructure. In addition to microstructure optimisation, the enhanced control of the L-PBF process yielded an 88% reduction in overhang roughness (Ra) and a 75% reduction in porosity.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Colmenares, Fernando, Konstantinos Kyprianidis, Josue´ Go´mez, Stephen Ogaji, Pericles Pilidis y Sergio Latorre. "Future Aero-Engines’ Optimisation for Minimal Fuel Burn". En ASME Turbo Expo 2008: Power for Land, Sea, and Air. ASMEDC, 2008. http://dx.doi.org/10.1115/gt2008-50126.

Texto completo
Resumen
While aircraft environmental performance has been important since the beginnings of commercial aviation, continuously increasing passenger traffic and a rise in public awareness have made aircraft noise and emissions two of the most pressing issues hampering commercial aviation growth today. The air transportation for the new millennium will require revolutionary solutions to meeting public demand for improving safety, reliability, environmental compatibility, and affordability. The objective of this research is to assess the trade-off between operating costs and environmental requirements of the future aero engines for short range commercial aircrafts. This involves optimising the engines’ design point to minimise the block fuel and evaluating the economic and environmental impact. A high by-pass ratio turbofan engine with performance characteristics and technology from the year 2000 was set up as a baseline and compared to very high by-pass ratio turbofans. The results present a great potential benefit of the geared turbofan compared to high BPR one (baseline) to reduce cruise CO2 emissions and noise; however this may involve NOx penalties, that is an increase of 5.1% in comparison to the baseline. The CRTF engine seems to be, at least according to the simulations, a very promising solution in terms of environmental and economical performance. This is one on the series of work that would be carried out on the cycles being assessed in this paper (feasibility study). Further work on the specific technical issues — such as: technological implications — would be published when completed.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Oshinibosi, Ahmed, David Barton, Peter Brooks y Carl Gilkeson. "Topology Optimisation of an Automotive Disc Brake Rotor to Improve Thermal Performance and Minimise Weight." En EuroBrake 2021. FISITA, 2021. http://dx.doi.org/10.46720/4177245eb2021-ebs-002.

Texto completo
Resumen
Weight reduction has become a major topic in the automotive industry due to the environmental impacts of carbon emissions. When considering the thermal performance of disc brake rotors, it is increasingly important to optimise their design in a weight-efficient manner. With the advent of electric vehicles, which are heavy due to battery requirements, there is even more impetus to reduce total vehicle mass which can extend driving range. Furthermore, the brake disc constitutes part of the vehicle’s unsprung mass, so minimising brake rotor weight helps to improve ride comfort and reduce damage to the road surface. Considering thermal performance, the temperature rise produced by friction at the sliding interface leads to thermo-elastic deformation within the disc. Consequently, this can change the distribution of contact pressure and cause thermal localisation such as hot-banding and hot-spotting. The phenomenon is called thermo-elastic instability, and if severe, this can cause judder, as well as decrease the fatigue life of the disc. This paper introduces topology optimisation in the development of a ventilated brake disc used on a high performance passenger vehicle with the aim of improving thermal performance, while minimising mass. A baseline ground structure is formulated to enable new conceptual vane geometries for both improved thermal performance and lower disc mass to be derived. This approach allows novel disc designs not previously considered to evolve. Although possibly more difficult to manufacture than the conventional disc, the potential performance benefits of this more radical optimisation strategy are clearly demonstrated. Furthermore, CFD analysis is utilised to predict the air flow through the conceptual vane designs produced from the topology optimisation process. This allows for estimation of convective heat transfer coefficient for the novel design concepts and enables detailed flow patterns within the vane geometries to be predicted.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Andre´, Rui Neto, Filomena Pinto, Carlos Franco, Celestino Tavares, Ma´rio Dias, I. Gulyurtlu y I. Cabrita. "Co-Gasification Study and Optimisation of Coal, Biomass and Plastics Waste Mixtures". En ASME Turbo Expo 2002: Power for Land, Sea, and Air. ASMEDC, 2002. http://dx.doi.org/10.1115/gt2002-30011.

Texto completo
Resumen
The continuous grow of world population has led to a substantial increase in energy demand. On the other hand, it has given rise to generating large amounts of wastes, which need to be disposed of without any damage to the environment. Such scenario has led to the idea of studying the application of gasification technology to mixtures of coal and wastes. The results obtained so far are encouraging, as they have shown that it is possible to co-gasify coal mixed with either pine or polyethylene wastes to values up to 40% (w/w) of wastes, being even possible to substitute one waste type by the other, whenever their availability are seasonal affected. However, the presence of PE wastes favoured the release of hydrocarbons, which may be reduced by either an increase in gasification temperature or in air flow.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía