Letteratura scientifica selezionata sul tema "Optimisation de modèle de coûts"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Optimisation de modèle de coûts".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Optimisation de modèle de coûts":

1

Bardin, Isabelle, Dominique Bonet e Odile Chanut. "La logistique urbaine : déterminants et réflexions en cours en région PACA". Revue Française de Gestion Industrielle 29, n. 2 (1 giugno 2010): 93–104. http://dx.doi.org/10.53102/2010.29.02.627.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte global d'intensification des échanges entre régions, pays et continents, la logistique des grands flux a bénéficié d'innovations technologiques et organisationnelles assurant efficacité et efficience, conjuguant maîtrise des coûts et optimisation de la qualité de service. Si cette dynamique opère efficacement à l'échelle globale, il n'en va pas de même à l'échelle urbaine, plus particulièrement dans les centres-villes. En effet, la gestion des flux dans un environnement caractérisé par une forte densité démographique n'a pas encore véritablement trouvé son modèle d'organisation. Aujourd'hui, la logistique urbaine ou encore la gestion "du dernier kilomètre" constitue donc un enjeu sociopolitique et environnemental de premier plan. L'objectif de notre article est de dresser un état des lieux de cette question afin d'en apprécier l'acuité sur le moyen et le long terme. Dans une première partie, nous présentons le contexte socio-économique dans lequel s'inscrit cette problématique. Nous examinons ensuite dans une seconde partie en quoi la région PACA constitue un terrain particulièrement représentatif des enjeux de la logistique urbaine et les pistes de réflexion déjà engagées au sein de l'agglomération marseillaise.
2

Fairise, Xavier. "Les coûts d’ajustement croisés et le cycle de productivité: évaluation dans un modèle de cycles réels". Recherches économiques de Louvain 61, n. 2 (1995): 181–216. http://dx.doi.org/10.1017/s0770451800029511.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
RésuméDans le but d’analyser le cycle de productivité de l’emploi, cet article présente un modèle de cycles réels avec coûts d’ajustement croisés sur l’investissement et le travail. Le modèle est simulé et confronté aux faits stylisés du marché du travail. Nous évaluons plus particulièrement la capacité du modèle à reproduire un cycle de productivité de l’emploi. Nous montrons alors que l’amplitude du cycle de productivité ne dépend pas uniquement du poids des coûts d’ajustement de l’emploi, mais peut aussi résulter du degré de complémentarité, en termes de coûts d’ajustement, de l’embauche et de l’investissement. Au-delà de son explication du cycle de productivité, le modèle permet aussi de rendre compte de la dynamique de l’investissement et de l’emploi.
3

Martineau, David. "Coûts d'échange, compétitivité et localisation." Revue économique 47, n. 3 (1 maggio 1996): 787–96. http://dx.doi.org/10.3917/reco.p1996.47n3.0787.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Dans cet article, nous proposons une analyse des ajustements dans le sec­teur textile-habillement suite à la levée de l'Accord Multi-Fibres (AMF), à partir d'un modèle de type gravitationnel. Sur la base d'un échantillon mondial agrégé couvrant 85 % des exportations de ce secteur, nous étudions plus particulière­ment les relocalisations de l'activité entre un groupe de régions « périphériques » asiatiques et les pays de l'OCDE. Nous analysons l'impact de la réduction des coûts d'échange induite par la libéralisation commerciale sur le modèle de locali­sation des activités textile-habillement. L'introduction de coûts d'échange bilaté­raux entraîne une différenciation de l'espace économique qui modère le rôle des avantages comparatifs dans l'approfondissement de la spécialisation des écono­mies domestiques.
4

Diop, Sérigné. "Peut-on piloter la performance organisationnelle en l’absence de données sur les coûts ? Enquête exploratoire auprès des PME au Sénégal". Revue Management & Innovation N° 2, n. 2 (28 ottobre 2020): 143–60. http://dx.doi.org/10.3917/rmi.202.0143.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La place qu’occupent les informations sur les coûts calculés dans le pilotage de la performance des petites et moyennes entreprises (PME) Ouest-africaines demeure un aspect très peu abordé par la recherche en sciences de gestion. C’est dans ce sens qu’une étude exploratoire a été conduite auprès des PME au Sénégal afin de mettre à la disposition des managers deux modèles complémentaires (dans le cas de l’organisation ambidextre) de pilotage de la performance organisationnelle : un modèle de performance prenant en compte les données sur les coûts et un modèle de performance faisant abstraction des données sur les coûts mais basé sur la qualité des produits (Q), la capacité d’innovation (I), le respect des délais (D), l’apprentissage organisationnel (AO) et la flexibilité des outils de gestion (F).
5

Guellec, Dominique. "Externalités et asymétries d'information dans un modèle de croissance." Revue économique 46, n. 3 (1 maggio 1995): 837–46. http://dx.doi.org/10.3917/reco.p1995.46n3.0837.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé La théorie de la croissance endogène souligne impact des extemalités sur la croissance économique Le taux de croissance associé équilibre concurrentiel est donc généralement sous-optimal Le théorème de Coase implique une telle situation ne peut se produire que si les coûts de transaction sont positifs Cet article présente un modèle où ces coûts sont introduits sous la forme une asy métrie information et où les agents sont liés par des interactions stratégiques Le problème de la coordination se ramène un dilemme du prisonnier répété inci tation pour les agents coopérer et donc internaliser les extemalités dépend du caractère répété de interaction du nombre de partenaires et du niveau des coûts de transaction Les arrangements institutionnels qui déterminent ces variables influent donc sur le taux de croissance des économies et peuvent expliquer la diversité internationale constatée
6

Le, Jacques, e Marie-Françoise Calmette. "Localisation des activités : un modèle bisectoriel avec coûts de transport". Revue économique 46, n. 3 (1 maggio 1995): 901–9. http://dx.doi.org/10.3917/reco.p1995.46n3.0901.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Selon P. Krugman , dans une économie où coexistent deux secteurs, l'un en concurrence monopolistique, l'autre en concurrence parfaite, la réduction des coûts de transport des biens du premier secteur favorise la concentration géogra­phique des activités. Nous montrons que, s'il y a un coût de transport positif pour les biens du deuxième secteur, cette tendance à la concentration disparaît pour de fortes réductions des coûts de transport dans le premier secteur. Mais les enjeux portent aussi, alors, sur l'évolution du bien-être relatif des agents.
7

Chatelain, Jean-Bernard. "Investissement irréversible, taux d’utilisation des capacités et coûts de faillite". Recherches économiques de Louvain 61, n. 2 (1995): 217–41. http://dx.doi.org/10.1017/s0770451800029523.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
RésuméCe modèle étudie les effets joints de l’irréversibilité et des coûts de faillite sur la décision d’investissement. Les coûts de faillite supportés par le prêteur accentuent son conflit d’intérêt avec l’emprunteur: il est principalement concerné par la partie basse de la distribution du risque, alors que l’emprunteur est concerné par la partie restante. On établit l’existence d’un optimum du second ordre, où l’investissement dépend non seulement de la profitabilité et de l’espérance de la demande mais aussi de la richesse ou des fonds propres de l’entreprise. Le taux d’utilisation des capacités de production optimal diminue en présence de coûts de faillite. Le coût du capital est alors plus élevé puisqu’il inclue les coûts de faillite.
8

El Haddad, Pierre. "Les coûts cachés comme levier de transformation dans une ONG : étude exploratoire". ACCRA N° 19, n. 1 (30 gennaio 2024): 95–117. http://dx.doi.org/10.3917/accra.019.0095.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une recherche-intervention a été proposée pour aider une organisation non gouvernementale notoire à faire face à ses défis de transformation en entreprise sociale pour assurer sa survie. Cette transformation intervient en période de transmission entre les fondateurs et un dirigeant de transition qui peine à faire adhérer les acteurs au processus. La méthodologie adoptée est celle d’une recherche-intervention axée sur l’approche des coûts-potentiels cachés. Les résultats de la recherche suggèrent que l’approche par les coûts-potentiels cachés représente un levier d’engagement en accord avec la théorie socio-économique du management. La recherche propose également un modèle de transformation amorcée par les coûts cachés.
9

Salgado, Diana Patricia, María Rita Otero e Verónica Parra. "Research and study paths at the university: a praxeological model of reference related to costs calculationParcours de recherche et d'études à l'université: un modèle praxéologique de référence lié au calcul des coûts". Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, n. 4 (15 settembre 2020): 563–78. http://dx.doi.org/10.23925/1983-3156.2020v22i4p563-578.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
AbstractThis work fits within a wider research whose general objective is teaching mathematics to non-mathematicians at the university, taking central assumptions of the Anthropological Theory of Didactics. This work proposes a praxeological model of reference related to a micro-entrepreneurship costs calculation. The generative question How to calculate micro-entrepreneurship costs? links mathematical and economic praxeologies. This model allows to go through a part of the study programme of a university calculus course.Keywords: Anthropological theory of the didactic; Course of study and research; Praxeological Reference Model.RésuméCe travail fait partie d’une recherche plus large dont l’objectif général est l’enseignement des mathématiques pour non-mathématiciens à l’université dans le cadre de la Théorie Anthropologique du Didactique. On propose un modèle praxéologique de référence sur le calcul de coûts d’une micro-entreprise. La question génératrice est Comment calculer les coûts dans une micro-entreprise? Elle associe plusieurs organisations mathématiques et économiques. Ce modèle permet de couvrir une partie du programme d’études d’un cours de Calcul du niveau universitaire. Mots-clés : Théorie anthropologique de la didactique, Parcours d'étude et de recherche, Modèle de référence praxéologique.
10

Boyer, Marcel, e Michel Moreaux. "L’équilibre concurrentiel comme limite de suites d’équilibres stratégiques de Stackelberg". Articles 61, n. 3 (23 marzo 2009): 299–315. http://dx.doi.org/10.7202/601335ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
RÉSUMÉDans cet article, nous considérons le modèle de Stackelberg stricto sensu (dans lequel chaque agent a une stratégie en quantités) mais en introduisant une hiérarchie de firmes. On sait que dans ce cas, c’est le rôle de meneur qui procure un avantage. Nous montrons dans le cadre d’un modèle linéaire à coûts moyens constants que plus le nombre de subordonnés d’un joueur est élevé, plus son profit est élevé. Cependant, lorsque le nombre de joueurs augmente, d’une part la répartition des niveaux de production et de profit reste fondamentalement inégalitaire, mais d’autre part la production totale de l’industrie tend vers la production d’équilibre concurrentiel, convergence préservée en présence de coûts fixes lorsque l’on réplique simultanément la taille au marché et le nombre de firmes, de sorte que, en termes de profits absolus, l’avantage que procure le rang disparaît.

Tesi sul tema "Optimisation de modèle de coûts":

1

Fortin, Jean-Sébastien. "Optimisation des investissements sur les ponts par la méthode coûts-avantages : valorisation des revenus et du modèle de détérioration". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28153.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
This study extends the existing literature on Bridge Management Systems (BMS) by developing a decision-making program to optimize bridge rehabilitations. This decision-making tool analyses the net present value to consider the optimal moment to repair a bridge. It highlights wealth creation by the maintenance of an efficient road network. Moreover, it allows the study of uncertainty on several parameters, such as financial values of inflation and interest rates as well as the evolution of traffic flow. The ability of the decision-making tool to verify the impact of several variables and the deterioration model currently used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports is compared to two other models; a Markovian model and a stochastic model developed under this study. This project breaks new ground by considering the revenue generated by the bridge’s efficiency. It also considers uncertainty on several parameters, such as financial values of inflation and interest rate, and the evolution of traffic flow. Considering the recent establishment of the management system used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports, this study is based on several assumptions. The life span of the bridge is limited to 100 years, degradation and repairs can only be done every 5 years, a single repair can be made over the bridge lifespan and the bridge condition is represented by only a few bridge components (elements). The study highlights the importance of considering variability on the deterioration of an element/bridge, interest rates and, to a lesser extent, inflation based on the ministère des Transports, de la Mobilité durable et de l'Électrification des transports data and using a probabilistic analysis of 20,000 simulations. Thus, when the bridge is only represented by its reinforced concrete deck and using the deterministic deterioration approach, a repair between 25 and 30 years is appropriate. A rather low interest rate can even push this choice to 35 years. This choice is very broad with the Markovian approach considering the high probabilities of keeping the bridge in good condition. Finally, the stochastic approach favors repair between 20 and 35 years depending on the speed of deterioration. This choice may again change slightly with the addition of both a variable interest rate and a variable inflation rate. When a reinforced concrete deck and steel beams are considered to represent the entire bridge, the deterministic approach suggests a 25-year repair for the reinforced concrete deck and a 30-year repair for the steel beams. Stochastic financial parameters can affect this choice, making an optimal repair of 25 to 35 years possible for both elements. The optimal moments of repair are very spread out for the Markovian approach considering the high probabilities of maintaining the elements in good condition. Finally, the stochastic approach proposes a repair between 20 and 35 years for the reinforced concrete deck and between 15 and 40 years for the steel beams. These repairs are slightly affected by the addition of a variable interest rate and inflation rate as well. An in-depth analysis shows the impact that several parameters have on the model considered. These parameters include: the transition matrix, the state penalty, the variability of the matrix for stochastic deterioration, and the addition of a simultaneous repair advantage. A change in the transition matrix mainly has an impact on the volatility of the results, whereas a modification on the state penalty shifts the optimal repair time distribution for Markovian and stochastic deteriorations. The variability of the matrix for stochastic deterioration directly affects the volatility of the optimal repair time. For example, the lower the percentage of variation of the matrix, the more the optimal repair moments will be concentrated (or fixed). Finally, the implementation of a simultaneous repair benefit mainly has an impact when the optimal repair time is within 10 years of a simultaneous repair. For a deterministic deterioration, a reduction in costs of 3.72% is sufficient to reconcile repair dates to 30 years, the bridge being repair at 25 years without this benefit. However, this advantage has little impact on Markovian deterioration due to the wide distribution of optimal repair times but a considerable impact on stochastic deterioration, with the majority of repairs occurring within a range of 15 to 40 years.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
2

Moumen, Chiraz. "Une méthode d'optimisation hybride pour une évaluation robuste de requêtes". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30070/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes
The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing
3

Hussein, Mohammad. "Un modèle d'exécution à base d'agents mobiles pour l'optimisation dynamique de requêtes réparties à grande échelle". Toulouse 3, 2005. http://www.theses.fr/2005TOU30203.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Large, Aurore. "Une meilleure gestion patrimoniale des réseaux d'eau potable : le modèle de prévision du renouvellement à long terme OPTIMEAU". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0086/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les pays développés, l’eau potable est distribuée au domicile des usagers. Ce confort requier tun long linéaire de réseau de forte valeur patrimoniale. Pour maintenir un équilibre entre ressources financières et performances, il est important d’essayer de renouveler les tronçons au meilleur moment possible. Ce manuscrit présente les modèles court (1 à 3 ans), moyen et long terme ( > 30 ans)actuellement employés. Les processus court terme semblent assez efficaces, mais les méthodes moyen et long terme restent frustes. Le modèle OPTIMEAU propose une approche long terme pour obtenir une vision globale du patrimoine de canalisations et rationaliser sa gestion, tout en restant en phase avec les pratiques opérationnelles de programmation à court terme. Cette démarche, fondée sur des modèles statistiques de survie, est testée à partir des données réelles de 3 services d’eau Européens : le SEDIF (Syndicat des Eaux d’Ile de France), le Grand Lyon et eau service Lausanne en Suisse. L’originalité de ce modèle réside dans l’estimation de la distribution des âges à la mise hors service passée, clef de voûte dans la construction de onze indicateurs liés aux finances, aux réalisations et à la performance future des services
In developed countries, drinking water is distributed to households. This comfort requires a long networkwith a high value. To optimize resources and performance, it is important to renew pipe sectionsat the best possible time. This thesis presents the short (1-3 years), medium and long term (> 30 years)models commonly employed. The short-term processes seem quite effective, but long term methods remainrough. The OPTIMEAU model proposes a long-term approach to get a prospective overview ofpipes and improve its management, while remaining connected to the technical practices at short-termlevel. This approach, based on survival statistical models, is tested using actual data of three Europeanwater services : SEDIF (Syndicat des Eaux d’Ile de France), Grand Lyon and eauservice Lausanne inSwitzerland. The originality of this model lies in the estimation of the past decommissioning age distribution,keystone in the construction of eleven indicators related to finance, achievements and futureperformance of water utilities
5

Leserf, Patrick. "Optimisation de l’architecture de systèmes embarqués par une approche basée modèle". Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0008/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus
Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV)
6

Naacke, Hubert. "Modèle de coût pour médiateur de bases de données hétérogènes". Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les @ systèmes distribués accèdent à des sources d'informations diverses au moyen de requêtes déclaratives. Une solution pour résoudre les problèmes liés à l'hétérogéneité des sources repose sur l'architecture médiateur / adaptateurs. Dans cette architecture, le médiateur accepte en entrée une requête de l'utilisateur, La traite en accèdant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Le médiateur offre une vue globale et centralisée des sources. Les adaptateurs offrent un accès uniforme aux sources, au service du médiateur. Pour traiter une requête de manière efficace, le médiateur doit optimiser le plan décrivant le traitement de la requête. Pour cela, plusieurs plans sémantiquement équivalents sont envisagés, Le coût (i. E. Le temps de réponse) de chaque plan est estimé afin de choisir celui de moindre coût qui sera exécuté. Le médiateur estime le coût des opérations traitées par les sources en utilisant les informations de coût que les sources exportent. Or, à cause de l'autonomie des sources, les informations exportées peuvent s'avérer insuffisantes pour estimer le coût des opérations avec une précision convenable. Cette thèse propose une nouvelle méthode permettant au développeur d'adaptateur d'exporter un modèle de coût d'une source à destination du médiateur. Le modèle exporté contient des statistiques qui décrivent les données stockées dans la source ainsi que des fonctions mathématiques pour évaluer le coût des traitements effectués par la source. Lorsque le développeur d'adaptateur manque d'information ou de moyen, il a la possibilité de fournir un modèle de coût partiel qui est automatiquement completé avec le modèle générique prédéfini au sein du médiateur. Nous validons expérimentalement le modèle de coût proposé en accèdant à des sources web. Cette validation montre l'efficacité du modèle de coût générique ainsi que celle des modèles plus spécialisés selon les particularités des sources et les cas d'applications
Les systemes distribues accedent a des sources d'informations diverses au moyen de requetes declaratives. Une solution pour resoudre les problemes lies a l'heterogeneite des sources repose sur l'architecture mediateur / adaptateurs. Dans cette architecture, le mediateur accepte en entree une requete de l'utilisateur, la traite en accedant aux sources via les adaptateurs concernes et renvoie la reponse a l'utilisateur. Le mediateur offre une vue globale et centralisee des sources. Les adaptateurs offrent un acces uniforme aux sources, au service du mediateur. Pour traiter une requete de maniere efficace, le mediateur doit optimiser le plan decrivant le traitement de la requete. Pour cela, plusieurs plans semantiquement equivalents sont envisages, le cout (i. E. Le temps de reponse) de chaque plan est estime afin de choisir celui de moindre cout qui sera execute. Le mediateur estime le cout des operations traitees par les sources en utilisant les informations de cout que les sources exportent. Or, a cause de l'autonomie des sources, les informations exportees peuvent s'averer insuffisantes pour estimer le cout des operations avec une precision convenable. Cette these propose une nouvelle methode permettant au developpeur d'adaptateur d'exporter un modele de cout d'une source a destination du mediateur. Le modele exporte contient des statistiques qui decrivent les donnees stockees dans la source ainsi que des fonctions mathematiques pour evaluer le cout des traitements effectues par la source. Lorsque le developpeur d'adaptateur manque d'information ou de moyen, il a la possibilite de fournir un modele de cout partiel qui est automatiquement complete avec le modele generique predefini au sein du mediateur. Nous validons experimentalement le modele de cout propose en accedant a des sources web. Cette validation montre l'efficacite du modele de cout generique ainsi que celle des modeles plus specialises selon les particularites des sources et les cas d'applications
7

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)
This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
8

Elias, Antoine. "Diagnostic de l'embolie pulmonaire : optimisation par l'analyse du rapport de vraisemblance et du ratio coût-efficacité et proposition d'un modèle d'étude clinique". Lyon 1, 2003. http://www.theses.fr/2003LYO10130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous avons analysé différents aspects de validité des tests utilisés dans le diagnostic de l'embolie pulmonaire par une revue systématique et des études cliniques que nous avons réalisées. L'analyse du rapport de vraisemblance a montré l'absence de différence majeure entre les stratégies associant trois tests et l'intérêt d'incorporer le scanner hélicoi͏̈dal dans les stratégies utilisant les D-dimères ou les ultrasons limités. L'analyse coût-efficacité de vingt stratégies, réalisée selon un modèle de décision Bayésien, a montré deux options dominantes : la stratégie " D-dimères, ultrasons limités, scanner hélicoi͏̈dal " la moins coûteuse et la stratégie " ultrasons étendus, scanner hélicoi͏̈dal " la plus efficace. Le coût par vie supplémentaire gagnée par la dernière stratégie comparée à la première était acceptable.
9

Antomarchi, Anne-Lise. "Conception et pilotage d'un atelier intégrant la fabrication additive". Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC035/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fabrication additive est un domaine en plein essor. Cependant, les industriels sont aujourd’hui dans une phase d’interrogation sur l’utilisation de ce procédé dans le cadre d’une production de masse. La problématique posée dans le cadre de ces travaux de recherche est : Comment rendre viable, industriellement, le procédé de fusion sur lit de poudre ? Nos travaux abordent la conception et le pilotage d’ateliers intégrant la fabrication additive et le processus complet d’obtention de la pièce selon les trois niveaux de décision : stratégique, tactique et opérationnel. D’un point du vue stratégique, des décisions fortes d’investissement, de sélection de machines et de choix d’organisation sont à prendre avec des enjeux économiques importants. L’objectif est de définir une méthode d’optimisation multicritère pour la conception modulaire d’un système de production intégrant la fabrication additive en présence de données incertaines, optimale sur le long terme et sur le court terme. D’un point de vue tactique, toutes les pièces ne sont pas forcément des candidates pertinentes pour la fabrication additive. Dans ces travaux, nous avons développé un outil d’aide à la décision qui évalue la pertinence ou non de la fabrication additive pour l’obtention des pièces dans une approche globale des coûts. Au niveau opérationnel, nous proposons un outil basé sur la simulation de flux qui permet de passer des commandes aux ordres de fabrication et leur ordonnancement de manière à garantir l’efficience de l’atelier. Ces travaux de recherche sont développés en lien avec des acteurs du monde industriel : AddUp, MBDA et Dassault qui alimentent nos travaux et nous permettent de confronter nos outils à une réalité industrielle
The additive manufacturing is a field on the rise. However, companies wonder about the use of additive manufacturing for mass production. The problem raised in the context of this thesis is: How to make the process of sintering laser melting industrially viable? Our work focuses on the design and on the management of workshops integrating the additive manufacturing and of the complete process to obtain part according to three levels of decision: strategic, tactic and operational. About the strategic level, strong decisions of investment, machines selection and organization choice are taken with important economic issues. The aim is to define a multicriteria optimization method for the modular design of a production system integrating the additive manufacturing in the presence of uncertain data, optimal in the long term and the short term. From a tactical point of view, not all parts are necessarily relevant candidates for additive manufacturing. In this work, we developed a decision support tool that evaluates the relevance or not of additive manufacturing to obtain parts in a global cost approach. At the operational level, we offer a tool based on flow simulation that allows orders to be placed to production orders and their scheduling in order to guarantee the efficiency of the workshop. This research work is developed in collaboration with companies: AddUp, MBDA and Dassault, who contribute to our work and enable us to compare our tools with an industrial reality
10

Merzouk, Salah Eddine. "Problème de dimensionnement de lots et de livraisons : application au cas de la chaîne logistique". Besançon, 2007. http://www.theses.fr/2007BESA2036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les exigences des clients en termes de coûts et de délais étant en constante augmentation, l'optimisation des activités de production, de transport et de stockage simultanément est devenue un facteur clef dans la réussite d'une entreprise d'une manière particulière, et de toute la chaîne logistique d'une manière plus générale. En effet, la compétition mondiale a amené la plupart des sociétés industrielles à reconnaître la nécessité de prendre en considération la chaîne logistique entière pour réduire leurs coûts et augmenter leur réactivité face aux évolutions perpétuelles du marché. Notre étude s'intéresse particulièrement à l'optimisation du flux physique d'un seul type de produits échangé entre les sites d'une chaîne logistique "linéaire", composée d'un ensemble de sites manufacturiers organisés en cascade. Chaque deux sites qui se succèdent sont reliés entre eux par un seul transporteur dont la capacité de chargement est limitée et dont le rôle est d'acheminer les produits du premier vers le second site. L'objectif est de trouver la séquence des tailles de lots de livraison tout au long de la chaîne qui permet, d'une part de satisfaire les différentes contraintes du système, en particulier les délais imposés par le client final, et d'autre part, de minimiser le coût global induit par les différentes opérations de production, de stockage et de transport. Nous proposons alors un modèle mathématique de la structure de base de la chaîne linéaire qui est "le maillon logistique" et dont les composantes se résument à deux sites et leurs transporteur correspondant. Les propriétés mathématiques que nous avons démontrées pour ce modèle nous ont permis de développer une procédure efficace de Séparation Évaluation Progressive (SEP) qui permet de trouver la solution optimale en un temps très réduit. Le modèle proposé a été ensuite généralisé au cas de la chaîne linéaire. Les résultats obtenus précédemment ont pu être utilisés à différents niveaux et ont amené à développer une autre SEP "globale" (SEP-G). Les résultats expérimentaux effectués ont montré que la SEP-G permet de résoudre des problèmes de taille moyenne avec une préférence pour les problèmes où le transport est le plus important. Nous avons alors proposé un algorithme génétique afin de pouvoir traiter les problèmes pour lesquels la SEP-G devenait trop coûteuse en temps de calcul
Today, the requirements of customers in terms of costs and delays are in constant increase. The simultaneous optimization of the production, transport and holding activities become thus a key factor in the success of a company in a particular way, and of the whole supply chain in a general way. Indeed, the world competition led the majority of the industrial companies to recognize the need for taking into account all the activities of the supply chain in order to reduce their costs and to increase their reactivity vis-a-vis the perpetual trends in the market. In this context, we have considered, in a first time, the optimization of the physical flows along the supply chain in a mono-product context. Each two successive sites are connected by one transporter which has to deliver the products from the supplier to the client. The transporter is characterized by a loading capacity and several time parameters for the loading / unloading /transport of the products. The objective was to find the optimal sequence of the delivery lots sizes throughout the supply chain which allows, on the one hand to satisfy all system constraints including the final customer due dates, and on the other hand, to minimize the total cost induced by the various operations of production, storage and transportation. The first studied system was an elementary supply chain, called « supplylink », composed of one supplier, one customer and one transporter. The optimisation model proposed for the supply link has showed very interesting mathematical properties that have been used to develop an efficient branch and bound based algorithm that is very fast to find the optimal solution. These results have been used consequently to help solving the optimisation problem for a complete supply chain with several branch and bound based algorithms using different lower bounds for the partial solutions. However the proposed algorithms are relatively slow for middle to large size problems, and we proposed therefore a genetic algorithm that proved to be very efficient in terms of speed and quality of the obtained solution even for large size problems

Libri sul tema "Optimisation de modèle de coûts":

1

Sawadogo, Antoine Romain. La position de l'Église Catholique burkinabè au sujet de la révision de l'article 37: Modèle de cohérence pour une optimisation de l'engagement politique du chrétien. Burkina Faso]: [Les Éditions I.K.S.], 2019.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Nobert, Yves. Méthodes d'optimisation pour la gestion. Montréal: G. Morin, 2009.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Onvural, Raif. Data Communications and their Performance (IFIP International Federation for Information Processing). Springer, 1995.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Optimisation de modèle de coûts":

1

Zeng, Tongyan, Essam F. Abo-Serie, Manus Henry e James Jewkes. "Thermal Optimisation Model for Cooling Channel Design Using the Adjoint Method in 3D Printed Aluminium Die-Casting Tools". In Springer Proceedings in Energy, 333–40. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-30960-1_31.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
AbstractIn the present study, the adjoint method is introduced to the optimisation of the corner cooling element in two baseline cooling designs for a mould cavity, as examples of the Aluminium metal die-casting process. First, a steady thermal model simulating the Aluminium die-casting process is introduced for the two-corner cooling design scenario. This steady model serves as the first iteration of the optimised model using the adjoint method. A dual-parameter objective function targets the interfacial temperature standard deviation and pressure drop across the internal cooling region. For both design cases, multi-iterative deformation cycles of the corner cooling configurations result in optimised designs with non-uniform cross-section geometries and smooth surface finishing. Numerical simulations of the resulting designs show improvements in uniform cooling across the mould/cast interfacial contact surface by 66.13% and 92.65%, while the optimised pressure drop increases coolant fluid flow by 25.81% and 20.35% respectively. This technique has been applied to optimise the complex cooling system for an industrial high-pressure aluminium die-casting (HPADC) tool (Zeng et al. in SAE Technical Paper 2022-01-0246, 2022, [1]). Production line experience demonstrates that the optimised designs have three times the operational life compared to conventional mould designs, providing a significant reduction in manufacturing and operation costs.
2

MENUT, Laurent. "Qualification et optimisation". In Modélisation de la pollution atmosphérique régionale, 155–77. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9102.ch7.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce chapitre présente les différentes approches pour jauger du réalisme d’une simulation par rapport à ce que l’on cherchait à représenter. Cela inclut le calcul de scores statistiques et les représentativités différentes entre mesures et observations. Sont présentées ensuite les différentes méthodes pour évaluer la variabilité du modèle notamment avec des simulations de scénarios et des simulations d’ensemble.
3

"Modèle économique, coûts et modes de financement des MOOCs". In Pour comprendre les MOOCs, 67–78. Presses de l'Université du Québec, 2017. http://dx.doi.org/10.1515/9782760547308-011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Barth, J. E. (Joe). "Optimisation of Wine and Spirit Inventory Assets in Fine Dining Restaurants". In Handbook of Research on Holistic Optimization Techniques in the Hospitality, Tourism, and Travel Industry, 365–80. IGI Global, 2017. http://dx.doi.org/10.4018/978-1-5225-1054-3.ch017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Research on profit optimisation in the travel sector of hospitality industry has been dominated by the development of effective revenue management techniques to help managers in situations where demand is variable, variable costs are low, assets are fixed and perishable. These techniques have been extended to the restaurant sector, with recognition that variable costs are a larger proportion of total costs and not fixed. In fine dining restaurants substantive wine and spirit inventories present operators with the challenge of how to optimise the sales per dollar of inventory. Theoretical foundations of yield management, retail inventory optimisation and menu engineering are reviewed with direct application to the development of the WINSPID model of wine list and wine inventory optimisation. Data from a successful fine dining restaurant are used to illustrate how the model can be used to improve the sales efficiency of the wine list and inventory. Opportunities to extend the model to spirit inventories are proposed.
5

MERCIER, Quentin, e Fabrice POIRION. "Optimisation multi-objectif stochastique : un algorithme de descente". In Ingénierie mécanique en contexte incertain, 305–43. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch8.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette étude, l’algorithme classique du gradient stochastique utilisé en optimisation stochastique est appliqué au cas de l’optimisation multi-objectif pour des fonctions coûts qui sont soit régulières, convexes ou non régulières. Cet algorithme est basé sur l’existence d’un vecteur de descente commun et il est presque sûrement convergent. Une application en optimisation fiabiliste est présentée ainsi que des comparaisons avec d’autres algorithmes.
6

Sharma, Prerna, e Bhim Singh. "Optimization of Various Costs in Inventory Management using Neural Networks". In Advanced Mathematical Applications in Data Science, 92–104. BENTHAM SCIENCE PUBLISHERS, 2023. http://dx.doi.org/10.2174/9789815124842123010009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The process of maintaining the right quantity of inventory to meet demand, minimising logistics costs, and avoiding frequent inventory problems, including reserve outs, overstocking, and backorders is known as inventory optimisation. One has a finite capacity and is referred to as an owned warehouse (OW), which is located near the market, while the other has an endless capacity and is referred to as a rented warehouse (RW), which is located away from the market. Here, lowering the overall cost is the goal. Neural networks are employed in these works to either maximise or minimise cost. The findings produced from the neural networks are compared with a mathematical model and neural networks. Findings indicate that neural networks outperformed both conventional mathematical models and neural networks in terms of optimising the outcomes. The best way to understand supervised machine learning algorithms like neural networks is in the context of function approximation. The benefits and drawbacks of the two-warehouse approach compared to the single warehouse plan will also be covered. We investigate cost optimisation using neural networks in this chapter, and the outcomes will also be compared using the same.
7

KHALIL, Ahmad, Nader MBAREK e Olivier TOGNI. "Optimisation de la consommation énergétique des dispositifs IoT". In La gestion et le contrôle intelligents des performances et de la sécurité dans l’IoT, 79–106. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9053.ch4.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce chapitre s’intéresse à l’optimisation de la consommation énergétique dans un environnement IoT. Il décrit différents travaux et projets de recherche proposant des mécanismes adaptés qui permettent de prolonger les durées de vie des dispositifs IoT. Dans ce contexte, un mécanisme intelligent d’auto-optimisation de la consommation énergétique des objets IoT basé sur un modèle de logique floue est présenté.
8

FEIDT, Michel. "Thermodynamique et optimisation des machines à cycle inverse". In Systèmes frigorifiques, pompes à chaleur et machines à cycle inverse, 101–29. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9123.ch3.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Partant d’une description des machines réceptrices selon la thermodynamique de l’équilibre, on développe le modèle de la thermodynamique en temps fini, pour aller vers des modèles selon la Thermodynamique en Dimensions Physiques Finies (TDPF). Ainsi divers modèles de la littérature sont prolongés : machine frigorique de CARNOT, de CHAMBADAL et de CURZON-AHLBORN. D’autres extensions sont données en fin de chapitre.
9

Trébucq, Stéphane, e Jocelyn Husser. "Chapitre 66. Vers un modèle général des coûts cachés intégrant les problématiques écologiques ?" In Traité du management socio-économique, 746–57. EMS Editions, 2021. http://dx.doi.org/10.3917/ems.saval.2021.01.0746.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

"Étude d’impact et analyse coûts-avantages des règlements concernant la sécurité des véhicules – éléments du modèle". In Règlements ONU applicables aux véhicules concernant la sécurité routière : méthode d’analyse coûts-avantages, 31–34. United Nations, 2024. http://dx.doi.org/10.18356/9789210052849c007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Atti di convegni sul tema "Optimisation de modèle de coûts":

1

Anténord, Jean-Baptiste, Etienne Billette de Villemeur e Raulin L. Cadet. "Accès aux biens et services des ménages aux revenus les plus faibles : un modèle microéconomique". In Sessions du CREGED à la 30e Conférence Annuelle de Haitian Studies Association. Editions Pédagie Nouvelle & Université Quisqueya, 2021. http://dx.doi.org/10.54226/uniq.ecodev.18793_c2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les ménages à faible revenu ont un accès limité au marché des biens et services du fait de leur faible capacité à payer. Lorsque ces biens et services ne sont pas strictement indispensables, il est possible d’identifier un revenu minimum en deçà duquel les ménages préfèrent renoncer à leur usage. Ce niveau de revenu déterminant l’exclusion est naturellement croissant avec le niveau des prix pratiqués par les fournisseurs de ces biens et services. Si les coûts sont trop élevés, à moins de subventions, il n’est pas possible d’éviter qu’il y ait exclusion. Cependant, même dans le cas où, étant donné les coûts, il serait possible aux entreprises d’offrir des biens et services à un prix abordable pour tous, il n’est pas certain qu’il soit dans leur intérêt de le faire. Nous identifions pourtant, dans le cadre d’un exemple, des circonstances où la recherche du profit amène spontanément les entreprises à adopter une politique tarifaire inclusive.
2

Deschamps, Frédéric, e Grégoire Savary. "Optimisation d'architectures de systèmes aéronautiques certifiables basée sur l'approche modèle". In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61806.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Milli, Andrea, e Olivier Bron. "Fully Parametric High-Fidelity CFD Model for the Design Optimisation of the Cyclic Stagger Pattern of a Set of Fan Outlet Guide Vanes". In ASME Turbo Expo 2009: Power for Land, Sea, and Air. ASMEDC, 2009. http://dx.doi.org/10.1115/gt2009-59416.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The present paper deals with the redesign of cyclic variation of a set of fan outlet guide vanes by means of high-fidelity full-annulus CFD. The necessity for the aerodynamic redesign originated from a change to the original project requirement, when the customer requested an increase in specific thrust above the original engine specification. The main objectives of this paper are: 1) make use of 3D CFD simulations to accurately model the flow field and identify high-loss regions; 2) elaborate an effective optimisation strategy using engineering judgement in order to define realistic objectives, constraints and design variables; 3) emphasise the importance of parametric geometry modelling and meshing for automatic design optimisation of complex turbomachinery configurations; 4) illustrate that the combination of advanced optimisation algorithms and aerodynamic expertise can lead to successful optimisations of complex turbomachinery components within practical time and costs constrains. The current design optimisation exercise was carried out using an in-house set of software tools to mesh, resolve, analyse and optimise turbomachinery components by means of Reynolds-averaged Navier-Stokes simulations. The original configuration was analysed using the 3D CFD model and thereafter assessed against experimental data and flow visualisations. The main objective of this phase was to acquire a deep insight of the aerodynamics and the loss mechanisms. This was important to appropriately limit the design scope and to drive the optimisation in the desirable direction with a limited number of design variables. A mesh sensitivity study was performed in order to minimise computational costs. Partially converged CFD solutions with restart and response surface models were used to speed up the optimisation loop. Finally, the single-point optimised circumferential stagger pattern was manually adjusted to increase the robustness of the design at other flight operating conditions. Overall, the optimisation resulted in a major loss reduction and increased operating range. Most important, it provided the project with an alternative and improved design within the time schedule requested and demonstrated that CFD tools can be used effectively not only for the analysis but also to provide new design solutions as a matter of routine even for very complex geometry configurations.
4

Eke, Emmanuel, Ibiye Iyalla, Jesse Andrawus e Radhakrishna Prabhu. "Optimisation of Offshore Structures Decommissioning – Cost Considerations". In SPE Nigeria Annual International Conference and Exhibition. SPE, 2021. http://dx.doi.org/10.2118/207206-ms.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract The petroleum industry is currently being faced with a growing number of ageing offshore platforms that are no longer in use and require to be decommissioned. Offshore decommissioning is a complex venture, and such projects are expected to cost the industry billions of dollars in the next two decades. Early knowledge of decommissioning cost is important to platform owners who bear the asset retirement obligation. However, obtaining the cost estimate for decommissioning an offshore platform is a challenging task that requires extensive structural and economic studies. This is further complicated by the existence of several decommissioning options such as complete and partial removal. In this paper, project costs for decommissioning 23 offshore platforms under three different scenarios are estimated using information from a publicly available source which only specified the costs of completely removing the platforms. A novel mathematical model for predicting the decommissioning cost for a platform based on its features is developed. The development included curve-fitting with the aid of generalised reduced gradient tool in Excel® Solver and a training dataset. The developed model predicted, with a very high degree of accuracy, platform decommissioning costs for four (4) different options under the Pacific Outer Continental Shelf conditions. Model performance was evaluated by calculating the Mean Absolute Percentage Error of predictions using a test dataset. This yielded a value of about 6%, implying a 94% chance of correctly predicting decommissioning cost.
5

Cumpston, J., e John D. Pye. "Optimisation of Paraboloidal Dish Fields for Direct-Steam Generation". In ASME 2015 9th International Conference on Energy Sustainability collocated with the ASME 2015 Power Conference, the ASME 2015 13th International Conference on Fuel Cell Science, Engineering and Technology, and the ASME 2015 Nuclear Forum. American Society of Mechanical Engineers, 2015. http://dx.doi.org/10.1115/es2015-49712.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
We investigate losses and costs associated with direct steam generation via parabolidal dish concentrators and steam transport to a central steam Rankine power cycle for electricity generation. This study presents a power plant model that accounts for the effects of shading, steam transport, energy conversion at the power block, and capital costs of land and pipework. The pipe network topology used was optimised using a genetic algorithm based on evolution of minimal spanning trees connecting all dishes to a central power block. Optimal pipe sizing of the network is determined by considering the trade-off of frictional losses against thermal losses and material costs. Weather data provides input for the solar resource, and shading is calculated using an established numerical model. The plant model is used to determine the collector layout for which the effective annual revenue is maximised. Results show that the optimal rectangular layout is closely spaced in the North-south direction, along which most of the pipe links run, while East-west spacing is less important. The annual thermal performance of the optimised dish field on a per-unit-area basis is then compared to simulation of a parabolic trough employed for the same purpose. A detailed breakdown of the thermal analysis used forms the basis of comparison between the collector types, giving the overall advantage and a comparison of various sources of loss. We demonstrate that dish fields can collect approximately 49% more thermal energy annually per unit collector area than a trough system employed for the same purpose.
6

Doherty, James P., e Barry M. Lehane. "An Automated Approach for Designing Monopiles Subjected to Lateral Loads". In ASME 2017 36th International Conference on Ocean, Offshore and Arctic Engineering. American Society of Mechanical Engineers, 2017. http://dx.doi.org/10.1115/omae2017-61603.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This paper describes an automated algorithm for determining the length and diameter of monopile foundations subject to lateral loads with the aim of minimising the pile weight, whilst satisfying both ultimate and serviceability limit states. The algorithm works by wrapping an optimisation routine around a finite element p - y model for laterally loaded piles. The objective function is expressed as a function representing the pile volume, while the ultimate limit state and serviceability limit states are expressed as optimisation constraints. The approach was found to be accurate and near instantaneous when compared to manual design procedures and may improve design outcomes and reduce design time and costs.
7

Csonka, Bálint. "Charging power optimisation for electric buses at terminals". In 6th International Conference on Road and Rail Infrastructure. University of Zagreb Faculty of Civil Engineering, 2021. http://dx.doi.org/10.5592/co/cetra.2020.1299.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Charging infrastructure has a key role in the operation of electric buses in public transportation. In this paper, mixed-integer linear programming was used to model the bus service and capture the relationship among the network characteristics, vehicles, and charging unit attributes. The model supports the charging power optimisation at terminals to reduce the total operating costs of electric buses and charging units. The model was applied for the bus network of Kőbánya, Budapest. It was found that despite using more expensive high-power chargers, the total cost is lower because of the lower number of electric buses. It was also found that higher charging power does not affect the total cost significantly if it is higher than 350kW.
8

MAU, Yuk-Hung, Ki-On Ng e Prof Danny H. K. TSANG. "Unit commitment optimization of gas-fired generation at black point power station incorporating the efficiency, flexibility, reliability & cost". In GPPS Hong Kong23. GPPS, 2023. http://dx.doi.org/10.33737/gpps23-tc-303.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Gas-fired generation has been considered one of the mainstream generation technologies nowadays and has become a vital part of the decarbonisation journey in Hong Kong. Having a significant impact on the business and environment, the utilisation of generation units has to be optimised so that additional gas generation can be accommodated and the performance of efficiency and reliability for the existing gas-fired generation units can be enhanced. Currently, at Black Point Power Station (BPPS) in Hong Kong, the generation scheduling is done manually based on the traditional approach. Each unit has its specific characteristic in terms of efficiency, cost, flexibility, reliability and performance according to its individual hardware condition, degradation and running regime. If those costs and various machine factors are not considered effectively, efficiently and intelligentially, the overall generation costs, as well as the carbon emission reduction, will not be optimised as a result. This study is to develop a Unit Commitment Optimisation (UCO) model with the help of state-of-the-art Artificial Intelligence and Machine Learning for optimising the daily scheduling of eight gas-fired generation units at BPPS. It illustrates the comparison and advantage of the newly developed optimisation model with the existing method. Moreover, a holistic review of the real-life generation cost, efficiency, maximum output power and condition-related data is completed to minimize modelling uncertainty. All the factors that affect the scheduling are further validated during the testing and tuning phase. The simulation result shows that the model is practical with sound good accuracy in efficiency, and cost optimisation for the BPPS machine scheduling.
9

Landet, Einar, Kari Lo̸nvik, Gudfinnur Sigurdsson e Karl P. Fischer. "Coating Degradation Models: Cost Optimisation of Inspection, Maintenance and Repair of FPSO’s". In ASME 2005 24th International Conference on Offshore Mechanics and Arctic Engineering. ASMEDC, 2005. http://dx.doi.org/10.1115/omae2005-67005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Corrosion control design and management for a new build Floating Production Storage and Offloading installation (FPSO) operating in certain benign regions, such as West Africa, China and Brazil, can provide significantly increased challenges compared to their North Sea counter parts. Even though there are over 100 FPSO’s operating worldwide, designing and implementing a cost optimal Inspection, Maintenance and Repair (IMR) system for a 20 year service still remains a major challenge. Primarily this is due to the fact that there is limited information available to facilitate the corrosion control design for a 20 year continuous service. Therefore, it is difficult to select a cost effective corrosion control design that addresses both the fabrication and operational aspects. This paper describes a probabilistic model for coating degradation and its application for implementing IMR for long year service of FPSO’s. The model can be utilized as a tool for planning of inspection and maintenance of the corrosion protective coatings and also estimate the associate costs. This enables the operator to model various scenarios for future inspection and maintenance work and thereby select cost optimal solutions for the given FPSO requirements. The paper will also demonstrate the proposed model through a realistic case study.
10

Coffey, Tiarnan, Christopher Rai, John Greene e Stephen O’Brien Bromley. "Subsea Spare Parts Analysis Optimisation". In ASME 2019 38th International Conference on Ocean, Offshore and Arctic Engineering. American Society of Mechanical Engineers, 2019. http://dx.doi.org/10.1115/omae2019-96100.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract The main objective of this paper is to present a fully quantitative methodology combining reliability, availability and maintainability (RAM) analysis and cost-benefit analysis (CBA) approaches to determine the optimum sparing strategy for subsea components considering reliability data, lead times, availability and cost. This methodology can be utilized at any stage of an asset lifecycle, from design to operation and can be adjusted to reflect modifications throughout the life of field. Using commercially available RAM analysis software, Maros [2], a reliability block diagram (RBD) is constructed to represent the reliability structure and logic of the system being analyzed. Retrievable components, for which spares would be suitable, are then identified within the model to review and update the failure modes and reliability information for each component. Reliability information can be based on project specific data or from industry-wide sources such as OREDA. The RAM analysis software uses the Monte-Carlo simulation technique to determine availability. A sensitivity analysis is then performed to determine maximum availability while holding the minimum required stock level of spare components. A sparing priority factor (SPF) analysis is then performed in addition to the RAM sensitivity analysis to support those results and consider spare purchase, storage and preservation costs. The SPF gives a weighting to the storage cost against the potential impact on production. The SPF is a number used to determine a component’s need to have a spare. A high SPF indicates an increased requirement to hold a spare.

Rapporti di organizzazioni sul tema "Optimisation de modèle de coûts":

1

Sripad, Pooja, Sara Dwyer e Gloria Adoyi. Mise en œuvre des composantes du modèle ssp pour la PE / E au Nigéria : une analyse des coûts. Population Council, 2019. http://dx.doi.org/10.31899/rh11.1058.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Fent, Thomas, Stefan Wrzaczek, Gustav Feichtinger e Andreas Novak. Fertility decline and age-structure in China and India. Verlag der Österreichischen Akademie der Wissenschaften, maggio 2024. http://dx.doi.org/10.1553/0x003f0d14.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
China and India, two Asian countries that experienced a rapid decline in fertility since the middle of the twentieth century, are the focus of this paper. Although there is no doubt that lower fertility levels have many positive effects on the economy, development and sustainability, little is known about the optimal transition from high to medium or even low levels of fertility. Firstly, implementing policies that have the potential to reduce fertility is costly. Secondly, additional costs arise from adapting the infrastructure to a population that fluctuates quickly not only in terms of size but also with respect to the age structure. We apply an intertemporal optimisation model that takes the costs and benefits of fertility decline into account. The optimal time path depends on the cost structure, the planning horizon and the initial conditions. In the case of a long planning horizon and high initial fertility, it may even be optimal to reduce fertility temporarily below replacement level in order to slow down population growth at an early stage. A key finding of our formal investigation is that, under the same plausible parameter settings, the optimal paths for China and India differ substantially. Moreover, our analysis shows that India, where the fertility decline emerged as a consequence of societal and economic developments, followed a path closer to the optimal fertility transition than China, where the fertility decline was state-imposed. The mathematical approach deployed for this analysis provides insights into the optimal long-term development of fertility and allows for policy conclusions to be drawn for other countries that are still in the fertility transition process.

Vai alla bibliografia