Tesi sul tema "Optimisation de modèle de coûts"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Optimisation de modèle de coûts.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Optimisation de modèle de coûts".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Fortin, Jean-Sébastien. "Optimisation des investissements sur les ponts par la méthode coûts-avantages : valorisation des revenus et du modèle de détérioration". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28153.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
This study extends the existing literature on Bridge Management Systems (BMS) by developing a decision-making program to optimize bridge rehabilitations. This decision-making tool analyses the net present value to consider the optimal moment to repair a bridge. It highlights wealth creation by the maintenance of an efficient road network. Moreover, it allows the study of uncertainty on several parameters, such as financial values of inflation and interest rates as well as the evolution of traffic flow. The ability of the decision-making tool to verify the impact of several variables and the deterioration model currently used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports is compared to two other models; a Markovian model and a stochastic model developed under this study. This project breaks new ground by considering the revenue generated by the bridge’s efficiency. It also considers uncertainty on several parameters, such as financial values of inflation and interest rate, and the evolution of traffic flow. Considering the recent establishment of the management system used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports, this study is based on several assumptions. The life span of the bridge is limited to 100 years, degradation and repairs can only be done every 5 years, a single repair can be made over the bridge lifespan and the bridge condition is represented by only a few bridge components (elements). The study highlights the importance of considering variability on the deterioration of an element/bridge, interest rates and, to a lesser extent, inflation based on the ministère des Transports, de la Mobilité durable et de l'Électrification des transports data and using a probabilistic analysis of 20,000 simulations. Thus, when the bridge is only represented by its reinforced concrete deck and using the deterministic deterioration approach, a repair between 25 and 30 years is appropriate. A rather low interest rate can even push this choice to 35 years. This choice is very broad with the Markovian approach considering the high probabilities of keeping the bridge in good condition. Finally, the stochastic approach favors repair between 20 and 35 years depending on the speed of deterioration. This choice may again change slightly with the addition of both a variable interest rate and a variable inflation rate. When a reinforced concrete deck and steel beams are considered to represent the entire bridge, the deterministic approach suggests a 25-year repair for the reinforced concrete deck and a 30-year repair for the steel beams. Stochastic financial parameters can affect this choice, making an optimal repair of 25 to 35 years possible for both elements. The optimal moments of repair are very spread out for the Markovian approach considering the high probabilities of maintaining the elements in good condition. Finally, the stochastic approach proposes a repair between 20 and 35 years for the reinforced concrete deck and between 15 and 40 years for the steel beams. These repairs are slightly affected by the addition of a variable interest rate and inflation rate as well. An in-depth analysis shows the impact that several parameters have on the model considered. These parameters include: the transition matrix, the state penalty, the variability of the matrix for stochastic deterioration, and the addition of a simultaneous repair advantage. A change in the transition matrix mainly has an impact on the volatility of the results, whereas a modification on the state penalty shifts the optimal repair time distribution for Markovian and stochastic deteriorations. The variability of the matrix for stochastic deterioration directly affects the volatility of the optimal repair time. For example, the lower the percentage of variation of the matrix, the more the optimal repair moments will be concentrated (or fixed). Finally, the implementation of a simultaneous repair benefit mainly has an impact when the optimal repair time is within 10 years of a simultaneous repair. For a deterministic deterioration, a reduction in costs of 3.72% is sufficient to reconcile repair dates to 30 years, the bridge being repair at 25 years without this benefit. However, this advantage has little impact on Markovian deterioration due to the wide distribution of optimal repair times but a considerable impact on stochastic deterioration, with the majority of repairs occurring within a range of 15 to 40 years.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
2

Moumen, Chiraz. "Une méthode d'optimisation hybride pour une évaluation robuste de requêtes". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30070/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes
The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing
3

Hussein, Mohammad. "Un modèle d'exécution à base d'agents mobiles pour l'optimisation dynamique de requêtes réparties à grande échelle". Toulouse 3, 2005. http://www.theses.fr/2005TOU30203.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Large, Aurore. "Une meilleure gestion patrimoniale des réseaux d'eau potable : le modèle de prévision du renouvellement à long terme OPTIMEAU". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0086/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les pays développés, l’eau potable est distribuée au domicile des usagers. Ce confort requier tun long linéaire de réseau de forte valeur patrimoniale. Pour maintenir un équilibre entre ressources financières et performances, il est important d’essayer de renouveler les tronçons au meilleur moment possible. Ce manuscrit présente les modèles court (1 à 3 ans), moyen et long terme ( > 30 ans)actuellement employés. Les processus court terme semblent assez efficaces, mais les méthodes moyen et long terme restent frustes. Le modèle OPTIMEAU propose une approche long terme pour obtenir une vision globale du patrimoine de canalisations et rationaliser sa gestion, tout en restant en phase avec les pratiques opérationnelles de programmation à court terme. Cette démarche, fondée sur des modèles statistiques de survie, est testée à partir des données réelles de 3 services d’eau Européens : le SEDIF (Syndicat des Eaux d’Ile de France), le Grand Lyon et eau service Lausanne en Suisse. L’originalité de ce modèle réside dans l’estimation de la distribution des âges à la mise hors service passée, clef de voûte dans la construction de onze indicateurs liés aux finances, aux réalisations et à la performance future des services
In developed countries, drinking water is distributed to households. This comfort requires a long networkwith a high value. To optimize resources and performance, it is important to renew pipe sectionsat the best possible time. This thesis presents the short (1-3 years), medium and long term (> 30 years)models commonly employed. The short-term processes seem quite effective, but long term methods remainrough. The OPTIMEAU model proposes a long-term approach to get a prospective overview ofpipes and improve its management, while remaining connected to the technical practices at short-termlevel. This approach, based on survival statistical models, is tested using actual data of three Europeanwater services : SEDIF (Syndicat des Eaux d’Ile de France), Grand Lyon and eauservice Lausanne inSwitzerland. The originality of this model lies in the estimation of the past decommissioning age distribution,keystone in the construction of eleven indicators related to finance, achievements and futureperformance of water utilities
5

Leserf, Patrick. "Optimisation de l’architecture de systèmes embarqués par une approche basée modèle". Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0008/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus
Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV)
6

Naacke, Hubert. "Modèle de coût pour médiateur de bases de données hétérogènes". Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les @ systèmes distribués accèdent à des sources d'informations diverses au moyen de requêtes déclaratives. Une solution pour résoudre les problèmes liés à l'hétérogéneité des sources repose sur l'architecture médiateur / adaptateurs. Dans cette architecture, le médiateur accepte en entrée une requête de l'utilisateur, La traite en accèdant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Le médiateur offre une vue globale et centralisée des sources. Les adaptateurs offrent un accès uniforme aux sources, au service du médiateur. Pour traiter une requête de manière efficace, le médiateur doit optimiser le plan décrivant le traitement de la requête. Pour cela, plusieurs plans sémantiquement équivalents sont envisagés, Le coût (i. E. Le temps de réponse) de chaque plan est estimé afin de choisir celui de moindre coût qui sera exécuté. Le médiateur estime le coût des opérations traitées par les sources en utilisant les informations de coût que les sources exportent. Or, à cause de l'autonomie des sources, les informations exportées peuvent s'avérer insuffisantes pour estimer le coût des opérations avec une précision convenable. Cette thèse propose une nouvelle méthode permettant au développeur d'adaptateur d'exporter un modèle de coût d'une source à destination du médiateur. Le modèle exporté contient des statistiques qui décrivent les données stockées dans la source ainsi que des fonctions mathématiques pour évaluer le coût des traitements effectués par la source. Lorsque le développeur d'adaptateur manque d'information ou de moyen, il a la possibilité de fournir un modèle de coût partiel qui est automatiquement completé avec le modèle générique prédéfini au sein du médiateur. Nous validons expérimentalement le modèle de coût proposé en accèdant à des sources web. Cette validation montre l'efficacité du modèle de coût générique ainsi que celle des modèles plus spécialisés selon les particularités des sources et les cas d'applications
Les systemes distribues accedent a des sources d'informations diverses au moyen de requetes declaratives. Une solution pour resoudre les problemes lies a l'heterogeneite des sources repose sur l'architecture mediateur / adaptateurs. Dans cette architecture, le mediateur accepte en entree une requete de l'utilisateur, la traite en accedant aux sources via les adaptateurs concernes et renvoie la reponse a l'utilisateur. Le mediateur offre une vue globale et centralisee des sources. Les adaptateurs offrent un acces uniforme aux sources, au service du mediateur. Pour traiter une requete de maniere efficace, le mediateur doit optimiser le plan decrivant le traitement de la requete. Pour cela, plusieurs plans semantiquement equivalents sont envisages, le cout (i. E. Le temps de reponse) de chaque plan est estime afin de choisir celui de moindre cout qui sera execute. Le mediateur estime le cout des operations traitees par les sources en utilisant les informations de cout que les sources exportent. Or, a cause de l'autonomie des sources, les informations exportees peuvent s'averer insuffisantes pour estimer le cout des operations avec une precision convenable. Cette these propose une nouvelle methode permettant au developpeur d'adaptateur d'exporter un modele de cout d'une source a destination du mediateur. Le modele exporte contient des statistiques qui decrivent les donnees stockees dans la source ainsi que des fonctions mathematiques pour evaluer le cout des traitements effectues par la source. Lorsque le developpeur d'adaptateur manque d'information ou de moyen, il a la possibilite de fournir un modele de cout partiel qui est automatiquement complete avec le modele generique predefini au sein du mediateur. Nous validons experimentalement le modele de cout propose en accedant a des sources web. Cette validation montre l'efficacite du modele de cout generique ainsi que celle des modeles plus specialises selon les particularites des sources et les cas d'applications
7

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)
This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
8

Elias, Antoine. "Diagnostic de l'embolie pulmonaire : optimisation par l'analyse du rapport de vraisemblance et du ratio coût-efficacité et proposition d'un modèle d'étude clinique". Lyon 1, 2003. http://www.theses.fr/2003LYO10130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous avons analysé différents aspects de validité des tests utilisés dans le diagnostic de l'embolie pulmonaire par une revue systématique et des études cliniques que nous avons réalisées. L'analyse du rapport de vraisemblance a montré l'absence de différence majeure entre les stratégies associant trois tests et l'intérêt d'incorporer le scanner hélicoi͏̈dal dans les stratégies utilisant les D-dimères ou les ultrasons limités. L'analyse coût-efficacité de vingt stratégies, réalisée selon un modèle de décision Bayésien, a montré deux options dominantes : la stratégie " D-dimères, ultrasons limités, scanner hélicoi͏̈dal " la moins coûteuse et la stratégie " ultrasons étendus, scanner hélicoi͏̈dal " la plus efficace. Le coût par vie supplémentaire gagnée par la dernière stratégie comparée à la première était acceptable.
9

Antomarchi, Anne-Lise. "Conception et pilotage d'un atelier intégrant la fabrication additive". Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC035/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fabrication additive est un domaine en plein essor. Cependant, les industriels sont aujourd’hui dans une phase d’interrogation sur l’utilisation de ce procédé dans le cadre d’une production de masse. La problématique posée dans le cadre de ces travaux de recherche est : Comment rendre viable, industriellement, le procédé de fusion sur lit de poudre ? Nos travaux abordent la conception et le pilotage d’ateliers intégrant la fabrication additive et le processus complet d’obtention de la pièce selon les trois niveaux de décision : stratégique, tactique et opérationnel. D’un point du vue stratégique, des décisions fortes d’investissement, de sélection de machines et de choix d’organisation sont à prendre avec des enjeux économiques importants. L’objectif est de définir une méthode d’optimisation multicritère pour la conception modulaire d’un système de production intégrant la fabrication additive en présence de données incertaines, optimale sur le long terme et sur le court terme. D’un point de vue tactique, toutes les pièces ne sont pas forcément des candidates pertinentes pour la fabrication additive. Dans ces travaux, nous avons développé un outil d’aide à la décision qui évalue la pertinence ou non de la fabrication additive pour l’obtention des pièces dans une approche globale des coûts. Au niveau opérationnel, nous proposons un outil basé sur la simulation de flux qui permet de passer des commandes aux ordres de fabrication et leur ordonnancement de manière à garantir l’efficience de l’atelier. Ces travaux de recherche sont développés en lien avec des acteurs du monde industriel : AddUp, MBDA et Dassault qui alimentent nos travaux et nous permettent de confronter nos outils à une réalité industrielle
The additive manufacturing is a field on the rise. However, companies wonder about the use of additive manufacturing for mass production. The problem raised in the context of this thesis is: How to make the process of sintering laser melting industrially viable? Our work focuses on the design and on the management of workshops integrating the additive manufacturing and of the complete process to obtain part according to three levels of decision: strategic, tactic and operational. About the strategic level, strong decisions of investment, machines selection and organization choice are taken with important economic issues. The aim is to define a multicriteria optimization method for the modular design of a production system integrating the additive manufacturing in the presence of uncertain data, optimal in the long term and the short term. From a tactical point of view, not all parts are necessarily relevant candidates for additive manufacturing. In this work, we developed a decision support tool that evaluates the relevance or not of additive manufacturing to obtain parts in a global cost approach. At the operational level, we offer a tool based on flow simulation that allows orders to be placed to production orders and their scheduling in order to guarantee the efficiency of the workshop. This research work is developed in collaboration with companies: AddUp, MBDA and Dassault, who contribute to our work and enable us to compare our tools with an industrial reality
10

Merzouk, Salah Eddine. "Problème de dimensionnement de lots et de livraisons : application au cas de la chaîne logistique". Besançon, 2007. http://www.theses.fr/2007BESA2036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les exigences des clients en termes de coûts et de délais étant en constante augmentation, l'optimisation des activités de production, de transport et de stockage simultanément est devenue un facteur clef dans la réussite d'une entreprise d'une manière particulière, et de toute la chaîne logistique d'une manière plus générale. En effet, la compétition mondiale a amené la plupart des sociétés industrielles à reconnaître la nécessité de prendre en considération la chaîne logistique entière pour réduire leurs coûts et augmenter leur réactivité face aux évolutions perpétuelles du marché. Notre étude s'intéresse particulièrement à l'optimisation du flux physique d'un seul type de produits échangé entre les sites d'une chaîne logistique "linéaire", composée d'un ensemble de sites manufacturiers organisés en cascade. Chaque deux sites qui se succèdent sont reliés entre eux par un seul transporteur dont la capacité de chargement est limitée et dont le rôle est d'acheminer les produits du premier vers le second site. L'objectif est de trouver la séquence des tailles de lots de livraison tout au long de la chaîne qui permet, d'une part de satisfaire les différentes contraintes du système, en particulier les délais imposés par le client final, et d'autre part, de minimiser le coût global induit par les différentes opérations de production, de stockage et de transport. Nous proposons alors un modèle mathématique de la structure de base de la chaîne linéaire qui est "le maillon logistique" et dont les composantes se résument à deux sites et leurs transporteur correspondant. Les propriétés mathématiques que nous avons démontrées pour ce modèle nous ont permis de développer une procédure efficace de Séparation Évaluation Progressive (SEP) qui permet de trouver la solution optimale en un temps très réduit. Le modèle proposé a été ensuite généralisé au cas de la chaîne linéaire. Les résultats obtenus précédemment ont pu être utilisés à différents niveaux et ont amené à développer une autre SEP "globale" (SEP-G). Les résultats expérimentaux effectués ont montré que la SEP-G permet de résoudre des problèmes de taille moyenne avec une préférence pour les problèmes où le transport est le plus important. Nous avons alors proposé un algorithme génétique afin de pouvoir traiter les problèmes pour lesquels la SEP-G devenait trop coûteuse en temps de calcul
Today, the requirements of customers in terms of costs and delays are in constant increase. The simultaneous optimization of the production, transport and holding activities become thus a key factor in the success of a company in a particular way, and of the whole supply chain in a general way. Indeed, the world competition led the majority of the industrial companies to recognize the need for taking into account all the activities of the supply chain in order to reduce their costs and to increase their reactivity vis-a-vis the perpetual trends in the market. In this context, we have considered, in a first time, the optimization of the physical flows along the supply chain in a mono-product context. Each two successive sites are connected by one transporter which has to deliver the products from the supplier to the client. The transporter is characterized by a loading capacity and several time parameters for the loading / unloading /transport of the products. The objective was to find the optimal sequence of the delivery lots sizes throughout the supply chain which allows, on the one hand to satisfy all system constraints including the final customer due dates, and on the other hand, to minimize the total cost induced by the various operations of production, storage and transportation. The first studied system was an elementary supply chain, called « supplylink », composed of one supplier, one customer and one transporter. The optimisation model proposed for the supply link has showed very interesting mathematical properties that have been used to develop an efficient branch and bound based algorithm that is very fast to find the optimal solution. These results have been used consequently to help solving the optimisation problem for a complete supply chain with several branch and bound based algorithms using different lower bounds for the partial solutions. However the proposed algorithms are relatively slow for middle to large size problems, and we proposed therefore a genetic algorithm that proved to be very efficient in terms of speed and quality of the obtained solution even for large size problems
11

Liu, Tianxao. "Proposition d'un cadre générique d'optimisation de requêtes dans les environnements hétérogènes et répartis". Thesis, Cergy-Pontoise, 2011. http://www.theses.fr/2011CERG0513.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons un cadre générique d'optimisation de requêtes dans les environnements hétérogènes répartis. Nous proposons un modèle générique de description de sources (GSD), qui permet de décrire tous les types d'informations liées au traitement et à l'optimisation de requêtes. Avec ce modèle, nous pouvons en particulier obtenir les informations de coût afin de calculer le coût des différents plans d'exécution. Notre cadre générique d'optimisation fournit les fonctions unitaires permettant de mettre en œuvre les procédures d'optimisation en appliquant différentes stratégies de recherche. Nos résultats expérimentaux mettent en évidence la précision du calcul de coût avec le modèle GSD et la flexibilité de notre cadre générique d'optimisation lors du changement de stratégie de recherche. Notre cadre générique d'optimisation a été mis en œuvre et intégré dans un produit d'intégration de données (DVS) commercialisé par l'entreprise Xcalia - Progress Software Corporation. Pour des requêtes contenant beaucoup de jointures inter-site et interrogeant des sources de grand volume, le temps de calcul du plan optimal est de l'ordre de 2 secondes et le temps d'exécution du plan optimal est réduit de 28 fois par rapport au plan initial non optimisé
This thesis proposes a generic framework for query optimization in heterogeneous and distributed environments. We propose a generic source description model (GSD), which allows describing any type of information related to query processing and optimization. With GSD, we can use cost information to calculate the costs of execution plans. Our generic framework for query optimization provides a set of unitary functions used to perform optimization by applying different search strategies. Our experimental results show the accuracy of cost calculus when using GSD, and the flexibility of our generic framework when changing search strategies. Our proposed approach has been implemented and integrated in a data integration product (DVS) licensed by Xcalia – Progress Software Corporation. For queries with many inter-site joins accessing large size data sources, the time used for finding the optimal plan is in the order of 2 seconds, and the execution time of the optimized plan is reduced by 28 times, as compared with the execution time of the non optimized original plan
12

Martinod, Restrepo Ronald Mauricio. "Politiques d’exploitation et de maintenance intégrées pour l’optimisation économique, sociétale et environnementale des systèmes de transports urbains interconnectés". Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes de transport public urbain influencent l'infrastructure des agglomérations et la vie de leurs habitants tout en stimulant directement l'économie. Les systèmes de transport public urbain intelligents contribuent à améliorer la qualité de vie et l'environnement dans les villes. Le développement rapide des solutions de transport urbain a conduit de très nombreux opérateurs à se porter sur ce marché empêchant ainsi une logique globale de l’offre. Ces optimisations discrètes, privées de toutes concertations entre opérateurs de transport intervenant sur un même périmètre, interdit l’identification d’un optimum global. En conséquence, le fonctionnement inefficace des systèmes de transport public urbain ne réduit pas nécessairement la charge environnementale, et les opérateurs de transport urbain peuvent ne pas être en mesure de la gérer de manière durable. Pour répondre à ces défis, cette thèse propose une méthodologie associée à des modèles mathématiques qui sont développés à travers des approches d’optimisation pour une gestion systémique des réseaux de transport public multimodal, et ce afin d’assurer le meilleur taux de service aux usagers tout en minimisant les coûts et les externalités sociétales afin de satisfaire au principe de durabilité, fréquemment exprimé dans les plans de développement urbains
Urban public transport systems influence the infrastructure of urban areas and the lives of their inhabitants while directly stimulating the economy. Intelligent urban public transport systems help to improve the quality of life and the environment in cities. The rapid development of urban transport solutions has led to a large number of operators entering the market, thus preventing a global optimum. These discrete optimisations, without any articulation between transport operators, avoid the identification of a global optimum. As a result, the inefficient operation of urban public transport systems does not necessarily reduce the environmental cost. To address these challenges, this thesis proposes a methodology associated with mathematical models developing optimisation approaches for multimodal public transport networks, for achieving the best service policy while minimising operation costs in order to satisfy the principle of sustainability, frequently expressed in urban development goals
13

Destré, Christian. "Optimisation de performances et de coûts pour des structures de communication". Evry-Val d'Essonne, 2004. http://www.theses.fr/2004EVRY0027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces dernières années, les réseaux de télécommunication et les réseaux informatiques ont convergé. Leur fonctionnement est soumis aux contraintes des différents composants qu'ils utilisent et leur organisation doit fournir un ensemble de services avec une certaine qualité. Notre objectif global est d'optimiser des paramètres de performance tout en minimisant des coûts. Cette thèse détaille deux problématiques : 1) La description des fonctions de routage dans les réseaux tout-optique WDM induisant des routes optimales tout en utilisant un nombre minimal de longueurs d'ondes. 2) Le partage le plus équitable possible des coûts d'un arbre de diffusion entre les participants. Nous avons exprimé ces problématiques en problèmes d'optimisation algorithmique. Nous obtenons des résultats généraux (NP-complétude, algorithmes d'approximation) et, dans le cas particulier des grilles, des résultats théoriques et expérimentaux raffinés
These last years, telecommunication networks and data-processing networks have converged. Their operation is subject to the constraints of the various used components and their organization must provide a whole of services with some quality. Our global objective is to optimize some performance parameters while minimizing costs. This thesis details two problems : 1) The description of routing functions in all-optical WDM networks which induce optimal paths while using a minimal number of wavelengths. 2) The fairest possible cost sharing of a broadcast tree between participants. We have expressed these two problems in algorithmic optimization problems. We obtain general results (NP-Complete study, approximation algorithms) and, for the particular case of Meshes, theoretical and experimental refined results
14

Lambert, Antoine. "Visualisation interactive de graphes : élaboration et optimisation d'algorithmes à coûts computationnels élevés". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00839243.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un graphe est un objet mathématique modélisant des relations sur un ensemble d' éléments. Il est utilisé dans de nombreux domaines a des fi ns de modélisation. La taille et la complexité des graphes manipulés de nos jours entraînent des besoins de visualisation a fin de mieux les analyser. Dans cette thèse, nous présentons différents travaux en visualisation interactive de graphes qui s'attachent a exploiter les architectures de calcul parallèle (CPU et GPU) disponibles sur les stations de travail contemporaines. Un premier ensemble de travaux s'intéresse a des problématiques de dessin de graphes. Dessiner un graphe consiste a le plonger visuellement dans un plan ou un espace. La première contribution dans cette thématique est un algorithme de regroupement d'arêtes en faisceaux appelé Winding Roads. Cet algorithme intuitif, facilement implémentable et parallélisable permet de reduire considérablement les problèmes d'occlusion dans un dessin de graphe dus aux nombreux croisements d'arêtes. La seconde contribution est une méthode permettant de dessiner un réseau métabolique complet. Ce type de reseau modélise l'ensemble des réactions biochimiques se produisant dans les cellules d'un organisme vivant. L'avantage de la méthode est de prendre en compte la décomposition du réseau en sous-ensembles fonctionnels ainsi que de respecter les conventions de dessin biologique. Un second ensemble de travaux porte sur des techniques d'infographie pour la visualisation interactive de graphes. La première contribution dans cette thématique est une technique de rendu de courbes paramétriques exploitant pleinement le processeur graphique. La seconde contribution est une méthode de rendu nommée Edge splatting permettant de visualiser la densité des faisceaux d'arêtes dans un dessin de graphe avec regroupement d'arêtes. La dernière contribution porte sur des techniques permettant de mettre en évidence des sous-graphes d'interêt dans le contexte global d'une visualisation de graphes.
15

Lovric, Davor. "Optimisation coûts/performances des bétons autoplaçants : utilisation des fillers et cendres volantes". Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1272.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet de recherche présente une étude sur les bétons autoplaçants contenant différents ajouts et de nouveaux couples agent colloïdal/superplastifiant. Cette étude traite de bétons autoplaçants à usage industriel ayant une résistance à la compression de 35 MPa à 28 jours d’hydratation. Un béton autoplaçant (BAP) aussi appelé béton autonivelant (BAN) se diffère d’un béton ordinaire par sa très grande fluidité ainsi que par sa stabilité. Ce type de béton nécessite une quantité élevée de liant. Cette quantité élevée de particules fines et d’adjuvants rend le prix des BAP plus élevé par rapport aux bétons ordinaires. Une partie de la quantité de ciment peut être remplacée par des ajouts. Les ajouts qui peuvent être actifs, inertes ou presque inertes peuvent améliorer certaines propriétés du béton. Le but de ce remplacement est une amélioration du rapport qualité/prix du béton. Les particules fines des ajouts augmentent la maniabilité du béton, ce qui permet de diminuer la demande en adjuvants, ces derniers étant coûteux. Le rôle des ajouts est aussi d’améliorer la courbe granulaire de l’ensemble des matériaux, utilisés dans un mélange de béton, permettant d’obtenir une meilleure compacité granulaire. La première partie de ce mémoire est basée sur l’utilisation des fillers calcaires et siliceux comme ajouts dans les bétons. Dans la deuxième partie, nous évaluerons des BAP contenant des cendres volantes (classes C et F). Les deux parties de ce mémoire traitent de différents couples agent colloïdal/superplastifiant qui sont à la fois compatibles, efficaces et économiques. Ce projet de maîtrise nous a permis : • d’optimiser le rapport coûts/performances des BAP contenant des ajouts (fillers et cendres volantes) et des adjuvants (agents colloïdaux et superplastifiants) performants et économiques, tout en respectant leur compatibilité avec les autres constituants de ces bétons; • de valider la performance de BAP optimisés vis-à-vis l’évolution de la rhéologie, des propriétés mécaniques et de la durabilité; • de déterminer les propriétés de quelques nouveaux adjuvants et de les comparer avec des adjuvants de la génération précédente; • de suggérer une nouvelle gamme de BAP pour les constructions commerciales.Les résultats de ce projet peuvent conseiller les conseils aux ingénieurs concernant l'utilisation d’ajouts et d’adjuvants pour mettre en valeur les propriétés rhéologiques et mécaniques d’un béton de grande ouvrabilité tel que le BAP.
16

Aguilera, Luiz Manoel. "Ordonnancement de production avec coûts de changements dépendant de la séquence". Grenoble INPG, 1993. http://www.theses.fr/1993INPG0183.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine de ce travail de thèse est l'Ordonnancement de Production. La première partie de ce mémoire traite différents problèmes d'ordonnancement issus d'une application industrielle. La préoccupation de cette problématique industrielle est la réduction des coûts de changements d'outils dans un procédé industriel de fabrication de verre d'emballage. Les deux principales études réalisées portent sur les problèmes d'ordonnancement machines simples et machines parallèles avec coûts de changements dépendants de la séquence. Le premier est équivalent au modèle du Voyageur de Commerce et le deuxième au modèle du Véhicule. Ceux-ci sont des problèmes classiques dans le domaine de l'Optimisation Combinatoire et présentent une nature NP-Complète. Il existe différentes méthodes pour traiter ces problèmes, pouvant être classifiées dans trois groupes : les méthodes exactes, les méthodes de relaxation et les méthodes heuristiques. Parmi les méthodes exactes, citons la Méthode de Séparation & Evaluation et la Méthode de Programmation Dynamique. Les méthodes de relaxation utilisées correspondent à l'Affectation et à l'Arbre de Poids Minimal. Les heuristiques sont celles du 2opt, de la Plus Proche Ville et de l'Arbre de Poids Minimal. Les algorithmes ont tout d'abord été utilisés dans le cas de machines simples et ensuite adaptés au cas de machines parallèles. Les machines parallèles utilisent d'autres méthodes de résolution spécifiques pour le modèle du Véhicule, en particulier une heuristique basée sur la Méthode Deux-Phases. La deuxième partie du travail concerne la conception et la validation d'un système nommé «Atelier Logiciel d'Ordonnancement». Celui-ci comprend une structure d'accueil pour différentes classes d'algorithmes d'ordonnancement, comme par exemple les problèmes décrits ci-dessous, et d'autres comme le job-shop et l'affectation de tâches aux machines.
17

Jouglet, Antoine. "Ordonnancer une machine pour minimiser la somme des coûts". Compiègne, 2000. http://www.theses.fr/2002COMP1420.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite du problème d’ordonnancement à une machine où il s’agit de minimiser un coût total parmi lesquels : le retard total (pondéré) et la somme (pondéré) des dates de fin ; Pour résoudre ces problèmes, nous proposons une méthode arborescente avec propagation de contraintes ainsi que plusieurs techniques efficaces et originales qui permettent de réduire l’espace de recherche. La méthode générale de résolution consiste à chercher une séquence optimale de l’ensemble des jobs. Nous proposons une technique d’enregistrement de séquences partielles visitées qui permet d’éliminer des solutions partielles non optimales déjà identifiées. Une règle de propagation permet de réduire l’espace de recherche en utilisant le calcul de bornes inférieure. Nous proposons un ensemble de règles de dominance qui généralisent, incluent et dominent un grand nombre de règles de dominance de la littérature. Nous utilisons les techniques d’Edge-Finding se basant sur les fenêtres de temps d’extraction possible des jobs qui permettent de propager la contrainte de ressource et d’ajuster ces fenêtres de temps. Nous proposons des méthodes permettant d’ajuster les fenêtres de temps des tâches durant la recherche et ainsi d’augmenter les déductions faites par les techniques d’Edge-Finfing. Nous proposons des nouvelles bornes préemptives pour les critères du retard total pondéré et du retard total et nous proposons une amélioration de ces bornes qui base sur la propagation de règles de dominance. Nous étudions aussi plusieurs heuristiques et nous proposons plusieurs méthodes permettant d’améliorer de façon significative la qualité des ordonnancements construits par ces heuristiques. Enfin, nous rapportons des résultats expérimentaux qui permettent de monter l’efficacité des techniques développées dans cette thèse. Nous avons montré que la méthode arborescente alliée à ces techniques, permet d’améliorer les meilleurs résultats connus pour ces problèmes.
18

Echague, Eugénio. "Optimisation globale sans dérivées par minimisation de modèles simplifiés". Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, on étudie deux méthodes d’optimisation globale sans dérivées : la méthode des moments et les méthodes de surface de réponse. Concernant la méthode des moments, nous nous sommes intéressés à ses aspects numériques et à l'un de ses aspects théoriques : l’approximation à une constante près d'une fonction par des polynômes somme de carrés. Elle a aussi été implémentée dans les sous-routines d'une méthode sans dérivées et testée avec succès sur un problème de calibration de moteur. Concernant les surface de réponse, nous construisons un modèle basée sur la technique de Sparse Grid qui permet d’obtenir une approximation précise avec un nombre faible d'évaluations de la fonction. Cette surface est ensuite localement raffinée autour des points les plus prometteurs. La performance de cette méthode, nommée GOSgrid, a été testée sur différentes fonctions et sur un cas réel. Elle surpasse les performances d'autres méthodes existantes d’optimisation globale en termes de coût
In this thesis, we study two global derivative-free optimization methods: the method of moments and the surrogate methods. Concerning the method of moments, it is implemented as solver of the sub-problems in a derivative-free optimization method and tested for an engine calibration problem with succes. We also explore its dual approach, and we study the approximation of a function by a sum of squares of polynomials plus a constant. Concerning the surrogate methods, we construct a new approximation by using the Sparse Grid interpolation method, which builds an accurate model from a limited number of function evaluations. This model is then locally refined near the points with low function value. The numerical performance of this new method, called GOSgrid, is tested for classical optimisation test functions and finally for an inverse parameter identification problem, showing good results compared to some of the others existing methods, in terms of number of function evaluations
19

Sebti, Anas. "Optimisation des coûts de la réhabilitation hydraulique et environnementale d'un réseau de drainage urbain". Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/894/1/SEBTI_Anas.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’examen d’un certain nombre de réseaux de drainage urbains permet souvent de faire le constat, que ceux-ci deviennent progressivement, le siège d’écoulements en charge, voire de refoulements et de débordements. Les impacts sur l’équilibre du milieu aquatique, sont préoccupants et peuvent avoir des conséquences graves sur la salubrité des ressources en eau potable et l’usage récréatif de ces milieux. Ces dysfonctionnements sont souvent dus à l’augmentation des débits de ruissellement engendrée par l’urbanisation et les changements climatiques et à la réduction de la capacité hydraulique causée par l’usure et le manque de maintenance du réseau. Afin de pallier à ces dysfonctionnements hydrauliques et environnementaux, nous avons mis en oeuvre un programme pour optimiser la réhabilitation d’un réseau de drainage urbain. Les interventions potentielles sont principalement axées sur les pratiques de gestion optimales (PGO) qui visent la réduction du débit et du volume de ruissellement. Ces interventions peuvent aussi inclure les méthodes classiques de réhabilitation voire même le redimensionnement et la reconstruction des conduites problématiques pour améliorer la capacité hydraulique du réseau. Le programme développé a été appliqué sur un réseau réel et sur un réseau synthétique selon plusieurs scénarios de rétention et de pluies de conception. L’application de la méthodologie au réseau synthétique a permis d’illustrer les avantages d’intégration des PGO au moment de la conception pour optimiser les coûts de construction et de gestion à court terme tout en évitant les problèmes hydrauliques et environnementaux à long terme. L’étude de cas réel porte sur le réseau de l’arrondissement de Verdun qui est objet à de nombreux disfonctionnements hydrauliques et environnementaux. Le programme proposé a permis de définir la meilleure combinaison entre volume de rétention, réhabilitation et redimensionnement de collecteurs qui conduit aux performances hydrauliques et environnementales visées avec un coût minimal.
20

Lagnoux, Agnes. "Analyse des modeles de branchement avec duplication des trajectoires pour l'étude des événements rares". Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129752.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions, dans cette thèse, le modèle de branchement avec duplication des trajectoires d'abord introduit pour l'étude des événements rares destiné à accélérer la simulation. Dans cette technique, les échantillons sont dupliqués en $R$ copies à différents niveaux pendant la simulation. L'optimisation de l'algorithme à coût fixé suggère de prendre les probabilités de transition entre les niveaux égales à une constante et de dupliquer un nombre égal à l'inverse de cette constante, nombre qui peut être non entier. Nous étudions d'abord la sensibilité de l'erreur relative entre la probabilité d'intérêt $\mathbb{P}(A)$ et
son estimateur en fonction de la stratégie adoptée pour avoir des nombres de retirage entiers.
Ensuite, puisqu'en pratique les probabilités de transition sont généralement inconnues (et de même pour
les nombres de retirages), nous proposons un algorithme en deux étapes pour contourner ce problème.
Des applications numériques et comparaisons avec d'autres modèles sont proposés.
21

Hamel, Emmanuel. "Un modèle d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30040/30040.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce mémoire, un processus d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé est considéré. Au chapitre 1, nous décrivons les principales caractéristiques de l’assurance pour les professionnels de la santé : l’environnement, les types de couverture d’assurance, la prime, les coûts liés aux réclamations, les types de dépendances stochastiques dans le processus des coûts et dans les taux d’actualisation du processus des coûts. Au chapitre 2, une description des concepts théoriques préalables à l’élaboration et à l’application du modèle mathématique est faite : la dépendance (avec copules), le processus de renouvellement, la force d’intérêt et les méthodes numériques utilisées. Au chapitre 3, le modèle théorique du processus des coûts est établi et les premiers moments de ce processus sont obtenus, par des calculs numériques déterministes et par simulations. Au chapitre 4, plusieurs applications du modèle sont présentées : moments avec force d’intérêt stochastique (Vasicek), incidences de la dépendance sur le modèle, calculs de primes, mesures de risque (VaR et TVaR). Au chapitre 5, nous concluons ce mémoire.
In this master’s degree thesis, an aggregate loss model for health professionals is considered. The introduction describes some characteristics related to the insurance for health professionals: environment, type of insurance coverage, premium, cost of a claim, stochastic dependencies in the claim process and discount rate. In chapter 2, a description of theoretical concepts related to the proposed mathematical model is done: stochastic dependence (by copulas), renewal processes, discount rate (i.e. stochastic differential equations) and numerical methods. In chapter 3, the theoretical model is presented and the first moments are obtained, with deterministic numerical calculations and simulations. In chapter 4, some applications of the model are presented: first moments calculations with stochastic interest rate (Vasicek), impact of dependence on the model, premium calculations, risk measures (VaR and TVaR). In chapter 5, the conclusion follows.
22

Vallière, Dimitri de. "Problèmes de non arbitrage, de recouvrement et d'optimisation de consommation dans un marché financier avec coûts de transactions". Besançon, 2009. http://www.theses.fr/2009BESA2049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose une étude de trois grands problèmes de mathématiques financières dans les marchés financiers avec coûts de transactions proportionnels. La. Première partie est consacrée à l’étude des conditions de non arbitrage dans un marché avec information incomplète. La seconde partie résout le problème de recouvrement d`option américaine dans le cas continue et introduit le concept de système de prix cohérent. Enfin, la troisième partie traite du problème de consommation – investissement de Merton dans un marché où le processus des prix est dirigé par un processus de Lévy
This thesis deals with three problems of financial mathematics in the markets with proportional transaction costs. The first part is devoted to the conditions of no-arbitrage in a market with partial information. The second solves the hedging problem for the American options in a continuous time setting and introduces the concept of coherent price system. Finally, the third part deals with Merton’s consumption-investment problem in a market where the price process is driven by a Levy process
23

Dang-Ngoc, Tuyet-Tram. "Fédération de données semi-structurées avec XML". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2003. http://tel.archives-ouvertes.fr/tel-00733510.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Contrairement aux données traditionnelles, les données semi-structurées sont irrégulières : des données peuvent manquer, des concepts similaires peuvent être représentés par différents types de données, et les structures même peuvent être mal connues. Cette absence de schéma prédéfini, permettant de tenir compte de toutes les données du monde extérieur, présente l'inconvénient de complexifier les algorithmes d'intégration des données de différentes sources. Nous proposons une architecture de médiation basée entièrement sur XML. L'objectif de cette architecture de médiation est de fédérer des sources de données distribuées de différents types. Elle s'appuie sur le langage XQuery, un langage fonctionnel conçu pour formuler des requêtes sur des documents XML. Le médiateur analyse les requêtes exprimées en XQuery et répartit l'exécution de la requête sur les différentes sources avant de recomposer les résultats. L'évaluation des requêtes doit se faire en exploitant au maximum les spécificités des données et permettre une optimisation efficace. Nous décrivons l'algèbre XAlgebre à base d'opérateurs conçus pour XML. Cette algèbre a pour but de construire des plans d'exécution pour l'évaluation de requêtes XQuery et traiter des tuples d'arbres XML. Ces plans d'exécution doivent pouvoir être modélisés par un modèle de coût et celui de coût minimum sera sélectionné pour l'exécution. Dans cette thèse, nous définissons un modèle de coût pour les données semi-structurées adapté à notre algèbre. Les sources de données (SGBD, serveurs Web, moteur de recherche) peuvent être très hétérogènes, elles peuvent avoir des capacités de traitement de données très différentes, mais aussi avoir des modèles de coût plus ou moins définis. Pour intégrer ces différentes informations dans l'architecture de médiation, nous devons déterminer comment communiquer ces informations entre le médiateur et les sources, et comment les intégrer. Pour cela, nous utilisons des langages basés sur XML comme XML-Schema et MathML pour exporter les informations de métadonnées, de formules de coûts et de capacité de sources. Ces informations exportées sont communiquées par l'intermédiaire d'une interface applicative nommée XML/DBC. Enfin, des optimisations diverses spécifiques à l'architecture de médiation doivent être considérées. Nous introduisons pour cela un cache sémantique basé sur un prototype de SGBD stockant efficacement des données XML en natif.
24

Olsson, Leif. "Optimisation of forest road investments and the roundwood supply chain /". Umeå : Dept. of Forest Economics, Swedish Univ. of Agricultural Sciences, 2004. http://epsilon.slu.se/s310.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Zhang, Christophe Chi. "La baisse des coûts des tunnels. Mesures, causes et conséquences". Marne-la-vallée, ENPC, 1994. http://www.theses.fr/1994ENPC9424.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est de tenter de chercher la loi, de trouver les facteurs déterminants des coûts des tunnels de métros, de les expliquer, de construire des modèles de prévision d'ordres de grandeur des coûts. Cette étude est basée essentiellement sur a base de données établie en 1990 par le groupe de travail n° 15 de l’Association Française des Travaux en Souterrain (AFTES) concernant les coûts des infrastructures des métros français. La base des données utilise��es dans cette étude comporte les principales opérations françaises réalisés de 1975 à 1990 (90 observations qui représentent environ 61 000 mètres au total). La recherche porte uniquement sur les coûts des tunnels entre les stations, rapporté au mètre linéaire d’ouvrage à 2 voies. Les méthodes statistiques utilisées sont notamment les régressions linaires ou multiples. L'étude a permis de connaitre le coût global, le coût hors équipements et le coût des équipements des tunnels de métros urbains et régionaux exécutés en souterrain, en tranchée couverte ainsi que sa composition, sa ventilation en pourcentage. L'analyse des facteurs quantitatifs et qualitatifs par des méthodes économétriques a permis de comprendre la complexité du problème des coûts, les facteurs déterminants des coûts et de construire des modèles pour la prévision du coût de grandeur. Cette étude a mise en évidence une tendance d'évolution des coûts en France constante des tunnels de métros français qui est de l'ordre de -3,5% par an en moyenne pendant la période 1975-1990, soit environ -50% au total. La recherche a montré que les évolutions constatées résultent des efforts conjugués des ingénieurs d'étude, des expériences et des progrès techniques (l’emploi de tunnelier, la réduction du volume de structure en béton, etc. ). Les conséquences de l'évolution des coûts pour les autorités publiques et les entreprises ainsi que les tendances du marché des travaux souterrains ont été également analysées
The purpose of this work is to attempt to look for the lows, to find determinating factors of subway tunnel costs, to explain them, to construct prevision models of costs. This study is essentially based upon data established in 1990 by the work group n° 15 of the French association of Underground Engineering concerning he cost of French subways. This data base contains the principals french operations built from 1975 to 1990 (90 observations which represent a total of 61 000 meters). The research touches uniquely upon tunnel cost between stations, added to the linear meter of a tunnel with 2 lines. Statistical methods used in the work are notably linear or multiple regressions. This research has permitted to know the total cost, with or without the equipment for urban and regional subway tunnels executed underground and trench covered, as well as its composition, its distribution of percentage. Quantitative and qualitative analysis of factors by econometric method have permited to comprehend the complexity of the cost problem, the determinating factors of cost, and to construct models for prevision cost. This study gave evidence of a tendency of evolution in the cost of french subway tunnels, which is a decrease by an average of -3,5 % a year during the period 1975-1990. This study showed that the noted evolution results from the joint efforts of research engineers, experiments and technical progress (the use of tunneling the reduction of concrete structure volume, etc. ). Consequences of cost evolution for public authorities and for corporations, as well as the market tendency underground structures are analysed
26

Bester, Albertus J. "A multi-objective approach to incorporate indirect costs into optimisation models of waterborne sewer systems". Thesis, Stellenbosch : University of Stellenbosch, 2011. http://hdl.handle.net/10019.1/6824.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (MScEng (Civil Engineering))--University of Stellenbosch, 2011.
ENGLISH ABSTRACT: Waterborne sewage system design and expansion objectives are often focused on minimising initial investment while increasing system capacity and meeting hydraulic requirements. Although these objectives make good sense in the short term, the solutions obtained might not represent the optimal cost-effective solution to the complete useful life of the system. Maintenance and operation of any system can have a significant impact on the life-cycle cost. The costing process needs to be better understood, which include maintenance and operation criteria in the design of a sewer system. Together with increasing public awareness regarding global warming and environmental degradation, environmental impact, or carbon cost, is also an important factor in decisionmaking for municipal authorities. This results in a multiplicity of different objectives, which can complicate the decisions faced by waterborne sewage utilities. Human settlement and migration is seen as the starting point of expansion problems. An investigation was conducted into the current growth prediction models for municipal areas in order to determine their impact on future planning and to assess similarities between the models available. This information was used as a platform to develop a new method incorporating indirect costs into models for planning waterborne sewage systems. The need to balance competing objectives such as minimum cost, optimal reliability, and minimum environmental impact was identified. Different models were developed to define the necessary criteria, thus minimising initial investment, operating cost and environmental impact, while meeting hydraulic constraints. A non-dominated sorting genetic algorithm (NSGA-II) was applied to certain waterborne sewage system (WSS) scenarios that simulated the evolutionary processes of genetic selection, crossover, and mutation to find a number of suitable solutions that balance all of the given objectives. Stakeholders could in future apply optimisation results derived in this thesis in the decision making process to find a solution that best fits their concerns and priorities. Different models for each of the above-mentioned objectives were installed into a multi-objective NSGA and applied to a hypothetical baseline sewer system problem. The results show that the triple-objective optimisation approach supplies the best solution to the problem. This approach is currently not applied in practice due to its inherent complexities. However, in the future this approach may become the norm.
AFRIKAANSE OPSOMMING: Spoelafvoering rioolstelsel ontwerp en uitbreiding doelwitte is dikwels gefokus op die vermindering van aanvanklike belegging, terwyl dit die verhoging van stelsel kapasiteit insluit en ook voldoen aan hidrouliese vereistes. Alhoewel hierdie doelwitte goeie sin maak in die kort termyn, sal die oplossings verkry dikwels nie die optimale koste-effektiewe oplossing van die volledige nuttige lewensduur van die stelsel verteenwoordig nie. Bedryf en instandhouding van 'n stelsel kan 'n beduidende impak op die lewensiklus-koste hê, en die kostebepalings proses moet beter verstaan word en die nodige kriteria ingesluit word in die ontwerp van 'n rioolstelsel. Saam met 'n toenemende openbare bewustheid oor aardverwarming en die agteruitgang van die omgewing, is omgewingsimpak, of koolstof koste, 'n belangrike faktor in besluitneming vir munisipale owerhede. As gevolg hiervan, kan die diversiteit van die verskillende doelwitte die besluite wat munisipale besluitnemers in die gesig staar verder bemoeilik. Menslike vestiging en migrasie is gesien as die beginpunt van die uitbreiding probleem. 'n Ondersoek na die huidige groeivoorspelling modelle vir munisipale gebiede is van stapel gestuur om hul impak op die toekomstige beplanning te bepaal, en ook om die ooreenkomstes tussen die modelle wat beskikbaar is te asesseer. Hierdie inligting is gebruik as 'n platform om ‘n nuwe metode te ontwikkel wat indirekte kostes inkorporeer in die modelle vir die beplanning van spoelafvoer rioolstelsels. Die behoefte is geïdentifiseer om meedingende doelwitte soos minimale aanvanklike koste, optimale betroubaarheid en minimum invloed op die omgewing te balanseer. Verskillende modelle is ontwikkel om die bogenoemde kriteria te definiëer, in die strewe na die minimaliseering van aanvanklike belegging, bedryfskoste en omgewingsimpak, terwyl onderhewig aan hidrouliese beperkinge. ‘n Nie-gedomineerde sorteering genetiese algoritme (NSGA-II), istoegepas op sekere spoelafvoering rioolstelsel moontlikhede wat gesimuleerde evolusionêre prosesse van genetiese seleksie, oorplasing, en mutasie gebruik om 'n aantal gepaste oplossings te balanseer met inagname van al die gegewe doelwitte. Belanghebbendes kan in die toekoms gebruik maak van die resultate afgelei in hierdie tesis in besluitnemings prosesse om die bes-passende oplossing vir hul bekommernisse en prioriteite te vind. Verskillende modelle vir elk van die bogenoemde doelwitte is geïnstalleer in die nie-gedomineerde sorteering genetiese algoritme en toegepas op 'n hipotetiese basislyn rioolstelsel probleem. Die resultate toon dat die drie-objektief optimalisering benadering die beste oplossing vir die probleem lewer. Hierdie benadering word tans nie in die praktyk toegepas nie, as gevolg van sy inherente kompleksiteite. Desnieteenstaande, kan hierdie benadering in die toekoms die norm word.
27

Vuong, Thi Thanh Thuy. "Réduction de modèle de crash automobile : application en optimisation". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEC025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La simulation numérique est de plus en plus utilisée dans l’industrie pour réduire le coût lié aux essais physiques. Une simulation de crash (préparation + soumission au solveur + traitement) dure environ une à deux journées. Renault utilise l’optimisation, donc de nombreuses simulations de crash, pour dimensionner ses véhicules. Afin de réduire le coût total d’un ensemble de simulations crash, le but de cette thèse est de proposer une ou des méthodes de réduction de modèle applicables dans un espace paramétrique. Les méthodes proposées dans cette thèse sont non-intrusives et n’obligent donc pas à modifier le solveur ni le modèle. La première méthode testée est la Proper Orthogonal Decomposition. Elle permet de réduire le comportement d’une simulation et de comprendre les propriétés du crash mais l’interpolation dans l’espace paramétrique est plus difficile. La deuxième méthode, ReCUR, est une variante de la décomposition CUR classique. Elle sera montrée comme une forme générale des méthodes non-intrusives. Elle permet de surmonter les deux limites importantes des méthodes de réduction actuelles : taille du modèle élevée et interpolation
The numerical simulation is more and more applied in the industry in order to reduce the physical tests costs. A crash simulation (pre-processing, processing and post-processing) takes about one or two days. Renault uses the optimization, so numerous crash simulations, to size cars. To cut back the total cost of a whole crash simulations, the aim of this thesis is to propose a or some Reduced-Order Model (ROM) methods that can be applied in a parametric space. The suggested methods in this thesis are nonintrusive and neither the solver nor the model should not be modified . The first tested method is the Proper Orthogonal Decomposition. This method allows reducing the behavior of a crash simulation and understanding the crash properties but not interpolating in a parametric space. The second method, ReCUR, is a variant of the classical decomposition CUR. It will be demonstrated as a general form of the non-intrusive methods. It allows overcoming two important limits of actual ROM methods : size of the model and the interpolation
28

Lannuzel, Pierre. "Recueil et intégration d'heuristiques dans les algorithmes de définition de stratégies de pompage". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1990. http://tel.archives-ouvertes.fr/tel-00520786.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
PILOTE est un système qui reproduit des décisions d'experts dans la définition de stratégies de pompage. Pour cela, le système combine à la fois des modèles mathématiques et des jeux d'heuristiques. Les modèles comprennent des procédures statistiques de prévisions horaires de consommation et un module de simulation hydraulique. Les heuristiques sont basées sur des facteurs en relation avec la quantité et la qualité de l'eau, et les coûts de pompage et de maintenance. Une évaluation du système a indiqué que les procédures de prévision fonctionnaient bien, mais que le modèle de simulation surestimait de façon conséquente les volumes élevés. Les heuristiques utilisées dans le programme représentent bien les régies utilisées par les experts, excepté pour le classement des stratégies alternatives de pompage. L'évaluation a aussi défini les priorités de développement pour un passage vers un système opérationnel.
29

Dang, Ngoc Tuyet Tram. "Federation de données semi-structurées avec XML". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2003. http://tel.archives-ouvertes.fr/tel-00005162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Contrairement aux données traditionnelles, les données semi-structurées
sont irrégulières : des données peuvent manquer, des concepts
similaires peuvent être représentés par différents types de données,
et les structures même peuvent être mal connues. Cette absence
de schéma prédéfini, permettant de tenir compte de toutes les données
du monde extérieur, présente l'inconvénient de complexifier les
algorithmes d'intégration des données de différentes sources.

Nous proposons une architecture de médiation basée entièrement sur XML.
L'objectif de cette architecture de médiation est de fédérer des sources de
données distribuées de différents types.
Elle s'appuie sur le langage XQuery, un langage fonctionnel
conçu pour formuler des requêtes sur des documents XML. Le médiateur analyse
les requêtes exprimées en XQuery et répartit l'exécution de la requête
sur les différentes sources avant de recomposer les résultats.

L'évaluation des requêtes doit se faire en exploitant au maximum les
spécificités des données et permettre une optimisation efficace.
Nous décrivons l'algèbre XAlgebre à base d'opérateurs conçus
pour XML. Cette algèbre a pour but de construire des plans d'exécution pour
l'évaluation de requêtes XQuery et traiter des tuples d'arbres XML.

Ces plans d'exécution doivent pouvoir être modélisés par un modèle
de coût et celui de coût minimum sera sélectionné pour l'exécution.
Dans cette thèse, nous définissons un modèle de coût pour les données
semi-structurées adapté à notre algèbre.

Les sources de données (SGBD, serveurs Web, moteur de recherche)
peuvent être très hétérogènes, elles peuvent avoir des
capacités de traitement de données très différentes, mais aussi avoir
des modèles de coût plus ou moins définis.
Pour intégrer ces différentes informations dans
l'architecture de médiation, nous devons déterminer comment communiquer
ces informations entre le médiateur et les sources, et comment les intégrer.
Pour cela, nous utilisons des langages basés sur XML comme XML-Schema et MathML
pour exporter les informations de métadonnées, de formules de coûts
et de capacité de sources.
Ces informations exportées sont communiquées par l'intermédiaire d'une interface
applicative nommée XML/DBC.

Enfin, des optimisations diverses spécifiques à l'architecture de médiation
doivent être considérées. Nous introduisons pour cela un cache sémantique
basé sur un prototype de SGBD stockant efficacement des données XML
en natif.
30

Sidibé, Souleymane. "Optimisation des trajectoires d'un système de gestion de vol d'avions pour la réduction des coûts de vol". Mémoire, École de technologie supérieure, 2014. http://espace.etsmtl.ca/1324/1/SIDIB%C3%89_Souleymane.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mise en oeuvre et le suivi des plans de vol opérationnels sont une occupation importante pour un équipage de vols commerciaux. Le but de cette opération est de définir les trajectoires latérales et verticales suivies par l’avion lors de ses phases de vol en montée, en croisière, en descente, etc. Ces trajectoires sont soumises à des contraintes économiques contradictoires : la minimisation du temps de vol, et aussi du carburant consommé ainsi que des contraintes environnementales. Dans sa planification de vol, l'équipage est assisté par le système de gestion de vol (FMS) qui permet de construire la trajectoire à suivre et également de prédire le comportement de l’avion le long du plan de vol. Le FMS considéré dans notre recherche, intègre, en particulier, un modèle d’optimisation de vol calculant uniquement un profil de vitesse optimal qui minimise le coût global de vol synthétisé par un critère d'indice de coût suivant une altitude de croisière constante. Or, le modèle basé seulement sur l'optimisation du profil de vitesses n’est pas suffisant. Il est nécessaire d’intégrer une optimisation simultanée de l'altitude et de la vitesse afin de déterminer une altitude de croisière optimale qui minimise le coût global lorsque la trajectoire est parcourue avec le profil de vitesse optimal. Ainsi, un nouveau programme a été développé. Ce dernier se base sur la méthode de la programmation dynamique inventée par Bellman pour résoudre les problèmes de chemins optimaux. De plus, l’amélioration passe par la recherche de nouveaux schémas de trajectoires intégrant des croisières ascendantes et l'utilisation du plan latéral sous l'effet de la météo. Enfin, pour une meilleure optimisation, le programme tient compte des capacités des avions qui utilisent le FMS étudié.
31

Adankon, Mathias Mahouzonsou. "Optimisation de ressources pour la sélection de modèle des SVM". Mémoire, École de technologie supérieure, 2005. http://espace.etsmtl.ca/357/1/ADANKON_Mathias_Mahousonzou.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sélection de modèle, optimisation des hyper-paramètres, est une étape très importante pour garantir une forte performance aux SVM. Les méthodes de sélection de modèle automatique nécessitent l'inversion de la matrice de Gram-Schmidt ou la résolution d'un problème d'optimisation quadratique supplémentaire, ce qui est très coûteux en temps de calcul et en mémoire lorsque la taille de l'ensemble d'apprentissage devient importante. Dans ce mémoire, nous proposons une méthode rapide basée sur une approximation du gradient de l'erreur empirique avec une technique d'apprentissage incrémental; ce qui réduit les ressources requises en termes de temps de calcul et d'espace mémoire. Notre méthode testée sur des bases de données synthétiques et réelles a produit des résultats probants confirmant notre approche. Nous avons aussi développé une nouvelle expression pour les SVM avec la formulation de la marge molle «soft margin» L1, ce qui permet d'inclure l'hyper-paramètre C dans les paramètres du noyau.
32

Lidin, Renée. "Commande dynamique de réseaux de commande de chauffage urbain". Phd thesis, École Nationale Supérieure des Mines de Paris, 1986. http://pastel.archives-ouvertes.fr/pastel-00654162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'intéresse à la modélisation et à la commande optimale de réseaux de distribution d'eau chaude avec pertes de chaleur.

Développement de logiciels d'aide à la compréhension du comportement dynamique du réseau, à sa gestion optimale face à des variations de données extérieures (consommations, tarifs énergétiques,...). Modélisation et optimisation du fonctionnement hydraulique et thermique du réseau, par rapport à la somme du coût de production de l'eau chaude, et du coût de fonctionnement des pompes. Exemples de simulation et d'optimisation réalisées sur des petits réseaux
33

Verlhac, Pierre. "Étude et optimisation des cycles de lyophilisation d’une souche probiotique modèle". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1037/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est basé sur l’étude expérimentale, étape par étape, du procédé de lyophilisation, afin de comprendre les impacts des différents paramètres du procédé sur la viabilité d’une souche modèle probiotique de type lactobacillus casei. Nous avons tout d’abord étudié les propriétés thermodynamiques des formulations considérées à base de lactose et de polyvinylpyrrolidone, (PVP) en commençant dans un premier temps par l’obtention du diagramme d’état du système amorphe constitué du binaire eau-PVP, puis le diagramme de fusion du ternaire eau-PVP-lactose afin d’en déduire les paramètres clefs pour l’optimisation des cycles de lyophilisation de ces suspensions bactériennes. Dans la deuxième partie, nous avons caractérisé par microscopie électronique à balayage (MEB) la localisation des bactéries au sein de la phase solide amorphe des lyophilisats poreux. Ensuite, les différentes formulations ont été soumises à différents protocoles de congélation (vitesse de refroidissement ; recuit) afin d’obtenir les meilleurs résultats en termes de taux de survie des bactéries. Avec la formulation sélectionnée précédemment nous nous sommes intéressés à l’influence des paramètres opératoires de sublimation (température étagère et pression totale de sublimation) conduisant aux meilleurs taux de survie des bactéries. Nous avons observé que nos cellules probiotiques, avec ces formulations, pouvaient être lyophilisées, au-dessus de la température limite de collapse, sans impacter la viabilité des cellules présentes ou insérées au sein de la phase matrice poreuse du lyophilisat final, ce dernier présentant de plus, de bonnes propriétés d’usage en termes de stabilité en vue d’une mise en forme galénique ou d’un stockage ultérieur
This work is based on the experimental study, step by step, of the freeze-drying process of a model probiotic strain of lactobacillus caseï type to understand the impact of the numerous factors (formulation; freezing protocol; operating conditions) on the survival rates of these bacteria in the final lyophilisate. Firstly, we investigated the thermo-dynamical and physical properties (vitreous transition and melting temperatures) of formulations based on lactose and polyvinylpyrrolidone (PVP) protectants and their mixture. Thus, we have determined the phase diagrams and the melting diagram of the water+PVP binary system and of the ternary water-PVP-lactose system. Next, we determined the optimal freezing protocol (freezing rates; annealing treatment) with different formulations which led to the best survival rates. Next, in a preliminary study we have characterized by SEM (scanning electron microscopy) the location of the cells inserted inside the solid amorphous phase of the porous matrix of the different lyophilisates. Secondly, with the pre-selected formulation, we experienced the influence of the main operating sublimation parameters (shelf temperature and total gas pressure), leading to highest product quality in terms of bacteria survival ratios of the final lyophilisates. We observed that these probiotics cells, with this formulation, could be freeze-dried above the limit collapse temperature without impacting significantly the viability of the freeze-dried cells and with lyophilisates of high stability attributes
34

Sbeity, Hoda. "Optimisation sur un modèle de comportement pour la thérapie en oncologie". Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Chez les êtres humains, les tumeurs solides, sont causées par une séquence d'anomalies génétiques qui surviennent dans les cellules normales et précancéreuses. La compréhension de ces séquences est importante pour améliorer les traitements du cancer, qui peuvent être par chimiothérapie, radiothérapie ou par chirurgie. Au cours des 15 dernières années, les biologistes et les généticiens moléculaires ont découvert certains des mécanismes les plus fondamentaux par lesquels les cellules souches normales dans certains tissus se transforment en tumeurs cancéreuses. Cette connaissance biologique sert de base pour différents modèles cancérogenèses. Ces théories biologiques peuvent ensuite être transformées en modèles mathématiques, soutenues par des méthodes d'analyse des données statistiques. Les modèles mathématiques permettent de tester quantitativement les nouvelles découvertes biologiques par rapport aux données humaines, en aidant les chercheurs à développer des stratégies efficaces de diagnostic, de contrôle, curatifs et préventifs contre le cancer. Ces modèles appartiennent à des catégories différentes, y compris les modèles déterministe, spatiaux-temporelles, compartimentaux et stochastiques. Dans cette thèse, on a résumé les modèles mathématiques utilisés i) dans les modèles déterministes, pour décrire l'évolution des cellules cancéreuses, et ii) pour l'administration de médicaments en chimiothérapie. Toutefois, la chimiothérapie est un mode de traitement complexe qui nécessite un équilibre entre l'efficacité et les effets secondaires toxiques indésirables causés par les médicaments anticancéreux. En réalité, les observations biologiques changent aléatoirement sous l'influence de plusieurs facteurs. Pour cette raison, on a essayé d'introduire des probabilités, qui sont utilisés dans les modèles stochastiques. Parmi les différents modèles stochastiques qui décrivent les processus biologiques, tels que le cancer, on a: le modèle de Moran, le modèle de Wright-Fisher (WF), le modèle de Galton-Watson (GW), le processus de la chaîne de Markov, et le modèle de Moolgavkar, Venzon et Knudson (MVK). L'un des objectifs de cette thèse est de développer ces modèles stochastiques pour suivre l'évolution du cancer et pour simuler le traitement chimiothérapeutique approprié qui cause la disparition des cellules cancéreuses. Il existe plusieurs méthodes d'optimisations, dans cette thèse l'algorithme génétique (AG) est adopté, pour trouver le juste équilibre entre le nombre minimum de cellules cancéreuses et le dosage minimal. Donc, un autre objectif de cette thèse est d'étudier comment la méthode d'optimisation AG peut être utilisée pour suivre l'évolution du cancer avec des traitements chimiothérapeutiques optimales qui provoquent la mort des cellules cancéreuses avec moins d'effets secondaires. On a résumé toutes ces idées en proposant une nouvelle stratégie pour optimiser le traitement de la chimiothérapie en se basant sur des protocoles réels et bien vérifiés. La stratégie de travail est définie comme suit, i) La première étape est de définir le cancer à traiter avec ces paramètres, ii) La deuxième étape est de choisir un protocole du traitement définit par le cancérologue, iii) La troisième étape est de choisir un modèle déterministe/stochastique qui peut décrire la trajectoire des cellules cancéreuses avec/sans traitement, et iv) La dernière étape est l'application de la méthode d'optimisation sur le modèle du cancer
Solid tumors in humans are believed to be caused by a sequence of genetic abnormalities that arise in both normal and premalignant cells. Understanding these sequences is important for improving cancer treatments, which can differ from chemotherapy to radiotherapy and surgery. In the past 15 years, molecular biologists and geneticists have uncovered some of the most basic mechanisms by which normal stem cells in certain tissues develop into cancerous tumors. This biological knowledge serves as a basis for various models of carcinogenesis. These biological theories can then be transformed into mathematical models, supported by relevant methods of statistical data analysis. Mathematical models will allow the novel biological findings to be quantitatively tested against human data, helping researchers develop efficient diagnostic, controlling, curative and preventive strategies for cancer. These models belong to different categories, including deterministic, state space, compartment and stochastic models. In this thesis, for the deterministic models, we summarize the mathematical models used to describe the evolution of cancer cells, as well as those used for drug delivery in chemotherapy. However, chemotherapy is a complex treatment mode that requires balancing the benefits of treating tumors with the adverse toxic side effects caused by the anti-cancer drugs. In reality, observations in biological cases are often presented in a fuzzy way. For this reason, we attempt to introduce probabilities, which are used in stochastic models. Among the various stochastic models that are able to describe biological processes, such as cancer, we have the following: the Moran Model, Wright-Fisher (WF) Model, Galton–Watson branching process (GWBP), Markov chain Processes, and Model of Moolgavkar, Venzon, and Knudson (MVK). With these models in mind, one of the goals of this thesis is to develop models to follow the evolution of this disease and simulate suitable chemotherapy treatments that cause the death of cancer. Some methods of computational optimization, genetic algorithms (GA) in particular, have proven useful in helping to strike the right balance. Another purpose of this thesis is to study how the GA optimization method can be used to follow the evolution of cancer and facilitate finding optimal chemotherapeutic treatments that cause the death of cancer cells with fewer side effects. All these ideas are summarize by generated our own strategy to optimize the treatment of chemotherapy using real protocols. Our strategy is defined as follows, i) The first step is to define the genre of cancer treated with his parameters, ii) The second step is to choose a real treatment protocol defined by the cancerologist, iii) The third step is to choose a deterministic / stochastic model that can describe the trajectory of cancer cells with / without treatment and iv) The last step is the application of the optimization method
35

Bahloul, Khaled. "Optimisation combinée des coûts de transport et de stockage dans un réseau logistique dyadique, multi-produits avec demande probabiliste". Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00695275.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette thèse est de proposer des méthodes de gestion des approvisionnements adaptées à des contextes particuliers afin de minimiser les coûts logistiques engendrés dans un réseau logistique multi produits, multi niveaux confronté à une demande probabiliste. Au cours de cette thèse, nous nous sommes attachés à : - Proposer des méthodes de gestion des stocks et du transport pour des familles de produits dans différents contextes : o Une première politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande aléatoire et répétitive. Cette politique est définie par un niveau de commande et par un niveau de ré-complètement de stock pour chaque produit et une période de réapprovisionnement. Dès qu'un produit atteint le niveau de commande, un réapprovisionnement de tous les produits de la famille est déclenché. o Une deuxième politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande très aléatoire et ponctuelle. Cette politique est basée sur les ruptures de stock. A chaque rupture d'un produit présent dans le stock il y a déclenchement d'un réapprovisionnement de tous les produits de la famille. - Proposer une méthode de classification multicritères afin de constituer des groupes de produits relevant d'une politique donnée, chaque classe ou famille regroupant des produits réagissant identiquement. Cette classification des produits en familles homogènes permet d'identifier les caractéristiques déterminantes dans le choix des méthodes de gestion de stock et de transport. - Analyser et comparer les performances de ces deux politiques d'approvisionnement par rapport à des politiques de référence, ainsi que leur sensibilité au regard de quelques paramètres discriminants : variabilité de la demande ; coût des produits ; coût des commandes urgentes...
36

Royat, Sujana. "Affectation des investissements en infrastructures de transports et aménagement de l'espace. Le cas de programmation d'investissements de routes locales dans le développement rural de la province de Java-Est, Indonésie". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00529717.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les approches actuelles de choix d'investissements en infrastructures de transports mettent surtout l'accent sur la réduction de coûts de transports comme critère unique de sélection d'investissements rentables. De plus, ces approches s'appuient souvent sur les conditions et réalités socio-économiques des pays développés qui sont très différentes de celles des pays en développement. Pourtant, à l'heure actuelle, la réduction des coûts de transport n'est plus le seul objectif recherché lors de la réalisation d'un projet en infrastructures de transports. Elargissement du marché; facilité d'accès à des endroits éloignés, propagation du développement vers les régions moins développées et développement spatial harmonieux, sont autant d'effets importants que doivent entraîner les infrastructures de transports, par leur rôle de formation et d'aménagement de l'espace. Pour les pays en développement, de telles approches d'évaluation des investissements en infrastructures de transports doivent aussi être adaptables à la résolution de problèmes propres à ces pays, tels que : dichotomie du secteur moderne et du secteur traditionnel ou dichotomie urbain - rural, étroitesse des marchés de produits agricoles et d'industries artisanales, limitations de budgets d'infrastructures, et répartition spatiale inégale des infrastructures et équipements sociaux. Pour ces raisons, cette étude se propose d'élaborer la procédure AFFINAE : d'affectation des investissements en infrastructures de transports par référence à l'aménagement de l'espace. Cette procédure considère les infrastructures de transports comme instruments d'aménagement de l'espace. Elle se concentre sur la disparité de niveaux de services des infrastructures de transports entre les régions. Cette disparité est d'ailleurs considérée comme cause importante du développement inégal entre les régions, problème fondamental de l'aménagement de l'espace dans les pays en développement. L'application de cette procédure au cas de programmation des investissements de routes locales en province de Java-Est en Indonésie a permis de trouver une efficacité suffisante pour l'affectation spatiale de budgets disponibles, particulièrement dans une situation de limitation budgétaire pour réaliser les « targets » d'investissements correspondants. Néanmoins, un développement ultérieur de cette procédure est indispensable pour qu'elle soit plus performante au niveau de la conception et des résultats. L'amélioration de la conception des variables prises en compte adaptées aux situations des pays en développement et du mode de calcul aux programmes d'optimisation dans cette procédure pourra être un sujet à aborder dans des recherches ultérieures.
37

Azem, Leila. "Analyse des liens entre un modèle d'endommagement et un modèle de fracture". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à la dérivation des modèles de fracture comme limite de modèles d'endommagement.L'étude est justifiée essentiellement à travers des simulations numériques.On s'intéresse à étudier un modèle d'endommagement initié par Allaire, Jouve et Vangoethem.Nous apportons des améliorations significatives à ce modèle justifiant la cohérence physique de cette approche.D'abord, on ajoute une contrainte sur l'épaisseur minimale de la zone endommagée, puis on ajoute la condition d'irréversibilité forte.Nous considérons en outre un modèle de fracture avec pénalisation de saut obtenu comme limite asymptotique d'un modèle d'endommagement.Nous justifions ce modèle par une étude numérique et asymptotique formelle unidimensionnelle.Ensuite, la généralisation dans le cas 2D est illustrée par des exemples numériques
This thesis is devoted to the derivation of fracture models as limit damage models.The study is justified mainly through numerical simulations.We are interested in studying a damage model initiated by Allaire, Jouve and Vangoethem.We are making significant improvements to this model justifying the physical consistency of the approach.First, we add a constraint on the minimum thickness of the damaged area and then we add a condition of strong irreversibility.We see also a fracture model with jump penalization obtained as an asymptotic limit of a damage model.We justify this model by a one-dimensional formal asymptotic numerical study.Then, the generalization in the case 2D is illustrated by numerical examples
38

Meyer, Yann. "Contrôle actif de micro-composants électroniques". Besançon, 2005. http://www.theses.fr/2005BESA2083.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Al, Sarray Basad. "Estimation et choix de modèle pour les séries temporelles par optimisation convexe". Besançon, 2016. http://www.theses.fr/2016BESA2084.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les séries temporelles sont définies comme une séquence ordonnée d’observation à travers le temps. La structure des séries temporelles est représentée par la somme des composantes indépendantes. Généralement, ces composantes sont estimées indépendamment les unes des autres chaque composant fait partie d’une catégorie particulière. Les modèles Auto régressifs et Moyenne Mobile sont utilisées pour la modélisation des séries chronologiques il y a un grand nombre d’applications telle que le traitement du signal, la finance, l’imagerie médicale le radar, et la communication. […] Cette étude présente quelques-unes des méthodes d’apprentissage machine, et des méthodes convexes pour la sélection de modèle ARMA et l’estimation est basée sur la conversion des modèles ARMA-AR et des modèles ARMA aux modèle espace d’état. […]
[…] this study presents some of machine learning and convex methodes for ARMA model selection and estimation based on the conversion between ARMA –AR models and ARMA-State Space Models. Also in this study, for a time series decomposition and time series components analysis some of convex methods are implemented and simulated. The results show the ability of convex methods of analysing and modelling a given series
40

Duhamel, François. "Choix stratégiques et modes d'organisation des fonctions de support des firmes : Elaboration d'un modèle théorique et étude empirique de la logistique des enseignes de distribution de détail en France". Jouy-en Josas, HEC, 2006. http://www.theses.fr/2006EHEC0013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse vise à développer et à tester un modèle d'explication de la probabilité pour les firmes d'exécuter une fonction de support en interne, ou par la voie contractuelle, avec des prestataires externes, qui intègre les apports de l'approche par les ressources et les compétences à la théorie des coûts de transaction, qui reste la théorie principale de référence. Ce modèle est testé dans le contexte des opérations logistiques des firmes de distribution de détail en France. Les résultats de l'étude font apparaître particulièrement l'importance des avantages comparés entre les prestataires et le donneur d'ordre, en terme de coûts et de compétences, et une dissociation des critères de spécialisation, de spécificité des activités et de contribution de l'activité à l'avantage stratégique. Une plus grande incertitude externe pousse à l'internalisation, ce qui remet en cause la vision des formes externes comme source de flexibilité pour les firmes
In this dissertation, we propose an integrative model to disentangle the predictive power of transaction cost theory and resource based approach, in order to explain the probability of firms executing a support function in-house, or through contracting with external providers. We test the model in the context of logistic operatons of the larger retail firms in France. Overall results show that both theories provide complementary explanations for the probability of firms organizing their logistics in-house or through external providers. The results also show the importance of the comparative advantages, in terms of both costs and competencies, between service providers and clients. We also distinguish the criteria of asset specificity, asset specialization and contribution of the activity to the strategic advantage of the focal firm. External uncertainty seems to reinforce, by itself, the probability to keep an activity in-house, in opposition to a vision which recommends using outsourcing as a flexibility device
41

Savourey, David. "Ordonnancement sur machines parallèles : minimiser la somme des coûts". Phd thesis, Université de Technologie de Compiègne, 2006. http://tel.archives-ouvertes.fr/tel-00156405.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions quatre problèmes d'ordonnancement sur machines parallèles. Ces quatre problèmes diffèrent par le critère que l'on cherche à minimiser : la somme des dates de fin, la somme pondérée des dates de fin, le retard total ou le retard total pondéré. Les jobs à ordonnancer sout soumis à des dates de disponibilité. Nous avons proposé pour ces quatres problèmes plusieurs règles de dominance. Une étude des bornes
inférieures a également été réalisée. Enfin, nous avons proposé une méthode de résolution exacte utilisant les règles de dominance ainsi que les bornes inférieures.
42

Hachette, Rémy. "Réduction de modèle thermique par identification : utilisation pour des conditions aux limites variables, couplage à un modèle détaillé". Aix-Marseille 1, 1995. http://www.theses.fr/1995AIX11048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux sont relatifs a la reduction de modeles de connaissance par la methode d'identification des modes dominants. On montre ici les dernieres ameliorations: en precision grace a une identification pour chaque sollicitation ; en temps de calcul par selection de quelques reponses les plus representatives de la dynamique du systeme. La methodologie adoptee ne necessite que des simulations numeriques effectuees avec le modele d'origine, associees a des algorithmes d'optimisation. Le bien fonde de la demarche est montre sur deux exemples de modelisation en diffusion thermique: un pont thermique 2d un transistor de puissance 3d. On montre ensuite comment l'on peut etendre le champ d'utilisation d'un tel modele grace a l'introduction de la notion de flux correcteurs. Ceci permet notamment d'utiliser un modele reduit avec des conditions limites: non lineaires (echanges radiatifs) completement differentes des conditions aux limites du modele d'origine (changement de coefficient de convection, raccordement avec un autre modele). Des applications a des exemples simples 2d sont donnees
43

Belkora, Samir. "Les méthodes d'optimisation multiobjectif : synthèse et considérations théoriques : application d'un modèle probabiliste de choix au problème d'optimisation multiobjectif". Aix-Marseille 2, 1986. http://www.theses.fr/1986AIX24012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail traite des methodes d'optimisation multiobjectif. Dans une premiere grande partie, nous avons effectue la synthese des methodes multiobjectifs en suivant une classification traditionnelle qui divise les methodes en trois classes importantes : - les methodes necessitant une ponderation "a priori" des objectifs. - les methodes necessitant une ponderation "progressive" des objectifs ou methodes interactives. - les methodes conduisant a une ponderation "a posteriori" des objectifs. Dans une seconde partie, nous essayons d'apporter une contribution theorique a l'amelioration d'une methode appartenant a la classe des methodes interactives en integrant un modele probabiliste de choix qualitatif qui autorise des specifications assez souples, le modele probit conditionnel
This work treat of multiple objective optimization methods. In a first large part, we accomplished the multiple objective methods synthesis by following a traditional classification which separate the methods in three major class : - the methods which require "a priori" ponderation of the objectives. - the methods which require "progressive" ponderation of the objectives or the interactive methods. - the methods which lead to "a posteriori" ponderation of the objectives. In a second part, we try to provide a theorical contribution to improve a method which belongs to the interactive methods class by integrating a qualitative choice probabilistic model which authorize sufficiently versatile specifications, the conditional probit model
44

Bonnard, Cécile. "Optimisation de potentiels statistiques pour un modèle d'évolution soumis à des contraintes structurales". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00495973.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces dernières années, plusieurs modèles d'évolution moléculaire, basés sur l'hypothèse que les séquences des protéines évoluent sous la contrainte d'une structure bien dénie et constante au cours de l'évolution, ont été développés. Cependant, un tel modèle repose sur l'expression de la fonction repr ésentant le lien entre la structure et sa séquence. Les potentiels statistiques proposent une solution intéressante, mais parmi l'ensemble des potentiels statistiques existants, lequel serait le plus approprié pour ces modèles d'évolution ? Dans cette thèse est développé un cadre probabiliste d'optimisation de potentiels statistiques, dans le contexte du maximum de vraisemblance, et dans une optique de protein design. Le potentiel statistique utilisé ici est composé d'un terme de contact entre deux acides aminés et un terme d'accessibilité au solvant, mais le cadre statistique peut être très facilement généralisé à des formes plus complexes de potentiel. Ce cadre intègre diérentes méthodes d'optimisation, incluant la prise en compte de structures alternatives (decoys) pour l'optimisation des potentiels, et utilise une amélioration algorithmique permettant l'obtention rapide de potentiels statistiques adaptés au contexte. Tout cela nous fournit un cadre robuste et des tests statistiques (à la fois dans le contexte de l'optimisation des potentiels et dans le contexte de l'évolution moléculaire), permettant de comparer diérentes méthodes d'optimisation de potentiels statistiques pour les modèles soumis à des contraintes structurales.
45

Braudeau, Jérôme. "Étude d'une nouvelle molécule neuroprotectrice et optimisation d'un modèle murin d'ischémie cérébrale focale". Paris 12, 2006. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002463640204611&vid=upec.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les accidents vasculaires cérébraux (AVC) sont considérés comme la pathologie neurologique la plus sévère en terme de mortalité et d'infirmité. Elle constitue ainsi la troisième cause de mortalité dans les pays industrialisés (120000 cas par an en France), après les accidents cardiaques et les cancers, mais surtout la première cause de ahndicap acquis. Elle constitue donc un problème de santé public majeur. Un tiers des AVC est dû à l'occlusion de l'artère sylvienne modélisée chez la souris par occlusion de l'artère cérébrale moyenne (OACM) conduisant à une dégénérescence des cellules du cortex temporo-pariétal. Nous avons, dans ce modèle, étudié le comportement d'une protéase spécifique, la cathepsine B et montré qu'elle était précocement activée au cours de la première heure qui suit l'occlusion. Cette activation aboutissait à l'activation des caspases-1, -11 et -3. L'utilisation d'un inhibiteur spécifique de la cathepsine B, le CA-074, nous a permis de réduire le volume lésé à 24 heures parallèlement à une réduction de l'activité de la caspase-3. Dasn un but thérapeutique, nous avons construit des protéines chimériques contenant XIAP (puissant inhibiteur endogène des caspases), son domaine BIR2 ou ses domaines BIR3/RING précédées du domaine PTD (protein transduction domain) du VIH-1. Ce domaine permet la traversée de la barrière hémato-encéphalique ainsi que des membranes lipidiques
Cerebral ischemia is considered as the most severe neurological pathology in term of mortality and infirmity. It constitues the third cause of mortality in industrial nations (120000 cases a year in France), after the heart attacks and the cancers, but especially the first cause of acquired handicap. It thus constitutes a major public problem of health. A third party of stoke is due to the occlusion of the sylvius artery modelled to the mouse by occlusion os the middle cerebral artery (MCAO) inducing degeneracy of the temporo-parietal cortex neurons. We studied, in this model, a specific protease, the cathepsin B, and showed that it was activated prematurely during the first hour which follows the occlusion. This activation ended in the activation caspases-1, -11 and -3. The use of a specific inhibitor of the cathepsin B, the CA 074, allowed us to reduce the 24 h infarct volume at the same time as a reduction of caspase-3 activity. In a therapeutic aim, we built chimeric proteins containing XIAP (powerful endogenous inhibitor of caspases), its domain BIR2 or its domain BIR3 / RING preceded by the PTD domain (peotein transduction domain) of the HIV 1. This domain allows the crossing of the blood brain barrier as well as the lipidic membranes
46

Caumond, Anthony. "Le problème de jobshop avec contraintes : modélisation et optimisation". Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/tel-00713587/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les algorithmes d'optimisation les plus performants pour résoudre le problème de jobshop utilisent des méthodes et outils spécifiques comme le modèle de graphe disjonctif et les voisinages basés sur ce graphe. Afin d'utiliser ces méthodes sur des problèmes réels, nous avons dû enrichir le problème de jobshop. Nous nous sommes ainsi intéressés aux problèmes de jobshop avec time lags et jobshop avec transport. Pour chacun de ces deux problèmes, le modèle de graphe disjonctif et ses voisinages ont été modifiés et adaptés. Pour le problème de jobshop avec time lags, nous avons proposé des heuristiques et des métaheuristiques performantes, la difficulté principale étant de proposer une solution qui respecte toutes les contraintes de time lags maximum. Pour le problème de jobshop avec transport , nous avons proposé un modèle linéaire et une métaheuristique qui traitent toutes le même problème (i. E. Prennent strictement en compte les mêmes contraintes). Dans les deux cas, une modélisation sous forme de graphe disjonctif et une adaptation des voisinages ont été proposés. En outre, l'implantation des métaheuristiques pour chacun de ces problèmes nous a montré qu'une grande partie du développement est redondant. Nous avons donc proposé un cadriciel orienté objet pour l'optimisation (BCOO) dont l'objectif est de factoriser la plus grande partie de code possible
47

Caumond, Anthony. "Le problème de jobshop avec contraintes : modélisation et optimisation". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00713587.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les algorithmes d'optimisation les plus performants pour résoudre le problème de jobshop utilisent des méthodes et outils spécifiques comme le modèle de graphe disjonctif et les voisinages basés sur ce graphe. Afin d'utiliser ces méthodes sur des problèmes réels, nous avons du enrichir le problème de jobshop. Nous nous sommes ainsi intéressés aux problèmes de jobshop avec time lags et jobshop avec transport. Pour chacun de ces deux problèmes, le modèle de graphe disjonctif et ses voisinages ont été modifiés et adaptés. Pour le problème de jobshop avec time lags, nous avons proposé des heuristiques et des métaheuristiques performantes, la difficulté principale étant de proposer une solution qui respecte toutes les contraintes de time lags maximum. Pour le problème de jobshop avec transport , nous avons proposé un modèle linéaire et une métaheuristique qui traitent toutes le même problème (i.e. prennent en compte strictement en compte les mêmes contraintes). Dans les deux cas, une modélisation sous forme de graphe disjonctif et une adaptation des voisinages ont été proposés. En outre, l'implantation des métaheuristique pour chacun de ces problèmes nous a montré qu'une grande partie du développement est redondant. Nous avons donc proposé un cadriciel orienté objet pour l'optimisation (BCOO) dont l'objectif est de factoriser la plus grande partie de code possible
48

Cohen, Albert Henri. "Analyse et transformation de programmes : du modèle polyédrique aux langages formels". Versailles-St Quentin en Yvelines, 1999. https://tel.archives-ouvertes.fr/tel-00550829.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les microprocesseurs et les architectures parallèles d'aujourd'hui lancent de nouveaux défis aux techniques de compilation. En présence de parallélisme, les optimisations deviennent trop spécifiques et complexes pour être laissées au soin du programmeur. Les techniques de parallélisation automatique dépassent le cadre traditionnel des applications numériques et abordent de nouveaux modèles de programmes, tels que les nids de boucles non affines, les appels récursifs et les structures de données dynamiques. Des analyses précises sont au coeur de la détection du parallélisme, elles rassemblent des informations à la compilation sur les propriétés des programmes à l'exécution. Ces informations valident des transformations utiles pour l'extraction du parallélisme et la génération de code parallèle. Cette thèse aborde principalement des analyses et des transformations avec une vision par instances, c'est-à-dire considérant les propriétés individuelles de chaque instance d'une instruction à l'exécution. Une nouvelle formalisation à l'aide de langages formels nous permet tout d'abord d'étudier une analyse de dépendances et de définitions visibles par instances pour programmes récursifs. L'application de cette analyse à l'expansion et la parallélisation de programmes récursifs dévoile des résultats encourageants. Les nids de boucles quelconques font l'objet de la deuxième partie de ce travail. Une nouvelle étude des techniques de parallélisation fondées sur l'expansion nous permet de proposer des solutions à des problèmes d'optimisation cruciaux.
49

Dahmane, Menad. "Gestion, optimisation et conversion des énergies pour habitat autonome". Thesis, Amiens, 2015. http://www.theses.fr/2015AMIE0025/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire présente le travail de recherche qui consiste à développer et à mettre au point un dispositif capable d'alimenter en électricité un habitat isolé et le rendre autonome en utilisant des sources d'énergie renouvelable. Le système multi-sources considéré comprend une éolienne et des panneaux photovoltaïques comme sources principales, des batteries de type Lithium-Ion pour le stockage ainsi qu'un générateur Diesel comme source de secours. Dans le but d'apporter une contribution face aux problèmes de gestion d'énergie pour systèmes hybride et la commande des chaînes de conversion d'énergie renouvelable, nous proposons dans ce travail une stratégie de gestion des flux de puissances basée sur la prédiction des potentiels énergétiques sur un horizon très-court pour générer des références optimales pour assurer l'autonomie de la charge. Pour cela, nous présentons dans un premier temps, un dimensionnement des différents modules du système multi-sources ainsi que la modélisation de chacune des chaînes de conversion d'énergie. Par la suite, cette modélisation nous a permis de développer des lois de commande en utilisant les techniques LMI pour le placement de pôles dans le but d'augmenter les performances transitoires du suivi de références. L'algorithme de gestion proposé ainsi que les stratégies de commande développées pour le suivi de références et la maximisation de puissance ont été validées en simulation en utilisant des données issues de mesures réelles. Après avoir obtenu des résultats en simulation avec Matlab/Simulink, nous avons validé ces travaux expérimentalement en réalisant des tests sur la plateforme multi-sources équipée de cartes dSPACE du laboratoire
This dissertation presents a research project that consists of the development of a device that is able to supply an isolated house with electricity and to make it autonomous by using renewable energy sources. The multi-source system considered in this thesis includes a wind turbine and photovoltaic panels as main sources, Lithium-Ion batteries for storage and Diesel generator as emergency source. In order to make a contribution considering problems of energy management for hybrid systems as well as problems in controlling energy conversion chains, we are suggesting a power flow management strategy which is based on the prediction of the potential energy available on the veryshort-term. That strategy aims at generating optimal references in order to insure the electrical autonomy of the house. For this, we present firstly, a sizing and modelingof the different modules of the multi-source system. This modelling allowed us subsequently to develop a static and dynamic state feedback control strategies by using LMI techniques for pole placement in order to increase the transition performancesfor reference monitoring. The proposed management algorithm as well as the developed control strategies for tracking and maximizing power is validated in simulation using data obtained through real measurements. After having results in simulationusing Matlab/Simulink, we have validated them experimentally by conducting tests via a multi-source platform equipped with dSPACE cards of our laboratory
50

De, Vallière Dimitri. "Problèmes de non arbitrage, de recouvrement et d'optimisation de consommation dans un marché financier avec coûts de transactions". Phd thesis, Université de Franche-Comté, 2010. http://tel.archives-ouvertes.fr/tel-00477632.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose une étude de trois grands problèmes de mathématiques financières dans les marchés financiers avec coûts de transactions proportionnels. La première partie est consacrée à l'étude des conditions de non arbitrage dans un marché avec information incomplete. La seconde partie résoud le problème de recouvrement d'option américaine dans le cas continue et introduit le concept de système de prix cohérent. Enfin, la troisième partie traite du problème de consommation - investissement de Merton dans un marché où le processus des prix est dirigé par un processus de Lévy.

Vai alla bibliografia