Thèses sur le sujet « Estimation des coûts d'exploitation »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Estimation des coûts d'exploitation.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 22 meilleures thèses pour votre recherche sur le sujet « Estimation des coûts d'exploitation ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Aubé, Antoine. « Comprendre la migration infonuagique : exigences et estimation des coûts d'exploitation ». Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0021.

Texte intégral
Résumé :
Le choix d'un hébergement d'un système d'information est lourd d'enjeux pour une organisation. En effet, de cette décision dépendent notamment ses dépenses pour l'exploitation de ce système, la main-d'œuvre allouée à cette exploitation, et la qualité de service rendu par le système d'information.Si, classiquement, cet hébergement était réalisé par les organisations dans leurs locaux, l'émergence d'hébergeurs tiers a initié un changement des pratiques, une migration des systèmes d'information vers l'infrastructure d'une autre organisation. L'informatique en nuage est un tel modèle de délégation de l'infrastructure à un tiers. Ce dernier fournit un nuage informatique, c'est-à-dire un ensemble de services configurables pour mettre à disposition des ressources informatiques.Dans ce contexte de migration vers un nuage informatique (ou migration infonuagique), de nouvelles problématiques apparaissent pour constituer l'hébergement du système d'information, nommé ici environnement infonuagique. Notamment, les problématiques liées à la récurrence et la variété des coûts opérationnels sont bien connues dans l'industrie.Dans ces travaux, nous cherchons à identifier les critères de sélection d'un environnement infonuagique lors d'une migration, et comment il nous est possible d'évaluer la satisfaction des exigences liées à ces critères. À ces fins, nous avons d'abord mené une enquête qualitative auprès d'industriels afin d'identifier les exigences récurrentes des environnements infonuagiques dans l'industrie. Puis, nous nous sommes concentrés sur l'estimation des coûts opérationnels de ces environnements, qui sont très fréquemment évoqués comme un critère à minimiser et qui sont souvent mal compris, étant donné la variété des modèles de tarification de l'informatique en nuage. Ainsi, nous avons développé un modèle conceptuel permettant l'estimation de ces coûts, puis un outil qui implémente ce modèle conceptuel afin d'automatiser cette estimation
Selecting a host for an information system is a major decision for any organization. Indeed, such a decision has consequences on many aspects, such as the operating costs, the manpower allocation to operations, and the quality of service provided by the information system.While the hosting was traditionally carried out by the organizations themselves, in their premises, the emergence of third-party hosting providers initiated a change in practices: a migration of information systems to the infrastructure of another organization.Cloud Computing is such a model for delegating infrastructure to a third party. The latter provides a cloud, which is a set of configurable services to deliver computing resources.In this context of cloud migration, new issues emerge to select information systems hosts, named emph{cloud environments}. In particular, problems related to the recurrence and variety of operational costs are well-known in the industry.In this research work, we aim to identify the criteria for selecting a cloud environment during a migration, and how we can evaluate the compliance of the cloud environment with the requirements linked to these criteria. To this end, we first carried out a qualitative study with industrial experts to identify the most recurring requirements of cloud environments in the industry. Then, we focused on estimating the operational costs of these environments, which are frequently mentioned as a criterion to be minimized, and which are often misunderstood, given the variety of pricing schemes of Cloud Computing. We therefore developed a conceptual model for estimating these costs, and then a tool that implements this conceptual model to automate the estimation
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ould, Mohamed Abdellahi Mohamed El-Moustapha. « Contribution à une méthode de chiffrage paramétrique dédiée à la conception amont de systèmes mécaniques ». Besançon, 2006. http://www.theses.fr/2006BESA2012.

Texte intégral
Résumé :
Bien estimer et gérer le coût en conception est devenu critique pour les bureaux d'études de nombreuses entreprises, notamment de l'automobile. Toutefois, malgré le caractère critique du chiffrage, il n'existe pas encore de méthodes et d'outils satisfaisants, utilisables en conception amont. Aussi cette thèse entend-elle proposer une méthode prescriptive, dédiée à l'estimation paramétrique du coût en conception amont des systèmes mécaniques. Cette méthode destinée à la fois au chiffreur, au chef de projet et au concepteur mécanicien, identifie, recense et organise les tâches liées au chiffrage, qu'elles soient antérieures au projet de conception (préparation du chiffrage), courante (estimation) ou postérieures (amélioration des données, outils et modèles). Son applicabilité informatique a été validée avec le développement de l'outil Kostimator. Sa pertinence pour le chiffreur ou le concepteur mécanicien a été appréciée dans le cas du chiffrage amont d'une boîte de vitesses manuelle
This PhD dissertation proposes a prescriptive method dedicated to the parametric costing within the conceptual and functional design stages of mechanical system. This method is intended for the cost engineer, the project leader and mechanical design engineer. It identifies and lays out several costing tasks spread in three steps: before the design project (preparation), during the project (estimation), after the project (improvement). Its data-processing applicability was validated by a tool called Kostimator. Its relevance was appreciated in the case of manual gear box costing in the early design stage (conceptual, functional, lay out design)
Styles APA, Harvard, Vancouver, ISO, etc.
3

Fatemi, Seyyedeh Zohreh. « Planification des essais accélérés : optimisation, robustesse et analyse ». Phd thesis, Université d'Angers, 2012. http://tel.archives-ouvertes.fr/tel-01004379.

Texte intégral
Résumé :
La qualification d'un produit, lors des phases de développement, est une étape importante dans un projet qui vérifie que les performances et la fiabilité atteignent les objectifs. Les essais de qualification sont souvent couteux en temps et en nombre de produits testés. Les essais accélérés consistent à soumettre des unités à des niveaux de stress plus élevés qu'en condition d'exploitation afin de réduire le temps d'apparition des défaillances. Ils permettent de construire plus rapidement la fonction de fiabilité à partir d'un modèle appropriée reliant durée de vie et stress. De plus, un plan d'essai doit être construit, précisant les paramètres du plan (niveaux de stress, allocation de l'échantillon) pour trouver le meilleur compromis entre le coût d'essai et la qualité d'estimation. L'objectif de la thèse a été de définir une méthodologie de construction de plans d'essai accéléré optimaux et robustes. Nous avons donc développé un cadre général basé sur la minimisation du coût global et une approche bayésienne. Les distributions a priori, issues de la connaissance des paramètres de fiabilité et du modèle d'accélération, sont utilisées dans l'inférence bayésienne et dans une simulation de Monte Carlo d'exploration des fiabilités possibles. Le plan optimal et robuste est obtenu à partir de méthodes d'optimisation (Surface de réponse, Algorithmes génétiques). Enfin, une méthodologie de suivi des essais est développée en observant la pertinence des résultats par rapport aux informations a priori à partir d'un facteur de similitude. Il permet de vérifier si la décision quant à la qualification peut être prise plus rapidement, ou d'optimiser le plan en cours de réalisation.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Camargo-Pardo, Mauricio. « Estimation paramétrique des coûts des produits finis dans la filière textile-habillement ». Valenciennes, 2004. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/fe756208-c237-4caf-a060-91109809c4ba.

Texte intégral
Résumé :
Dans des filières à haut degré de diversité et de renouvellement des produits, il est très difficile d'établir des lois économiques permettant de prévoir avec précision le coût dès la phase de conception. Pourtant c'est à ce stade que sont définis 70 à 80% des coûts d'un produit, mais on dispose d'une information très limitée et souvent relative aux caractéristiques esthétiques ou fonctionnelles du produit. Il s'avère donc essentiel pour les concepteurs d'avoir un outil d'estimation adapté et flexible afin d'optimiser les décisions en conception et de minimiser le risque de rejet du produit. Nous avons retenu l'approche basée sur la méthode paramétrique des Formules d'Estimation des coûts (FEC). D'abord, nous définissons une méthodologie générale pour le développement des FEC spécifiques, en intégrant les contraintes lors de la conception d'un produit, puis nous avons expliqué les concepts des principales techniques pour le développement des FEC, comme les techniques de régression et celles issues du " soft computing ". En particulier nous avons développé un modèle Hybride Neuro-flou Simplifié permettant, une meilleure interprétation des interrelations entre variables notamment dans des systèmes complexes. En autre, un outil permettant de développer une FEC avec ces différentes techniques simultanément et de comparer plusieurs FEC en termes de précision, robustesse, pertinence et capacité d'adaptation, est proposé afin de soutenir le processus de conception. Il permet d'avoir un maximum de visibilité en simultané des diverses FEC candidates. Cette approche a été testée sur un exemple d'application, dans le domaine de l'impression textile pour développement d'une FEC spécifique
In supply chains with high degree of product diversity and renewal, there is very difficult to establish economical laws at the design stage, in order to accurately forecast product cost. Nevertheless at this early stage, product cost is defined by 70 to 80% but also, only scarce product information is available, related mainly to product aesthetical features or functionalities. In order to minimise the risk of product reject, it is important for designers to have a cost estimation tool, flexible and easy to adapt. We use the parametric approach in order to develop Cost Estimation Relationships (CER's). First, we define a general methodology and main concepts in order to develop CER's as regression and softcomputing techniques. In particular we developed a Simplified Hybrid Neuro-Fuzzy model, allowing better variables interpretation, mainly for complex systems. Also, we proposed a tool in order to develop a CER by using the described modelling techniques. The candidates CER's could be compared in terms of accuracy, robustness and relevance. This tool allows a maximum of information in order to choose the best CER. This approach has been tested on a particular case concerning the development of specific CER for a textile printing industry
Styles APA, Harvard, Vancouver, ISO, etc.
5

Pham, Thuy Van. « Ancrage nominal du taux de change et coûts de la désinflation : une estimation économétrique ». Phd thesis, Université Panthéon-Sorbonne - Paris I, 2007. http://tel.archives-ouvertes.fr/tel-00198619.

Texte intégral
Résumé :
Nous avons établi une indication chiffrée des coûts réels issus des désinflations basées sur l'ancrage nominal du taux de change. Notre analyse s'est appuyée sur deux régions ayant recouru le plus souvent au taux de change comme instrument de lutte contre l'inflation élevée chronique ou l'hyperinflation : l'Amérique latine et l'Europe centrale et orientale. En général, la stratégie d'ancrage nominal par le change est efficace pour réduire le taux d'inflation. Cette efficacité est plus marquante en Europe centrale et orientale qu'en Amérique latine, où le bilan de désinflation reste mitigé. Quant à son impact sur l'activité économique, les résultats obtenus sont moins évidents. En utilisant deux approches, factuelle et économétrique, nos estimations des ratios de sacrifice des deux régions indiquent que, quel que soit l'ancrage nominal, les coûts de la désinflation sont faibles, voire nuls. Il ressort, cependant, de notre étude, qu'il est difficile d'établir une relation entre les ratios de sacrifice et l'ancrage nominal du taux de change, dans la mesure où les résultats varient d'une méthode d'estimation à l'autre. L'hétérogénéité des ratios de sacrifice rend impossible la comparaison des coûts entre les pays, entre les régions et entre les stratégies d'ancrage nominal. Le choix d'une stratégie désinflationniste ne peut donc pas être basé sur l'analyse des ratios de sacrifice.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Pham, Thuy Vân. « Ancrage nominal du taux de change et coûts de la désinflation : une estimation économétrique ». Paris 1, 2007. https://tel.archives-ouvertes.fr/tel-00198619.

Texte intégral
Résumé :
Nous avons établi une indication chiffrée des coûts réels issus des désinflations basées sur l'ancrage nominal du taux de change. Notre analyse s'est appuyée sur deux régions ayant recouru le plus souvent au taux de change comme instrument de lutte contre l'inflation élevée chronique ou l'hyperinflation : l'Amérique latine et l'Europe centrale et orientale. En général, la stratégie d'ancrage nominal par le change est efficace pour réduire le taux d'inflation. Cette efficacité est plus marquante en Europe centrale et orientale qu'en Amérique latine, où le bilan de désinflation reste mitigé. Quant à son impact: sur l'activité économique les résulIaIs obtenus sont moins évidents. En utilisant deux approches. Factuelle et économétrique nos estimations des ratios de sacrifice des deux régions indiquent que quelquesoit l'ancrage nominal, les coûts de la désinflation sont faibles, voire nuls. Il ressort, cependant. De notre étude, qu'il est difficile d'établir une relation entre les ratios de sacrifice et l'ancrage nominal du taux de change, dans la mesure où les résultats varient d'une méthode d'estimation à l'autre. L'hétérogénéité des ratios de sacrifice rend impossible la comparaison des coûts entre les pays, entre les régions et entre les stratégies d'ancrage nominal. Le choix d'une stratégie désinflationniste ne peut donc pas être basé sur l'analyse des ratios de sacrifice.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Mao, Gwladys. « Estimation des coûts économiques des inondations par des approches de type physique sur exposition ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1192/document.

Texte intégral
Résumé :
Les travaux de cette thèse se situent dans le cadre de l'élargissement du périmètre des impacts estimés par le modèle inondation de la Caisse Centrale de Réassurance (CCR). Le premier chapitre nous a permis de comprendre les différents impacts d'une inondation, leurs interdépendances et d'en conclure une classification des impacts. A partir de cela, nous proposons un modèle global construit par chaînage de modélisation des impacts où les outputs des différents modèles servent d'inputs pour les modèles suivants. Cette démarche permettra d'avoir une répartition des impacts par poste et une compréhension des effets en cascade des dommages directs vers les effets macro-économiques. Le chapitre 2 s'intéresse à la modélisation des dommages aux véhicules sous le cahier des charges de CCR. Les différentes conditions à respecter sont : la modélisation pour le péril inondation seul et du risque automobile seul, la modélisation pour un événement particulier et pour la charge totale annuelle. L'étude de ce risque, nous a permis de décrire, d'implémenter, d'identifier les problèmes et possibles améliorations de différentes approches de modélisation, à savoir : - une régression linéaire, la méthodologie aujourd'hui utilisée par CCR, - une modélisation fréquence x sévérité associée à la théorie des valeurs extrêmes, très utilisée dans le monde de l'assurance, - une modélisation physique sur exposition, démarche déjà adoptée à CCR pour les dommages au bâti. Nous nous sommes donc appuyés sur le modèle d'aléa inondation CCR et avons développé les modules de vulnérabilité et de dommages propres à ce risque. CCR étant chargée de la gestion comptable et financière du Fonds National de Gestion des Risques en Agriculture pour le compte de l'Etat, les travaux se sont poursuivi, dans le chapitre 3, par la modélisation du risque agricole. A partir d'un état de l'art sur la modélisation des conséquences agricoles des inondations, une modélisation de ce risque est proposée et implémentée. Le modèle s'intègre dans la démarche de modélisation physique sur exposition développée à CCR. Le travail a porté sur le développement des modules de vulnérabilité et de dommages spécifiques à l'agriculture. Le modèle de vulnérabilité a été développé à partir du registre parcellaire graphique et le module de dommages a été développé à partir des courbes de dommages à l'agriculture développées par le groupe de travail national Analyse Multi-Critères inondation à travers les travaux de l'IRSTEA. Le modèle d'aléa utilisé est le modèle développé par CCR depuis 2003. Le dernier chapitre est pensé comme une base technique pour CCR afin de pouvoir continuer les travaux d'élargissement du périmètre des impacts modélisés. Tout d'abord, un état des lieux des travaux réalisés (risques automobile et agricole) et en cours (pertes d'exploitations consécutives à un dommage direct) est réalisé et replacé dans le contexte de la modélisation globale des impacts proposée à CCR. Pour les impacts non traités, nous présenterons les problématiques de modélisation, un court état de l'art et les conclusions que nous en avons tirées en terme de modé
This research was conducted within the framework of the Caisse Centrale de Réassurance's (CCR) R&D objective - to widen the scope of impacts estimated by its flood impact model. In chapter one, we study the various impacts of a flood and their interdependencies in order to create a classification of impacts. This classification allows us to design the architecture of a global impact model built from linking specific impacts models where the outputs of one model are the inputs of the following one. This approach generates an estimation with a breakdown by type of impact. It also allows us to understand the domino effects from the direct damage to the macroeconomic impacts. In chapter two, we study models for car damages according to CCR's specifications. The requirements are: the model should be independent from other natural catastrophes and impacts estimations and it should be able to model both a specific event and the total annual load. Through this work we describe, implement, and identify issues with possible improvements of three modelling approaches: - a simple linear regression, CCR's presently used method, - a frequency x severity model associated to the extreme value theory, widely used in the insurance business sector, - a model that pairs a physical model with exposure through damage curves. CCR already uses this approach to estimate damage to buildings. Hence, we are using CCR's flood hazard model and develop an exposure model and a damage model specific to cars. CCR is in charge of the accounting management of the Agricultural National Risk Management Fund on behalf of the State. Hence, chapter three contains state of the art modeling solutions for this risk and description of the designed model and its implementation. A vulnerability model and a damage model specific to the agricultural risk are developed and paired with CCR's flood hazard model. The vulnerability model uses the Graphic Parcel Register database. The damage model is based on the damage curves developed by IRSTEA for the national think tank on flood cost-benefit analysis. Chapter four is a technical document that will allow CCR to continue the development of the global model. It presents a situational analysis of what has been done (cars and agricultural risks) and of ongoing works (business interruption due to direct damage). For the remaining impacts, it presents the modeling issues, a short research review and the conclusions reached in terms of modeling
Styles APA, Harvard, Vancouver, ISO, etc.
8

Deschênes, Sébastien. « Estimation des pertes liées aux prêts commerciaux d'une institution financière coopérative, gestion de l'information et coûts d'agence ». Thèse, Université du Québec à Trois-Rivières, 2010. http://depot-e.uqtr.ca/2054/1/030187826.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Colin, Antoine. « Estimation de temps d'éxécution au pire cas par analyse statique et application aux systèmes d'exploitation temps réel ». Rennes 1, 2001. http://www.theses.fr/2001REN10118.

Texte intégral
Résumé :
Soit X une variété algébrique réelle affine compacte non singulière. Une variété algébrique réelle affine X' est obtenue par modification de X si elle peut être construite à partir de X par une suite d'éclatements et de contractions le long de centres non singuliers. Dans la première partie, nous montrons qu'une variété X' ainsi construite a sa cohomologie entièrement algébrique si la variété X et tous les centres de la modification ont aussi leur cohomologie entièrement algébrique. Dans la deuxième et la troisième partie, nous définissons et développons la notion de (co)homologie équivariante en utilisant des complexes de (co)chaînes. En particulier, on retrouve ainsi dans le cadre équivariant les propriétés de la (co)homologie classique. De plus, si X est une variété algébrique définie sur R, compacte et non singulière, il existe un diagramme reliant l'homologie de l'ensemble des points complexes X(C), l'homologie de l'ensemble des points réels X(R) et l'homologie équivariante de X. Ce diagramme nous permet d'obtenir des informations sur les groupes de cohomologie algébrique de l'ensemble des points réels. Comme exemple, nous regardons le cas des variétés toriques dans la quatrième partie. Nous montrons ainsi que l'ensemble des points réels d'une variété torique compacte non singulière a sa cohomologie entièrement algébrique en appliquant les résultats de la première partie dans un premier temps, puis de la deuxième et troisième partie dans un second
Styles APA, Harvard, Vancouver, ISO, etc.
10

Bertier, Clément. « Quantification in Device-to-Device Networks : from Link Estimation to Graph Utility ». Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS250.

Texte intégral
Résumé :
Les communications d'appareil à appareil (D2D) sont utiles dans plusieurs domaines, e.g. le déléstage mobile, car elles ne coûtent qu’une fraction du prix d’une communication cellulaire. Dans cette thèse, nous soutenons que la compréhension de l'utilité potentielle derrière les communications directes est la clé pour quantifier les réseaux de contact. Tout d'abord, nous considérons le problème de l'estimation de l'importance d'un nœud dans de grandes topologies dynamiques. Nous proposons une approche nouvelle pour estimer les centralités à partir d'une base de données préétablie, où l'estimation est basée sur les coordonnées géographiques du nœud au lieu de l'identifiant du nœud. Deuxièmement, nous quantifions la valeur des liens directs grâce à une campagne de mesure expérimentale via Android. Nous proposons un modèle pour estimer la limite supérieure du débit D2D en fonction de la distance entre les appareils. Troisièmement, nous étudions les différences entre la quantification traditionnelle d'un contact et notre modèle. Entre autres résultats, nous révélons que lorsque l'on considère un débit adaptatif en fonction de la distance entre deux appareils, l'échange de données longue distance représente plus de 50% du total des données échangées dans l'ensemble du réseau. Nous proposons un outil pour extraire le volume de données obtenues à partir de traces mobilité
Device-to-device (D2D) communications are valuable in several domains, such as data offloading and diffusion, as their cost is only a fraction of what regular cellular communication would have. In this thesis, we argue that understanding the potential utility behind direct communications is key to quantifying the realization of contact networks. We tackle related questions from two distinct, yet complementary contributions. Firstly, we consider the problem of estimating the importance of a node in large dynamic topologies. We propose a novel approach to estimate centralities based on a pre-established database, where the estimation is based on the geographical coordinates of the node instead of the identifier of the node. Doing so enables us to estimate the centrality of a node for a fraction of the computational cost. Secondly, we quantify the value of direct links through an experimental measurement campaign. Using an Android tool of our making, we derived a model to obtain an estimate of the upper-bound of D2D throughput based on the distance between the devices. Thirdly, we investigate the differences between the traditional quantification of a contact and the model extracted from our measurements campaigns. Among other results, we reveal that when considering an adaptive throughput according to the distance between two devices, the long-distance data-exchange makes up more than 50% of the total data exchanged in the entire network. We propose a tool to extract from mobility datasets the volume of data obtained, based on specific contact quantification strategies
Styles APA, Harvard, Vancouver, ISO, etc.
11

Moumen, Chiraz. « Une méthode d'optimisation hybride pour une évaluation robuste de requêtes ». Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30070/document.

Texte intégral
Résumé :
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes
The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing
Styles APA, Harvard, Vancouver, ISO, etc.
12

Ouni, Bassem. « Caractérisation, modélisation et estimation de la consommation d'énergie à haut-niveau des OS embarqués ». Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-01059814.

Texte intégral
Résumé :
La consommation énergétique est devenue un problème majeur dans la conception des systèmes aussi bien d'un point de vue de la fiabilité des circuits que de l'autonomie d'un équipement embarqué. Cette thèse vise à caractériser et modéliser le coût énergétique du système d'exploitation (OS) embarqué en vue d'explorer des solutions faibles consommation. La première contribution consiste à définir une approche globale de modélisation de la consommation des services de base de l'OS: la stimulation de l'exécution de ces services, tels que le changement de contexte, l'ordonnancement et la communication interprocessus, est effectuée à travers des programmes de test adéquats. Sur la base de mesures de la consommation d'énergie sur la carte OMAP35x EVM, des paramètres pertinents soit matériels soit logiciels ont été identifiés pour en déduire des modèles de consommation. Dans une seconde étape, la prise en compte de ces paramètres doit intervenir au plus haut niveau de la conception. L'objectif sera d'exploiter les fonctionnalités offertes par un langage de modélisation et d'analyse architecturale AADL tout en modélisant les aspects logiciel et matériel en vue d'estimer la consommation d'énergie. Ensuite, les modèles énergétiques de l'OS ont été intégrés dans un simulateur multiprocesseur de politique d'ordonnancement STORM afin d'identifier la consommation de l'OS et ceci pour des politiques d'ordonnancement mettant en œuvre des techniques de réduction de la consommation tel que le DVFS et le DPM. Enfin, la définition et vérification de certaines contraintes temps-réel et énergétiques ont été effectuées avec des langages de spécification de contraintes (QAML, RDAL).
Styles APA, Harvard, Vancouver, ISO, etc.
13

Bricola, Jean-Charles. « Estimation de cartes de profondeur à partir d’images stéréo et morphologie mathématique ». Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM046/document.

Texte intégral
Résumé :
Cette thèse propose de nouvelles approches pour le calcul de cartes de profondeur associées à deux images stéréoscopiques.La difficulté du problème réside dans l'établissement de mises en correspondances entre les deux images stéréoscopiques. Cet établissement s'avère en effet incertain dans les zones de l'image qui sont homogènes, voire impossible en cas d'occultation.Afin de gérer ces deux problèmes, nos méthodes procèdent en deux étapes. Tout d'abord nous cherchons des mesures de profondeur fiables en comparant les deux images stéréoscopiques à l'aide de leurs segmentations associées. L'analyse des coûts de superpositions d'images, sur une base régionale et au travers d'échelles multiples, nous permet de réaliser des agrégations de coûts pertinentes, desquelles nous déduisons des mesures de disparités précises. De plus, cette analyse facilite la détection des zones de l'image de référence étant potentiellement occultées dans l’autre image de la paire stéréoscopique. Dans un deuxième temps, un mécanisme d'estimation se charge de trouver les profondeurs les plus plausibles, là où aucune mise en correspondance n'a pu être établie.L'ouvrage est scindé en deux parties : la première permettra au lecteur de se familiariser avec les problèmes fréquemment observés en analyse d'images stéréoscopiques. Il y trouvera également une brève introduction au traitement d'images morphologique. Dans une deuxième partie, nos opérateurs de calcul de profondeur sont présentés, détaillés et évalués
In this thesis, we introduce new approaches dedicated to the computation of depth maps associated with a pair of stereo images.The main difficulty of this problem resides in the establishment of correspondences between the two stereoscopic images. Indeed, it is difficult to ascertain the relevance of matches occurring in homogeneous areas, whilst matches are infeasible for pixels occluded in one of the stereo views.In order to handle these two problems, our methods are composed of two steps. First, we search for reliable depth measures, by comparing the two images of the stereo pair with the help of their associated segmentations. The analysis of image superimposition costs, on a regional basis and across multiple scales, allows us to perform relevant cost aggregations, from which we deduce accurate disparity measures. Furthermore, this analysis facilitates the detection of the reference image areas, which are potentially occluded in the other image of the stereo pair. Second, an interpolation mechanism is devoted to the estimation of depth values, where no correspondence could have been established.The manuscript is divided into two parts: the first will allow the reader to become familiar with the problems and issues frequently encountered when analysing stereo images. A brief introduction to morphological image processing is also provided. In the second part, our algorithms to the computation of depth maps are introduced, detailed and evaluated
Styles APA, Harvard, Vancouver, ISO, etc.
14

Belharet, Mahdi. « L'estimation de la valeur statistique de la vie humaine dans le domaine de la santé : quel fondement normatif pour une estimation monétaire au sein de l'économie du bien-être ? » Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0098.

Texte intégral
Résumé :
La Valeur statistique de la vie humaine (VSVH) est un outil d’analyse économique, qui est définie comme la valeur qu’une personne est prête à payer (CAP) pour réduire le risque de mortalité ou de morbidité. L’intérêt d’un tel outil est d’estimer monétairement le bénéfice social d’un projet d’investissement destiné à réduire le risque, mais aussi d’établir un arbitrage entre plusieurs alternatives. Répondre à l’aléa moral dans un contexte de rareté des ressources est parfaitement adéquat avec la VSVH. Avec l’estimation des personnes de leurs capacités de paiement en fonction de leurs perceptions du risque et de leur niveau de revenu, les personnes sont positionnées comme les seules juges de la valeur de leurs vies. Parce que, les personnes déterminent librement les CAPs en fonction de leurs préférences personnelles et que ces préférences sont intégrées dans la détermination d’un choix social, la VSVH ne contredit pas le cadre normatif d’établissement d’une décision. Néanmoins, le welfarisme comme une source des méthodes d’estimation de la VSVH est en relation directe avec l’utilitarisme. Au final, la valeur estimée par la VSVH est de nature subjective. Dans le domaine de la santé, la VSVH doit dépasser le cadre subjectif d’une estimation pour répondre à l’éthique normative qui décrit la pratique médicale, notamment la prise en considération de l’autonomie personnelle, la notion personnelle de la bonne vie et la notion universelle de la personne. L’objectif de notre travail est de rechercher les arguments d’établissement d’une valeur de référence de la VSVH qui endosse un cadre normatif. Cela nécessite une analyse approfondie au sein de la théorie économique du bien-être
The value of statistical life (VSL) is an economic analytical tool, which is defined as the value that a person is ready to pay (WTP) in order to reduce the risk mortality or morbidity. The advantage of such a tool is to monetarily estimate the social benefit of an investment project which is made to reduce the risk, but also to establish an arbitrage between several alternatives. Respond to the moral hazard in a context pertaining to the scarcity of resources, which is perfectly in keeping with VSL. With people’s estimation on their willingness to pay, depending on how they perceive risks and their income level, people are positioned as the sole judges as for the value of their lives. Because people freely determine the WTP depending on their personal preferences and these preferences are included in order to determine a social choice. The value of statistical life doesn’t contradict the normative framework of establishing a decision. Nonetheless, welfarism which is a source of estimating methods of VSL is directly related to utilitarianism. Eventually, the estimated value by VSL is subjective nature. In the health sector, the VSL needs to surpass the subjective framework of an estimation in order to answer the normative ethic which describes the medical practice, especially by taking personal self-sufficiency into account but also the personal notion of a good life and the universal notion of the person. Researching establishing arguments of reference value pertaining to VSL which takes on a normative framework and this is objective when it comes to our work. This theoretically requires an in-depth analysis within the economic theory of well-being
Styles APA, Harvard, Vancouver, ISO, etc.
15

Pirson, Magali. « Apports de la comptabilité analytique par cas et par pathologie à la gestion hospitalière ». Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210867.

Texte intégral
Résumé :
Le calcul des coûts des séjours et des pathologies peut être abordé selon différentes perspectives :les coûts à charge des systèmes sociaux, des patients ou des hôpitaux. La thèse est centrée sur cette dernière approche.

Les DRGs représentent la tentative la plus récente de maîtriser la croissance des dépenses des hôpitaux en introduisant une médicalisation partielle des mécanismes de financement.

La connaissance des coûts des pathologies peut permettre aux hôpitaux de participer à l’élaboration des tarifs par pathologie en faisant partie d’un échantillon de référence des coûts hospitaliers. En cas de financement basé sur les pathologies, les hôpitaux doivent pouvoir comparer le coût des séjours au chiffre d’affaires octroyé et s’y adapter. Cet intérêt s’accroît en cas de financement forfaitaire, évolution qui semble se profiler en Belgique tout comme dans d’autres pays. En décrivant une méthodologie de calcul des coûts par pathologie et en indiquant la manière dont ceux-ci pourraient contribuer à la création d’une échelle de cost-weights, notre thèse incite les hôpitaux à adopter une politique proactive dans le domaine du financement des hôpitaux.

Les comparaisons de coûts hospitaliers pour évaluer la gestion sont pratiquées depuis de nombreuses années. Cependant, ce « benchmarking » est imparfait car il ne prend pas en compte la lourdeur des patients pris en charge. La standardisation des coûts sur base du case-mix de l’hôpital suppose un préalable important :l’existence d’une échelle de cost-weights issue d’un échantillon représentatif d’hôpitaux. Si cette situation n’est pas encore totalement rencontrée en Belgique, il est néanmoins possible de suggérer une voie de réflexion. La simulation inspirée de la méthodologie suisse à partir d’un échantillon de quatre hôpitaux belges présentée dans le cadre de cette thèse, est une première avancée en ce sens.

Un des problèmes majeurs de la gestion hospitalière est d’intéresser les prescripteurs et les prestataires à un contrôle de gestion essentiellement financier. Depuis quelques années, de nombreux efforts visent à intégrer de nouveaux indicateurs de performance dans les tableaux de bord. L’analyse des coûts des pathologies et de la variabilité des cas permet d’entamer un dialogue entre gestionnaire et corps médical. En abordant différentes études (apport des nomenclatures dans le calcul des coûts par pathologie, mesure des coûts associés aux bactériémies nosocomiales, analyse des facteurs médico-sociaux expliquant les surcoûts des patients outliers, analyse de la relation entre le coût et la sévérité des cas, comparaison des coûts de production et des pratiques médicales), nous avons voulu montrer l’importance d’associer une approche médicalisée à des raisonnements économiques. Si elle se développe, cette approche est susceptible de représenter un moyen de communication idéal entre le personnel médical et soignant et le monde de la gestion.

Comme nous le rappelions au début de cette thèse, les concepteurs des DRGs (Fetter et Thompson) ont regretté le manque d'intérêt manifesté par les gestionnaires d'hôpitaux pour l'utilisation de leur concept dans le management hospitalier. Au terme de cette thèse, nous pensons que, si l'analyse des coûts par pathologie reste encore d'un abord difficile, elle peut rendre d'importants services en associant médecins et managers à l'élaboration d'un contrôle de gestion enfin adapté à la spécificité de leurs institutions.


Doctorat en Sciences de la santé publique
info:eu-repo/semantics/nonPublished

Styles APA, Harvard, Vancouver, ISO, etc.
16

Condomines, Jean-Philippe. « Développement d’un estimateur d’état non linéaire embarqué pour le pilotage-guidage robuste d’un micro-drone en milieu complexe ». Thesis, Toulouse, ISAE, 2015. http://www.theses.fr/2015ESAE0002.

Texte intégral
Résumé :
Le travail effectué au cours de cette thèse tente d’apporter une solution algorithmique à la problématique de l’estimation de l’état d’un mini-drone en vol qui soit compatible avec les exigences d’embarquabilité inhérentes au système. Il a été orienté vers les méthodes d’estimation non linéaire à base de modèles. Les algorithmes d’estimation, d’état ou de paramètres, et de contrôle apparaissent primordiaux, lorsque la technologie des capteurs et des actionneurs, pour des raisons de coût et d’encombrement essentiellement, ne permet pas de disposer de capacités illimitées. Ceci est particulièrement vrai dans le cas des micro- et des mini-drones. L’estimation permet de fusionner en temps réel les informations imparfaites provenant des différents capteurs et de fournir une estimation, par exemple de l’état du drone (orientation, vitesse, position) au calculateur embarqué où sont implémentés les algorithmes de commande de l’engin. Ce contrôle de l’appareil doit garantir sa stabilité en boucle fermée quelque soit l’ordre de consigne fourni directement par l’opérateur ou par tout système automatique de gestion du vol et assurer que celle-ci soit correctement recopiée. Estimation et commande participent donc grandement au succès de toute mission. Une dimension extrêmement importante qui a conditionné les travaux entrepris tout au long de cette thèse concerne la capacité d’emport des mini-drones que nous considérons. En effet, celle-ci, relativement limitée, et couplée à la volonté de ne pas grever les budgets de développement de tout mini-drone, autorise uniquement l’intégration de matériels dits bas-coûts. Malgré les progrès significatifs de la miniaturisation et l’augmentation continuelle des capacités de calcul embarqué (loi de Moore), les mini-drones d’intérêt considérés ici n’embarquent donc que des capteurs aux performances limitées dans un contexte où cette catégorie d’engins autonomes est amenée à être de plus en plus fréquemment exploitée pour remplir des missions elles-mêmes toujours plus nombreuses. Celles-ci requièrent notamment que de tels drones puissent de manière sûre s’insérer et partager l’espace aérien civil moyennant le passage d’une certification de leur vol au même titre que pour les avions de transport des différentes compagnies aériennes. Dès lors, face à cet enjeu de sécurisation des vols de mini-drones, la consolidation de la connaissance de l’état de l’aéronef par des techniques d’estimation devient un tâche essentielle pour en assurer le contrôle, y compris en situations dégradées (pannes capteurs, perte occasionnelle de signaux, bruit et perturbations environnantes, imperfections des moyens de mesure, etc). Tenter de répondre à cet enjeu conduit naturellement le chercheur à s’attaquer à des problèmes relativement nouveaux, en tout cas pas forcément aussi proches de ceux qui se posent dans le secteur de l’aéronautique civile ou militaire, où le système avionique est sans commune mesure avec celui sur lequel nous avons travaillé dans cette thèse. Ce travail à tout d’abord consisté à définir une modélisation dynamique descriptive du vol des mini-drones étudiés, suffisamment générique pour être appliquée à différents types de minidrones (voilure fixe, multirotor, etc). Par la suite, deux algorithmes d’estimation originaux, dénommés IUKF et -IUKF, exploitant ce modèle, ont été développés avant d’être testés en simulation puis sur données réelles pour la version -IUKF. Ces deux méthodes transposent le cadre générique des observateurs invariants au cas de l’estimation non linéaire de l’état d’un système dynamique par une technique de type Unscented Kalman Filter (UKF) qui appartient à la classe plus générale des algorithmes de filtrage non linéaire de type Sigma Point (SP). La solution proposée garantit un plus grand domaine de convergence de l’estimé que les techniques plus traditionnelles
This thesis presents the study of an algorithmic solution for state estimation problem of unmanned aerial vehicles, or UAVs. The necessary resort to multiple miniaturized low-cost and low-performance sensors integrated into mini-RPAS, which are obviously subjected to hardspace requirements or electrical power consumption constraints, has led to an important interest to design nonlinear observers for data fusion, unmeasured systems state estimation and/or flight path reconstruction. Exploiting the capabilities of nonlinear observers allows, by generating consolidated signals, to extend the way mini-RPAS can be controlled while enhancing their intrinsic flight handling qualities.That is why numerous recent research works related to RPAS certification and integration into civil airspace deal with the interest of highly robust estimation algorithm. Therefore, the development of reliable and performant aided-INS for many nonlinear dynamic systems is an important research topic and a major concern in the aerospace engineering community. First, we have proposed a novel approach for nonlinear state estimation, named pi-IUKF (Invariant Unscented Kalman Filter), which is based on both invariant filter estimation and UKF theoretical principles. Several research works on nonlinear invariant observers have been led and provide a geometrical-based constructive method for designing filters dedicated to nonlinear state estimation problems while preserving the physical properties and systems symmetries. The general invariant observer guarantees a straightforward form of the nonlinear estimation error dynamics whose properties are remarkable. The developed pi-IUKF estimator suggests a systematic approach to determine all the symmetry-preserving correction terms, associated with a nonlinear state-space representation used for prediction, without requiring any linearization of the differential equations. The exploitation of the UKF principles within the invariant framework has required the definition of a compatibility condition on the observation equations. As a first result, the estimated covariance matrices of the pi-IUKF converge to constant values due to the symmetry-preserving property provided by the nonlinear invariant estimation theory. The designed pi-IUKF method has been successfully applied to some relevant practical problems such as the estimation of Attitude and Heading for aerial vehicles using low-cost AH reference systems (i.e., inertial/magnetic sensors characterized by low performances). In a second part, the developed methodology is used in the case of a mini-RPAS equipped with an aided Inertial Navigation System (INS) which leads to augment the nonlinear state space representation with both velocity and position differential equations. All the measurements are provided on board by a set of low-cost and low-performance sensors (accelerometers, gyrometers, magnetometers, barometer and even Global Positioning System (GPS)). Our designed pi-IUKF estimation algorithm is described and its performances are evaluated by exploiting successfully real flight test data. Indeed, the whole approach has been implemented onboard using a data logger based on the well-known Paparazzi system. The results show promising perspectives and demonstrate that nonlinear state estimation converges on a much bigger set of trajectories than for more traditional approaches
Styles APA, Harvard, Vancouver, ISO, etc.
17

Piechucka, Joanna. « Essays in competition policy and public procurement ». Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E013.

Texte intégral
Résumé :
Cette thèse de doctorat étudie trois questions de recherche en matière de marchés publics et de politique de la concurrence. Le premier chapitre se concentre sur une analyse microéconométrique des relations stratégiques entre d’une part l’entreprise choisie pour l’attribution d’un marché public et d’autre part l’autorité publique chargée de la régulation d’un service public. Il exploite des données sur le transport public urbain en France pour étudier les déterminants de choix réglementaires qui impactent à leur tour la rentabilité des opérateurs de transport. Le deuxième chapitre explore une évaluation ex-post d’une fusion qui a eu lieu entre deux grands groupes de transport en France (Veolia Transport et Transdev), en se concentrant sur l’existence éventuelle de gains d’efficacité dans les fusions. Enfin, le troisième chapitre donne un aperçu de l’impact d’une fusion lorsque les entreprises se font concurrence pour la qualité et repositionnent leurs services en analysant l’industrie hospitalière française
This PhD dissertation studies three research questions in public procurement and competition policy presented in the respective chapters and preceded by a general introduction. The first chapter focuses on a microeconometric analysis of the strategic relationships between a firm awarded a public contract and the public authority responsible for regulating a public service. It exploits data on the French urban public transport industry to study the determinants of regulatory contract choices which in turn impact the cost efficiency of transport operators. The second chapter explores an ex-post assessment of a merger which took place between two major transport groups in France (Veolia Transport and Transdev), focusing on the possible existence of merger efficiency gains. Finally, the third chapter provides insight on the impact of merger when firms compete in quality and reposition their services by analyzing the French hospital industry
Styles APA, Harvard, Vancouver, ISO, etc.
18

Etienne, Alain. « Intégration Produit / Process par les concepts d'activités et de caractéristiques clés - Application à l'optimisation de l'allocation des tolérances géométriques ». Phd thesis, Université de Metz, 2007. http://tel.archives-ouvertes.fr/tel-00224938.

Texte intégral
Résumé :
Les imperfections inhérentes aux processus et procédés de fabrication entraînent une dégradation des caractéristiques fonctionnelles, et donc de la qualité du produit. Afin d'assurer un certain niveau de qualité, la synthèse des tolérances vise à déterminer les limites acceptables des caractéristiques des pièces et des assemblages. L'allocation ou la synthèse des tolérances fonctionnelles est une importante étape du processus de conception qui se situe généralement durant la conception détaillée et impacte énormément la conception du processus de fabrication, la fabrication et le contrôle du produit. Il est donc important, lors de la détermination des tolérances fonctionnelles, de prendre en compte l'impact de celles-ci sur le coût de fabrication du produit et sur la qualité du produit. Ces deux notions (coût de fabrication et qualité du produit) sont généralement antinomiques. L'approche proposée vise à allouer les tolérances fonctionnelles qui offrent le meilleur équilibre performance fonctionnelle / coût de fabrication. Elle est basée sur l'approche par « Key Characteristics » développée par Boeing couplée avec une approche par activités inspirée de l'« Activity Based Costing » et adaptée aux besoins de la sélection et l'analyse de processus de fabrication. Afin de quantifier cet équilibre, ces travaux proposent la définition d'un indicateur de performance d'une allocation de tolérances : le coût pondéré qualité, et une solution d'optimisation discrète de l'allocation : la démarche ABTA (Activity Based Tolerance Allocation). Celle-ci a été implémentée dans plusieurs maquettes informatiques afin de valider les mécanismes et méthodes qui la constituent.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Martinod, Restrepo Ronald Mauricio. « Politiques d’exploitation et de maintenance intégrées pour l’optimisation économique, sociétale et environnementale des systèmes de transports urbains interconnectés ». Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0069.

Texte intégral
Résumé :
Les systèmes de transport public urbain influencent l'infrastructure des agglomérations et la vie de leurs habitants tout en stimulant directement l'économie. Les systèmes de transport public urbain intelligents contribuent à améliorer la qualité de vie et l'environnement dans les villes. Le développement rapide des solutions de transport urbain a conduit de très nombreux opérateurs à se porter sur ce marché empêchant ainsi une logique globale de l’offre. Ces optimisations discrètes, privées de toutes concertations entre opérateurs de transport intervenant sur un même périmètre, interdit l’identification d’un optimum global. En conséquence, le fonctionnement inefficace des systèmes de transport public urbain ne réduit pas nécessairement la charge environnementale, et les opérateurs de transport urbain peuvent ne pas être en mesure de la gérer de manière durable. Pour répondre à ces défis, cette thèse propose une méthodologie associée à des modèles mathématiques qui sont développés à travers des approches d’optimisation pour une gestion systémique des réseaux de transport public multimodal, et ce afin d’assurer le meilleur taux de service aux usagers tout en minimisant les coûts et les externalités sociétales afin de satisfaire au principe de durabilité, fréquemment exprimé dans les plans de développement urbains
Urban public transport systems influence the infrastructure of urban areas and the lives of their inhabitants while directly stimulating the economy. Intelligent urban public transport systems help to improve the quality of life and the environment in cities. The rapid development of urban transport solutions has led to a large number of operators entering the market, thus preventing a global optimum. These discrete optimisations, without any articulation between transport operators, avoid the identification of a global optimum. As a result, the inefficient operation of urban public transport systems does not necessarily reduce the environmental cost. To address these challenges, this thesis proposes a methodology associated with mathematical models developing optimisation approaches for multimodal public transport networks, for achieving the best service policy while minimising operation costs in order to satisfy the principle of sustainability, frequently expressed in urban development goals
Styles APA, Harvard, Vancouver, ISO, etc.
20

Fréchette, Richard. « Création d'un outil d'évaluation des coûts des infrastructures municipales souterraines selon différents facteurs d'influences ». Thèse, 2018. http://depot-e.uqtr.ca/id/eprint/9491/1/eprint9491.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Jobin, Guy. « Exploration de la capacité d'un réseau de neurones à imiter le jugement et l'expérience d'un estimateur chevronné pour l'attribution du taux de productivité d'une équipe d'excavation en infrastructures municipales ». Mémoire, 2008. http://www.archipel.uqam.ca/1210/1/M10484.pdf.

Texte intégral
Résumé :
Ce travail étudie le potentiel des RNA pour l'estimation détaillée des coûts de projet dans le domaine des infrastructures municipales. En général, pour l'entrepreneur en construction civile, l'obtention d'un contrat se joue lors des soumissions publiques. Subséquemment, l'estimation des coûts de travaux constitue la pierre angulaire de ce processus de soumission. Cette tâche s'avère vite laborieuse considérant le nombre élevé d'éléments dont il faut tenir compte, et de plus, la valeur de chacun de ces éléments est fonction de plusieurs variables difficilement contrôlables. Il a été démontré que l'attribution du taux de productivité d'une équipe de travail est la source majeure d'erreur lors de la préparation des estimations détaillées. Nous avons bâti un modèle de prédiction du taux de productivité d'une équipe d'installation de réseaux d'aqueduc et d'égouts. Les données qui ont servi à valider empiriquement le modèle proposé émanent de projets exécutés dans la région de Laval et des Basses-Laurentides. Un historique de données est construit à partir des rapports journaliers de surveillance des travaux de 43 projets de génie urbain. Afin d'explorer la capacité des RNA à imiter le jugement et l'expérience d'un estimateur chevronné. Deux forums de discussion ont eu lieu avec trois estimateurs du domaine pour déterminer les facteurs qui influencent le taux de productivité de l'équipe d'excavation de tranchées. Ces discussions ont permis de déterminer le jeu optimal des données d'entrée des RNA. Trois estimateurs chevronnés ont également calculé manuellement le taux de productivité à partir des plans et devis de chacun des deux projets testés. Pour ces deux projets, les résultats de prédiction des RNA sont comparés aux résultats des trois estimateurs ainsi qu'au taux de productivité réel obtenu au chantier. Les RNA obtiennent des résultats supérieurs au niveau de la précision par rapport aux résultats des estimateurs. Des recommandations sont faites pour la préparation des futurs rapports journaliers de surveillance de travaux afin de rendre les données plus accessibles aux RNA. Ainsi, d'autres recommandations sont faites pour des recherches futures qui permettraient d'introduire le processus de prédiction dans les logiciels commerciaux d'estimation détaillée du coût de projet. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Réseau de neurones artificiels (RNA), Estimation, Génie civil, Prédiction.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Doan, Thi Lien Huong. « L'estimation du coût du capital dans les marchés émergents : une application au secteur alimentaire du Vietnam ». Mémoire, 2006. http://www.archipel.uqam.ca/2994/1/M9422.pdf.

Texte intégral
Résumé :
Dans un contexte de marchés développés tels ceux du Canada ou des États-Unis, le modèle d'équilibre des actifs financiers (CAPM) est le plus utilisé par les praticiens pour estimer le coût du capital et ce, même s'il comporte de nombreuses faiblesses aux plans théorique et pratique. L'application de ce modèle ne semble toutefois pas adéquate dans le contexte des pays émergents en raison des caractéristiques propres de ces marchés (leur forte volatilité, leur inefficience, leur segmentation etc.). L'objectif de ce travail est d'essayer d'estimer le coût du capital du secteur alimentaire de l'économie du Vietnam en appliquant des modèles plus efficaces adaptés au contexte des marchés émergents. Pour estimer le coût du capital du secteur alimentaire, nous avons appliqué le modèle de marché exprimant la relation entre le rendement du portefeuille sectoriel et celui du marché. Dans ce modèle inspiré du CAPM, nous supposons une relation linéaire entre le rendement du portefeuille et celui du marché. Ce modèle est également appliqué au marché du Japon et de l'Australie. Nos résultats nous permettent de confirmer une très forte relation dans les trois cas. L'étude de ces marchés nous permet aussi de constater que le secteur alimentaire du Vietnam semble plus risqué que celui des autres marchés. Nous y avons également trouvé la présence de l'effet ARCH des rendements, qui implique que la variance du rendement de ce secteur au Vietnam n'est pas constante, mais varie avec les informations non anticipées des périodes précédentes. Nous avons également examiné la relation entre le rendement de portefeuilles alimentaires sur trois marchés, le Vietnam, l'Australie et le Japon. Nous avons choisi l'Australie et le Japon à cause de l'importance des rapports commerciaux entre ces pays et le Vietnam. Si une relation avait existé, la maturité de ces deux marchés aurait pu nous aider à déterminer un «benchmark» pour estimer le coût du capital. Malheureusement, nos résultats ne nous ont pas permis de confirmer cette hypothèse. Nous avons eu recours au modèle CAPM hybride ajusté, celui de Damodaran, de Godfrey-Espinosa et de Erb-Harvey-Viskanta, pour fournir des références de ce paramètre de coût du capital. Les paramètres de ces modèles ont été déjà estimés par les auteurs. Cette application nous donne une intervalle d'estimation pour le coût de capital qui varie de 9.29 % à 16.84 % pour le secteur alimentaire au Vietnam. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Coût du capital, Marchés émergents, Vietnam, Secteur alimentaire.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie