Littérature scientifique sur le sujet « Estimation de l'incertitude »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Estimation de l'incertitude ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Estimation de l'incertitude"

1

Perret, Christian, P. Marchand, Arnaud Belleville, Rémy Garcon, Damien Sevrez, Stéphanie Poligot-Pitsch, Rachel Puechberty et Gwen Glaziou. « La variabilité en fonction du temps des relations hauteur débit. Sa prise en compte dans l'estimation des incertitudes des données hydrométriques par une méthode tabulée ». La Houille Blanche, no 4 (août 2018) : 65–72. http://dx.doi.org/10.1051/lhb/2018043.

Texte intégral
Résumé :
La démarche engagée depuis plusieurs années par la communauté des hydromètres pour quantifier les incertitudes associées au processus d'élaboration des données de débit mériterait de trouver des applications opérationnelles. La présente étude incite notamment les gestionnaires des stations hydrométriques à mieux valoriser les jaugeages effectués en systématisant la démarche de précision du modèle de courbe de tarage. Les auteurs proposent ensuite une démarche simplifiée de quantification de l'incertitude associée à une valeur de débit prédite par une courbe de tarage à partir du calcul de l'écart type des écarts en pour cent des jaugeages à la courbe de tarage et d'une tabulation en fonction des quantiles de débits observés. Elle s'appuie sur une démarche classique d'identification des sources d'incertitude et de leur propagation. Cette méthode permet de proposer une estimation de l'incertitude observée en moyenne sur les stations françaises pour la médiane des débits observés. On propose la formulation suivante : pour 45 à 55 % des stations françaises, la valeur la plus probable de l'incertitude au seuil de confiance de 95 % pour le quantile 50 % des débits observés en France est inférieure à 22 %.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ambroise, B. « Génèse des débits dans les petits bassins versants ruraux en milieu tempéré : 2 - Modélisation systémique et dynamique ». Revue des sciences de l'eau 12, no 1 (12 avril 2005) : 125–53. http://dx.doi.org/10.7202/705346ar.

Texte intégral
Résumé :
La deuxième partie de cette synthèse bibliographique sur la genèse des débits montre comment les connaissances acquises sur le fonctionnement des petits bassins ruraux (cf. Partie 1) peuvent être utilisées pour les modéliser. Elle présente les différents types de modèles hydrologiques (empiriques globaux de type "boîte noire", conceptuels globaux ou semi-spatialisés, physiques spatialisés, physico-conceptuels semi-spatialisés) disponibles pour générer des chroniques événementielles ou continues, et déduit de l'analyse de leurs avantages et limites respectifs certaines recommandations pour leur choix et leur usage. Elle indique ensuite différents problèmes rencontrés dans toute modélisation, et quelques pistes possibles pour les résoudre: incorporation des flux couplés à l'eau dans les modèles hydrologiques, erreurs liées à la structure du modèle (limites et simplifications théoriques, approximations numériques, discrétisations temporelle et spatiale), problèmes métrologiques et méthodologiques limitant la disponibilité des données, hétérogénéités à toutes les échelles limitant l'adéquation des données pour paramétrer les modèles, calage du modèle limitant son aptitude à simuler des scénarios de changement. Elle souligne la nécessité d'une validation multicritère des modèles et d'une estimation de l'incertitude sur les simulations générée par ces diverses sources d'erreurs, ainsi que le besoin d'une meilleure interaction entre expérimentation de terrain et modélisation.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Fortin, Mathieu, Josianne DeBlois, Sylvain Bernier et Georges Blais. « Mise au point d'un tarif de cubage général pour les forêts québécoises : une approche pour mieux évaluer l'incertitude associée aux prévisions ». Forestry Chronicle 83, no 5 (1 septembre 2007) : 754–65. http://dx.doi.org/10.5558/tfc83754-5.

Texte intégral
Résumé :
Merchantable volume assessment is of prime importance in forest management and for the estimation of wood production in Quebec Crown forests. Currently, this assessment is undertaken at the individual stem level according to a statistical model commonly identified as the Perron general stock table. This polynomial model is based on tree diameter at breast height and tree height. However, the mathematical model form and the method used to calibrate it do not enable a correct and detailed assessment of the uncertainty associated with volume assessments. This study describes a new model which, accounts for errors associated with the use of estimated height in volume forecasts and also limits the propogation of errors to sample plot and cruise line. Random effects have been specified in the model in order to take into account spatial correlation between observations made at the sample plot and cruise line level. Results indicate sample plot and cruise line random errors constitute components of model error, which individually range from 2 % to 4 % of volume assessment. Consequently, the basic premise that errors associated with volume assessment of individual stems are compensated by volume summations at the sample plot level is not valid. Key words: mixed model, random effect, error propagation, variance
Styles APA, Harvard, Vancouver, ISO, etc.
4

Desétables, Fabien, Guillaume Oudin et Michel Rudelle. « Détermination des incertitudes et validation des débits calculés du réseau d'assainissement départemental de Seine-Saint-Denis ». La Houille Blanche, no 1 (février 2018) : 18–26. http://dx.doi.org/10.1051/lhb/2018003.

Texte intégral
Résumé :
La Direction de l'eau et de l'assainissement du Conseil départemental de Seine-Saint-Denis gère un réseau d'assainissement d'un linéaire de 700 kilomètres. Ce réseau est équipé de 178 stations de mesure cumulant 769 voies de hauteur, vitesse, débit calculé, turbidité et pluviométrie. Afin d'améliorer la qualité des mesures, une expertise des mesures de débit, calculées à partir d'une mesure de hauteur et d'une ou plusieurs mesures de vitesse, a été mise en place. Pour qualifier les résultats de mesure, une méthode d'évaluation des incertitudes valable pour tous les sites de mesure a été déterminée. Elle permet d'obtenir l'estimation de l'incertitude pour toute valeur d'un couple hauteur-débit. Il a été attaché une grande importance à ne négliger aucun facteur d'influence. Pour s'assurer que cette estimation était pertinente, une procédure de validation initiale des sections de mesure a été élaborée. Elle a ensuite été utilisée pour fournir des données de référence qui sont un moyen rapide et fiable de déceler une suspicion de dysfonctionnement d'un site, d'en faire un diagnostic et d'intervenir si nécessaire. Les données de référence sont mises à jour en fonction de l'évolution hydraulique du réseau. Ce travail a également motivé un approfondissement des contrôles réalisés sur le terrain. La méthode est utilisée quotidiennement avec une efficacité maintenant éprouvée. Il est alors possible de dire que les données validées sont des données qui satisfont aux incertitudes estimées.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Heuveline, Patrick. « L'insoutenable incertitude du nombre : estimations des décès de la période Khmer rouge ». Population Vol. 53, no 6 (1 juin 1998) : 1103–17. http://dx.doi.org/10.3917/popu.p1998.53n6.1117.

Texte intégral
Résumé :
Résumé Heuveline (Patrick). - L'insoutenable incertitude du nombre : estimations des décès de la période Khmer rouge Cet article présente les différentes méthodes employées pour estimer la mortalité pendant la période Khmer rouge, méthodes regroupées en deux principaux types : la méthode par échantillonnage et la méthode «résiduelle». Le premier type s'appuie sur des entretiens à partir desquels est estimée la proportion de survivants parmi les proches des personnes interrogées. Avec le second type d'approche, la mortalité n'est pas observée mais mesurée indirectement par différence entre l'évolution des effectifs, les naissances et les migrations internationales. La première approche a généralement fourni des estimations de l'excédent de mortalité durant cette période plus élevées (de 1,5 à 2 millions) que la seconde (1 million ou moins), sauf pour la reconstruction effectuée par l'auteur. Tout en discutant des mérites respectifs des deux approches, cet article s'efforce de comprendre l'incompatibilité apparente des estimations existantes en s'intéressant également à l'incertitude inhérente à toute procédure de mesure. Si, dans le contexte du Cambodge, l'approche résiduelle est susceptible de fournir des résultats relativement plus robustes que l'échantillonnage, les données d'enquête renseignent également sur les causes de décès. Une décomposition par cause est plus délicate quand les décès sont estimés résiduellement mais il est néanmoins possible d'isoler les morts violentes en faisant une hypothèse sur la structure par âge de la mortalité sous-jacente. Dans le cas du Cambodge, les résultats de cette approche apparaissent tout à fait compatibles avec ceux obtenus par échantillonnage.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Estimation de l'incertitude"

1

Pinson, Pierre. « Estimation de l'incertitude des prédictions de production éolienne ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002187.

Texte intégral
Résumé :
L'énergie éolienne connaît un développement considérable en Europe. Pourtant, le caractère intermittent de cette énergie renouvelable introduit des difficultés pour la gestion du réseau électrique. De plus, dans le cadre de la dérégulation des marchés de l'électricité, l'énergie éolienne est pénalisée par rapport aux moyens de production contrôlables. La prédiction de la production éolienne à des horizons de 2-3 jours aide l'intégration de cette énergie. Ces prédictions consistent en une seule valeur par horizon, qui correspond à la production la plus probable. Cette information n'est pas suffisante pour définir des stratégies de commerce ou de gestion optimales. C'est pour cela que notre travail se concentre sur l'incertitude des prédictions éoliennes. Les caractéristiques de cette incertitude sont décrites à travers une analyse des performances de certains modèles de l'état de l'art, et en soulignant l'influence de certaines variables sur les moments des distributions d'erreurs de prédiction. Ensuite, nous décrivons une méthode générique pour l'estimation d'intervalles de prédiction. Il s'agit d'une méthode statistique nonparamétrique qui utilise des concepts de logique floue pour intégrer l'expertise acquise concernant les caractéristiques de cette incertitude. En estimant plusieurs intervalles à la fois, on obtient alors des prédictions probabilistes sous forme de densité de probabilité de production éolienne pour chaque horizon. La méthode est évaluée en terme de fiabilité, finesse et résolution. En parallèle, nous explorons la possibilité d'utiliser des prédictions ensemblistes pour fournir des 'prévisions d'erreur'. Ces prédictions ensemblistes sont obtenues soit en convertissant des prévisions météorologiques ensemblistes (fournies par ECMWF ou NCEP), soit en appliquant une approche de décalage temporel. Nous proposons une définition d'indices de risque, qui reflètent la dispersion des ensembles pour un ou plusieurs horizons consécutifs. Une relation probabiliste entre ces indices de risque et le niveau d'erreur de prédiction est établie. Dans une dernière partie, nous considérons la participation de l'énergie éolienne dans les marchés de l'électricité afin de démontrer la valeur de l'information 'incertitude'. Nous expliquons comment définir des stratégies de participation à ces bourses de l'électricité avec des prédictions déterministes ou probabilistes. Les bénéfices résultant d'une estimation de l'incertitude des prédictions éoliennes sont clairement démontrés.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Blier, Mylène. « Estimation temporelle avec interruption : les effets de localisation et de durée d'interruptions sont-ils sensibles à l'incertitude ? » Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26367/26367.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Blier, Mylène. « Estimation temporelle avec interruption : les effets de localisation et de durée d'interruption sont-ils sensibles à l'incertitude ? » Doctoral thesis, Université Laval, 2009. http://hdl.handle.net/20.500.11794/21201.

Texte intégral
Résumé :
Lors d'études portant sur la production d'intervalles temporels avec interruption, deux principaux effets sont généralement retrouvés lorsque la localisation et la durée de l'interruption varient: les productions temporelles sont plus courtes 1) lorsque l'interruption arrive tôt dans l'intervalle de temps et 2) lorsque la durée de l'interruption est plus longue. L'effet de localisation s'explique principalement par un partage attentionnel lors de la période qui précède l'interruption, mais peut aussi refléter en partie l'effet de processus préparatoires précédant l'interruption. L'effet de durée d'interruption est expliqué par les processus de préparation qui prennent place durant l'interruption. Une façon de réduire les effets préparatoires est d'augmenter l'incertitude quant au moment d'arrivée du signal auquel on doit réagir. L'objectif principal du mémoire doctoral est de tester la sensibilité des effets de localisation et de durée d'interruption à l'incertitude dans trois expériences. Les deux premières expériences portent sur la production d'intervalle temporelle avec interruption. La dernière expérience vérifie l'effet de l'incertitude sur la préparation dans un paradigme de temps de réaction. Pour chaque expérience, deux conditions sont utilisées, soient un groupe où l'incertitude est faible et un autre où l'incertitude est élevée. Dans la première expérience, l'effet de localisation est plus fort dans le groupe où l'incertitude est faible. Aucun effet significatif n'est retrouvé dans l'expérience où la durée de l'interruption est manipulée, ce qui est expliqué principalement par la taille de l'effet de durée d'interruption. Dans la tâche de temps de réaction, l'effet de la période préparatoire est plus prononcé dans le groupe où l'incertitude est faible contrairement au groupe où l'incertitude est élevée. Les résultats permettent de conclure que l'incertitude affecte le partage attentionnel dans l'effet de localisation, mais affecte surtout l'effet de préparation qui serait impliqué dans les trois expériences. Ces résultats s'expliquent du fait que les participants montrent une meilleure préparation lorsque l'incertitude est faible.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Mallet, Vivien. « Estimation de l'incertitude et prévision d'ensemble avec un modèle de chimie transport - Application à la simulation numérique de la qualité de l'air ». Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001654.

Texte intégral
Résumé :
La thèse s'attache à évaluer la qualité d'un modèle de chimie-transport, non pas par une comparaison classique aux observations, mais en estimant ses incertitudes a priori dues aux données d'entrées, à la formulation du modèle et aux approximations numériques. L'étude de ces trois sources d'incertitude est menée respectivement grâce à des simulations Monte Carlo, des simulations multi-modèles et des comparaisons entre schémas numériques. Une incertitude élevée est mise en évidence, pour les concentrations d'ozone. Pour dépasser les limitations dues à l'incertitude, une stratégie réside dans la prévision d'ensemble. En combinant plusieurs modèles (jusqu'à quarante-huit modèles) sur la bases des observations passées, les prévisions peuvent être significativement améliorées. Ce travail a aussi été l'occasion de développer un système de modélisation innovant, Polyphemus.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Werner, Stéphane. « Optimisation des cadastres d'émissions : estimation des incertitudes, détermination des facteurs d'émissions du "black carbon" issus du trafic routier et estimation de l'influence de l'incertitude des cadastres d'émissions sur la modélisation : application aux cadastres Escompte et Nord-Pas-de-Calais ». Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/WERNER_Stephane_2009.pdf.

Texte intégral
Résumé :
Les cadastres d’émissions ont un rôle fondamental dans le contrôle de la pollution atmosphérique, à la fois directement, pour le recensement des émissions et comme données d’entrée pour les modèles de pollution atmosphérique. Le travail de cette thèse a eu pour principal objectif l’optimisation de cadastres existants, notamment celui du programme ESCOMPTE « Expériences sur Site pour COntraindre les Modèles de Pollution atmosphérique et de Transport d'Emissions ». Pour ce cadastre, deux problématiques distinctes ont été développées : l’une visant à évaluer au mieux l’incertitude portant sur les émissions et l’autre à insérer un nouveau composé d’intérêt : le Black Carbon (BC). Dans le cadre de la première problématique portant sur les incertitudes, une étude supplémentaire a été effectuée sur le cadastre de la région Nord-Pas-de-Calais. La méthode de calcul des incertitudes a ainsi pu être testée sur un autre cadastre. Ces incertitudes sur les émissions ont permis d'évaluer leur influence sur la modélisation de la qualité de l’air (modèle CHIMERE). La seconde partie du travail de recherche a été entreprise afin de compléter les cadastres d’émissions de particules carbonées existants, pour le secteur des transports routiers, en introduisant une classe de composés supplémentaires : le BC. Le BC est la matière carbonée des particules atmosphériques absorbant la lumière. Il provient essentiellement de la combustion incomplète de combustibles ou composés carbonés. Il peut être considéré comme un composé primordial pour l’atmosphère du fait de son impact sur le climat et pour la santé du fait de sa réactivité chimique
Emissions inventories have a fundamental role in controlling air pollution, both directly by identifying emissions, and as input data for air pollution models. The main objective of this PhD study is to optimize existing emissions inventories, including one from the program ESCOMPTE « Experiments on Site to Constrain Models of Atmospheric Pollution and Transport of Emissions ». For that emissions inventory, two separate issues were developed: one designed to better assess the emissions uncertainties and the second to insert a new compound of interest in this inventory: Black Carbon (BC). Within the first issue, an additional study was conducted on the Nord-Pas-de-Calais emissions inventory to test the methodology of uncertainties calculation. The emissions uncertainties calculated were used to assess their influence on air quality modeling (model CHIMERE). The second part of the research study was dedicated to complement the existing inventory of carbon particulate emissions from road traffic sector by introducing an additional class of compounds: the BC. The BC is the raw carbonaceous atmospheric particles absorbing light. Its main source is the incomplete combustion of carbonaceous fuels and compounds. It can be regarded as a key atmospheric compound given its impact on climate and on health because of its chemical reactivity
Styles APA, Harvard, Vancouver, ISO, etc.
6

Brunner, Manuela. « Hydrogrammes synthétiques par bassin et types d'événements. Estimation, caractérisation, régionalisation et incertitude ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU003/document.

Texte intégral
Résumé :
L'estimation de crues de projet est requise pour le dimensionnement de barrages et de bassins de rétention, de même que pour la gestion des inondations lors de l’élaboration de cartes d’aléas ou lors de la modélisation et délimitation de plaines d’inondation. Généralement, les crues de projet sont définies par leur débit de pointe à partir d’une analyse fréquentielle univariée. Cependant, lorsque le dimensionnement d’ouvrages hydrauliques ou la gestion de crues nécessitent un stockage du volume ruisselé, il est également nécessaire de connaître les caractéristiques volume, durée et forme de l’hydrogramme de crue en plus de son débit maximum. Une analyse fréquentielle bivariée permet une estimation conjointe du débit de pointe et du volume de l’hydrogramme en tenant compte de leur corrélation. Bien qu’une telle approche permette la détermination du couple débit/volume de crue, il manque l’information relative à la forme de l’hydrogramme de crue. Une approche attrayante pour caractériser la forme de la crue de projet est de définir un hydrogramme représentatif normalisé par une densité de probabilité. La combinaison d’une densité de probabilité et des quantiles bivariés débit/volume permet la construction d’un hydrogramme synthétique de crue pour une période de retour donnée, qui modélise le pic d’une crue ainsi que sa forme. De tels hydrogrammes synthétiques sont potentiellement utiles et simples d’utilisation pour la détermination de crues de projet. Cependant, ils possèdent actuellement plusieurs limitations. Premièrement, ils reposent sur la définition d’une période de retour bivariée qui n’est pas univoque. Deuxièmement, ils décrivent en général le comportement spécifique d’un bassin versant en ne tenant pas compte de la variabilité des processus représentée par différents types de crues. Troisièmement, les hydrogrammes synthétiques ne sont pas disponibles pour les bassins versant non jaugés et une estimation de leurs incertitudes n’est pas calculée.Pour remédier à ces manquements, cette thèse propose des avenues pour la construction d’hydrogrammes synthétiques de projet pour les bassins versants jaugés et non jaugés, de même que pour la prise en compte de la diversité des types de crue. Des méthodes sont également développées pour la construction d’hydrogrammes synthétiques de crue spécifiques au bassin et aux événements ainsi que pour la régionalisation des hydrogrammes. Une estimation des diverses sources d’incertitude est également proposée. Ces travaux de recherche montrent que les hydrogrammes synthétiques de projet constituent une approche qui s’adapte bien à la représentation de différents types de crue ou d’événements dans un contexte de détermination de crues de projet. Une comparaison de différentes méthodes de régionalisation montre que les hydrogrammes synthétiques de projet spécifiques au bassin peuvent être régionalisés à des bassins non jaugés à l’aide de méthodes de régression linéaires et non linéaires. Il est également montré que les hydrogrammes de projet spécifiques aux événements peuvent être régionalisés à l’aide d’une approche d’indice de crue bivariée. Dans ce contexte, une représentation fonctionnelle de la forme des hydrogrammes constitue un moyen judicieux pour la délimitation de régions ayant un comportement hydrologique de crue similaire en terme de réactivité. Une analyse de l’incertitude a montré que la longueur de la série de mesures et le choix de la stratégie d’échantillonnage constituent les principales sources d’incertitude dans la construction d’hydrogrammes synthétiques de projet. Cette thèse démontre qu’une approche de crues de projet basée sur un ensemble de crues permet la prise en compte des différents types de crue et de divers processus. Ces travaux permettent de passer de l’analyse fréquentielle statistique de crues vers l’analyse fréquentielle hydrologique de crues permettant de prendre en compte les processus et conduisant à une prise de décision plus éclairée
Design flood estimates are needed in hydraulic design for the construction of dams and retention basins and in flood management for drawing hazard maps or modeling inundation areas. Traditionally, such design floods have been expressed in terms of peak discharge estimated in a univariate flood frequency analysis. However, design or flood management tasks involving storage, in addition to peak discharge, also require information on hydrograph volume, duration, and shape . A bivariate flood frequency analysis allows the joint estimation of peak discharge and hydrograph volume and the consideration of their dependence. While such bivariate design quantiles describe the magnitude of a design flood, they lack information on its shape. An attractive way of modeling the whole shape of a design flood is to express a representative normalized hydrograph shape as a probability density function. The combination of such a probability density function with bivariate design quantiles allows the construction of a synthetic design hydrograph for a certain return period which describes the magnitude of a flood along with its shape. Such synthetic design hydrographs have the potential to be a useful and simple tool in design flood estimation. However, they currently have some limitations. First, they rely on the definition of a bivariate return period which is not uniquely defined. Second, they usually describe the specific behavior of a catchment and do not express process variability represented by different flood types. Third, they are neither available for ungauged catchments nor are they usually provided together with an uncertainty estimate.This thesis therefore explores possibilities for the construction of synthetic design hydrographs in gauged and ungauged catchments and ways of representing process variability in design flood construction. It proposes tools for both catchment- and flood-type specific design hydrograph construction and regionalization and for the assessment of their uncertainty.The thesis shows that synthetic design hydrographs are a flexible tool allowing for the consideration of different flood or event types in design flood estimation. A comparison of different regionalization methods, including spatial, similarity, and proximity based approaches, showed that catchment-specific design hydrographs can be best regionalized to ungauged catchments using linear and nonlinear regression methods. It was further shown that event-type specific design hydrograph sets can be regionalized using a bivariate index flood approach. In such a setting, a functional representation of hydrograph shapes was found to be a useful tool for the delineation of regions with similar flood reactivities.An uncertainty assessment showed that the record length and the choice of the sampling strategy are major uncertainty sources in the construction of synthetic design hydrographs and that this uncertainty propagates through the regionalization process.This thesis highlights that an ensemble-based design flood approach allows for the consideration of different flood types and runoff processes. This is a step from flood frequency statistics to flood frequency hydrology which allows better-informed decision making
Styles APA, Harvard, Vancouver, ISO, etc.
7

Biletska, Krystyna. « Estimation en temps réel des flux origines-destinations dans un carrefour à feux par fusion de données multicapteurs ». Compiègne, 2010. http://www.theses.fr/2010COMP1893.

Texte intégral
Résumé :
La qualité de l’information concernant les origines et les destinations (OD) des véhicules dans un carrefour influence la performance de nombreux systèmes des transports routiers. La période de sa mise à jour conditionne l’échelle temporelle de fonctionnement de ces systèmes. Nous nous intéressons au problème de reconstitution à chaque cycle de feux des OD des véhicules traversant un carrefour à partir des états des feux et des mesures de trafic provenant des capteurs vidéo. Les mesures de trafic, fournies à la seconde, sont les débits aux entrées/sorties du carrefour et les nombres de véhicules en arrêt dans les zones internes du carrefour. Ces données réelles sont entachées d’imperfections. La seule méthode existante qui est capable de résoudre ce problème, nommée ORIDI, ne tient pas compte de l’imperfection des données. Nous proposons une nouvelle méthode modélisant l’imprécision de données par la théorie des sous-ensembles flous. Elle est applicable à tout type de carrefour et indépendante du type de stratégie de feux. Elle consiste à estimer les flux OD à partir de la loi de conservation des véhicules représentée par un système d’équation sous déterminé construit de façon dynamique à chaque cycle de feux grâce aux réseaux de Petri a-temporisés flous. Une solution unique est trouvée grâce à huit différentes méthodes qui représentent l’estimation sous forme d’un point, d’un intervalle ou d’un sous-ensemble flou. Notre étude montre que les méthodes nettes sont aussi précises qu’ORIDI, mais plus robustes face à une panne d’un des capteurs vidéo. Les méthodes ensemblistes et floues, étant moins précises qu’ORIDI, cherchent à garantir que la solution inclut la vraie valeur
The quality of the information about origins and destinations (OD) of vehicles in a junction influences the performance of many road transport systems. The period of its update determines the temporal scale of working of these systems. We are interested in the problem of reconstituting of the OD of vehicles crossing a junction, at each traffic light cycle, using the traffic light states and traffic measurements from video sensors. Traffic measurements, provided every second, are the vehicle counts made on each entrance and exit of the junction and the number of vehicles stopped at each inner section of the junction. Thses real date are subject to imperfections. The only existent method, named ORIDI, which is capable of resolving this problem doesn’t take into account the data imperfection. We propose a new method modelling the date imprecision by the theory of fuzzy subsets. It can be applied to any type of junction and is independent of the type of traffic light strategy. The method estimates OD flows from the vehicle conservation law represented by an underdetermined system of equations constructed in a dynamic way at each traffic light cycle using to the fuzzy a-timed Petri nets. A unique solution is found thanks to eight different methods which introduce estimate in the form of point, interval or fuzzy set. Our study shows that the crisp methods are accurate like ORIDI, but more robust when one of the video sensors is broken down. The interval and fuzzy methods, being less accurate than ORIDI, try to guarantee that the solution includes the true value
Styles APA, Harvard, Vancouver, ISO, etc.
8

Tamssaouet, Ferhat. « Towards system-level prognostics : modeling, uncertainty propagation and system remaining useful life prediction ». Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0079.

Texte intégral
Résumé :
Le pronostic est le processus de prédiction de la durée de vie résiduelle utile (RUL) des composants, sous-systèmes ou systèmes. Cependant, jusqu'à présent, le pronostic a souvent été abordé au niveau composant sans tenir compte des interactions entre les composants et l'impact de l'environnement, ce qui peut conduire à une mauvaise prédiction du temps de défaillance dans des systèmes complexes. Dans ce travail, une approche de pronostic au niveau du système est proposée. Cette approche est basée sur un nouveau cadre de modélisation : le modèle d'inopérabilité entrée-sortie (IIM), qui permet de prendre en compte les interactions entre les composants et les effets du profil de mission et peut être appliqué pour des systèmes hétérogènes. Ensuite, une nouvelle méthodologie en ligne pour l'estimation des paramètres (basée sur l'algorithme de la descente du gradient) et la prédiction du RUL au niveau système (SRUL) en utilisant les filtres particulaires (PF), a été proposée. En détail, l'état de santé des composants du système est estimé et prédit d'une manière probabiliste en utilisant les PF. En cas de divergence consécutive entre les estimations a priori et a posteriori de l'état de santé du système, la méthode d'estimation proposée est utilisée pour corriger et adapter les paramètres de l'IIM. Finalement, la méthodologie développée, a été appliquée sur un système industriel réaliste : le Tennessee Eastman Process, et a permis une prédiction du SRUL dans un temps de calcul raisonnable
Prognostics is the process of predicting the remaining useful life (RUL) of components, subsystems, or systems. However, until now, the prognostics has often been approached from a component view without considering interactions between components and effects of the environment, leading to a misprediction of the complex systems failure time. In this work, a prognostics approach to system-level is proposed. This approach is based on a new modeling framework: the inoperability input-output model (IIM), which allows tackling the issue related to the interactions between components and the mission profile effects and can be applied for heterogeneous systems. Then, a new methodology for online joint system RUL (SRUL) prediction and model parameter estimation is developed based on particle filtering (PF) and gradient descent (GD). In detail, the state of health of system components is estimated and predicted in a probabilistic manner using PF. In the case of consecutive discrepancy between the prior and posterior estimates of the system health state, the proposed estimation method is used to correct and to adapt the IIM parameters. Finally, the developed methodology is verified on a realistic industrial system: The Tennessee Eastman Process. The obtained results highlighted its effectiveness in predicting the SRUL in reasonable computing time
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie