Thèses sur le sujet « Estimation du terme inconnu »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Estimation du terme inconnu.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 25 meilleures thèses pour votre recherche sur le sujet « Estimation du terme inconnu ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Wang, Zhibo. « Estimations non-asymptotiques et robustes basées sur des fonctions modulatrices pour les systèmes d'ordre fractionnaire ». Electronic Thesis or Diss., Bourges, INSA Centre Val de Loire, 2023. http://www.theses.fr/2023ISAB0003.

Texte intégral
Résumé :
Cette thèse développe la méthode des fonctions modulatrices pour des estimations non-asymptotiques et robustes pour des pseudo-états des systèmes nonlinéaires d'ordre fractionnaire, des systèmes linéaires d'ordre fractionnaire avec des accélérations en sortie, et des systèmes à retards d'ordre fractionnaire. Les estimateurs conçus sont fournis en termes de formules intégrales algébriques, ce qui assure une convergence non-asymptotique. Comme une caractéristique essentielle des algorithmes d'estimation conçus, les mesures de sorties bruitées ne sont impliquées que dans les termes intégraux, ce qui confère aux estimateurs une robustesse contre les bruits. Premièrement, pour les systèmes nonlinéaires d'ordre fractionnaire et partiellement inconnu, l'estimation de la dérivée fractionnaire du pseudo-état est abordée via la méthode des fonctions modulatrices. Grâce à la loi de l'indice additif des dérivées fractionnaires, l'estimation est décomposée en une estimation des dérivées fractionnaires de la sortie et une estimation des valeurs initiales fractionnaires. Pendant ce temps, la partie inconnue est estimée via une stratégie innovante de fenêtre glissante. Deuxièmement, pour les systèmes linéaires d'ordre fractionnaire avec des accélérations comme sortie, l'estimation de l'intégrale fractionnaire de l'accélération est d'abord considérée pour les systèmes mécaniques de vibration d'ordre fractionnaire, où seules des mesures d'accélération bruitées sont disponibles. Basée sur des approches numériques existantes qui traitent des intégrales fractionnaires, notre attention se limite principalement à l'estimation des valeurs initiales inconnues en utilisant la méthode des fonctions modulatrices. Sur cette base, le résultat est ensuite généralisé aux systèmes linéaires plus généraux d'ordre fractionnaire. En particulier, le comportement des dérivées fractionnaires à zéro est étudié pour des fonctions absolument continues, ce qui est assez différent de celui de l'ordre entier. Troisièment, pour les systèmes à retards d'ordre fractionnaire, l'estimation du pseudo-état est étudiée en concevant un système dynamique auxiliaire d'ordre fractionnaire, qui fournit un cadre plus général pour générer les fonctions modulatrices requises. Avec l'introduction de l'opérateur de retard et du changement de coordonnées généralisé bicausal, l'estimation du pseudo-état du système considéré peut être réduite à celle de la forme normale correspondante. Contrairement aux travaux précédents le schéma présenté permet une estimation directe du pseudo-état plutôt que d'estimer les dérivées fractionnaires de la sortie et un ensemble de valeurs initiales fractionnaires. De plus, l'efficacité et la robustesse des estimateurs proposés sont vérifiées par des simulations numériques dans cette thèse. Enfin, un résumé de ce travail et un aperçu des travaux futurs sont tirés
This thesis develops the modulating functions method for non-asymptotic and robust estimations for fractional-order nonlinear systems, fractional-order linear systems with accelerations as output, and fractional-order time-delay systems. The designed estimators are provided in terms of algebraic integral formulas, which ensure non-asymptotic convergence. As an essential feature of the designed estimation algorithms, noisy output measurements are only involved in integral terms, which endows the estimators with robustness against corrupting noises. First, for fractional-order nonlinear systems which are partially unknown, fractional derivative estimation of the pseudo-state is addressed via the modulating functions method. Thanks to the additive index law of fractional derivatives, the estimation is decomposed into the fractional derivatives estimation of the output and the fractional initial values estimation. Meanwhile, the unknown part is fitted via an innovative sliding window strategy. Second, for fractional-order linear systems with accelerations as output, fractional integral estimation of the acceleration is firstly considered for fractional-order mechanical vibration systems, where only noisy acceleration measurements are available. Based on the existing numerical approaches addressing the proper fractional integrals of accelerations, our attention is primarily restricted to estimating the unknown initial values using the modulating functions method. On this basis, the result is further generalized to more general fractional-order linear systems. In particular, the behaviour of fractional derivatives at zero is studied for absolutely continuous functions, which is quite different from that of integer order. Third, for fractional-order time-delay systems, pseudo-state estimation is studied by designing a fractional-order auxiliary modulating dynamical system, which provides a more general framework for generating the required modulating functions. With the introduction of the delay operator and the bicausal generalized change of coordinates, the pseudo-state estimation of the considered system can be reduced to that of the corresponding observer normal form. In contrast to the previous work, the presented scheme enables direct estimation for the pseudo-state rather than estimating the fractional derivatives of the output and a bunch of fractional initial values. In addition, the efficiency and robustness of the proposed estimators are verified by numerical simulations in this thesis. Finally, a summary of this work and an insight into future work were drawn
Styles APA, Harvard, Vancouver, ISO, etc.
2

Mechhoud, Sarah. « Estimation de la diffusion thermique et du terme source du modèle de transport de la chaleur dans les plasmas de tokamaks ». Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00954183.

Texte intégral
Résumé :
Cette thèse porte sur l'estimation simultanée du coefficient de diffusion et du terme source régissant le modèle de transport de la température dans les plasmas chauds. Ce phénomène physique est décrit par une équation différentielle partielle (EDP) linéaire, parabolique du second-ordre et non-homogène, où le coefficient de diffusion est distribué et le coefficient de réaction est constant. Ce travail peut se présenter en deux parties. Dans la première, le problème d'estimation est traité en dimension finie ("Early lumping approach"). Dans la deuxième partie, le problème d'estimation est traité dans le cadre initial de la dimension infinie ("Late lumping approach"). Pour l'estimation en dimension finie, une fois le modèle établi, la formulation de Galerkin et la méthode d'approximation par projection sont choisies pour convertir l'EDP de transport en un système d'état linéaire, temps-variant et à entrées inconnues. Sur le modèle réduit, deux techniques dédiées à l'estimation des entrées inconnues sont choisies pour résoudre le problème. En dimension infinie, l'estimation en-ligne adaptative est adoptée pour apporter des éléments de réponse aux contraintes et limitations dues à la réduction du modèle. Des résultats de simulations sur des données réelles et simulées sont présentées dans ce mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Chafouk, Houcine. « Validation de données à variance inconnu ». Nancy 1, 1990. http://docnum.univ-lorraine.fr/public/SCD_T_1990_0379_CHAFOUK.pdf.

Texte intégral
Résumé :
L'objectif fondamental de cette thèse est de développer des algorithmes pour l'estimation des variances des erreurs de mesure. Les techniques proposées utilisent l'hypothèse de normalité des erreurs de mesure ce qui permet d'expliciter très simplement leur fonction de vraisemblance. Les travaux antérieurs dans ce domaine sont peut nombreux ce qui justifie l'intérêt de ce travail. Au niveau pratique, l'approche proposée est également importante car dans la plupart des procédés industriels la méconnaissance de la variance des mesures est un fait très courant. Dans ces différentes approches, nous avons particulièrement développé l'estimation de variances et de grandeurs réelles pour les systèmes linéaires et bilinéaires mesurés et partiellement mesurés et nous avons généralisé le calcul de ces estimations aux systèmes multi-lineaires globalement redondants. De nombreux exemples en simulation ont permis de valider les concepts théoriques.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Clément, Thierry. « Estimation d'incertitude paramétrique dans un contexte de bruit de sortie inconnu mais borné ». Grenoble INPG, 1987. http://www.theses.fr/1987INPG0095.

Texte intégral
Résumé :
Presentation d'une nouvelle approche pour l'identification des modeles armax, basee sur le concept d'une erreur de sortie bornee. Utilisation d'un algorithme de traitement hors ligne (grace a une technique de programmation lineaire) et d'un algorithme de traitement sequentiel des donnees (grace a une construction recursive d'ellipsoides)
Styles APA, Harvard, Vancouver, ISO, etc.
5

Clément, Thierry. « Estimation d'incertitude paramétrique dans un contexte de bruit de sortie inconnu mais borné ». Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376039984.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Scaillet, Olivier. « Modélisation et estimation de la structure par terme des taux d'intérêt ». Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090003.

Texte intégral
Résumé :
Le présent travail se compose de cinq chapitres et examine deux aspects de la modélisation de la structure par terme : l'évaluation d'actifs dérivés de taux d'intérêt et l'inférence des modèles généralement utilisés dans le cadre de cette évaluation. Le premier chapitre est composé d'une introduction aux modèles en temps continu et à leur valorisation par arbitrage. Le second chapitre s'attache à l'évaluation d'options dans un modèle affine particulier. La partie estimation des processus de diffusion décrivant la dynamique des variables d'état est analysée dans le chapitre iii et consiste en une présentation d'une méthode fondée sur des simulations. Dans le chapitre iv, des tests d'hypothèses non emboitées utilisant des procédures fondées sur des simulations et une notion d'englobement indirect sont décrits. Deux applications sont proposées dans le chapitre v. La première consiste en la présentation d'une méthode d'estimation à partir de prix d'obligations des modèles de la structure par terme. La deuxième application concerne l'estimation et la comparaison de plusieurs modèles habituellement retenus pour le taux court instantané
This work is divided in five chapters and examines two aspects of term structure modeling: the pricing of derivatives assets on interest rates end the inference of the models generally used in this pricing. The first chapter introduces continuous-time models and arbitrage pricing. The second chapter examines option pricing in a affine model. The estimation part concerning state variable dynamics is dealt with in chapter III. It consists in studying an inference method based on simulations in the frameworks of diffusion processes. In chapter IV, tests of non-nested hypotheses using simulations and an indirect encompassing notion are described. Two applications are proposed in chapter V. The first one consists in examining an estimation method of term structure models from bond data. The second one concerns estimation and comparison of several usual models of the instantaneous interest rate
Styles APA, Harvard, Vancouver, ISO, etc.
7

Huillery, Julien. « Support temps-fréquence d'un signal inconnu en présence de bruit additif gaussien ». Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00301324.

Texte intégral
Résumé :
Le travail présenté dans ce mémoire est dédié à la localisation d'un signal dans le plan temps-fréquence. Plus précisément, nous proposons de déterminer le support temps-fréquence d'un signal d'intérêt, non stationnaire, déterministe et inconnu, noyé dans un bruit gaussien additif, centré et de fonction d'autocorrélation inconnue. Le support temps-fréquence accessible d'un signal est défini comme l'ensemble des points temps-fréquence pour lesquels le signal d'intérêt admet une énergie au moins supérieure à celle du bruit. De cette définition naîssent deux éléments qu'il est nécessaire de préciser : quel est l'énergie du bruit d'une part et que signifie "au moins supérieure" d'autre part? Dans tout ce travail, le spectrogramme est choisi pour représenter les signaux dans le plan temps-fréquence.

Nous choisissons de résoudre ce problème de localisation au moyen d'un test binaire d'hypothèses, formulé en chaque point du plan temps-fréquence. Le seuil de détection correspondant à ce test doit alors être déterminé : d'après les lois de probabilité des coefficients du spectrogramme d'une part, en lien avec la puissance du bruit d'autre part et, enfin, selon un critère de détection approprié.

La première étude concerne le comportement statistique des coefficients du spectrogramme. Dans le contexte d'un bruit non blanc et non stationnaire, la densité de probabilité des observations est ainsi formulée.

La densité specrale de puissance du bruit apparaît naturellement comme l'un des paramètres de cette densité de probabilité. Dans une seconde étude, une méthode d'estimation de ce bruit est proposée. Elle se base sur le comportement statistique des plus petits coefficients du spectrogramme.

Cet ensemble de connaissances nous permet finalement de résoudre le test d'hypothèses dont la solution naturelle au sens du maximum de vraisemblance fait apparaître le rapport d'énergie entre le signal et le bruit en chaque point du plan temps-fréquence. Ce rapport signal sur bruit local permet dès lors de préciser la condition "au moins supérieure" relative au support temps-fréquence accessible du signal.

L'algorithme de localisation temps-fréquence qui résulte de ce travail permet finalement de retenir le support temps-fréquence du signal d'intérêt sur l'ensemble duquel le rapport signal sur bruit est supérieur à une valeur choisie a priori.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Kassai, Koupai Behrouz. « Estimation du bénéfice clinique à long terme, les critères intermédiaires et leur application en pédiatrie ». Lyon 1, 2006. http://www.theses.fr/2006LYO10028.

Texte intégral
Résumé :
Les résultats des tests diagnostiques ou des biomarqueurs sont proposés comme critères de substitution dans l’évaluation du bénéfice thérapeutique. Le passage par ces critères de substitutions induit une série de problèmes peu étudiés. Grâce à une approche numérique, nous avons contribué à la compréhension de l’influence de la précision d’un test ou d’un biomarqueur sur la mesure du bénéfice thérapeutique. Chez l’enfant nous avons développé un protocole d’essai clinique évaluant l’efficacité du minoxidil sur l’épaisseur intima-média mesurée par échographie chez les enfants atteints de la maladie de Williams et Beuren. Estimation du bénéfice clinique à long terme. Dans le domaine de la prévention des maladies chroniques la durée des essais cliniques dépasse rarement 5 ans. Cependant, la plupart des traitements préventifs sont prescrits à long terme. Il importe donc de connaître les termes de l’approximation faite en extrapolant à partir des données factuelles. Nous avons développé une approche permettant d’estimer le bénéfice clinique d’un traitement préventif en terme de gain en espérance de vie à partir des données des essais cliniques. Nous l’avons appliqué aux antihypertenseurs en utilisant les données d’une méta-analyse sur données individuelles des essais cliniques et les tables de mortalité. Grâce à cette approche nous avons contribué à la compréhension du comportement des indices d’efficacité (risque relatif, réduction du risque) en fonction de la durée du traitement. Chez l’enfant nous avons exploré le bénéfice clinique à long terme en terme de gain en espérance de vie pour les enfants traités pour des pathologies cancéreuses
Biomarkers and diagnostic tests results are commonly used as substitute for evaluating the treatment benefit. The use of substitutes yields a series of methodological problems. Using a numerical approach we have contributed to a better knowledge of the influence of the performance of diagnostic tests and biomarkers on the measurement of the treatment benefit. In paediatrics, we developed a clinical trial evaluating the efficacy of minoxidil on intima-media thickness with echography in children with Williams Beuren syndrome. Estimating the long-term treatment benefit. In the realm of prevention of chronic diseases, the follow-up duration rarely exceed 5 years. Preventive treatment, however, are usually prescribed for long-term. It is important, therefore, to know the approximations made when extrapolating results of short-term clinical trials. We developed an approach allowing us to estimate the clinical benefit of preventive treatment in terms of gain in life expectancy from results of clinical trials. We applied this approach to antihypertensive drugs using a meta-analysis on individual patient data and life tables. We have contributed to a better understanding of the behaviour of efficacy indices (relative risk, risk differences) as a function of the duration of the treatment. In children treated for cancer, we explored the long-term benefit in terms of gain in life expectancy
Styles APA, Harvard, Vancouver, ISO, etc.
9

Bellier-Delienne, Annie. « Évaluation des contrats notionnels MATIF : estimation de la volatilité et de l'option de livraison ». Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090028.

Texte intégral
Résumé :
La volatilité du contrat notionnel MATIF, qui exprime la sensibilité du contrat aux paramètres influant le marché financier, est estimée à partir de différents types de modèles d'évaluation d'options sur contrats à terme d'obligations. Parmi les modèles testés, le modèle de Whaley (hypothèses classiques de Black et Scholes, option de type américain) donne les meilleurs résultats. L'option de livraison correspond au droit pour le vendeur de contrat notionnel de choisir parmi les obligations du gisement celle qu'il va livrer à l'échéance. Déterminée par arbitrage, elle semble systématiquement sous-évaluée par le marché. Ce phénomène s'explique essentiellement par le fait que le marché limite le gisement à deux ou trois obligations livrables et que lorsqu'une obligation sort du gisement, elle est presque toujours la moins chère à livrer
Notional bond futures volatility, which measures the sensibility of the contract to movements in financial market, is estimated from different types of options on long bond futures evaluation models. Whaley model (with classical hypothesis of Black and Scholes model, American option) gives the best result within the different models which were tested. The quality option gives the futures seller the choice of delivery bond at the expiry date. Obtained by arbitrage, it always seems to be under evaluated by the market. It can be explained by the fact that the market limits the official bond list with two or three deliverable bonds, and when a bond goes out of the official list, the next delivery month, it's almost the cheapest to deliver
Styles APA, Harvard, Vancouver, ISO, etc.
10

Champagne, Julie. « Traitement d'ordre en mémoire à court terme et estimation du temps : effet d'interférence spécifique au traitement d'ordre temporel ». Master's thesis, Université Laval, 2000. http://hdl.handle.net/20.500.11794/51881.

Texte intégral
Résumé :
Des recherches antérieures montrent que l’exécution d’un traitement d’ordre temporel en MCT interfère avec l’estimation du temps (Fortin & Champagne, 1998; Fortin & Massé, 1999). La présente expérience compare l’effet d’un traitement d’information d’ordre spatial en MCT sur la production d’un intervalle temporel, à celui d’un traitement d’ordre temporel. Les résultats montrent que les intervalles produits s’allongent significativement en fonction du nombre d’items dans la condition de jugement d’ordre temporel, alors que cet effet n’est pas observé dans la condition de jugement d’ordre spatial. La nature du traitement d’ordre semble déterminer la quantité d’interférence sur la tâche de production. Plus précisément, la composante temporelle, dans le traitement d’ordre, interférerait spécifiquement avec l’estimation du temps. L’examen des données individuelles suggère que l’élément critique dans l’effet d’interférence serait la nature séquentielle du traitement d’ordre.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ouattara, Aboudou. « La structure par terme du taux d'escompte psychologique : estimation et incidences sur les préférences face au risque et sociales ». Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090026/document.

Texte intégral
Résumé :
La théorie de l’utilité actualisée proposée par Samuelson (1937) est un des paradigmes dominants en économie et en gestion particulièrement en finance où elle sert de socle, entre autres, au Modèle Intertemporel d’Equilibre des Actifs (ICAPM) et à sa version incluant la consommation (ICCAPM). En dépit de cette place, sa validité pour expliquer les préférences temporelles des individus a été questionnée dans des travaux de recherche récents ouvrant la voie à des amendements et à la remise en cause de ce cadre d’analyse. Ces travaux ont introduit, entre autres, le concept de structure par terme du taux d’escompte psychologique. La littérature a proposé sept alternatives à la fonction d’escompte exponentielle contenue dans la version initiale de la théorie de l’utilité actualisée. Il s’agit des fonctions d’escompte de Hernstein, de Harvey, Proportionnelle, de Laibson, de Rachlin, Hyperbolique et Hyperbolique généralisée.Faisant suite à ces travaux, nous avons initié une recherche visant à apporter une réponse à la question relatives aux caractéristiques de la structure par terme du taux d’escompte psychologique d’un individu et les facteurs qui expliquent sa différence d’un individu à l’autre ; ses liens avec les autres dimensions des préférences (face au risque et sociales) individuelles sont explorés par la suite. Il s’est agi d’identifier parmi ces fonctions celles qui sont cohérentes avec les préférences individuelles observées, d’estimer les paramètres associés, d’étudier la cohérence des préférences temporelles d’un individu. Elle s’appuie sur les données issues d’une étude expérimentale basée sur dix huit arbitrages inter-temporels, quatre arbitrages de loteries, le jeu du dictateur, le jeu de l’ultimatum et le jeu de confiance.L’analyse des données a permis de confirmer les résultats précédents sur la violation de la constance du prix psychologique du temps, la cohérence par domaine des préférences temporelles, d’établir que la population étudiée est caractérisée par une hétérogénéité par rapport à la forme de la structure par terme du taux d’escompte psychologique. Les individus sont caractérisés par une fonction d’escompte psychologique de Hernstein, hyperbolique généralisée ou de Laibson. Nous avons trouvé que les caractéristiques démographiques, l’environnement social et l’orientation temporelle expliquent peu les différences de structure par terme de taux d’escompte psychologique. Les différences de niveaux d’application (dimension des traits de personnalités) sont les principaux déterminants de la différence de structure par terme de taux d’escompte psychologique caractéristiques des préférences temporelles. Nous avons enfin établi qu’il existe une faible relation entre les paramètres des préférences temporelles, face au risque et sociales.L’ensemble de ces analyses nous ont permis de dériver des conclusions par rapport aux hypothèses de recherche que nous avons formulées et d’interroger la validité de chacune d’elles dans la perspective de déduire les réponses à la problématique de notre recherche
The discounted utility theory proposed by Samuelson (1937) is one of the dominant paradigms in economics and management especially in finance where it serves as a basis of the Intertemporal Capital Asset Pricing Model (ICAPM) and its version including consumption (ICCAPM). Despite this place, its validity has a framework to explain individuals time preferences has been questioned in recents researches paving the way for amendments and questionings of this framework. Among others, these reseaches introduce the concept of term structure of psychological discount rate. Therefore, a part from exponential discount rate function, we find in the literature seven alternatives discount rate function : Hernstein, proportional, Laibson, Rachlin, Hyperbolic and generalized hyperbolic.Following this work, we initiated a research to provide an answer to the question on the characteristics and driving factors those explain its heterogeneity at an individual level. Thereafter, its relationship with other dimensions of individual preferences (risk and social interaction behavior) are explored. The purpose is to identify among them, the function that is consistent with the observed time preferences, to estimate the underlying parameters and to study the consistency of individual time preference. This research is based on the data collected by experimental study using eighteen time trade-offs, four lottery trade-offs, a dictator game, an ultimatum game and a trust game.Data analysis confirmed previous results on the violation of the time invariant of the psychological value of time hypothesis and established that the studied population is characterized by an heterogeneity with respect to the form of the term structure of psychological discount rate. Individuals are characterized by an Hernstein, Generalized hyperbolic or Laibson psychological discount rate. We found that demographic, social and temporal orientation have a weak link with the individual differences of the term structure of psychological discount rate. Application (a dimension of personality traits) is the most important driving factor of term structure of psychological discount rate forms heterogeneity. We finally established that there is a weak relationship between the parameters of time, risk and social preferences
Styles APA, Harvard, Vancouver, ISO, etc.
12

Rajaona, Harizo. « Inférence bayésienne adaptative pour la reconstruction de source en dispersion atmosphérique ». Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10120/document.

Texte intégral
Résumé :
En physique de l’atmosphère, la reconstruction d’une source polluante à partir des mesures de capteurs est une question importante. Elle permet en effet d’affiner les paramètres des modèles de dispersion servant à prévoir la propagation d’un panache de polluant, et donne aussi des informations aux primo-intervenants chargés d’assurer la sécurité des populations. Plusieurs méthodes existent pour estimer les paramètres de la source, mais leur application est coûteuse à cause de la complexité des modèles de dispersion. Toutefois, cette complexité est souvent nécessaire, surtout lorsqu’il s’agit de traiter des cas urbains où la présence d’obstacles et la météorologie instationnaire imposent un niveau de précision important. Il est aussi vital de tenir compte des différents facteurs d’incertitude, sur les observations et les estimations. Les travaux menés dans le cadre de cette thèse ont pour objectif de développer une méthodologie basée sur l’inférence bayésienne adaptative couplée aux méthodes de Monte Carlo pour résoudre le problème d’estimation du terme source. Pour cela, nous exposons d’abord le contexte scientifique du problème et établissons un état de l’art. Nous détaillons ensuite les formulations utilisées dans le cadre bayésien, plus particulièrement pour les algorithmes d’échantillonnage d’importance adaptatifs. Le troisième chapitre présente une application de l’algorithme AMIS dans un cadre expérimental, afin d’exposer la chaîne de calcul utilisée pour l’estimation de la source. Enfin, le quatrième chapitre se concentre sur une amélioration du traitement des calculs de dispersion, entraînant un gain important de temps de calcul à la fois en milieu rural et urbain
In atmospheric physics, reconstructing a pollution source is a challenging but important question : it provides better input parameters to dispersion models, and gives useful information to first-responder teams in case of an accidental toxic release.Various methods already exist, but using them requires an important amount of computational resources, especially as the accuracy of the dispersion model increases. A minimal degree of precision for these models remains necessary, particularly in urban scenarios where the presence of obstacles and the unstationary meteorology have to be taken into account. One has also to account for all factors of uncertainty, from the observations and for the estimation. The topic of this thesis is the construction of a source term estimation method based on adaptive Bayesian inference and Monte Carlo methods. First, we describe the context of the problem and the existing methods. Next, we go into more details on the Bayesian formulation, focusing on adaptive importance sampling methods, especially on the AMIS algorithm. The third chapter presents an application of the AMIS to an experimental case study, and illustrates the mechanisms behind the estimation process that provides the source parameters’ posterior density. Finally, the fourth chapter underlines an improvement of how the dispersion computations can be processed, thus allowing a considerable gain in computation time, and giving room for using a more complex dispersion model on both rural and urban use cases
Styles APA, Harvard, Vancouver, ISO, etc.
13

Lamlih, Achraf. « Conception d’un système intégré de mesure de bioimpédance pour le suivi long terme de la composition des tissus biologiques ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS070/document.

Texte intégral
Résumé :
Les techniques d'évaluation de la composition tissulaire permettent de mieux comprendre les processus physiologiques et leur impact global sur l'état biologique des sujets expérimentaux. Le travail présenté dans ce manuscrit vise à concevoir un système de mesure intégré de spectroscopie de bioimpédance capable de mesurer un large champ de biomarqueurs sur de longues périodes (jusqu'à un an). Le système de mesure présenté peut être utilisé pour des applications de suivi à long terme de variables physiologiques en général. Néanmoins, les solutions présentées visent en particulier le poisson dans le cadre du projet POPSTAR qui vise à améliorer notre compréhension du comportement des poissons en analysant non seulement l’environnement dans lequel les poissons se déplacent et vivent mais aussi les poissons eux-mêmes. Après avoir identifié les défis de conception d'un système de mesure intégré par spectroscopie de bioimpédance, nous avons proposé une nouvelle architecture hybride permettant une spectroscopie rapide tout en maximisant la précision des mesures. Les blocs de génération du signal d'excitation sont critiques car leurs performances affectent l'ensemble des performances de l'architecture. La deuxième partie de cette recherche porte donc sur la conception et l’optimisation de la partie génération de l’architecture. En effet, nous avons amélioré la qualité des signaux de génération de stimuli pour les excitations mono-fréquentielle et multi-fréquentielle tout en proposant pour cela des implémentations sur puce de basse complexité. Dans la dernière partie de notre travail, la source de courant analogique qui transforme les stimuli en un courant d'excitation est discuté. Pour ce bloc, nous avons proposé une nouvelle topologie analogique utilisant un version améliorée du cascode régulé et une compensation de rétroaction du mode commun indépendante des variations du processus. Le premier prototype de puce intégrée embarquant les blocs critiques de l'architecture de mesure de bioimpédance a été conçu et simulé avec un process CMOS 0.18 µm de AMS fonctionnant sous une tension d'alimentation de 1.8 V
Tissue composition assessment techniques are used to help better comprehend physiological processes and their overall impact on the biological state of the experiments subjects. The research presented in this manuscript aims to design a bioimpedance spectroscopy integrated measurement system capable of measuring a wide range of biomarkers over long periods of time (up to one year). The presented measurement system can be used for physiological variables long time monitoring applications in general. Nevertheless, the presented solutions target in particular fish species in the context of the POPSTAR project which aims to enhance our understanding of fish behavior by analyzing not only the environment in which fish travel and live but also the fish themselves. After identifying the design challenges of a bioimpedance spectroscopy integrated measurement system, we have proposed a novel hybrid architecture providing fast bioimpedance spectroscopy while maximizing the measurement precision. As the signal generation blocks are critical and their performances affect the whole architecture performances. The second part of this research focuses on the design and optimization of the signal generation part of the architecture. Indeed, we have enhanced the stimuli generation signals quality for single tone and multitone excitations while proposing for this blocks low complexity on-chip implementations. In the last part of our work the current driver that transforms the voltage stimuli into an excitation current is discussed. A novel analog topology using an improved regulated cascode and a common-mode feedback compensation independent of process variations is presented. The first chip prototype implementing the critical blocks of the bioimpedance integrated measurement architecture has been designed and simulated in a 0.18 µm AMS (Austria MicroSystems) CMOS process operating at 1.8 V power supply
Styles APA, Harvard, Vancouver, ISO, etc.
14

Ladino, lopez Andrés. « Traffic state estimation and prediction in freeways and urban networks ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT016/document.

Texte intégral
Résumé :
La centralisations du travail, la croissance économique et celle de la population autant que l’urbanisation continue sont les causes principales de la congestion. Lors que les villes s’efforcent pour mettre à jour leurs infrastructures du trafic, l’utilisation de nouvelles techniques pour la modélisation, l’analyse de ces systèmes ainsi que l’intégration des mega données aux algorithmes aident à mieux comprendre et combattre les congestions, un aspect crucial pour le bon développement de nos villes intelligentes du XXIe siècle. Les outilsd’assistance de trafic spécialement conçus pour détecter, prévoir et alerter des conditions particulières sont très demandés dans nos jours.Cette recherche est consacrée au développement des algorithmes pour l’estimation et la prédiction sur des réseaux de trafic routier. Tout d’abord, nous considérons le problème de prévision à court terme du temps de trajet dynamique basé sur des méthodes pilotées par les données. Nous proposons deux techniques de fusion pour calculer les prévisions à court terme. Dans un première temps, nous considérons la matrice de covariance d’erreur et nous utilisons ses informations pour fusionner les prévisions individuelles créées á partir de clusters. Dans un deuxième temps, nous exploitons les mesures de similarité parmi le signal á prédire et des clusters dans l’histoire et on propose une fusion en tant que moyenne pondérée des sorties des prédicteurs de chaque cluster. Les résultats des deux méthodes on été validés dans le Grenoble Traffic Lab, un outil en temps réel qui permet la récupération de données d’une autoroute d’environ (10.5Km) qui couvre le sud de Grenoble.Postérieurement nous considérons le problème de reconstruction de la densité / et le débit de façon simultanée à partir de sources d’information hétérogènes. Le réseau de trafic est modélisé dans le cadre de modèles de trafic macroscopique, où nous adoptons l’équation de conservation Lighthill-Whitham-Richards avec un diagramme fondamental linaire par morceaux. Le problème d’estimation repose sur deux principes clés. Dans un premier temps, nous considérons la minimisation des erreurs entre les débits et les densités mesurés et reconstruits. Finalement, nous considérons l’état d’équilibre du réseau qui établit la loi de propagation des flux entrants et sortants dans le réseau. Tous les principes sont intégrés et le problème est présenté comme une optimisation quadratique avec des contraintes d’égalité a fin de réduire l’espace de solution des variables à estimer. Des scénarios de simulation basés sur des données synthétiques pour un réseau de manhattan sont fournis avec l’objectif de valider les performances de l’algorithme proposé
Centralization of work, population and economic growth alongside continued urbanization are the main causes of congestion. As cities strive to update or expand aging infrastructure, the application of big data, new models and analytics to better understand and help to combat traffic congestion is crucial to the health and development of our smart cities of XXI century. Traffic support tools specifically designed to detect, forecast and alert these conditions are highly requested nowadays.This dissertation is dedicated to study techniques that may help to estimate and forecast conditions about a traffic network. First, we consider the problem Dynamic Travel Time (DTT) short-term forecast based on data driven methods. We propose two fusion techniques to compute short-term forecasts from clustered time series. The first technique considers the error covariance matrix and uses its information to fuse individual forecasts based on best linear unbiased estimation principles. The second technique exploits similarity measurements between the signal to be predicted and clusters detected in historical data and it performs afusion as a weighted average of individual forecasts. Tests over real data were implemented in the study case of the Grenoble South Ring, it comprises a highway of 10.5Km monitored through the Grenoble Traffic Lab (GTL) a real time application was implemented and open to the public.Based on the previous study we consider then the problem of simultaneous density/flow reconstruction in urban networks based on heterogeneous sources of information. The traffic network is modeled within the framework of macroscopic traffic models, where we adopt Lighthill-Whitham-Richards (LWR) conservation equation and a piecewise linear fundamental diagram. The estimation problem considers two key principles. First, the error minimization between the measured and reconstructed flows and densities, and second the equilibrium state of the network which establishes flow propagation within the network. Both principles are integrated together with the traffic model constraints established by the supply/demand paradigm. Finally the problem is casted as a constrained quadratic optimization with equality constraints in order to shrink the feasible region of estimated variables. Some simulation scenarios based on synthetic data for a manhattan grid network are provided in order to validate the performance of the proposed algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
15

Chen, Xu. « New formulation of optical flow for turbulence estimation ». Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0025/document.

Texte intégral
Résumé :
Le flot optique est un outil, prometteur et puissant, pour estimer le mouvement des objets de différentes natures, solides ou fluides. Il permet d’extraire les champs de vitesse à partir d’une séquence d’images. Dans cette étude, nous développons la méthode du flot optique pour récupérer, d’une manière précise, le champ de vitesse des mouvements turbulents incompressibles. L’estimation de turbulence consiste à minimiser une fonction d’énergie composée par un terme d’observation et un terme de régularisation. L’équation de transport d’un scalaire passif est alors employée pour représenter le terme d’observation. Cependant, dans le cas où le nombre de Reynolds est grand, et, à cause des contraintes optiques, l’image n’est pas pleinement résolue pour prendre en compte la physique de toutes les échelles de la turbulence. Pour compléter les informations manquantes liées aux physiques des petites échelles, nous adoptons une démarche similaire à celle de Large Eddy Simulation (LES), et, proposons d’utiliser le modèle mixte afin de tenir compte de l’interaction entre les grandes échelles et celles non-résolues. Quant au terme de régularisation, il se repose sur l’équation de continuité des fluides incompressibles. Les tests à l’aide des images synthétiques et expérimentales de la turbulence bi-dimensionnelle - des données des cas test de la communauté du flot optique -, ont non seulement validé notre démarche, mais montrent une amélioration significative des qualités des champs de vitesses extraites. Le cas du flot optique, en 3D, relève encore du défi dans le cas de l’estimation des champs de vitesse de la turbulence. D’une part, contrairement au 2D où il existe des cas tests bien établis, il n’existe pas, à notre connaissance, des séquences d’images 3D référentielles permettant de tester notre démarche et méthode. D’autre part, l’augmentation du coût d’estimation demande des algorithme adaptés. Ainsi, nous sommes amené à utiliser la simulation numérique directe d’écoulement turbulent en présence d’un scalaire passif, pour générer des données de scalaires afin d’évaluer la performance du flot optique. Nous prêtons également attention à l’effet du nombre de Schmidt qui caractérise la relation entre la diffusion moléculaire scalaire et la dissipation de turbulence. Les tests sont ensuite effectués avec cette base de données numériques. Les résultats montrent que la précision de l’estimation augmente avec des nombres de Schmidt plus élevés. Par ailleurs, l’influence du terme de régularisation est aussi étudié au travers deux équations qui se différencient par l’ordre spatial des dérivées partielles. Les résultats numériques montrent que l’équation avec un terme de régularisation de seconde-ordre est meilleure que celle de premier-ordre
The method of optical flow is a powerful tool for motion estimation. It is able to extract the dense velocity field from image sequence. In this study, we employ this method to retrieve precisely the incompressible turbulent motions. For 2D turbulence estimation, it consists in minimizing an objective function constituted by an observation term and a regularization one. The observation term is based on the transport equation of a passive scalar field. For non-fully resolved scalar images, we propose to use the mixed model in large eddy simulation (LES) to determine the interaction between large-scale motions and the unresolved ones. The regularization term is based on the continuity equation of 2D incompressible flows. Evaluation of the proposed formulation is done over synthetic and experimental images. In addition, we extend optical flow to three dimensional and multiple scalar databases are generated with direct numerical simulation (DNS) in order to evaluate the performance of optical flow in the 3D context. We propose two formulations differing by the order of the regularizer. Numerical results show that the formulation with second-order regularizer outperforms its first-order counterpart. We also draw special attention to the effect of Schmidt number, which characterizes the ratio between the molecular diffusion of the scalar and the dissipation of the turbulence. Results show that the precision of the estimation increases as the Schmidt number increases. Overall, optical flow has showcased its capability of reconstructing the turbulent flow with excellent accuracy. This method has all the potential and attributes to become an effective flow measurement approach in fluid mechanics community
Styles APA, Harvard, Vancouver, ISO, etc.
16

Conze, Pierre-Henri. « Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement ». Phd thesis, INSA de Rennes, 2014. http://tel.archives-ouvertes.fr/tel-00992940.

Texte intégral
Résumé :
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Brunel, Julien. « Prévoir la demande de transport de marchandises à long terme : estimation économétrique du couplage transport/économie, le cas des traversées alpines ». Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/brunel_j.

Texte intégral
Résumé :
Le présent travail tente de prévoir la demande de transport de marchandises à travers les Alpes à long terme. La première partie de ce travail rappelle les fondements des fonctions de demande de transport de marchandises à long terme. Elle insiste sur le rôle de l'activité économique comme principal déterminant de la demande de transport de marchandises à long terme en introduisant le concept de couplage appliqué au transport de marchandises. La seconde partie de ce travail estime la relation entre la demande de transport de marchandises à travers les Alpes et l'activité industrielle ou économique italienne. Deux spécifications économétriques sont alternativement utilisées. Le chapitre trois estime un modèle linéaire en taux de croissance prolongeant la modélisation quin-quin fret (Gabella-Latreille, 1997). Le chapitre quatre utilise un modèle à correction d'erreur en suivant la méthode d'Engle et Granger (1987) en raison de la co-intégration des séries temporelles étudiées. Il ressort de ce travail que les résultats des deux estimations économétriques proposées sont globalement cohérents. Dans la troisième partie, les résultats de ces estimations sont combinés en suivant une idée proposée par Bates et Granger (1969) pour prévoir la demande de transport de marchandises à travers les Alpes. La sensibilité de la demande de transport à travers les Alpes estimée par le présent travail est inférieure à la sensibilité estimée par de précédents modèles de prévision de la demande de transport à travers les Alpes. Les précédents modèles de prévision utilisent des techniques économétriques standards pour estimer une relation log-linéaire. Ces modèles ont de fortes chances d'être des régressions fallacieuses (Granger et Newbold, 1974). Ce travail montre par exemple que l'utilisation du modèle log-linéraire plutôt que celle de modèles économétriques plus sophistiqués pour estimer la relation entre la demande de transport transalpin et l'activité industrielle conduit à surestimer la demande de transport de marchandises d'environ vingt pour-cent
The current research aims to produce long-term forecasts of freight transport demand across the Alps. A first part introduces the literature related to forecast freight transport demand in the long-term. It highlights the role of economic activity as a main determinant of freight transport demand. Then, this issue is discussed using the concept of coupling for freight transport. The second part estimates the relationship between freight transport demand across the Alps and Italian industrial activity. We apply two alternative econometric specifications, a model in rate of growth following quin-quin fret models (Gabella-Latreille, 1997) and an error-correction model following Engel and Granger (1987) procedure in reason of the co-integrated nature of time-series. It shows that the model in rate of growth and the error-correction model results are globally coherent. In a third part, these estimates are combined following an idea purposed by Bates and Granger (1969) in order to produce long-term forecasts of freight transport demand across the Alps. It suggests that these estimates differ from those obtained by previous models. One can observe that previous models generally estimate log-linear models using standard econometric tools in spite of a high risk of being spurious regressions (Granger and Newbold, 1974). More precisely, this research assumes that the estimation of standard models, rather than more advanced techniques, is likely to produce an over-estimation of traffic forecasts of twenty percent
Styles APA, Harvard, Vancouver, ISO, etc.
18

Brunel, Julien Bonnafous Alain. « Prévoir la demande de transport de marchandises à long terme estimation économétrique du couplage transport/économie, le cas des traversées alpines / ». Lyon : Université Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/brunel_j.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
19

Laharotte, Pierre-Antoine. « Contributions à la prévision court-terme, multi-échelle et multi-variée, par apprentissage statistique du trafic routier ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET013/document.

Texte intégral
Résumé :
La maturité de la télématique et des technologies de l’information et la communication (TIC), ainsi que l’avènement du big data dans le transport ont conduit à des développements foisonnants dans le domaine des systèmes de transports intelligents (ITS), aussi bien sur le plan des technologies de recueil que du traitement innovant de l’information. Il est désormais possible de connaître les conditions de circulation et les états de trafic sur la plupart des sections d’un réseau routier sans avoir recours à des infrastructures intrusives de collecte de données, de transmettre l’information résultante via des réseaux sans fil et de traiter rapidement toutes ces données multi-sources disponibles. La constitution de grandes bases de données a naturellement fait évoluer la pratique de gestion du trafic et plus particulièrement les méthodes de prévision. Ces méthodes ont connu un renouveau en s’inspirant des travaux produits en apprentissage statistique. Néanmoins, la façon d’appréhender le problème de la prévision est restée à une échelle locale. Pour chaque section de route, un modèle de prévision est adapté et optimisé. Notre travail de thèse présente un cadre de prévision du trafic routier qui aborde la question à l’échelle du réseau. L’étude menée au sein de ces travaux de thèse vise à exposer et évaluer cette nouvelle approche, dite globale, au regard d’approches usuelles, puis à analyser sa sensibilité vis-à-vis de divers facteurs. Après un positionnement par rapport à l’état de l’art en théorie du trafic, le cadre prédictif fondé sur des méthodes de prévision multi-variées par apprentissage est détaillé. Une version multidimensionnelle des k plus proches voisins, modèle parcimonieux et simple, est évaluée sur divers cas d’études. L’originalité réside dans l’exploitation de données issues de méthodes innovantes de collecte (e.g. Bluetooth, véhicules traceurs, véhicules connectés). Par la suite, les performances de l’approche initiale sont comparées à d’autres méthodes d’apprentissage. Un effort particulier est porté sur l’adaptation de méthodes à noyaux au cadre prédictif global. Les performances obtenues laissent entrevoir une typologie des méthodes en fonction des caractéristiques spatiotemporelles du réseau. Afin d’améliorer les performances en prévision et de réduire les temps de calcul, une méthode d’identification et de sélection des sections critiques du réseau est proposée. Les résultats prouvent qu’un sous-ensemble restreint de sections est en effet suffisant pour garantir des performances satisfaisantes en généralisation. Enfin, la résilience du cadre prédictif est évaluée au regard des événements non récurrents affectant le fonctionnement nominal du réseau, comme des incidents ou des conditions météorologiques dégradées. Les résultats soulignent l’impact de ces conditions non récurrentes sur la prévision temps-réel de la dynamique court-terme d’un réseau et permettent de dresser une feuille de route pour l’élaboration d’un cadre prédictif résilient et opérationnel. Cette nouvelle vision de la prévision s’inscrit dans les perspectives actuelles en termes d’applications sur les modules embarqués et les objectifs des gestionnaires d’infrastructures
The maturity of information and communication technologies and the advent of Big Data have led to substantial developments in intelligent transportation systems (ITS) : from data collection to innovative processing solutions. Knowledge of current traffic states is available over most of the network range without the use of intrusive infrastructure-side collection devices, instead relying on wireless transmission of multi-source data. The increasing use of huge databases had a strong influence on traffic management, including forecasting methods. These approaches followed the recent trend towards innovative works on statistical learning. However, the prediction problem remains mainly focused on the local scale. The prediction for each road link relies on a dedicated, optimized and adapted prediction model. Our work introduces a traffic-forecasting framework able to tackle network scale problems. The study conducted in this thesis aims to present and evaluate this new “global” approach, in comparison to most-used existing works, and then to analyze its sensitivity to several factors. The traffic-forecasting framework, based on multi-variate learning methods, is detailed after a review of the literature on traffic flow theory. A multi-dimensional version of the k nearest-neighbors, a simple and sparse model, is evaluated through several use cases. The originality of the work stands on the processing approach, applied to data collected through new measurement process (e.g. Bluetooth, floating car data, connected vehicles). Then, the performance of our primary approach is compared to other learning-based methods. We propose an adaptation of kernel-based methods for the global prediction framework. The obtained results show that global approaches perform as well as usual approaches. The spatial and temporal specificities of the methods are highlighted according to the prediction accuracy. To improve the forecasting accuracy and reduce the computation time, we propose an identification and selection method targeting critical links. The results demonstrate that the use of a restricted subset of links is sufficient to ensure acceptable performances during validation tests. Finally, the prediction framework resilience is evaluated with respect to non-recurrent events as incidents or adverse weather conditions affecting the nominal network operations. The results highlight the impact of these non-recurrent conditions on real-time forecasting of short-term network dynamics. This enables the design of a further operational and resilient prediction framework. This perspective of forecasting matches the current applications relying on embedded systems and addressing the traffic network supervisor’s expectations
Styles APA, Harvard, Vancouver, ISO, etc.
20

Chautru, Emilie. « Statistiques multivariées pour l'analyse du risque alimentaire ». Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0045/document.

Texte intégral
Résumé :
Véritable carrefour de problématiques économiques, biologiques, sociologiques, culturelles et sanitaires, l’alimentation suscite de nombreuses polémiques. Dans un contexte où les échanges mondiaux facilitent le transport de denrées alimentaires produites dans des conditions environnementales diverses, où la consommation de masse encourage les stratégies visant à réduire les coûts et maximiser le volume de production (OGM, pesticides, etc.) il devient nécessaire de quantifier les risques sanitaires que de tels procédés engendrent. Notre intérêt se place ici sur l’étude de l’exposition chronique, de l’ordre de l’année, à un ensemble de contaminants dont la nocivité à long terme est d’ores et déjà établie. Les dangers et bénéfices de l’alimentation ne se restreignant pas à l’ingestion ou non de substances toxiques, nous ajoutons à nos objectifs l’étude de certains apports nutritionnels. Nos travaux se centrent ainsi autour de trois axes principaux. Dans un premier temps, nous nous intéressons à l'analyse statistique des très fortes expositions chroniques à une ou plusieurs substances chimiques, en nous basant principalement sur des résultats issus de la théorie des valeurs extrêmes. Nous adaptons ensuite des méthodes d'apprentissage statistique de type ensembles de volume minimum pour l'identification de paniers de consommation réalisant un compromis entre risque toxicologique et bénéfice nutritionnel. Enfin, nous étudions les propriétés asymptotiques d'un certain nombre d'estimateurs permettant d'évaluer les caractéristiques de l'exposition, qui prennent en compte le plan de sondage utilisé pour collecter les données
At a crossroads of economical, sociological, cultural and sanitary issues, dietary analysis is of major importance for public health institutes. When international trade facilitates the transportation of foodstuffs produced in very different environmental conditions, when conspicuous consumption encourages profitable strategies (GMO, pesticides, etc.), it is necessary to quantify the sanitary risks engendered by such economic behaviors. We are interested in the evaluation of chronic types of exposure (at a yearly scale) to food contaminants, the long-term toxicity of which is already well documented. Because dietary risk and benefit is not limited to the abuse or the avoidance of toxic substances, nutritional intakes are also considered. Our work is thus organized along three main lines of research. We first consider the statistical analysis of very high long-term types of exposure to one or more chemical elements present in the food, adopting approaches in keeping with extreme value theory. Then, we adapt classical techniques borrowed from the statistical learning field concerning minimum volume set estimation in order to identify dietary habits that realize a compromise between toxicological risk and nutritional benefit. Finally, we study the asymptotic properties of a number of statistics that can assess the characteristics of the distribution of individual exposure, which take into account the possible survey scheme from which the data originate
Styles APA, Harvard, Vancouver, ISO, etc.
21

Boukrami, Othmane. « Les effets de la diversification sur le risque de change non couvert par les marchés financiers : estimation de la rentabilité du portefeuille dans un système d'informatio optimal ». Thesis, Lyon 3, 2011. http://www.theses.fr/2011LYO30024.

Texte intégral
Résumé :
Dans les conditions actuelles du marché, les entreprises dans les pays émergeants ont le choix entre une dette à court terme en monnaie locale et un financement à long terme en devise forte provenant de sources internationales pour financer leurs investissements à long terme. Ceci crée un gap de taux ou de change. Cette thèse se situe dans la continuité des travaux de recherche qui ont déjà étudié la question de la diversification des risques de change dans les marchés financiers matures. A la différence des approches existantes, cette recherche se concentre sur les monnaies des pays émergeants pour lesquels il n’existe pas ou peu d’instruments de couverture du risque de change et de taux. Le modèle proposé repose sur une conception fondamentalement différente des modèles de risque existants, cherchant à atténuer les risques internes grâce à la diversification du portefeuille, plutôt que par l’adéquation entre l'offre et la demande. Ceci en étudiant à la fois les corrélations entre les monnaies des pays des marchés émergeants constituées dans un portefeuille composé de monnaies des pays africains, asiatiques, sud-américains et d’Europe de l’Est ainsi que l’effet de la diversification sur la réduction du risque de marché. Le choix des monnaies n’a pas une incidence significative sur les résultats du moment que les limites régionales proposées sont respectées. L’objectif principal de cette thèse est de contribuer à la spécification et à l’identification d’un modèle de diversification des risques tout en démontrant que la constitution d’un portefeuille diversifié et non couvert des produits dérivés de change sur les monnaies des marchés émergents est une activité lucrative à long terme. En s’appuyant sur un Système d’Information performant, le model proposé tente de démontrer l’effet qu’auraient de tels produits de couverture sur la réduction du risque de crédit de l’emprunteur et par conséquent celui des bailleurs de fonds. Afin d’atteindre cet objectif, les différents risques liés à ces activités ont été définis tout en choisissant les méthodes pour une gestion efficace de ces risques ainsi que la modélisation d’expositions hypothétiques créées par cette activité. L’impact de la réduction de l’exposition au risque de marché par l’usage des produits de couverture du risque de change et de taux, sur le risque de crédit des entreprises dans les pays émergeants a aussi été modélisé. Les résultats de la simulation proposée montrent qu’une gestion optimale des risques de changes et de taux générés, à travers l’offre de couvertures sur les monnaies des pays émergeants, peut être une activité lucrative pour les banques car l’atténuation des risques peut se faire en diversifiant efficacement le portefeuille
In current market conditions, companies in emerging markets have the choice between a short-term debt in local currency and a long-term hard currency financing from international sources to finance their long-term investments. This practice would create either an interest rate gap or a currency gap. As an extent of previous researches and studies covering the question of currency risks diversification in mature financial markets, this thesis is quite distinctive from the existing literature as it focuses on emerging market currencies for which there are little or no hedging options of currency and interest rate risks. The proposed model is based on a fundamentally different approach from existing risk models, seeking to mitigate risks internally through portfolio diversification, rather than by matching supply and demand. This, by analyzing both correlations between emerging market currencies in a portfolio composed of African, Asian, South American and Eastern Europe currencies and the effect of diversification on market risk reduction. The main objective of this thesis is to contribute to the specification and the identification of a risk diversification model while demonstrating that the establishment of a diversified portfolio of emerging market currencies not covered by the commercial banks is a lucrative business over the long-term. With an efficient information system, the proposed model attempts to demonstrate the effect that such hedging products would have on reducing the credit risk of borrowers and hence the lenders. To achieve this aim, the different risks associated with these activities have been identified while choosing the methods for their effective management as well as the modeling of hypothetical exposures created by this activity. The impact of reducing market risk exposure through the usage of interest rate and currency hedging products on the credit risk rating of companies in emerging countries has also been modeled. The current research claims that the choice of currencies does not significantly impact the results as long as the proposed regional limits are respected. The simulation’ results show that managing a diversified currency portfolio under an optimal risk management guidelines can be a lucrative business for banks as the risk mitigation can be effectively done through portfolio diversification
Styles APA, Harvard, Vancouver, ISO, etc.
22

Nguyen, Thanh Don. « Impact de la résolution et de la précision de la topographie sur la modélisation de la dynamique d’invasion d’une crue en plaine inondable ». Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0093/document.

Texte intégral
Résumé :
Nous analysons dans cette thèse différents aspects associés à la modélisation des écoulements à surface libre en eaux peu profondes (Shallow Water). Nous étudions tout d’abord le système d’équations de Saint-Venant à deux dimensions et leur résolution par la méthode numérique des volumes finis, en portant une attention particulière sur les aspects hyperboliques et conservatifs. Ces schémas permettent de traiter les équilibres stationnaires, les interfaces sec/mouillé et aussi de modéliser des écoulements subcritique, transcritique et supercritique. Nous présentons ensuite la théorie de la méthode d’assimilation variationnelle de données adaptée à ce type d’écoulement. Son application au travers des études de sensibilité est longuement discutée dans le cadre de l'hydraulique à surface libre. Après cette partie à caractère théorique, la partie tests commence par une qualification de l’ensemble des méthodes numériques qui sont implémentées dans le code DassFlow, développé à l’Université de Toulouse, principalement à l’IMT mais aussi à l’IMFT. Ce code résout les équations Shallow Water par une méthode de volumes finis et est validé par comparaison avec les solutions analytiques pour des cas tests classiques. Ces mêmes résultats sont comparés avec un autre code d’hydraulique à surface libre aux éléments finis en deux dimensions, Telemac 2D. Une particularité notable du code DassFlow est de permettre l’assimilation variationnelle de données grâce au code adjoint permettant le calcul du gradient de la fonction coût. Ce code adjoint a été obtenu en utilisant l'outil de différentiation automatique Tapenade (Inria). Nous testons ensuite sur un cas réel, hydrauliquement complexe, différentes qualités de Modèles Numériques de Terrain (MNT) et de bathymétrie du lit d’une rivière. Ces informations proviennent soit d’une base de données classique type IGN, soit d’informations LIDAR à très haute résolution. La comparaison des influences respectives de la bathymétrie, du maillage et du type de code utilisé, sur la dynamique d’inondation est menée très finement. Enfin nous réalisons des études cartographiques de sensibilité aux paramètres du modèle sur DassFlow. Ces cartes montrent l’influence respective des différents paramètres ou de la localisation des points de mesure virtuels. Cette localisation optimale de ces points est nécessaire pour une future assimilation de données efficiente
We analyze in this thesis various aspects associated with the modeling of free surface flows in shallow water approximation. We first study the system of Saint-Venant equations in two dimensions and its resolution with the numerical finite volumes method, focusing in particular on aspects hyperbolic and conservative. These schemes can process stationary equilibria, wetdry interfaces and model subcritical, transcritical and supercritical flows. After, we present the variational data assimilation method theory fitted to this kind of flow. Its application through sensitivity studies is fully discussed in the context of free surface water. After this theoretical part, we test the qualification of numerical methods implemented in the code Dassflow, developed at the University of Toulouse, mainly at l'IMT, but also at IMFT. This code solves the Shallow Water equations by finite volume method and is validated by comparison with analytical solutions for standard test cases. These results are compared with another hydraulic free surface flow code using finite elements in two dimensions: Telemac2D. A significant feature of the Dassflow code is to allow variational data assimilation using the adjoint method for calculating the cost function gradient. The adjoint code was obtained using the automatic differentiation tool Tapenade (INRIA). Then, the test is carried on a real hydraulically complex case using different qualities of Digital Elevation Models (DEM) and bathymetry of the river bed. This information are provided by either a conventional database types IGN or a very high resolution LIDAR information. The comparison of the respective influences of bathymetry, mesh size, kind of code used on the dynamics of flooding is very finely explored. Finally we perform sensitivity mapping studies on parameters of the Dassflow model. These maps show the respective influence of different parameters and of the location of virtual measurement points. This optimal location of these points is necessary for an efficient data assimilation in the future
Styles APA, Harvard, Vancouver, ISO, etc.
23

Chaumont, Marc. « Représentation en objets vidéo pour un codage progressif et concurrentiel des séquences d'images ». Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004146.

Texte intégral
Résumé :
L'objectif de cette thèse est de valider l'hypothèse selon laquelle le codage par objets vidéo peut permettre d'obtenir des gains significatifs en utilisant le codage dynamique (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne l'étude de la segmentation en objet vidéo de manière automatique. Nous avons proposé un modèle d'objet faisant intervenir la notion de suivi long terme via la représentation d'un objet sous la forme mouvement/texture (avec l'utilisation d'un maillage actif pour représenter le mouvement). Un algorithme de clustering 3D a été développé basé sur ce modèle. Dans un deuxième temps, nous nous sommes attaché à l'amélioration des techniques de codage objet via la hiérarchisation ("scalabilité") du flux vidéo. Pour cela, nous utilisons un schéma de codage ondelette 3D et nous introduisons notamment un codage de contours avec perte. Enfin le dernier point étudié concerne le codage dynamique d'objets vidéo (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Les codeurs utilisés sont : le codeur H264/AVC, un codeur ondelette 3D, un codeur 3D et un codeur par mosaïque. La répartition automatique des débits permet d'obtenir des résultats dépassant ceux produits par chaque codeur pris séparément, tout en offrant le découpage du flux en objets vidéo. Mots clés : Segmentation en objets vidéo, segmentation long terme, modèle d'objet vidéo, fonctionelle d'énergie, clustering, maillage actif, mosaïque, codage vidéo, codage d'objet vidéo, décorrélation mouvement texture forme, hiérarchisation : scalabilté, ondelettes spatiotemporelles, ondelette 3D, codage de contour, codage de forme, prolongement : padding, codage dynamique, codage concurrentiel, optimisation débit-distorsion, répartition des débits, antialiasing.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Gardes, Thomas. « Reconstruction temporelle des contaminations métalliques et organiques particulaires dans le bassin versant de l'Eure et devenir des sédiments suite à l'arasement d'un barrage. Reconstruction of anthropogenic activities in legacy sediments from the Eure River, a major tributary of the Seine Estuary (France) Flux estimation, temporal trends and source determination of trace metal contamination in a major tributary of the Seine estuary, France Temporal trends, sources, and relationships between sediment characteristics and polycyclic aromatic hydrocarbons (PAHs) and polychlorinated biphenyls (PCBs) in sediment cores from the major Seine estuary tributary, France Impacts à court-terme de l’arasement d’un barrage sur la morphologie du cours d’eau et la remobilisation de sédiments contaminés par les métaux traces Bioaccessibility of polycyclic aromatic compounds (PAHs, PCBs) and trace elements : Influencing factors and determination in a river sediment core ». Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR038.

Texte intégral
Résumé :
L’impact anthropique sur les cours d’eau a significativement augmenté suite à la révolution industrielle engagée par les pays occidentaux. Ainsi, les modifications de la géomorphologie des cours d’eau pour le stockage de l’eau et la navigation, la conversion des surfaces à des fins agricoles, industrielles et d’urbanisation illustrent cette pression environnementale, qui se traduit, en autre, par une augmentation de rejets de divers contaminants dans les compartiments environnementaux et notamment les rivières. Une part de ces rejets peut donc se retrouver dans les matières en suspension, considérées alors comme des puits de stockage, qui transitent dans les rivières. Les aménagements des rivières et notamment la construction de barrages favorisent alors la sédimentation de ces particules contaminées au cours du temps. Ces sédiments d’origines anthropiques, également appelés legacy sediments, sont donc les témoins des activités anthropiques et permettent de reconstruire les trajectoires temporelles des contaminations au sein des bassins versants. L’Eure, affluent majeur de l’estuaire de Seine, a connu d’importantes pressions anthropiques depuis le vingtième siècle. La reconstruction temporelle des pressions anthropiques a nécessité l’association de différentes approches méthodologiques : (i) une analyse diachronique des modifications morphologiques de la rivière a été menée, conjointement à (ii) une analyse de la dynamique sédimentaire et de la nature des dépôts sédimentaires par couplage de méthodes géophysiques, sédimentologiques et géochimiques, et à (iii) la mise en place d’un réseau de suivi du comportement hydro-sédimentaire avec un échantillonnage en continu des matières en suspensions. De profondes modifications géomorphologiques se sont produites en aval du bassin versant, avec pour principales conséquences un exutoire déplacé d’une dizaine de kilomètres en direction d’un barrage et la formation d’annexes hydrauliques favorisant l’accumulation de sédiments dès les années 1940. Ceux-ci ont permis de montrer que le bassin versant de l’Eure avait connu d’importantes contaminations dont les conséquences sont encore enregistrées malgré l’arrêt des activités ou usages. Les tendances temporelles des éléments traces métalliques et métalloïdes ont montré de fortes contaminations en As dans les années 1940 et des contaminations d’origines industrielles en Cr, Co, Ni, Cu, Zn, Ag et Cd durant les années 1960–1970, ainsi que des contaminations en Sb et Pb en 1990–2000. Ces dernières sont toujours enregistrées malgré l’arrêt des activités responsables des rejets, comme l’ont attesté les résultats issus des matières en suspension actuellement collectées dans le cours d’eau. A l’instar d’une majorité des métaux traces, les contaminants organiques, tels les HAPs, ont montré d’importantes contaminations durant les années 1940–1960, dont les signatures indiquent une origine majoritairement pyrogénique. Les PCBs ont montré des contaminations importantes lors de la période 1950–1970, en lien avec la production et les usages nationaux de mélanges composés en majorité de congénères faiblement chlorés. Enfin, l’intérêt porté à une troisième famille de contaminants organiques persistants, les pesticides organochlorés, a montré l’utilisation de lindane et du DDT notamment lors de la période 1940–1970, et a mis en avant d’une part une utilisation post-interdiction du lindane et d’autre part la présence d’un métabolite du DDT plusieurs décennies après l’arrêt d’utilisation de ce dernier, en lien avec l’augmentation de l’érosion des sols cultivés
The anthropogenic impact on rivers has significantly increased following the industrial revolutioninitiated by Western countries. Thus, changes in the geomorphology of rivers for water storage andnavigation, the conversion of land for agricultural, industrial and urbanization purposes illustrate thisenvironmental pressure, which results, among other things, in an increase in discharges of variouscontaminants into environmental compartments, particularly rivers. Therefore, part of these dischargescan end up in suspended particulate matter, which is then considered as storage wells, which transit inrivers. River development, particularly the construction of dams, encourages the sedimentation of these contaminated particles over time. These sediments of anthropogenic origin, also called legacy sediments, are therefore witnesses to human activities and make it possible to reconstruct the temporal trajectories of contamination within watersheds. The Eure River, a major tributary of the Seine estuary, has experienced significant anthropogenic pressures since the twentieth century. The temporal reconstruction of anthropogenic pressures has required the combination of different methodological approaches: (i) a diachronic analysis of the morphological modifications of the river was carried out, in conjunction with (ii) an analysis of the sedimentary dynamics and the nature of the sediment deposits by coupling geophysical, sedimentological and geochemical methods, and (iii) the setting up of a network for monitoring the hydro-sedimentary behaviour with continuous sampling of suspended particulate matter. Significant geomorphological changes have occurred in the lower reaches of the watershed, with the main consequences being an outlet moved some ten kilometres in the direction of a dam and the formation of hydraulic annexes favouring the accumulation of sediments as early as the 1940s. These made it possible to show that the Eure River watershed had experienced significant contamination, the consequences of which are still being recorded despite the cessation of activities or uses. The temporal trends of trace metal and metalloid elements showed strong contaminations in As in the 1940s and contaminations of industrial origin in Cr, Co, Ni, Cu, Zn, Ag and Cd in the 1960s and 1970s, as well as contaminations in Sb and Pb in 1990–2000. The latter are still recorded despite the cessation of the activities responsible for the discharges, as evidenced by the results from the suspended particulate matter currently collected in the river. Like most trace metals, organic contaminants such as PAHs showed significant contamination during the 1940–1960s, with signatures indicating a predominantly pyrogenic origin. PCBs showed significant contamination during the period 1950–1970, in connection with the production and national uses of mixtures composed mainly of low chlorinated congeners. Finally, interest in a third family of persistent organic contaminants, organochlorine pesticides, showed the use of lindane and DDT, particularly during the 1940–1970 period, and highlighted the post-ban use of lindane and the presence of a metabolite of DDT several decades after the cessation of its use, in connection with the increase in erosion of cultivated soils
Styles APA, Harvard, Vancouver, ISO, etc.
25

Roy-Brunelle, Raphaël. « Estimation de la mortalité attendue à long terme des maladies chroniques : une comparaison de différentes méthodes d’analyse ». Thesis, 2021. http://hdl.handle.net/1866/25671.

Texte intégral
Résumé :
Il est rarement possible de connaitre avec précision la mortalité à long terme associée à une condition médicale. Cependant, l’estimation de cette mortalité est primordiale dans certains domaines tels l’assurance-vie et l’expertise médicale. La méthode du Relative Risk (RR) constant, qui est la plus utilisée, comporte plusieurs failles, permettant seulement de faire des estimations grossières et conservatrices de cette mortalité. Nous avons donc comparé deux autres méthodes d’estimation de la mortalité, soit Excess Death Rate (EDR) constant et Proportional Life Expectancy (PLE). Nous avons analysé la mortalité à long terme de plusieurs maladies chroniques, entre autres le cancer et les maladies cardiovasculaires, et avons comparé ces résultats avec ceux que nous donnaient les différentes méthodes d’estimation. Nous avons ainsi pu déterminer la meilleure méthode. Nos résultats indiquent que les méthodes EDR constant et PLE sont supérieures au RR constant dans l’estimation de la mortalité. Aussi, plus l’estimation de la survie se fait à long terme, plus l’EDR constant et la PLE donnent de meilleurs résultats. Finalement, l’âge ou le type de conditions médicales analysées ne semblent pas avoir un impact déterminant lorsque l’on choisit d’utiliser l’une des trois méthodes. Les méthodes de l’EDR constant et la PLE devraient être préconisées dans l’analyse de la mortalité lors de la sélection des risques en médecine d’assurance ou lors d’évaluation de l’espérance de vie pour une expertise médicale.
Long term mortality associated to medical conditions is rarely known with accuracy. Despite this, mortality assessment is essential in certain field of activity, such as life insurance and medical expertise. Constant Relative Risk (RR) methodology is the most used method although often leading to superficial and conservative estimations. We then decided to compare two mortality estimation methods, the constant Excess Death Rate (EDR) and the Proportional Life Expectancy (PLE). We analyzed long term mortality of several chronic medical conditions, such as cancers and coronary artery diseases, and we compared those results with those from the three distinct estimation methods. Thus, we were able to determine which methodology is the most accurate. Our results show that constant EDR and PLE are superior to constant RR to better estimate the mortality. The longer the follow-up is, the better those methods are. Finally, factors like age and the kind of the medical condition seem not to have an important impact when it comes to identify the most suitable method. Constant EDR and PLE should be recommended for mortality assessment in medical insurance underwriting and for life expectancy evaluation in medical expertise.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie