Dissertations / Theses on the topic 'Générateur de temps stochastique'

To see the other types of publications on this topic, follow the link: Générateur de temps stochastique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Générateur de temps stochastique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bourotte, Marc. "Générateur stochastique de temps multisite basé sur un champ gaussien multivarié." Thesis, Avignon, 2016. http://www.theses.fr/2016AVIG0415/document.

Full text
Abstract:
Les générateurs stochastiques de temps sont des modèles numériques capables de générer des séquences de données climatiques de longueur souhaitée avec des propriétés statistiques similaires aux données observées. Ces modèles sont de plus en plus utilisés en sciences du climat, hydrologie, agronomie. Cependant, peu de générateurs permettent de simuler plusieurs variables, dont les précipitations, en différents sites d’une région. Dans cette thèse, nous proposons un modèle original de générateur stochastique basé sur un champ gaussien multivarié spatio-temporel. Un premier travail méthodologique a été nécessaire pour développer un modèle de covariance croisée entièrement non séparable adapté à la nature spatio-temporelle multivariée des données étudiées. Cette covariance croisée est une généralisation au cas multivarié du modèle non séparable spatio-temporel de Gneiting dans le cas de la famille de Matérn. La démonstration de la validité du modèle et l’estimation de ses paramètres par maximum de vraisemblance par paires pondérées sont présentées. Une application sur des données climatiques démontre l’intérêt de ce nouveau modèle vis-à-vis des modèles existants. Le champ gaussien multivarié permet la modélisation des résidus des variables climatiques (hors précipitation). Les résidus sont obtenus après normalisation des variables par des moyennes et écarts-types saisonniers, eux-mêmes modélisés par des fonctions sinusoïdales. L’intégration des précipitations dans le générateur stochastique nécessite la transformation d’une composante du champ gaussien par une fonction d’anamorphose. Cette fonction d’anamorphose permet de gérer à la fois l’occurrence et l’intensité des précipitations. La composante correspondante du champ gaussien correspond ainsi à un potentiel de pluie, corrélé aux autres variables par la fonction de covariance croisée développée dans cette thèse. Notre générateur stochastique de temps a été testé sur un ensemble de 18 stations réparties en zone à climat méditerranéen (ou proche) en France. La simulation conditionnelle et non conditionnelle de variables climatiques journalières (températures minimales et maximales, vitesse moyenne du vent, rayonnement solaire et précipitation) pour ces 18 stations soulignent les bons résultats de notre modèle pour un certain nombre de statistiques
Stochastic weather generators are numerical models able to simulate sequences of weather data with similar statistical properties than observed data. However, few of them are able to simulate several variables (with precipitation) at different sites from one region. In this thesis, we propose an original model of stochastic generator based on a spatio-temporal multivariate Gaussian random field. A first methodological work was needed to develop a completely non separable cross-covariance function suitable for the spatio-temporal multivariate nature of studied data. This cross-covariance function is a generalization to the multivariate case of spatio-temporal non-separable Gneiting covariance in the case of the family of Matérn. The proof of the validity of the model and the estimation of its parameters by weighted pairwise maximum likelihood are presented. An application on weather data shows the interest of this new model compared with existing models. The multivariate Gaussian random field allows the modeling of weather variables residuals (excluding precipitation). Residuals are obtained after normalization of variables by seasonal means and standard deviations, themselves modeled by sinusoidal functions. The integration of precipitation in the stochastic generator requires the transformation of a component of the Gaussian random field by an anamorphosis function. This anamorphosis function can manage both the occurrence and intensity of precipitation. The corresponding component of the Gaussian random field corresponds to a rain potential, correlated with other variables by the cross-covariance function developed in this thesis. Our stochastic weather generator was tested on a set of 18 stations distributed over the Mediterranean area (or close) in France. The conditional and non-conditional simulation of daily weather variables (maximum and minimum temperature, average wind speed, solar radiation and precipitation) for these 18 stations show good result for a number of statistics
APA, Harvard, Vancouver, ISO, and other styles
2

Cassinelli, Alvaro. "Processeurs parallèles optoélectroniques stochastiques pour le traitement d'images en temps réel." Phd thesis, Université Paris Sud - Paris XI, 2000. http://pastel.archives-ouvertes.fr/pastel-00715890.

Full text
Abstract:
Nous étudions dans cette thèse une matrice de processeurs élémentaires optoélectronique (parfois appelé rétine artificielle optoélectronique ou encore spa - pour smart pixel array) capable de réaliser plusieurs fonctions de traitement d'images bas niveau a cadence vidéo. Plus précisément, il s'agit d'une machine simd optoélectronique fonctionnant par recuit simule : chaque processeur élémentaire (pe ou sp - pour smart pixel) est l'équivalent d'un neurone dont l'état évolue en fonction de celui de ses voisins, et cela de façon probabiliste grâce a un générateur de nombres aléatoires optique base sur le phénomène de speckle laser. Dans une première version du processeur (circuit en silicium cmos 0,8 m), chaque pe est interconnecté de façon électronique a ces quatre plus proches voisins. Un montage base sur deux modulateurs spatiaux de lumière ferroélectriques et un hologramme de dammann permet d'étendre le voisinage d'interconnexion et de simuler des interconnexions intra-processeur optiques reconfigurables. Le montage servira a demontrer la détection du mouvement sur des séquences d'images a niveaux de gris ; toutefois, les performances restent médiocres (2 a 5 secondes par image). En fin de thèse est étudié un nouveau prototype base sur une matrice a entrées et sorties optiques (diodes p-i-n a puits quantiques multiples) réalisé en technologie hybride si/gaas par flip-chip bonding . Les performances du système sont considérablement améliorées (l'architecture comporte alors de véritables interconnexions optiques intra-processeur). L'étude théorique permet de conclure que l'utilisation d'une puce a entrées et sorties optiques rendrait le système a la fois compact (taille comparable avec celle d'un processeur pentium avec ses éléments de réfrigération) et extrêmement rapide (dizaines de milliers d'images a la seconde), ce qui en ferait un dispositif de choix pour les applications embarques de traitement d'images bas-niveau et temps réel.
APA, Harvard, Vancouver, ISO, and other styles
3

Krouma, Meriem. "Ensemble weather forecast using a stochastic weather generator and analogs of the atmospheric circulation." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASJ010.

Full text
Abstract:
Les prévisions météorologiques d'ensemble peuvent aider à anticiper les risques d'événements météorologiques extrêmes. Cependant, le comportement chaotique de l'atmosphère représente une source majeure d'incertitudes pour les prévisions météorologiques surtout pour des échéances sous-saisonnières (de quelques jours à un mois). Un grand nombre de simulations numériques peut permettre de résoudre ce problème d'incertitude et de déterminer la distribution statistique des variables climatiques. Dans cette thèse, nous avons développé un outil de prévision d'ensemble basé sur des méthodes statistiques et probabilistes pour générer des prévisions météorologiques d'ensemble. En effet, le générateur stochastique de temps est conçu pour imiter le comportement des variables climatiques en se basant sur des analogues de circulation atmosphérique. Nous avons testé cet outil pour prévoir différentes variables climatiques telles que les précipitations en Europe et l'oscillation de Madden et Julian. Nous avons évalué la performance de nos prévisions par rapport aux autres prévisions des centres météorologiques.Dans un premier temps, nous avons testé le générateur stochastique de temps pour simuler les précipitations en Europe à l'échelle locale ( au niveau des villes). Nous avons trouvé de bonnes performances dans différentes régions d'Europe jusqu'à 10 jours. Nous avons confirmé l'importance de la circulation atmosphérique dans la prévision des paramètres météorologiques. Nous avons également identifié l'influence des hautes et basses pressions sur les bonnes et mauvaises prévisions.Dans un deuxième temps, nous avons combiné le générateur stochastique de temps avec des sorties de modèles numériques pour obtenir de grands ensembles de prévisions de précipitations en Europe jusqu'à 35 jours à l'avance à une échelle très locale. Cela a conduit à une amélioration significative par rapport aux prévisions du centre européen ECMWF et de Météo-France.Finalement, nous avons configuré notre modèle pour prévoir l'oscillation Madden Julian (MJO). La MJO est responsable de fortes précipitations dans des régions très peuplées comme l'Inde. Notre modèle fournit une prévision de la MJO jusqu'à 40 jours à l'avance et donne des résultats compétitifs par rapport aux prévisions météorologiques numériques. Les travaux présentés dans ce manuscrit ont fait l'objet de plusieurs articles scientifiques. Des travaux complémentaires concernant la prévisibilité des variables météorologiques ont aussi été réalisés
Ensemble weather forecasts can help to better manage and anticipate the risks of extreme weather events. Nevertheless, weather forecasting is a complex task due to the chaotic behaviour of the atmosphere, which is a major source of uncertainties for sub-seasonal time scale (days to a month). To overcome these uncertainties, a large number of numerical simulations are required. It allows to determine the statistical distribution of the climate variables. In this thesis, we have developed a weather ensemble forecasting tool based on statistical and probabilistic methods to generate weather ensemble forecasts. The stochastic weather generator is designed to mimic the behaviour of climate variables based on atmospheric circulation analogs. We have tested this tool to forecast different climate variables such as European precipitation and the Madden-Julian oscillation. We have evaluated the performance of our forecasts using several forecast verification methods. In addition, we compared the performance of our forecast to other forecasts from international weather centers.We start by assessing the capacity of the stochastic weather generator to simulate precipitation in Europe at the local scale (city level). We found good performances in different regions of Europe for up to 10 days. We confirmed the importance of atmospheric circulation in the forecast of meteorological parameters. We also identified the influence of high and low pressure on good and bad forecasts. As a second step, we combined the stochastic weather generator with dynamical model outputs to obtain large ensembles of European precipitation forecasts up to 35 days ahead at a very local scale. This led to a significant improvement over the forecasts of the European Centre for Medium-Range Weather Forecasts and Météo-France.Finally, we adjusted our model to forecast the Madden Julian Oscillation (MJO). The MJO is responsible for heavy precipitation in densely populated regions such as India. Our model provides a forecast of the MJO up to 40 days in advance and is competitive with numerical weather predictions. The results of this thesis have been the subject of (published and in discussion) scientific papers.Some other work on the predictability of meteorological variables has also been developed
APA, Harvard, Vancouver, ISO, and other styles
4

Semghouni, Samy Rostom. "Modélisation stochastique des transactions temps réel." Le Havre, 2007. http://www.theses.fr/2007LEHA0012.

Full text
Abstract:
Les SGBD temps réel (SGBDTR) sont conçus pour répondre aux besoins des applications qui nécessitent le traitement de grandes quantités de données en temps réel. Un SGBDTR doit donc traiter les transactions en garantissant leurs propriétés ACID (Atomicité, Cohérence, Isolation, Durabilité) d'une part, et doit satisfaire les contraintes de temps imposées aux transactions et aux données, d'autre part. Les travaux de cette thèse consistent à réaliser une étude stochastique et probabiliste du comportement des transactions temps réel. L'étude est réalisée en faisant varier certaines hypothèses telles que la moyenne d'arrivée des transactions, le type de transactions, le protocole de résolution de conflits (un optimiste et un pessimiste), et la politique d'ordonnancement. Nous avons alors conçu et développé un simulateur de SGBDTR flexible et extensible, sur lequel l'étude à été effectuée. Les résultats obtenus ont montré que le comportement des transactions pouvait être approximé par un modèle probabiliste. Le modèle est utilisé par la suite pour la prédiction du taux de succès des transactions en fonction de la charge du système. Nous avons également proposé une nouvelle politique d'ordonnancement des transactions temps réel qui s'appuie sur les critères d'échéance et d'importance des transactions. Cette politique apporte une contribution dans l'augmentation des performances du système (maximisation du nombre de transactions validées), améliorant ainsi la qualité de service des SGBDTR
Real-time database systems (RTDBSs) are systems designed to address the applications which need real-time processing of large quantities of data. An RTDBS must guarantee the transactions ACID (Atomicity, Consistency, Isolation, Durability) properties on one hand, and must schedule the transactions in order to meet their individual deadlines, on the other hand. In this thesis, we focus on stochastic and probabilistic study of the behavior of real-time transactions. The study is conducted under some assumptions such as the arrival mean of transactions, transactions type, concurrency control protocol (an optimistic and a pessimistic), and scheduling policy. We have then designed and developed a flexible and extensible RTDBS simulator, on which the study is done. The obtained results have shown that the transactions behavior can be approximated by a probabilistic model. The model is used to predict the transactions success ratio according to the system workload. We also propose a new scheduling policy for real-time transactions which uses criteria based on both transaction deadlines and transaction importance. This policy contributes to enhance the system performances (maximization of committing transactions), improving then the RTDBSs quality of service
APA, Harvard, Vancouver, ISO, and other styles
5

Bracquemond, Cyril. "Modélisation stochastique du vieillissement en temps discret." Phd thesis, Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00004670.

Full text
Abstract:
Dans les études de fiabilité, il est possible que les durées de vie s'expriment par des valeurs entières. C'est le cas par exemple pour des appareils fonctionnant à la sollicitation. Le but de cette thèse est de revisiter les concepts classiques de la fiabilité des systèmes non réparables, quand on suppose que le temps est discret. Les grandeurs usuelles de la fiabilité en temps discret sont définies, ainsi que les principales notions de vieillissement. Nous passons ensuite en revue les principaux modèles de fiabilité que nous avons classés en trois familles à la suite de notre étude bibliographique. Après avoir mis en évidence qu'un certain nombre de différences entre les notions de fiabilité usuelles en temps continu et leurs équivalents en temps discret sont dues à la définition du taux de défaillance en temps discret, nous proposons une nouvelle définition qui résout les problèmes rencontrés. L'estimation non paramétrique des fonctions pouvant caractériser le vieillissement est traitée et nous donnons des résultats d'estimation ponctuelle, par intervalle et bande de confiance pour le taux de défaillance (usuel). L'estimation paramétrique des modèles de fiabilité est également abordée, avec une section importante consacrée à la loi géométrique dont les estimateurs sont explicites, contrairement à la plupart des autres lois discrètes. Un état de l'art des tests d'adéquation statistiques aux lois discrètes est présenté. Nous proposons un test basé sur la transformation de Smirnov généralisée dont la puissance est étudiée pour tester l'adéquation aux lois géométrique et Weibull de type I.
APA, Harvard, Vancouver, ISO, and other styles
6

Lomüller, Victor. "Générateur de code multi-temps et optimisation de code multi-objectifs." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM050/document.

Full text
Abstract:
La compilation est une étape indispensable dans la création d'applications performantes.Cette étape autorise l'utilisation de langages de haut niveau et indépendants de la cible tout en permettant d'obtenir de bonnes performances.Cependant, de nombreux freins empêchent les compilateurs d'optimiser au mieux les applications.Pour les compilateurs statiques, le frein majeur est la faible connaissance du contexte d'exécution, notamment sur l'architecture et les données utilisées.Cette connaissance du contexte se fait progressivement pendant le cycle de vie de l'application.Pour tenter d'utiliser au mieux les connaissances du contexte d'exécution, les compilateurs ont progressivement intégré des techniques de génération de code dynamique.Cependant ces techniques ne se focalisent que sur l'utilisation optimale du matériel et n'utilisent que très peu les données.Dans cette thèse, nous nous intéressons à l'utilisation des données dans le processus d'optimisation d'applications pour GPU Nvidia.Nous proposons une méthode utilisant différents moments pour créer des bibliothèques adaptatives capables de prendre en compte la taille des données.Ces bibliothèques peuvent alors fournir les noyaux de calcul les plus adapté au contexte.Sur l'algorithme de la GEMM, la méthode permet d'obtenir des gains pouvant atteindre 100~\% tout en évitant une explosion de la taille du code.La thèse s'intéresse également aux gains et coûts de la génération de code lors de l'exécution, et ce du point de vue de la vitesse d'exécution, de l'empreinte mémoire et de la consommation énergétique.Nous proposons et étudions 2 approches de génération de code à l'exécution permettant la spécialisation de code avec un faible surcoût.Nous montrons que ces 2 approches permettent d'obtenir des gains en vitesse et en consommation comparables, voire supérieurs, à LLVM mais avec un coût moindre
Compilation is an essential step to create efficient applications.This step allows the use of high-level and target independent languages while maintaining good performances.However, many obstacle prevent compilers to fully optimize applications.For static compilers, the major obstacle is the poor knowledge of the execution context, particularly knowledge on the architecture and data.This knowledge is progressively known during the application life cycle.Compilers progressively integrated dynamic code generation techniques to be able to use this knowledge.However, those techniques usually focuses on improvement of hardware capabilities usage but don't take data into account.In this thesis, we investigate data usage in applications optimization process on Nvidia GPU.We present a method that uses different moments in the application life cycle to create adaptive libraries able to take into account data size.Those libraries can therefore provide more adapted kernels.With the GEMM algorithm, the method is able to provide gains up to 100~\% while avoiding code size explosion.The thesis also investigate runtime code generation gains and costs from the execution speed, memory footprint and energy consumption point of view.We present and study 2 light-weight runtime code generation approaches that can specialize code.We show that those 2 approaches can obtain comparable, and even superior, gains compared to LLVM but at a lower cost
APA, Harvard, Vancouver, ISO, and other styles
7

Cantet, Philippe. "Impacts du changement climatique sur les pluies extrêmes par l'utilisation d'un générateur stochastique de pluies." Montpellier 2, 2009. http://www.theses.fr/2009MON20232.

Full text
Abstract:
Des récentes études ont montré la difficulté de détecter des tendances des phénomènes extrêmes de précipitation. C'est pourquoi, dans cette thèse, nous proposons une étude originale de l'impact du changement climatique sur les pluies extrêmes par l'utilisation d'un générateur stochastique de pluies horaires. La détection de l'évolution climatique est faite à travers la paramétrisation de ce générateur. Contrairement aux méthodes classiques, les paramètres du modèle sont directement liés à des caractéristiques climatiques moyennes et non aux valeurs extrêmes. Au préalable, une consolidation de la modélisation des phénomènes conditionnant le comportement à l'infini du générateur est réalisée. Sur la base de la modélisation par copules, la dépendance entre les variables du générateur est modélisée et conduit à une meilleure prise en compte du phénomène de persistance des averses générant des cumuls de pluies extrêmes. Ensuite une étude montre que le générateur a un comportement robuste vis à vis des données disponibles tout en proposant des quantiles de pluies extrêmes de bonne qualité. Une analyse par simulation a permis de choisir un test de tendance adapté et de montrer que la modélisation du phénomène étudié a une grande importance dans la pertinence du rejet de la stationnarité des paramètres. Une méthode est créée pour définir la significativité des tendances des paramètres au sein d'une zone climatiquement homogène à partir de la construction de chroniques ''régionalisées''. À partir de longues séries journalières issues de 139 postes pluviométriques de la métropole française, nous étudions l'évolution des paramètres du générateur de pluies sur la période 1960-2003. L'approche régionale est alors préférable à l'approche locale pour tenir compte d'un changement global et être moins soumis à l'échantillonnage. Les résultats montrent qu'un changement dans les caractéristiques moyennes provoque un plus grand impact sur les extrêmes. Les tendances observées ont lieu principalement en hiver avec une recrudescence d'événements pluvieux dans la plupart des régions. La prise en compte du changement climatique dans l'estimation de quantiles de pluies n'apporte pas de gros changements dans le présent par rapport à une estimation sous hypothèse de stationnarité du climat. Les pluies extrêmes semblent tout de même être de plus en plus fréquentes sur l'ensemble de la France hormis le pourtour méditerranéen. Nous proposons ensuite une application en couplant les prévisions des modèles climatiques et le générateur de pluies. D'après les résultats, il semble, entre autres, que le Nord de la Lorraine et l'Est des Cévennes seront soumis à une hausse conséquente du risque pluvial au cours du 21ème siècle
Recent studies showed difficulties to detect the trends on rainfall extreme phenomenon. That is why; an original approach is proposed to estimate the impacts of climate change on extreme rainfall by using an hourly rainfall stochastic generator. Climate evolution is detected from the generator parameterisation. Compared to usual methods, the generator parameters are estimated by average, and not by extreme, values of daily climatic characteristics. At the beginning, we focus on the modelisation of phenomena which influence the asymptotic behaviour of the generator. Based on the copula theory, the dependence between some generator variables is modelised and lead to a better regeneration of the extreme precipitation depth. Then a study shows the generator has a robust behaviour according to available data while it proposes a good estimation of rainfall quantiles. Simulations permit us to choose an adapted trend test and to show the modelisation of the studied phenomenon is of great importance in the relevance of the parameter stationarity rejection. A method is created to test a regional trend in a homogenous climatic zone from the construction of “regionalized” chronicles. From the daily information of 139 rain gauge stations, the stationarity of generator parameters was studied in metropolitan France between 1960-2003. Tests were performed from a local approach and from a regional one. A regional approach seems better to take into account a real change and to reduce the sampling problem. Changes observed on average rainfall characteristics are amplified when working with extreme events. The observed trends occur mainly between December and May when the rainfall occurrence increased during the four last decades in the most zones. Up to now, the taking into account of climate change does not lead to a big change in the quantiles estimation, when compared to their estimation under a hypothesis of stationary climate. However extreme rainfalls seem to be more frequent on the whole French territory except in the Mediterranean area. Besides, we propose an application by combining the climate model predictions and the rainfall generator. According to these results, it seems, for example, the heavy precipitation will increase in the Lorraine northern and in the Cevennes eastern during the 21st century
APA, Harvard, Vancouver, ISO, and other styles
8

Peccati, Giovanni. "Chaos brownien d'espace-temps, décompositions d'Hoeffding et problèmes de convergence associés." Paris 6, 2002. http://www.theses.fr/2002PA066288.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Leblanc, Frédérique. "Estimation par ondelettes de la densité marginale d'un processus stochastique : temps discret, temps continu et discrétisation." Paris 6, 1995. http://www.theses.fr/1995PA066369.

Full text
Abstract:
Nous considerons un processus stochastique dont la loi marginale est invariante dans le temps et admet une densite que nous estimons par projection sur une base d'ondelettes. Nous supposons (a une exception pres) le processus fortement melangeant. Nous demontrons que l'estimateur non parametrique envisage est convergent pour les risques associes aux normes l#p (p est un entier superieur ou egal a deux). Pour des processus a temps discret nous obtenons les memes vitesses de convergence que lorsque les observations sont independantes. Ces vitesses dependent de l'espace fonctionnel de besov auquel appartient la densite inconnue et du risque considere. Pour le temps discret, ces resultats sont sans surprise, dans le sens ou, ils sont equivalents a ceux obtenus pour l'echantillon i. I. D. , dans un cadre d'estimation semblable. En revanche, dans le cas d'un processus a temps continu ayant de bonnes proprietes locales, l'erreur d'estimation converge vers zero avec une vitesse independante de l'espace de besov et de la fonction de perte consideres. Cette vitesse est du meme ordre de grandeur que celle obtenue dans un cadre d'hypotheses parametriques. Les hypotheses utilisees dans le cas continu n'ayant pas d'equivalent en temps discret, et, qui portent sur le comportement des densites jointes de variables proches dans le temps, permettent d'etablir une vitesse de convergence sur-optimale. De plus, nous verifions nos hypotheses pour des processus tels que des chaines de markov (modeles arch) et des processus de diffusion. Dans le cas continu, l'estimateur de la densite marginale est construit a partir d'un continuum d'observations entre les instants 0 et t. Afin de calculer effectivement cet estimateur, nous en avons etudie deux versions discretisees. Nous avons notamment, etabli un nombre de points de discretisation de la trajectoire jusqu'a l'instant t, garantissant une erreur de discretisation inferieure a l'erreur d'estimation
APA, Harvard, Vancouver, ISO, and other styles
10

Miliani, El Hadj. "Commande d'un convertisseur matriciel : application à un générateur actif." Besançon, 2005. http://www.theses.fr/2005BESA2086.

Full text
Abstract:
L’auteur propose dans ce travail une contribution à la commande d’un convertisseur matriciel à commutation naturelle destiné à une application pour la génération d’énergie électrique à vitesse variable et fréquence fixe. L’association alternateur – convertisseur matriciel est appelée générateur actif. Ce travail contribue à la recherche d’une solution au problème de la production et de la gestion de l’énergie électrique à vitesse variable et fréquence fixe. Cette solution est basée sur une liaison étroite d’un convertisseur matriciel et d’un alternateur polyphasé pour obtenir une commutation naturelle. Dans le premier chapitre de ce mémoire, l’auteur situe l’étude dans son contexte général ; des exemples de production d’énergie électrique à vitesse variable sont présentés. L’intérêt de la vitesse variable et le rôle des convertisseurs statiques sont mis en avant. Une solution basée sur l’association d’un alternateur à un convertisseur matriciel à thyristors est retenue. La topologie et le principe de fonctionnement du convertisseur sont également présentés dans ce chapitre. Afin de mettre en évidence le fonctionnement de l’ensemble, une étude détaillée de l’association alternateur polyphasé - convertisseur matriciel est présentée dans le deuxième chapitre. Dans le troisième chapitre l’auteur présente une méthode de commande originale permettant le contrôle simultané de la fréquence, de l’amplitude et de la phase de la tension de sortie ; elle est basée sur des ondes d’allumage en cosinus des interrupteurs. En effet, contrairement à la méthode de commande présentée dans le premier chapitre, cette commande permet d’obtenir une tension de sortie qui s’adapte sur une onde de référence ayant les caractéristiques désirées. Cette stratégie de commande est basée sur la détermination des instants de commutation par les intersections entre deux ondes, une onde de modulation et une autre de référence. Dans le dernier chapitre de ce mémoire, l’auteur présente une validation expérimentale de l’étude théorique. Divers problèmes liés à l’interfaçage et à la mise en place du système de commande sont soulevés et des solutions détaillées sont proposées. L’ensemble des tâches nécessaires à la détermination des commandes des interrupteurs est également présenté. Les résultats expérimentaux confirment la théorie développée
The author proposes a contribution to the control of a naturally commutated matrix converter used in a variable speed constant frequency generating system. The association of the matrix converter and the synchronous generator is called active generator. This work describes a low cost and robust solution for the frequency conversion by using natural commutations. In the first chapter, the author presents several examples of variable speed constant frequency generating systems which transform the variable speed mechanical energy to a constant frequency electrical power. The matrix converter topology and its operation principle are also described. In order to present the active generator, a detailed study of the association “matrix converter - six-phase synchronous generator” is detailed in the second chapter; the system operation under several constraints is given too. In the third chapter, the author presents an innovative control strategy which permits the simultaneous control of the frequency, the phase and the amplitude of the output wave; this strategy is based on cosine modulation waves. Contrary to the control strategy presented in the first chapter, this control philosophy permits to obtain a regulated output wave. The output voltage waveform is done in such a way that the actual output waveform always has the nearest possible instantaneous value to a sinusoidal reference waveform of desired output frequency, desired phase and amplitude. Commutation instants are determined by the intersection of the reference voltage and the cosine modulation waves. The last chapter deals with the implementation of the control strategies on a digital signal processor DSP. Experimental results are presented and compared to those obtained by simulation
APA, Harvard, Vancouver, ISO, and other styles
11

Kharroubi, Idris. "EDS Rétrogrades et Contrôle Stochastique Séquentiel en Temps Continu en Finance." Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00439542.

Full text
Abstract:
Nous étudions le lien entre EDS rétrogrades et certains problèmes d'optimisation stochas- tique ainsi que leurs applications en finance. Dans la première partie, nous nous intéressons à la représentation par EDSR de problème d'optimisation stochastique séquentielle : le contrôle impul- sionnel et le switching optimal. Nous introduisons la notion d'EDSR contrainte à sauts et montrons qu'elle donne une représentation des solutions de problème de contrôle impulsionnel markovien. Nous lions ensuite cette classe d'EDSR aux EDSRs à réflexions obliques et aux processus valeurs de problèmes de switching optimal. Dans la seconde partie nous étudions la discrétisation des EDSRs intervenant plus haut. Nous introduisons une discrétisation des EDSRs contraintes à sauts utilisant l'approximation par EDSRs pénalisées pour laquelle nous obtenons la convergence. Nous étudions ensuite la discrétisation des EDSRs à réflexions obliques. Nous obtenons pour le schéma proposé une vitesse de convergence vers la solution continument réfléchie. Enfin dans la troisième partie, nous étudions un problème de liquidation optimale de portefeuille avec risque et coût d'exécution. Nous considérons un marché financier sur lequel un agent doit liquider une position en un actif risqué. L'intervention de cet agent influe sur le prix de marché de cet actif et conduit à un coût d'exécution modélisant le risque de liquidité. Nous caractérisons la fonction valeur de notre problème comme solution minimale d'une inéquation quasi-variationnelle au sens de la viscosité contrainte.
APA, Harvard, Vancouver, ISO, and other styles
12

MIGGE, JORN. "L'ordonnancement sous contraintes temps-reel : un modele a base de trajectoires." Nice, 1999. http://www.theses.fr/1999NICE5341.

Full text
Abstract:
L'activite de controle et de commande d'un processus physique est souvent implantee sous forme d'un ensemble de taches recurrentes. Le comportement correct (faisabilite) d'un tel systeme temps-reel est guaranti lorsque chaque tache se termine avant sa date d'echeance. A cette fin, un modele mathematique complet est construit pour un ensembles de taches recurrentes executees sur un processeur selon une certaine politique d'ordonnancement. Le but est de commencer une etude systematique aidant a la conception de politiques d'ordonnancement temps reel. Les taches et leurs comportements sont decrits en termes d'hypotheses sur leur sequence de dates d'activations et de temps d'execution. Les politiques sont realisees par des priorites dependantes du temps. Ceci permet d'analyser les politiques independamment d'un type specifique de taches. Le premier cas considere est celui des politiques pouvant etre representees par des fonctions de priorites independantes du temps. Ce cas couvre des politiques classiques comme fpp, edf, fifo ou lifo. Cette these propose une analyse unifiee qui montre certaines similarites entre ces politiques. Quelques politiques definies par des fonctions de priorites dependantes du temps sont aussi considerees. Les politiques non-preemptives et le protocole a plafond de priorites sont etudies comme cas particuliers du paradigme de promotion de priorites en debut d'execution qui est introduit a cette fin. De plus la politique round robin est definie en termes de fonctions de priorites et des bornes sur les temps de reponses sont etablies. Le protocole a plafond de priorites est etendu a round robin. Des bornes sur les temps de reponses sont indispensables pour la faisabilite mais d'autres criteres peuvent aussi etre interessants a considerer. Pour cette raison une methode de calcul de bornes sur les queues des distributions des temps de reponses dans le cas de la politique fpp est aussi proposee dans cette these.
APA, Harvard, Vancouver, ISO, and other styles
13

Comte, Fabienne. "Causalite, cointegration, memoire longue : modelisation stochastique en temps continu, estimation et simulation." Paris 1, 1994. http://www.theses.fr/1994PA010084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Berard, Bergery Blandine. "Approximation du temps local et intégration par régularisation." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00181777.

Full text
Abstract:
Cette thèse s'inscrit dans la théorie de l'intégration par régularisation de Russo et Vallois. La première partie est consacrée à l'approximation du temps local des semi-martingales continues. On montre que, si $X$ est une diffusion réversible, alors $ \frac{1}{\epsilon}\int_0^t \left( \indi_{\{ y < X_{s+\epsilon}\}} - \indi_{\{ y < X_{s}\}} \right) \left( X_{s+\epsilon}-X_{s} \right)ds$ converge vers $L_t^y(X)$, en probabilité uniformément sur les compacts, quand $\epsilon \to 0$. De ce premier schéma, on tire deux autres schémas d'approximation du temps local, l'un valable pour les semi-martingales continues, l'autre pour le mouvement Brownien standard. Dans le cas du mouvement Brownien, une vitesse de convergence dans $L^2(\Omega)$ et un résultat de convergence presque sûre sont établis. La deuxième partie de la thèse est consacrée à l'intégrale "forward" et à la variation quadratique généralisée, définies par des limites en probabilité de famille d'intégrales. Dans le cas Höldérien, la convergence presque sûre est établie. Enfin, on montre la convergence au second ordre pour une série de processus particuliers.
APA, Harvard, Vancouver, ISO, and other styles
15

Abbezzot, Cédric. "Système inertiel de stockage d'énergie couplé au générateur photovoltaïque et piloté par un simulateur temps réel." Thesis, Corte, 2014. http://www.theses.fr/2014CORT0014/document.

Full text
Abstract:
Le sujet s'inscrit dans la stratégie d'augmentation de la pénétration des énergies renouvelables dans les réseaux électriques, en particulier ceux qui sont faiblement interconnectés, tels que les réseaux électriques insulaires. Une limite de pénétration des énergies intermittentes de 30% en puissance instantanée dans ces réseaux a été fixée par la loi française. Pour permettre de dépasser cette limite, une solution est de coupler les sources de production décentralisée et intermittente avec du stockage.Dans cette thèse, nous nous sommes intéressés au volant d’inertie, système de stockage permettant de convertir l’énergie électrique sous forme cinétique et vice versa. Celui-ci a en effet un nombre de cycles charge/décharge important en comparaison avec une batterie électrochimique et peut être utilisé pour lisser la production photovoltaïque. La fluctuation de l’énergie photovoltaïque est en effet faiblement prédictible au cours du temps et elle ne peut pas être contrôlée, notamment sa chute de production. La production photovoltaïque peut chuter jusqu’à 80 % de la puissance maximale en 30 secondes, et déstabiliser ainsi le réseau électrique. Le réseau électrique insulaire, tel que celui de la Corse, n’est pas interconnecté au réseau électrique continental. Les réseaux non – interconnectés sont plus fragiles et moins stables. Ainsi, le développement massif des centrales photovoltaïques peut faire fluctuer la fréquence et la tension du réseau. Le volant d’inertie a l’avantage de posséder un faible temps de réponse (quelques centaines de millisecondes). Cependant, il a une capacité énergétique moindre. Nous allons donc exploiter les avantages du volant d’inertie en le gérant en temps réel avec un calculateur approprié. Un volant d’inertie d’une puissance de 15 kVA et d’une capacité énergétique de 112 Wh a été caractérisé et testé à l’INES Chambéry en utilisant un simulateur réseau temps réel (RTLab®), un calculateur temps réel dSPACE® et une centrale PV. Le système de stockage est composé d’une machine électrique asynchrone et d’un volant d’inertie cylindrique en acier. Le logiciel Matlab/Simulink® est utilisé pour implémenter les lois de commande nécessaires à son pilotage. Dans cette thèse, le banc de test est présenté ainsi que les résultats sur les services système (lissage de puissance, régulation de la fréquence et de la tension). Trois méthodes de lissage de puissance sont présentées et évaluées (lissage avec une fonction de transfert, lissage avec limiteur de pente et lissage n’utilisant pas aucune fonction de lissage). La troisième méthode n’utilisant ni une fonction de transfert, ni une fonction limitant la pente des variations, nécessite moins de paramètres et s’avère plus optimale et plus robuste. Un volant d’inertie avec une autre technologie de machine électrique (la machine à réluctance variable) a été également caractérisé. C’est une Alimentation Sans Interruption (ASI), sur laquelle des paramètres tels que l’autodécharge et les rendements du système (en charge, en décharge et au repos) ont pu être mesurés
The subject is part of the strategy to increase the penetration of renewable energy in power systems, particularly those that are poorly interconnected, such as island grids. A limit of penetration of intermittent energy by 30% in instantaneous power in these electrical grids was set by a French law. To help overcome this limitation, a solution is to couple the sources of decentralized and intermittent generation with energy storage systems. In this thesis, we are interested in flywheel energy storage systems (FESS) that converts electrical energy in kinetic energy form and vice versa. FESS have a number of cycles charge / discharge large compared with electrochemical batteries and can be used to smooth the photovoltaic power generation. The fluctuation of photovoltaic instantaneous power is indeed weakly predictable over time and it cannot be controlled, including its production fall. PV production can decrease up to 80% of its maximum power in 30 seconds, and so destabilize the grid. The island grids, such as that of Corsica, are not interconnected to the mainland power grid. The non - interconnected grids are more fragile and less stable. Thus, the massive development of photovoltaic power plants can cause fluctuations in the frequency and voltage. The flywheel has the advantage of having a low response time (a few hundred milliseconds). However, it has a lower energy capacity. The benefits of FESS are used by managing it in real time with an appropriate computer. A flywheel with a power of 15 kVA and an energy capacity of 112 Wh was characterized and tested at INES Chambery using a real time grid simulator (RTLab®), a real-time computer (dSPACE®) and a PV power plant. The storage system is composed by an asynchronous electrical machine and a cylindrical steel flywheel. The Matlab Simulink / software is used to implement the control laws necessary for its control. In this thesis, the test bench is presented and the results of ancillary services (power smoothing, frequency and voltage regulation). Three power smoothing methods are discussed and evaluated (smoothing with a transfer function, with a slope limiter function and a method not using any smoothing function). The third method uses neither a transfer function, nor a function that limits the slope variations, requires fewer parameters, and is more optimal and more robust. A flywheel with another electrical machine technology (the switched reluctance machine) has also been characterized. This is an Uninterruptible Power Supply (UPS) on which parameters such as self-discharge and efficiencies (charging mode, discharging mode and standby mode) were measured
APA, Harvard, Vancouver, ISO, and other styles
16

Suet, Pierre-Henry. "Poursuite aléatoire d'une cible et optimisation du temps de recherche : applications à la cinétique réactionnelle." Paris 6, 2007. https://tel.archives-ouvertes.fr/tel-00281894.

Full text
Abstract:
Cette thèse commence par un modèle de recherche par des animaux de cibles cachées. Celui-ci conduit à une relation en lois de puissance entre les temps passés dans chaque état, qui s'accorde bien avec les résultats expérimentaux. Puis, nous étudions des modèles intermittents avec mémoire à une dimension. Ensuite, nous examinons les processus de recherche intermittents sans mémoire dans le cadre de la réactivité chimique. Après avoir envisagé deux modèles de recherche intermittente sans mémoire à une dimension, nous obtenons des relations géométriques pour des marches de Pearson dans des domaines fermés. Ce sont des cas particuliers de propriétés générales des temps de résidence pour une large classe de processus stochastiques. Enfin, nous étudions un processus alternant diffusion et téléportation pour un système continu à d dimensions et un réseau régulier. Nous montrons que l'intermittence peut permettre de réduire le temps de recherche et d'augmenter la réactivité du système.
APA, Harvard, Vancouver, ISO, and other styles
17

Souchet, Sandie. "Estimation des paramètres d'une diffusion ergodique observée à temps discret." Paris 1, 1999. http://www.theses.fr/1999PA010035.

Full text
Abstract:
Dans la première partie, nous nous intéressons au problème d'estimation du paramètre de dérivé d'une diffusion ergodique observée à temps discret sur [0,t], lorsque t tend vers l'infini. Dans le chapitre 1, pour un pas d'observation @ petit et fixe, nous développons des schémas d'approximation anticipatifs, bases sur les formules du trapèze et de Simpson. Les estimateurs des moments généralisés associés à ces schémas sont convergents avec un biais asymptotique de l'ordre de @, pour le schéma du trapèze et en @4 pour le schéma de Simpson. Ils sont de plus asymptotiquement normaux et presque efficaces en variance avec une vitesse standard. Dans le chapitre 2, le schéma d'approximation propose est non anticipatif et repose sur les itères jusqu'à l'ordre p du générateur infinitésimal de la diffusion. L'estimateur des moindres carrés associé à ce schémas est également asymptotiquement normal et presque efficace et son biais asymptotique est de l'ordre de @p. Dans le chapitre 3, la dérive est continue mais à dérivées discontinues en un seuil ro que l'on désire estimer. Si t=n@n tend vers l'infini et n@n3 tend vers 0, nous montrons que l'estimateur des moindres carrés basé sur le schémas d'Euler est optimal. Dans le chapitre 4, nous considérons un car(p),x, qui est aussi une diffusion pdimensionnelle, y=(x, x('),. . . , x(p-'). Dans le cas où seule la première composante, x, est observée et cela a n instants équidistants de (d), nous proposons d'estimer les paramètres de ce processus en utilisant une estimation des équations de Yule-Walker. L'estimateur obtenu est convergent avec un biais explicite de l'ordre de @. Dans la deuxième partie de ce document, nous proposons une méthode d'estimation de l'écart quadratique moyen d'estimateurs empiriques construits à partir d'un échantillonnage systématique. Cette méthode complète les méthodes transitives utilisées notamment dans le domaine de la stéréologie.
APA, Harvard, Vancouver, ISO, and other styles
18

Grimaud, Agnès. "Modélisation stochastique et estimation de la dispersion du pollen de maïs.Estimation dans des modèles à volatilité stochastique." Phd thesis, Université Paris-Diderot - Paris VII, 2005. http://tel.archives-ouvertes.fr/tel-00011584.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude de la dispersion du pollen de maïs. Le grain de pollen est vu comme une particule soumise à un champ de forces et sa trajectoire est modélisée à l'aide de différents processus de diffusion. Lorsque deux champs sont contigüs (milieu homogène), différentes fonctions de dispersion individuelles paramétriques sont alors obtenues, différentes hypothèses étant faites sur des temps d'atteinte de processus stochastiques. A partir d'expériences, les paramètres sont alors estimés en considérant un modèle de régression non linéaire. Le choix du modèle le mieux adapté se fait à l'aide d'un critère de type Akaïke et de méthodes graphiques. Par ailleurs ces modèles permettent d'effectuer des prédictions. Les résultats sont alors appliqués lorsque deux champs sont séparés par une autre culture (milieu hétérogène), afin d'étudier l'effet d'une discontinuité sur la dispersion.
Dans la seconde partie, on s'intéresse à des modèles à volatilité stochastique «mean-reverting», souvent utilisés en économie. Le processus observé est fonction d'une diffusion non observable dont on souhaite estimer les paramètres. Une méthode d'estimation à deux pas basée sur la structure ARMA(1,1) du processus est proposée, en utilisant un estimateur de moments et un contraste de Whittle. Des simulations sont réalisées afin de comparer cette méthode avec d'autres méthodes existantes. Ensuite un paramètre dit «leverage» est ajouté et un modèle discrétisé est étudié. Un critère auxiliaire est proposé pour estimer les paramètres à l'aide d'une méthode d'inférence indirecte. Enfin des simulations sont réalisées pour évaluer leurs performances.
APA, Harvard, Vancouver, ISO, and other styles
19

Kaddes, Mourad. "Etudes des transactions plates et étendues dans les SGBD temps réels." Thesis, Le Havre, 2013. http://www.theses.fr/2013LEHA0009/document.

Full text
Abstract:
ACette thèse s’intéresse à l’étude des modèles de transactions plates et étendues dans les SGBD temps réel (SGBDTR). Ce travail est réalisé en deux étapes : (i) la première étape vise à aider les concepteurs à décrire et comparer les modèles de transactions temps réel, (ii) La seconde étape permet de compléter cette étude par la présentation d’une étude stochastique des performances des SGBDTR de deux modèles de transactions temps réel, à savoir le modèle de transactions plates et le modèle de transactions emboîtées. Dans la première étape, nous avons présenté le méta-modèle « MRT-ACTA » qui prend en compte les caractéristiques temporelles des transactions et de données temps réel ainsi que leurs interactions, offrant ainsi aux concepteurs la possibilité de définir de nouveaux modèles de transactions temps réel et de les comparer. La description formelle de « M-RT-ACTA » a permis de valider nos propositions. Pour compléter ce travail et ayant constaté que l’ordonnancement des transactions est un aspect primordial dans les SGBDTR, nous avons proposé dans la seconde étape de présenter une étude stochastique des performances des SGBDTR. Ainsi, nous avons proposé une amélioration des taux de succès des transactions plates avec le protocole GEDF (généralisation de EDF) et nous avons adapté cette étude aux transactions emboîtées
This thesis presents a study of flat and extended model of transactions in real-time DBMS (RTDBMSs). This study is carried in two steps : (i) the first step aims to help designers to describe and compare models of real-time transactions, (ii) the second step allows to complete this study by presenting a stochastic study of RTDBMSs performance using two models of real-time transactions : flat transactions and nested transactions models. In the first step, we introduced the meta-model « MRT-ACTA » that takes into account the transactions and data temporal characteristics and their realtime interactions. « M-RT-ACTA » allows designers defining and comparing new models of real-time transactions. The formal description of « M-RT-ACTA » validates our proposals. In order to complete this work, we have observed that transactions scheduling is an important area in RTDBMSs, so we proposed in the second step a stochastic study of RTDBMS performance. Thus, we have proposed to improve the success ratio of flat transactions with GEDF protocol (generalization of GEDF) and we have adapted this study to nested transactions
APA, Harvard, Vancouver, ISO, and other styles
20

Zozor, Steeve. "Sur la théorie de la résonance stochastique à temps discret et son application en détection." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0170.

Full text
Abstract:
Certains systemes physiques non lineaires attaques par une sinusoide bruitee additivement ont pour particularite de faire interagir sinusoide et bruit de telle sorte que le bruit amplifie la sinusoide cet effet non intuitif est connu sous le nom de resonance stochastique. Ce phenomene decouvert recemment a fait l'objet de nombreuses etudes dans un cadre temps continu, a l'aide d'outils classiques de physique statistique. Dans ce memoire, nous etudions le phenomene de resonance stochastique dans un cadre temps discret, en vue d'application en traitement numerique du signal. Dans un premier temps, nous effectuons une presentation des principales theories existantes a temps continu et discutons de leurs limites. Par suite, en raison de la difficulte de discretiser des systemes continus non lineaires, nous proposons une theorie pour des systemes intrinsequement a temps discrets : les systemes non lineaires autoregressifs d'ordre 1 bistables. Nous montrons que la resonance existe aussi a temps discret. Dans un troisieme volet nous envisageons une application en detection de sinusoide de faible amplitude bruitee additivement. Nous montrons que la resonance stochastique permet des gains de performance importants dans certains cas (bruit uniforme, bruit a deux etats). Enfin, dans une derniere partie nous proposons une extension multidimensionnelle a la resonance stochastique a temps discret.
APA, Harvard, Vancouver, ISO, and other styles
21

Bérard, Bergery Blandine. "Approximation du temps local et intégration par régularisation." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10058/document.

Full text
Abstract:
Cette thèse s'inscrit dans la théorie de l'intégration par régularisation de Russo et Vallois. La première partie est consacrée à l'approximation du temps local des semi-martingales continues. Si X est une diffusion réversible, on montre la convergence d'un premier schéma d'approximation vers le temps local de X, en probabilité uniformément sur les compacts. De ce premier schéma, on tire deux autres schémas d'approximation du temps local, l'un valable pour les semi-martingales continues, l'autre pour le mouvement Brownien standard. Dans le cas du mouvement Brownien, une vitesse de convergence dans L^2(Omega) et un résultat de convergence presque sûre sont établis. La deuxième partie de la thèse est consacrée à l'intégrale "forward" et à la variation quadratique généralisée, définies par des limites en probabilité de famille d'intégrales. Dans le cas Höldérien, la convergence presque sûre est établie. Enfin, on montre la convergence au second ordre pour une série de processus particuliers
The setting of this work is the integration by regularization of Russo and Vallois. The first part studies schemes of approximation of the local time of continuous semimartingales. If X is a reversible diffusion, the convergence of a first schema of approximation to the local time of X is proven, in probability uniformly on the compact sets. From this first schema, two other schemas of approximation for the local time are found. One converges in the semi-martingale case, the other in the Brownian case. Moreover, in the Brownian case, we estimate the rate of convergence in L^2(Omega) and a result of almost sure convergence is proven. The second part study the forward integral and the generalized quadratic variation, which have been defined by convergence of families of integrals, in probability uniformly on the compacts sets. In the case of Hölder processes, the almost sure convergence is proven. Finally, the second order convergence is studied in many cases
APA, Harvard, Vancouver, ISO, and other styles
22

Denjean, Aline. "Analyse temps-échelle en contexte aléatoire appliquée à la détection et l'estimation de non-stationnarités." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT078H.

Full text
Abstract:
Dans le domaine de la detection de non-stationnarites, probleme classique du traitement du signal et aux applications multiples, la detection de changements brusques de moyenne (ou sauts de moyenne) joue un role important ; en effet, un grand nombre de changements peut etre transforme en un tel saut, generalement noye dans un processus aleatoire stationnaire dont les proprietes statistiques sont partiellement connues. L'objet de cette these est d'exploiter les proprietes statistiques d'une representation temps-echelle lineaire, l'analyse par ondelettes, pour divers problemes de decision tels que la detection et l'estimation simultanees de sauts (moyenne, variance), et comme une alternative aux methodes classiques de segmentation. Dans un premier chapitre, nous rappelons les problemes de decision dans leur ensemble ainsi que leurs solutions classiques, et evoquons les methodes developpees dans le plan temps-echelle. Dans un second chapitre, nous etudions les proprietes statistiques au premier et second ordre de la transformee en ondelettes continue et discrete. De ces proprietes derivent plusieurs strategies de detection, via le calcul de la signature de la discontinuite et du rapport signal a bruit dans le plan temps-echelle. Finalement, le troisieme chapitre du manuscrit est consacre a l'evaluation et la comparaison des performances des detecteurs et estimateurs classiques et issus de l'analyse par ondelettes
APA, Harvard, Vancouver, ISO, and other styles
23

Laslier, Benoît. "Dynamique stochastique d'interface discrète et modèles de dimères." Phd thesis, Université Claude Bernard - Lyon I, 2014. http://tel.archives-ouvertes.fr/tel-01044463.

Full text
Abstract:
Nous avons étudié la dynamique de Glauber sur les pavages de domaines finies du plan par des losanges ou par des dominos de taille 2 × 1. Ces pavages sont naturellement associés à des surfaces de R^3, qui peuvent être vues comme des interfaces dans des modèles de physique statistique. En particulier les pavages par des losanges correspondent au modèle d'Ising tridimensionnel à température nulle. Plus précisément les pavages d'un domaine sont en bijection avec les configurations d'Ising vérifiant certaines conditions au bord (dépendant du domaine pavé). Ces conditions forcent la coexistence des phases + et - ainsi que la position du bord de l'interface. Dans la limite thermodynamique où L, la longueur caractéristique du système, tend vers l'infini, ces interfaces obéissent à une loi des grand nombre et convergent vers une forme limite déterministe ne dépendant que des conditions aux bord. Dans le cas où la forme limite est planaire et pour les losanges, Caputo, Martinelli et Toninelli [CMT12] ont montré que le temps de mélange Tmix de la dynamique est d'ordre O(L^{2+o(1)}) (scaling diffusif). Nous avons généralisé ce résultat aux pavages par des dominos, toujours dans le cas d'une forme limite planaire. Nous avons aussi prouvé une borne inférieure Tmix ≥ cL^2 qui améliore d'un facteur log le résultat de [CMT12]. Dans le cas où la forme limite n'est pas planaire, elle peut être analytique ou bien contenir des parties "gelées" où elle est en un sens dégénérée. Dans le cas où elle n'a pas de telle partie gelée, et pour les pavages par des losanges, nous avons montré que la dynamique de Glauber devient "macroscopiquement proche" de l'équilibre en un temps L^{2+o(1)}
APA, Harvard, Vancouver, ISO, and other styles
24

Ratsiambahotra, Tahiry. "Contribution à la simulation de processeur : conception d'un générateur de librairie de simulateurs fonctionnels." Toulouse 3, 2010. http://www.theses.fr/2010TOU30160.

Full text
Abstract:
L'adoption de la simulation comme un outil de test et de validation est unanime surtout dans le domaine des systèmes embarqués, domaine dans lequel les applications sont souvent complexes et où les méthodes formelles trouvent vite leurs limites. Cette simulation se base sur le noyau principal du matériel à embarquer qui est le processeur. Les systèmes à simuler sont de plus en plus complexes. Il en découle que concevoir un simulateur requiert beaucoup de temps et est passible d'erreurs. Parallèlement, le délai alloué à cette conception est raccourci à cause des délais de mise à disposition sur le marché de plus en plus courts. Ainsi, depuis les années 1990, la recherche sur la génération automatique de simulateur s'est accrue. Il devient de plus en plus indispensable de décrire le système à simuler avec un langage de haut niveau et ensuite de générer le simulateur pour minimiser les erreurs. Ce langage de haut niveau est appelé langage de description d'architecture ou ADL (Architecture Description Language). Nous nous intéressons dans cette thèse aux langages de description d'architectures de processeurs pour développer notre générateur automatique de simulateurs fonctionnels. Un générateur associé à un ADL peut viser à produire automatiquement plusieurs outils en même temps : un simulateur ou émulateur, un compilateur-assembleur ou générateur de code, un désassembleur-débogueur. En vérité, c'est une bibliothèque qui est produite et les outils sont générés à partir de templates d'utilisation de fonctions de la bibliothèque. L'approche modulaire a été proposée pour faire évoluer efficacement la description d'un processeur. Cette approche, que nous avons adoptée, propose de découpler la description de la partie fonctionnelle du processeur de la description structurelle. Ainsi, non seulement il est possible de faire évoluer l'une ou l'autre partie indépendamment mais un langage différent peut être utilisé pour chaque partie. Alors, pour la partie structurelle, des langages HDL (Hardware Description Language) comme SystemC ou VHDL sont appropriés tandis que, pour la partie fonctionnelle, un ADL est nettement préférable. D'une part, vu la diversité des jeux d'instructions (encodage, taille des instructions, mode d'adressage), et des outils ciblés (compilateur-simulateur), il est difficile de trouver, parmi les ADLs existants, un langage capable de décrire toutes les familles de jeux d'instructions existants. Pourtant durant la phase de conception, il est très important d'avoir le maximum de choix d'implémentations possibles. Plus il y a de choix d'implémentations, plus l'architecture qui en découle est sûre d'être la meilleure possible. D'autre part, dans les systèmes critiques, le principe de dissymétrie impose au concepteur de composer avec au moins deux architectures processeur différentes, son système embarqué. Même si ces choix dépendent de plusieurs facteurs, ils sont aussi limités par la capacité de l'ADL à décrire les architectures visées. L'idéal est donc de posséder un ADL qui est capable de décrire toute architecture. Nous avons adopté le langage ADL " nML " de l'université de Aachen, qui a été source d'inspiration de plusieurs firmes et chercheurs dans ce domaine pour réaliser notre générateur de librairie de simulation fonctionnelle : GLISS. Nous l'avons étendu afin que, d'une part, le langage soit capable de décrire toutes les familles de jeu d'instructions existantes (RISC, VLIW, CISC) et, d'autre part, que la taille du code généré soit plus compacte et la vitesse de simulation plus grande. Ces trois facteurs (universalité, compacité du code généré et vitesse de simulation) sont importants pour l'intégration du générateur dans un environnement de simulation complet. Nous avons actuellement, généré cinq librairies de simulateurs fonctionnels pour le HCS12X de Freescale, l'ARM V5 (y compris l'extension Thumb), l'IBM PowerPC750, le Sharc d'Analog Devices et le Tricore d'Infineon). Cependant, la bibliothèque générée par GLISS peut être utilisée dans n'importe quel outil acceptant le code C
Instruction-set simulators (ISS) are more and more used in design space exploration and functional software testing. Furthermore, cycle-accurate simulators are often made of a functional coupled to a timing simulator. Research about ISS generators is not new but most often addresses only simple instruction sets (i. E. RISC). This paper describes techniques to ease the description of complex Instruction-Set Architectures and to increase simulation speed. They are integrated in a tool which generates libraries containing functions to disassemble (useful for testing), decode and simulate many different architectures like RISC, CISC, VLIW and is able to deal with variable-length instructions. We successfully generated and used ARM/thumb, HCS 12X, Tricore, Sharc, PPC simulators and experiments have been made on the x86 architecture
APA, Harvard, Vancouver, ISO, and other styles
25

Blanchard, Romain. "Application du contrôle stochastique en théorie de la décision avec croyances multiples et non dominées en temps." Thesis, Reims, 2017. http://www.theses.fr/2017REIMS006/document.

Full text
Abstract:
Cette dissertation traite des trois thématiques suivantes : incertitude, fonctions d’utilité et non-arbitrage. Dans le premier chapitre, nous supposons qu’il n’y a pas d’incertitude sur les croyances et établissons l’existence d’un portefeuille optimal pour un investisseur qui opère dans un marché financier multi-période à temps discret et maximise son espérance terminale d’utilité. Nous considérons des fonctions d’utilité aléatoires non concaves, non continues définies sur l’axe réel positif. La preuve repose sur de la programmation dynamique et des outils de théorie de la mesure.Dans les trois chapitres suivant nous introduisons le concept d’incertitude knightienne et adoptons le modèle de marché financier multi-période à temps discret avec croyances multiples non dominées introduit par B. Bouchard and M. Nutz (Arbitrage and duality in nondominated discrete-time models)Dans le second chapitre, nous étudions la notion de non-arbitrage quasi-sûre introduite par B. Bouchard and M. Nutz (Arbitrage and duality in nondominated discrete-time models) et en proposons deux formulations équivalentes: une version quantitative et une version géométrique. Nous proposons aussi une condition forte de non-arbitrage afin de simplifier des difficultés techniques.Nous utilisons ces résultats dans le troisième chapitre pour résoudre le problème de la maximisation d’espérance d’utilité sous la plus défavorable des croyances pour des fonctions d’utilité concaves, définies sur l’axe positif réel non-bornées. La preuve utilise à nouveau de la programmation dynamique et des techniques de sélection mesurable.Finalement, dans le dernier chapitre, nous développons un modèle de d’évaluation par indifférence d’utilité et démontrons que sous de bonnes conditions, le prix d’indifférence d’un actif contingent converge vers son prix de sur réplication
This dissertation evolves around the following three general thematic: uncertainty, utility and no-arbitrage.In the first chapter we establish the existence of an optimal portfolio for investor trading in a multi-period and discrete-time financial market without uncertainty and maximising its terminal wealth expected utility. We consider general non-concave and non-smooth random utility function defined on the half real-line. The proof is based on dynamic programming and measure theory tools.In the next three chapters, we introduce the concept of Knightian uncertainty and adopt the multi-prior non dominated and discrete time framework introduced in [25]..In this setting, in the second chapter we study the notion of quasi-sure no-arbitrage introduced in [25] and propose two equivalent definitions: a quantitative and geometric characterisation. We also introduce a stronger no-arbitrage condition that simplifies some of the measurability difficulties.In the third chapter, we build on the results obtained in the previous chapter to study the maximisation of multiple-priors non-dominated worst-case expected utility for investors trading in a multi-period and discrete-time financial for general concave utility functions defined on the half-real line unbounded from above. The proof uses again a dynamic programming framework together with measurable selection.Finally the last chapter formulates a utility indifference pricing model for investor trading in a multi-period and discrete-time financial market. We prove that under suitable condition the multiples-priors utility indifference prices of a contingent claim converge to its multiple-priors superreplication price
APA, Harvard, Vancouver, ISO, and other styles
26

Ané, Thierry. "Changement de temps, processus subordonnés et volatilité stochastique : une approche financière sur des données à haute fréquence." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090027.

Full text
Abstract:
Le but de cette thèse est de valider mathématiquement la brillante idée de Clark (1973) qui décida de prendre le volume comme processus directeur T définissant le temps économique suivant lequel le prix des actifs financiers devrait être observé. En utilisant des données à haute fréquence et en s'appuyant sur les recherches de microstructure récentes nous montrons, en accord avec de Jones, Kaul et Lison (1994), que le temps économique est déterminé par le nombre de transactions. Nous prouvons, sans hypothèse sur la distribution probabiliste du temps économique T, qu'il est possible de retrouver le caractère gaussien du rendement des actifs, en utilisant le nombre de transaction comme + horloge stochastique ; rythmant l'activité économique. À partir de données tick-by-tick nous trouvons la distribution empirique des rendements, et en utilisant une procédure d'estimation paramétrique, nous calculons les moments du subordinateur T inobservable. Nous montrons ainsi que ces moments coïncident avec ceux du nombre de transactions et explicitons le lien entre changement de temps aléatoire et nombre de transactions. Enfin, nous expliquons comment incorporer la volatilité stochastique dans le cadre plus général des processus subordonnes. Les implications en matière d'évaluation et de couverture d'options sont discutées. Académiques et professionnels se sont penchés récemment sur l'efficacité comparée de la volatilité implicite et de la volatilité historique comme prévision de la volatilité future. S'il est courant de considérer que la volatilité implicite représente la prévision du marché de la volatilité future, nous montrons, en accord avec Canina et Figlewski, et à l'aide de prix de futures et options S&P 500, que la volatilité historique possède un pouvoir de prévision plus grand que la volatilité implicite. Nous montrons comment utiliser les processus subordonnes pour construire un prédicteur encore plus efficace de la volatilité future et qui souligne le rôle important du nombre de transactions
The goal of this thesis is to validate mathematically the brilliant conjecture by Clark (1973) who chose the volume as the subordinating process t defining the economic time in which asset prices should be observed. Along the lines of the recent microstructure literature and using the tick by tick data, we show, in agreement with the recent empirical results by Jones, Kaul and Lipson (1994), that it is in fact the number of trades which defines the economic time. We prove that without any assumption on the distribution of the stochastic time t we recover normality for asset price returns when using the number of trades as the "stochastic clock". We extract from a tick by tick data base the empirical distribution of asset returns and use a parametric estimation procedure to compute the moments of the unknown distribution of the subordinator t. The moments of t coincide with the corresponding moments of the number of trades. Lastly, we explain how the issue of stochastic volatility can be embedded in the general framework of stochastic time changes and what it implies for option pricing and hedging. The effectiveness of implied versus historical volatility in forecasting the future volatility has recently been, with good reasons, the subject of scrutiny both among academics and practitioners. It is common practice to use implied volatility as the market's forecast of future volatility. S&P 500 options and futures prices are used to show that implied volatility is a poor forecast of the realized volatility. The use of subordinated processes can help to construct a good forecast of the realized volatility. Moreover, our time change as well as our volatility forecast highlights the role of the rate of information arrival proxied by the number of trades
APA, Harvard, Vancouver, ISO, and other styles
27

Poix, Jérôme. "Approximation stochastique pour des modeles de regression lineaires en temps continu et des bruits de type semimartingale." Université Louis Pasteur (Strasbourg) (1971-2008), 1997. http://www.theses.fr/1997STR13022.

Full text
Abstract:
Le but de ce travail a ete d'etudier la convergence de l'algorithme de robbins-monro avec ou sans moyennisation pour des modeles de regression lineaires en temps continu et des bruits de type semimartingale ou martingale locale. Dans ce cadre, on aura naturellement recours aux techniques usuelles du calcul stochastique. A. Le breton et a. A. Novikov ont notamment etudie le cas ou le bruit est une martingale locale dont le crochet oblique tend dans un certain sens vers un processus deterministe. Dans un premier temps, on obtient une extension de ces resultats quand le bruit est une semimartingale dont la partie martingale locale verifie toutefois la meme condition. Dans une deuxieme partie, on verra dans quelle mesure il est possible de se passer de cette condition en prenant comme point de depart le cas gaussien. Enfin la derniere partie est consacree a une application de certains resultats de la theorie des grandes deviations a l'approximation stochastique
APA, Harvard, Vancouver, ISO, and other styles
28

Ackermann, Christophe. "Processus associés à l'équation de diffusion rapide. Indépendance du temps et de la position pour un processus stochastique." Nancy 1, 2003. http://www.theses.fr/2003NAN10186.

Full text
Abstract:
Cette thèse s'articule autour de deux axes de recherche. D'abord, on donne une modélisation stochastique de l'équation aux dérivées partielles dite de diffusion rapide. Celle-ci décrit des phénomènes de diffusion qui apparaissent dans la physique des plasmas. Ainsi, on étudie la solution d'une équation différentielle stochastique dont la densité est solution de l'équation de diffusion rapide, et on traite en particulier le cas où la mesure initiale est la masse de Dirac en 0. Ensuite, on étudie la question de l'indépendance du temps et de la position pour un processus stochastique. On considère une marche aléatoire S(n) dont les accroissements sont indépendants, de même loi, et on étudie les temps d'arrêt T standards tels que T et S(T) sont indépendants. On donne une description des lois d'arrêts de S(T) dans le cas d'une marche de Bernoulli symétrique. On complète enfin ce travail en donnant une caractérisation des lois d'arrêt du mouvement brownien
The aim of this thesis is twofold. First, we give a stochastic modelisation of a partial differential equation known as equation of "fast" diffusion. The latter describes a diffusion phenomenon which occurs in the plasma physics. Thus, we study the solution of a differential stochastic equation, the density of which satisfies the equation of "fast" diffusion: we treat in particular the case when the initial measure is the Dirac measure at 0. Secondly, we deal with the question of the independence of time and position for a stochastic process. We consider a random walk S(n) with independent identically distributed increments and we study the standard stopping times T such that T and S(T) are independent. We give a description of the stopping distributions of S(T) in the case of a Bernoulli symmetric random walk. We finally complete this work by giving a characterization of the stopping distributions of the Brownian motion
APA, Harvard, Vancouver, ISO, and other styles
29

Silly-Carette, Jessica. "Modélisation avancée de l'absorption des ondes électromagnétiques dans les tissus biologiques : schémas en temps, approches adjointe et stochastique." Paris 6, 2008. http://www.theses.fr/2008PA066368.

Full text
Abstract:
Ce manuscrit présente les différentes sources d'incertitudes courantes lors des simulations des effets des ondes sur et dans le corps humain. Ainsi, même si les programmes utilisés en bio électromagnétisme de nos jours sont très performants (méthode FDTD, méthode One-Step limitée dans les cas à pertes), il reste des paramètres non maitrisables ou inconnus pouvant avoir un rôle sur le Débit d'Absorption Spécifique (DAS ou SAR) obtenu lors des simulations. La modélisation de la source, de sa position, mais aussi les propriétés diélectriques et la géométrie du modèle de tête ou de corps utilisés, sont autant d'incertitudes qu'il faut pouvoir quantifier. Dans ce but, des méthodes numériques permettant le calcul d'incertitudes et de sensibilités sont évaluées. La méthode de l'adjoint associée à la FDTD permet ainsi de connaître les sensibilités locales et peut être introduite dans un processus d'optimisation permettant ainsi de réduire les erreurs lors des études d'homogénéisation de structures multicouches. Les méthodes de collocation stochastiques permettent d'avoir une évaluation des moyennes, des variances, et des sensibilités globales. Les approches nodales et spectrales de collocation sont utilisées afin de déterminer l'influence des incertitudes des angles de propagation d'une onde plane sur l’évaluation du DAS, ainsi que l'influence des incertitudes concernant les propriétés diélectriques de deux modèles : le fantôme homogène SAM et la tête hétérogène d'enfant de 15ans.
APA, Harvard, Vancouver, ISO, and other styles
30

Laslier, Benoît. "Dynamique stochastique d’interface discrète et modèles de dimères." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10110/document.

Full text
Abstract:
Nous avons étudié la dynamique de Glauber sur les pavages de domaines finies du plan par des losanges ou par des dominos de taille 2 × 1. Ces pavages sont naturellement associés à des surfaces de R^3, qui peuvent être vues comme des interfaces dans des modèles de physique statistique. En particulier les pavages par des losanges correspondent au modèle d'Ising tridimensionnel à température nulle. Plus précisément les pavages d'un domaine sont en bijection avec les configurations d'Ising vérifiant certaines conditions au bord (dépendant du domaine pavé). Ces conditions forcent la coexistence des phases + et - ainsi que la position du bord de l'interface. Dans la limite thermodynamique où L, la longueur caractéristique du système, tend vers l'infini, ces interfaces obéissent à une loi des grand nombre et convergent vers une forme limite déterministe ne dépendant que des conditions aux bord. Dans le cas où la forme limite est planaire et pour les losanges, Caputo, Martinelli et Toninelli [CMT12] ont montré que le temps de mélange Tmix de la dynamique est d'ordre O(L^{2+o(1)}) (scaling diffusif). Nous avons généralisé ce résultat aux pavages par des dominos, toujours dans le cas d'une forme limite planaire. Nous avons aussi prouvé une borne inférieure Tmix ≥ cL^2 qui améliore d'un facteur log le résultat de [CMT12]. Dans le cas où la forme limite n'est pas planaire, elle peut être analytique ou bien contenir des parties “gelées” où elle est en un sens dégénérée. Dans le cas où elle n'a pas de telle partie gelée, et pour les pavages par des losanges, nous avons montré que la dynamique de Glauber devient “macroscopiquement proche” de l'équilibre en un temps L^{2+o(1)}
We studied the Glauber dynamics on tilings of finite regions of the plane by lozenges or 2 × 1 dominoes. These tilings are naturally associated with surfaces of R^3, which can be seen as interfaces in statistical physics models. In particular, lozenge tilings correspond to three dimensional Ising model at zero temperature. More precisely, tilings of a finite regions are in bijection with Ising configurations with some boundary conditions (depending on the tiled domain). These boundary conditions impose the coexistence of the + and - phases, together with the position of the boundary of the interface. In the thermodynamic limit where L, the characteristic length of the system, tends toward infinity, these interface follow a law of large number and converge to a deterministic limit shape depending only on the boundary condition. When the limit shape is planar and for lozenge tilings, Caputo, Martinelli and Toninelli [CMT12] showed that the mixing time of the dynamics is of order (L^{2+o(1)}) (diffusive scaling). We generalized this result to domino tilings, always in the case of a planar limit shape. We also proved a lower bound Tmix ≥ cL^2 which improve on the result of [CMT12] by a log factor. When the limit shape is not planar, it can either be analytic or have some “frozen” domains where it is degenerated in a sense. When it does not have such frozen region, and for lozenge tilings, we showed that the Glauber dynamics becomes “macroscopically close” to equilibrium in a time L^{2+o(1)}
APA, Harvard, Vancouver, ISO, and other styles
31

Goavec-Merou, Gwenhael. "Générateur de coprocesseur pour le traitement de données en flux (vidéo ou similaire) sur FPGA." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2056/document.

Full text
Abstract:
L’utilisation de matrice de portes logiques reconfigurables (FPGA) est une des seules solutionspour traiter des flux de plusieurs 100 MÉchantillons/seconde en temps-réel. Toutefois, ce typede composant présente une grande difficulté de mise en oeuvre : au delà d’un type langage spécifique,c’est tout un environnement matériel et une certaine expérience qui sont requis pourobtenir les traitements les plus efficaces. Afin de contourner cette difficulté, de nombreux travauxont été réalisés dans le but de proposer des solutions qui, partant d’un code écrit dans unlangage de haut-niveau, vont produire un code dans un langage dédié aux FPGAs. Nos travaux,suivant l’approche d’assemblage de blocs et en suivant la méthode du skeleton, ont visé à mettreen place un logiciel, nommé CoGen, permettant, à partir de codes déjà développés et validés,de construire des chaînes de traitements en tenant compte des caractéristiques du FPGA cible,du débit entrant et sortant de chaque bloc pour garantir l’obtention d’une solution la plus adaptéepossible aux besoins et contraintes. Les implémentations des blocs de traitements sont soitgénérés automatiquement soit manuellement. Les entrées-sorties de chaque bloc doivent respecterune norme pour être exploitable dans l’outil. Le développeur doit fournir une descriptionconcernant les ressources nécessaires et les limitations du débit de données pouvant être traitées.CoGen fournit à l’utilisateur moins expérimenté une méthode d’assemblage de ces blocsgarantissant le synchronisme et cohérence des flux de données ainsi que la capacité à synthétiserle code sur les ressources matérielles accessibles. Cette méthodologie de travail est appliquéeà des traitements sur des flux vidéos (seuillage, détection de contours et analyse des modespropres d’un diapason) et sur des flux radio-fréquences (interrogation d’un capteur sans-fils parméthode RADAR, réception d’un flux modulé en fréquence, et finalement implémentation deblocs de bases pour déporter le maximum de traitements en numérique)
Using Field Programmable Gate Arrays (FPGA) is one of the very few solution for real time processingdata flows of several hundreds of Msamples/second. However, using such componentsis technically challenging beyond the need to become familiar with a new kind of dedicateddescription language and ways of describing algorithms, understanding the hardware behaviouris mandatory for implementing efficient processing solutions. In order to circumvent these difficulties,past researches have focused on providing solutions which, starting from a description ofan algorithm in a high-abstraction level language, generetes a description appropriate for FPGAconfiguration. Our contribution, following the strategy of block assembly based on the skeletonmethod, aimed at providing a software environment called CoGen for assembling various implementationsof readily available and validated processing blocks. The resulting processing chainis optimized by including FPGA hardware characteristics, and input and output bandwidths ofeach block in order to provide solution fitting best the requirements and constraints. Each processingblock implementation is either generated automatically or manually, but must complywith some constraints in order to be usable by our tool. In addition, each block developer mustprovide a standardized description of the block including required resources and data processingbandwidth limitations. CoGen then provides to the less experienced user the means to assemblethese blocks ensuring synchronism and consistency of data flow as well as the ability to synthesizethe processing chain in the available hardware resources. This working method has beenapplied to video data flow processing (threshold, contour detection and tuning fork eigenmodesanalysis) and on radiofrequency data flow (wireless interrogation of sensors through a RADARsystem, software processing of a frequency modulated stream, software defined radio)
APA, Harvard, Vancouver, ISO, and other styles
32

Wahbi, Wassim. "Contrôle stochastique sur les réseaux." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED072.

Full text
Abstract:
Cette thèse se décompose en trois grandes parties, qui traitent des EDP quasi linéaires paraboliques sur une jonction, des diffusions stochastiques sur une jonction, et du contrôle optimal également sur une jonction, avec contrôle au point de jonction. Nous commençons au premier Chapitre par introduire une nouvelle classe d'EDP non dégénérée et quasi linéaire, satisfaisant une condition de Neumann (ou de Kirchoff) non linéaire et non dynamique au point de jonction. Nous prouvons l'existence d'une solution classique, ainsi que son unicité. L'une des motivations portant sur l'étude de ce type d'EDP, est de faire le lien avec la théorie du contrôle optimale sur les jonctions, et de caractériser la fonction valeur de ce type de problème à l'aide des équations d'Hamilton Jacobi Bellman. Ainsi, au Chapitre suivant, nous formulons une preuve donnant l'existence d'une diffusion sur une jonction. Ce processus admet un temps local, dont l'existence et la variation quadratique dépendent essentiellement de l'hypothèse d'ellipticité des termes du second ordre au point de jonction. Nous formulerons une formule d'Itô pour ce processus. Ainsi, grâce aux résultats de ces deux Chapitres, nous formulerons dont le dernier Chapitre un problème de contrôle stochastique sur les jonctions, avec contrôle au point de jonction. L'espace des contrôles est celui des mesures de Probabilités résolvant un problème martingale. Nous prouvons la compacité de l'espace des contrôles admissibles, ainsi que le principe de la programmation dynamique
This thesis consists of three parts which deal with quasi linear parabolic PDE on a junction, stochastic diffusion on a junction and stochastic control on a junction with control at the junction point. We begin in the first Chapter by introducing and studying a new class of non degenerate quasi linear parabolic PDE on a junction, satisfying a Neumann (or Kirchoff) non linear and non dynamical condition at the junction point. We prove the existence and the uniqueness of a classical solution. The main motivation of studying this new mathematical object is the analysis of stochastic control problems with control at the junction point, and the characterization of the value function of the problem in terms of Hamilton Jacobi Bellman equations. For this end, in the second Chapter we give a proof of the existence of a diffusion on a junction. The process is characterized by its local time at the junction point, whose quadratic approximation is centrally related to the ellipticty assumption of the second order terms around the junction point.We then provide an It's formula for this process. Thanks to the previous results, in the last Chapter we study a problem of stochastic control on a junction, with control at the junction point. The set of controls is the set of the probability measures (admissible rules) satisfying a martingale problem. We prove the compactness of the admissible rules and the dynamic programming principle
APA, Harvard, Vancouver, ISO, and other styles
33

Savy, Nicolas. "Mouvement Brownien Fractionnaire, applications aux télécommunications. Calcul Stochastique relativement à des processus fractionnaires." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00003407.

Full text
Abstract:
Le mouvement Brownien fractionnaire (mBf) est devenu un processus incontournable dès que l'on veut s'affranchir des propriétés de Markov et d'indépendance des accroissements. Nous verrons les principales propriétés de ce processus, nous insisterons sur certains aspects de son utilisation comme modèle de file fluide. On développe ensuite la construction d'une intégrale anticipative relative au mBf à partir de l'intégrale anticipative relative au mouvement Brownien. Fort de cette idée, nous avons introduit une intégrale anticipative relative à des processus de Poissons filtrés (pPf) à partir d'une intégrale anticipative pour des processus de Poissons marqués, intégrale que nous relions à l'intégrale de Stieltjès. L'étude se poursuit par une formule de Itô pour des fonctionnelles cylindriques et par un résultat sur la continuité de Holdër des processus intégrés. Pour finir, un théorème de convergence en loi d'une suite de pPf vers un processus de Volterra est établi.
APA, Harvard, Vancouver, ISO, and other styles
34

Amini, Hadis. "Stabilisation des systèmes quantiques à temps discrets et stabilité des filtres quantiques à temps continus." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00803170.

Full text
Abstract:
Dans cette thèse, nous étudions des rétroactions visant à stabiliser des systèmes quantiques en temps discret soumis à des mesures quantiques non-destructives (QND), ainsi que la stabilité des filtres quantiques à temps continu. Cette thèse comporte deux parties. Dans une première partie, nous généralisons les méthodes mathématiques sous-jacentes à une rétroaction quantique en temps discret testée expérimentalement au Laboratoire Kastler Brossel (LKB) de l'École Normale Supérieure (ENS) de Paris. Plus précisément,nous contribuons à un algorithme de contrôle qui a été utilisé lors de cette expérience récente de rétroaction quantique. L'expérience consiste en la préparation et la stabilisation à la demande d'états nombres de photons (états de Fock) d'un champ de micro-ondes au sein d'une cavité supraconductrice. Pour cela, nous concevons des filtres à temps-réel permettant d'estimer les états quantiques malgré des imperfections et des retards de mesure, et nous proposons une loi de rétroaction assurant la stabilisation d'un état cible prédéterminé. Cette rétroaction de stabilisation est obtenue grâce à des méthodes Lyapunov stochastique et elle repose sur un filtre estimant l'état quantique. Nous prouvons qu'une telle stratégie de contrôle se généralise à d'autres systèmes quantiques en temps discret soumis à des mesures QND. Dans une seconde partie, nous considérons une extension du résultat obtenu pour des filtres quantiques en temps discret au cas des filtres en temps continu. Dans ce but, nous démontrons la stabilité d'un filtre quantique associé à l'équation maîtresse stochastique usuelle découlant par un processus de Wiener. La stabilité signifie ici que la "distance"entre l'état physique et le filtre quantique associé décroit en moyenne. Cette partie étudie également la conception d'un filtre optimal en temps continu en présence d'imperfections de mesure. Pour ce faire, nous étendons la méthode utilisée précédemment pour construire les filtres quantiques en temps discret tolérants aux imperfections de mesure. Enfin,nous obtenons heuristiquement des filtres optimaux généraux en temps continu, dont la dynamique est décrite par des équations maîtresses stochastiques découlant à la fois par processus de Poisson et Wiener. Nous conjecturons que ces filtres optimaux sont stables.
APA, Harvard, Vancouver, ISO, and other styles
35

Messaci, Fatiha. "Estimation de la densité spectrale d'un processus en temps continu par échantillonage poissonnien." Rouen, 1986. http://www.theses.fr/1986ROUES036.

Full text
Abstract:
Ce travail est consacré à l'estimation de la densité spectrale d'un processus réel, par échantillonnage poissonnien. Après l'étude théorique, le calcul des estimateurs a été effectué sur des données simulées d'un processus de Gauss Markov, puis d'un processus gaussien non markovien
APA, Harvard, Vancouver, ISO, and other styles
36

Bun, Long. "Détection et localisation de défauts pour un système PV." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00647189.

Full text
Abstract:
Comme tout processus industriel, un système photovoltaïque peut être soumis, au cours de son fonctionnement, à différents défauts et anomalies conduisant à une baisse de la performance du système et voire à son indisponibilité. Permettre de diagnostiquer finement et de faire de la détection et de localisation de défauts dans une installation PV réduit les coûts de maintenance et surtout augmente la productivité. Dans ce travail de thèse, nous nous intéressons spécifiquement à la détection et la localisation de défauts côté DC du système PV, c'est-à-dire du côté générateur PV. L'objectif de cette thèse est de proposer, en prenant le moins de mesures possibles pour respecter les contraintes économiques, un algorithme pour détecter et localiser des défauts conduisant à une baisse de production. Pour cela, le choix s'est porté sur l'analyse de la caractéristique I-V du générateur PV pour les différents modes de fonctionnement considérés. Cette analyse a conduit à utiliser la méthode d'inférence pour effectuer le diagnostic de l'installation. Cette démarche a été validée par des expérimentations sur site, des simulations temps-réel et hors temps-réel.
APA, Harvard, Vancouver, ISO, and other styles
37

Zagalo, Kevin. "Stochastic analysis of stationary real-time systems." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS394.

Full text
Abstract:
Dans cette thèse, nous définissons la notion de système temps réel probabiliste stationnaire dans lesquels les temps inter-arrivées sont décrits par des variables aléatoires identiquement distribuées. Pour ces systèmes, nous prouvons une condition nécessaire d'ordonnançabilité et ainsi nous définissons un domaine de faisabilité, en tenant compte de l'incertitude présente dans l'exécution des tâches. Ensuite, nous approximons la loi des temps de réponse de ces systèmes avec la famille des lois inverse Gaussienne et nous introduisons une méthode d'inférence pour ces temps de réponse des systèmes probabilistes temps réel. Enfin, nous étudions le problème de l'ordonnancement en ligne multiprocesseur des systèmes probabilistes temps réel, en nous concentrant sur l'utilisation des probabilités de dépassement de délai comme métrique. Nous proposons une nouvelle classe d'algorithmes d'allocation basée sur les probabilités de dépassement de délai. L'algorithme proposé introduit la possibilité d'incorporer l'inférence de données dans le processus de décision d'ordonnancement. Nous évaluons la performance de notre algorithme par des simulations approfondies, et nos résultats démontrent son efficacité à étendre le domaine de faisabilité des allocations de processeurs tout en maintenant des probabilités de dépassement de délai équivalentes à celles des algorithmes actuels. Nous discutons également des défis et des possibilités de recherche future dans le domaine des systèmes probabilistes en temps réel et de l'ordonnancement multiprocesseur
In this thesis, we define the notion of stationary probabilistic real-time systems in which the inter-arrival times are described by identically distributed random variables. For these systems, we prove a necessary condition of schedulability as well as a feasibility domain, taking into account the uncertainty within the execution of tasks. Then, we approximate the distributions of response times for these systems using inverse Gaussian distributions and we introduce an inference method for these response times of real-time probabilistic systems. Finally, we study the problem of online multiprocessor scheduling of real-time probabilistic systems, focusing on the use of deadline miss probabilities as a metric. We propose a new class of allocation algorithms based on deadline miss probabilities. The proposed algorithm introduces the possibility of incorporating data inference into the scheduling decision process. We evaluate the performance of our algorithm through extensive simulations. Our results show its effectiveness in extending the feasibility domain of processor allocations while maintaining deadline miss probabilities equivalent to existing algorithms. We also discuss challenges and opportunities for future research in the area of real-time probabilistic systems and multiprocessor scheduling
APA, Harvard, Vancouver, ISO, and other styles
38

Barros, Anne. "Maintenance des systèmes multicomposants sous surveillance imparfaite : modélisation stochastique et optimisation." Troyes, 2003. http://www.theses.fr/2003TROY0004.

Full text
Abstract:
L'optimisation des politiques de maintenance pour des systèmes multicomposants s'appuie sur une modélisation stochastique du comportement du système maintenu et de l'information issue du dispositif de surveillance. L'originalité des travaux présentés ici réside dans l'intérêt qui a été porté au problème de modélisation du dispositif de surveillance. L'étude bibliographique de la première partie montre en effet que dans la plupart des modèles existants, la surveillance est considérée comme parfaite, alors que les algorithmes de détection utilisés en diagnostic sont caractérisés par des erreurs de type non détection, fausse alarme et retard à la détection. On propose donc ici un modèle permettant d'intégrer un de ces défauts de surveillance (non détections aléatoires sur les pannes des composants). La politique de maintenance étudiée consiste à remplacer préventivement tous les composants à une date commune, afin d'éviter une panne totale du système. On montre que la date optimale de renouvellement est entièrement conditionnée par l'évolution d'un indicateur de dégradation du système calculé à partir des observations issues de la surveillance (processus de taux de défaillance observé). Le calcul de cet indicateur présenté dans la deuxième partie est fondé sur l'écriture sous forme de semi martingale régulière du processus indicateur des défaillances du système. La procédure d'optimisation décrite dans la dernière partie consiste à en étudier les trajectoires. Des résultats numériques montrent l'intérêt, en termes de coût, d'un modèle intégrant des défauts de surveillance par rapport à des modèles qui considèrent que l'information est parfaite ou inexistante
Multi-unit systems maintenance optimisation is based on stochastic models which must take into account the stochastic evolution of the system, the maintenance actions and their impact on the system, and the monitorig information on the units state. The aim of this work is to focus on the monitoring model. Actually, the survey on multi unit maintenance optimisation presented in part one, shows that in most of existing stochastic models, the information given by the monitoring device is considered to be perfect. However, the detection algorithms used for systems diagnostis are characterised by errors such as non detection or false alarm, and detection delay. That is why we propose here to model one type of this default : a failure of one unit can be not detected with a given probability. We aim at optimising the following maintenance policy : the whole units are renewed preventively at the same time in order to avoid global system failure. We show that the optimal time of preventive renewal is totally conditionned by the evolution of an indicator of the system degradation. This indicator is a stochastic process (called failure rate process) and is calculated on the basis of the observations given by the monitoring device. The failure rate process is studied in the second part. It is calculated by writing the system failure indicator process as smooth semi martingale. Its paths are used in part three for the optimisation scheme. Numerical results show the maintenance cost obtained with our model taking into account monitoring faults is lower than the one obtained with models considering the information is perfect or does not exist
APA, Harvard, Vancouver, ISO, and other styles
39

Gradinaru, Mihai. "Applications du calcul stochastique à l'étude de certains processus." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011826.

Full text
Abstract:
Ce document contient la synthèse des travaux de recherche effectués
entre 1996 et 2005, après la thèse de doctorat de l'auteur, et concerne l'étude fine de
certains processus stochastiques : mouvement brownien linéaire ou plan, processus de diffusion,
mouvement brownien fractionnaire, solutions d'équations différentielles stochastiques ou
d'équations aux dérivées partielles stochastiques.
La thèse d'habilitation s'articule en six chapitres correspondant aux thèmes
suivants : étude des intégrales par rapport aux temps locaux de certaines diffusions,
grandes déviations pour un processus obtenu par perturbation brownienne d'un système
dynamique dépourvu de la propriété d'unicité des solutions, calcul stochastique
pour le processus gaussien non-markovien non-semimartingale mouvement brownien fractionnaire,
étude des formules de type Itô et Tanaka pour l'équation de la chaleur stochastique,
étude de la durée de vie du mouvement brownien plan réfléchi dans un domaine à
frontière absorbante et enfin, estimation non-paramétrique et construction d'un
test d'adéquation à partir d'observations discrètes pour le coefficient de diffusion d'une
équation différentielle stochastique.
Les approches de tous ces thèmes sont probabilistes et basées sur l'analyse stochastique.
On utilise aussi des outils d'équations différentielles, d'équations aux dérivées partielles
et de l'analyse.
APA, Harvard, Vancouver, ISO, and other styles
40

Jiang, Qi. "Gestion énergétique de véhicules hybrides par commande optimale stochastique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS011/document.

Full text
Abstract:
Ce mémoire présente une étude comparative de quatre stratégies de gestion énergétique temps réel, appliquées d'une part à un véhicule hybride thermique-électrique, et d'autre part à un véhicule électrique à pile à combustible : contrôle basé sur des règles empirique (RBS), minimisation de la consommation équivalente (A-ECMS), loi de commande optimale (OCL) établie à partir d'une modélisation analytique du système et programmation dynamique stochastique (SDP) associée à une modélisation des cycles de conduite par chaîne de Markov. Le principe du minimum de Pontryaguin et la programmation dynamique, applicables hors ligne, sont mis en œuvre pour fournir des résultats de référence. Les problèmes d’implémentation numérique et de paramétrage des stratégies sont discutés. Une analyse statistique effectuée sur la base de cycles aléatoires générés par chaînes de Markov permet d’évaluer la robustesse des stratégies étudiées. Les résultats obtenus en simulation, puis sur un dispositif expérimental montrent que les méthodes les plus simples (RBS ou OCL) conduisent à des consommations élevées. SDP aboutit aux meilleures performances avec en moyenne la plus faible consommation de carburant dans les conditions réelles de conduite et un état énergétique final du système de stockage parfaitement maîtrisé. Les résultats d’A-ECMS sont comparables à ceux de SDP en moyenne, mais avec une plus grande dispersion, en particulier pour l'état de charge final. Afin d'améliorer les performances des méthode, des jeux de paramètres dédiés aux différents contextes de conduite sont considérés
This thesis presents a comparative study between four recent real-time energy management strategies (EMS) applied to a hybrid electric vehicle and to a fuel cell vehicle applications: rule-based strategy (RBS), adaptive equivalent consumption minimization strategy (A-ECMS), optimal control law (OCL) and stochastic dynamic programming (SDP) associated to driving cycle modeling by Markov chains. Pontryagin’s minimum principle and dynamic programming are applied to off-line optimization to provide reference results. Implementation and parameters setting issues are discussed for each strategy and a genetic algorithm is employed for A-ECMS calibration.The EMS robustness is evaluated using different types of driving cycles and a statistical analysis is conducted using random cycles generated by Markov process. Simulation and experimental results lead to the following conclusions. The easiest methods to implement (RBS and OCL) give rather high fuel consumption. SDP has the best overall performance in real-world driving conditions. It achieves the minimum average fuel consumption while perfectly respecting the state-sustaining constraint. A-ECMS results are comparable to SDP’s when using parameters well-adjusted to the upcoming driving cycle, but lacks robustness. Using parameter sets adjusted to the type of driving conditions (urban, road and highway) did help to improve A-ECMS performances
APA, Harvard, Vancouver, ISO, and other styles
41

Delhome, Raphaël. "Modélisation de la variabilité des temps de parcours et son intégration dans des algorithmes de recherche du plus court chemin stochastique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET010/document.

Full text
Abstract:
La représentation des temps de parcours est un enjeu influençant la qualité de l’information transmise aux usagers des réseaux de transport. En particulier, la congestion constitue un inconvénient majeur dont la prise en compte n’est pas toujours maîtrisée au sein des calculateurs d’itinéraires. De même, les évènements comme les réductions de capacité, les perturbations climatiques, ou encore les pics de fréquentation incitent à dépasser la définition statique des temps de parcours. Des travaux antérieurs se sont focalisés sur des temps dynamiques, i.e. dépendants de la date de départ, de manière à affiner le détail de la représentation, et à prendre notamment en compte le caractère périodique des congestions. La considération d’informations en temps réel est aussi une amélioration indéniable, que ce soit lors de la préparation du trajet, ou lorsqu’il s’agit de s’adapter à des perturbations rencontrées en cours de route. Ceci dit, aussi fines qu’elles soient dans les calculateurs disponibles, ces modélisations présentent un inconvénient majeur : elles ne prennent pas en compte toutes les facettes de la variabilité des temps de parcours. Cette variabilité est très importante, en particulier si l’on considère le niveau d’aversion au risque des usagers. En outre, dans un réseau multimodal, les correspondances éventuelles rendent encore plus critique l’incertitude associée aux temps de parcours. En réponse à ces enjeux, les présents travaux de thèse ont ainsi été consacrés à l’étude de temps de parcours stochastiques, i.e. vus comme des variables aléatoires distribuées.Dans une première étape, nous nous intéressons à la modélisation statistique des temps de parcours et à la quantification de leur variabilité. Nous proposons l’utilisation d’un système de lois développé dans le domaine de l’hydrologie, la famille des lois de Halphen. Ces lois présentent les caractéristiques typiques des distributions de temps de parcours, elles vérifient par ailleurs la propriété de fermeture par l’addition sous certaines hypothèses afférentes à leurs paramètres. En exploitant les ratios de moments associés aux définitions de ces lois de probabilité, nous mettons également au point de nouveaux indicateurs de fiabilité, que nous confrontons avec la palette d’indicateurs classiquement utilisés. Cette approche holistique de la variabilité des temps de parcours nous semble ainsi ouvrir de nouvelles perspectives quant au niveau de détail de l’information, notamment à destination des gestionnaires de réseaux.Par la suite, nous étendons le cadre d’analyse aux réseaux, en utilisant les résultats obtenus à l’étape précédente. Différentes lois de probabilité sont ainsi testées dans le cadre de la recherche du plus court chemin stochastique. Cette première étude nous permet de dresser un panorama des chemins identifiés en fonction du choix de modélisation. S’il est montré que le choix du modèle est important, il s’agit surtout d’affirmer que le cadre stochastique est pertinent. Ensuite, nous soulevons la relative inefficacité des algorithmes de recherche du plus court chemin stochastique, ceux-ci nécessitant des temps de calcul incompatibles avec un passage à l’échelle industrielle. Pour pallier cette difficulté, un nouvel algorithme mettant en oeuvre une technique d’accélération tirée du cadre déterministe est développé dans la dernière partie de la thèse. Les résultats obtenus soulignent la pertinence de l’intégration de modèles stochastiques au sein des calculateurs d’itinéraires
The travel time representation has a major impact on user-oriented routing information. In particular, congestion detection is not perfect in current route planners. Moreover, the travel times cannot be considered as static because of events such as capacity drops, weather disturbances, or demand peaks. Former researches focused on dynamic travel times, i.e. that depend on departure times, in order to improve the representation details, for example concerning the periodicity of congestions. Real-time information is also a significant improvement for users aiming to prepare their travel or aiming to react to on-line events. However these kinds of model still have an important drawback : they do not take into account all the aspects of travel time variability. This dimension is of huge importance, in particular if the user risk aversion is considered. Additionally in a multimodal network, the eventual connections make the travel time uncertainty critical. In this way the current PhD thesis has been dedicated to the study of stochastic travel times, seen as distributed random variables.In a first step, we are interested in the travel time statistical modeling as well as in the travel time variability. In this goal, we propose to use the Halphen family, a probability law system previously developed in hydrology. The Halphen laws show the typical characteristics of travel time distributions, plus they are closed under addition under some parameter hypothesis. By using the distribution moment ratios, we design innovative reliability indexes, that we compare with classical metrics. This holistic approach appears to us as a promising way to produce travel time information, especially for infrastructure managers.Then we extend the analysis to transportation networks, by considering previous results. A set of probability laws is tested during the resolution of the stochastic shortest path problem. This research effort helps us to describe paths according to the different statistical models. We show that the model choice has an impact on the identified paths, and above all, that the stochastic framework is crucial. Furthermore we highlight the inefficiency of algorithms designed for the stochastic shortest path problem. They need long computation times and are consequently incompatible with industrial applications. An accelerated algorithm based on a deterministic state-of-the-art is provided to overcome this problem in the last part of this document. The obtained results let us think that route planners might include travel time stochastic models in a near future
APA, Harvard, Vancouver, ISO, and other styles
42

Goudenège, Ludovic. "Quelques résultats sur l'équation de Cahn-Hilliard stochastique et déterministe." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00439022.

Full text
Abstract:
Nous nous intéressons d'abord à l'équation aux dérivées partielles stochastique de Cahn-Hilliard en dimension 1 avec une seule singularité. C'est une équation d'ordre 4 dont la non linéarité est de type logarithmique ou en puissance négative $x^{-\alpha}$, à laquelle on ajoute la dérivée d'un bruit blanc en espace et en temps. On montre l'existence et l'unicité des solutions en utilisant les solutions d'équations approchées aux non linéarités Lipschitz. La présence d'une mesure de réflexion permet d'assurer l'existence de solutions. On étudie ces mesures à l'aide des mesures de Revuz associées et, grâce à une formule d'intégration par parties, on montre qu'elles sont identiquement nulles lorsque alpha est plus grand ou égal à 3. Dans un deuxième temps, on considère la même équation mais avec deux singularités logarithmiques en +1 et -1. Il s'agit du modèle complet de l'équation de Cahn-Hilliard. Cette fois-ci on utilise des équations approchées aux non linéarités polynomiales pour montrer l'existence et l'unicité de solutions. Deux mesures de réflexion doivent ici être ajoutées pour assurer l'existence. De plus, on montrera que la mesure invariante est ergodique. Enfin, on étudie l'équation déterministe : des simulations numériques basées sur une méthode d'élements finis de hauts degrés permettent d'illustrer plusieurs résultats théoriques. La capture des interfaces et des états stationnaires requiert une attention particulière. On s'intéressera également aux bifurcations autour de la première valeur propre du Laplacien sur des domaines généraux. Par ailleurs, quelques simulations stochastiques permettent de mettre en évidence les instants de contact avec les singularités, les évolutions stochastiques en temps long et les changements d'états stationnaires.
APA, Harvard, Vancouver, ISO, and other styles
43

Suet, Pierre-Henry. "Poursuite aléatoire d'une cible et optimisation du temps de recherche.Applications à la cinétique réactionnelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00281894.

Full text
Abstract:
Cette thèse a pour objet l'optimisation des temps de recherche lors d'une poursuite aléatoire. Cette thèse commence par un modèle simple et idéalisé de recherche par des animaux de cible caché. Ce modèle nous a fourni une relation en lois de puissance entre les temps passés dans chaque état (recherche et déplacement) qui s'accorde bien avec les résultats expérimentaux. Puis, nous avons étudié de façon systématique des modèles intermittents avec mémoire à une dimension du même type que celui utilisé pour les animaux. Cette étude permet de mieux cerner l'intérêt des processus intermittents selon le type de recherche à effectuer. Ensuite, nous avons examiné les processus de recherche intermittents sans mémoire dans le cadre de la réactivité chimique. Nous avons ainsi envisagé deux modèles de recherche intermittente sans mémoire à une dimension. Puis, nous nous sommes intéressé à l'influence d'un confinement géométrique sur les temps de résidence et les propriétés de rencontre entre les partenaires d'une réaction chimique. Nous avons alors montré que les relations géométriques précédemment obtenues pour des marches de Pearson dans des domaines fermés, sont des cas particuliers de relations très générales entre les temps de résidence pour une large classe de processus stochastiques. Enfin, nous avons étudié un processus de recherche intermittent alternant diffusion et téléportation pour un système sphérique continu à d dimensions et un réseau régulier. Les exemples d'application sont le transport à travers des membranes biologiques et la catalyse hétérogène. Nous avons alors montré que l'intermittence pouvait permettre de réduire considérablement le temps de recherche si la nature physique du chercheur et de son environnement rend possible de réaliser une alternance entre ces deux régimes.
APA, Harvard, Vancouver, ISO, and other styles
44

Toldo, Sandrine. "Convergence de filtrations ; application à la discrétisation de processus et à la stabilité de temps d'arrêt." Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00011277.

Full text
Abstract:
Cette thèse porte sur des propriétés de stabilité de problèmes d'arrêt dans le cas où l'on dispose d'une information approximative sur le modèle. La filtration engendrée par un processus représente l'information véhiculée par ce processus au cours du temps. Aussi, les propriétés des suites de filtrations associées à des suites de processus jouent un grand rôle dans ce travail. Un premier axe d'étude concerne la stabilité des notions de réduites et de temps d'arrêt optimaux. Une réduite est la valeur maximale de l'espérance d'une fonction dépendant d'un processus et d'un temps d'arrêt, maximum pris sur l'ensemble des temps d'arrêt pour la filtration engendrée par le processus. Un temps d'arrêt optimal est un temps d'arrêt réalisant le maximum. Le second axe concerne la stabilité de solutions d'équations différentielles stochastiques rétrogrades à horizon aléatoire fini presque sûrement quand le mouvement brownien dirigeant l'équation est approché soit par une suite de marches aléatoires, soit par une suite de martingales.
APA, Harvard, Vancouver, ISO, and other styles
45

Hamdi, Tarek. "Calcul stochastique commutatif et non-commutatif : théorie et application." Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2015/document.

Full text
Abstract:
Mon travail de thèse est composé de deux parties bien distinctes, la première partie est consacrée à l’analysestochastique en temps discret des marches aléatoires obtuses quant à la deuxième partie, elle est liée aux probabili-tés libres. Dans la première partie, on donne une construction des intégrales stochastiques itérées par rapport à unefamille de martingales normales d-dimentionelles. Celle-ci permet d’étudier la propriété de représentation chaotiqueen temps discret et mène à une construction des opérateurs gradient et divergence sur les chaos de Wiener correspon-dant. [...] d’une EDP non linéaire alors que la deuxième est de nature combinatoire.Dans un second temps, on a revisité la description de la mesure spectrale de la partie radiale du mouvement Browniensur Gl(d,C) quand d ! +¥. Biane a démontré que cette mesure est absolument continue par rapport à la mesurede Lebesgue et que son support est compact dans R+. Notre contribution consiste à redémontrer le résultat de Bianeen partant d’une représentation intégrale de la suite des moments sur une courbe de Jordon autour de l’origine etmoyennant des outils simples de l’analyse réelle et complexe
My PhD work is composed of two parts, the first part is dedicated to the discrete-time stochastic analysis for obtuse random walks as to the second part, it is linked to free probability. In the first part, we present a construction of the stochastic integral of predictable square-integrable processes and the associated multiple stochastic integrals ofsymmetric functions on Nn (n_1), with respect to a normal martingale.[...] In a second step, we revisited thedescription of the marginal distribution of the Brownian motion on the large-size complex linear group. Precisely, let (Z(d)t )t_0 be a Brownian motion on GL(d,C) and consider nt the limit as d !¥ of the distribution of (Z(d)t/d)⋆Z(d)t/d with respect to E×tr
APA, Harvard, Vancouver, ISO, and other styles
46

Lavayssiere, Luc. "Algorithmes adaptifs et réseaux de neurones pour la mesure en temps réel de la dimension fractale de signaux électrophysiologiques." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30068.

Full text
Abstract:
En utilisant des reseaux de neurones, des algorithmes d'approximation stochastique et la programmation parallele, on developpe des algorithmes recursifs de mesure de la dimension fractale de correlation pour la caracterisation de signaux stationnaires et pour la surveillance en temps reel de l'etat de systemes dynamiques instationnaires. On montre que l'algorithme adaptatif est un outil de detection fiable de la transition entre le chaos et la periodicite, meme en presence de bruit. Il peut etre utilise pour localiser des evenements transitoires critiques sur des enregistrements non stationnaires de longue duree, comme les enregistrements de signaux electrophysiologiques ecg ou eeg ou une chute de la dimension fractale a ete pressentie experimentalement comme un facteur de risque clinique important. On valide les algorithmes sur l'attracteur theorique de rossler et on etudie en detail l'influence du bruit sur la mesure. Des resultats preliminaires sur un signal ecg de souris confirment la faisabilite d'une detection d'etats transitoires periodiques ou quasi-periodiques par une mesure adaptative de la dimension fractale
APA, Harvard, Vancouver, ISO, and other styles
47

Julien, Grégory. "Filtrage Stochastique et amélioration des performances des systèmes de positionnement d’engins sous-marins en milieu bruyant." Electronic Thesis or Diss., Toulon, 2012. http://www.theses.fr/2012TOUL0018.

Full text
Abstract:
Le positionnement d'un engin sous-marin s'appuie sur des systèmes dits "acoustiques". Ces derniers renseignent la position relative de l'engin immergé par rapport au navire support. Les performances de ces systèmes sont définies en termes de limite de portée et de précision. Le principe de ces systèmes repose sur les notions de distance-métrie et de goniométrie, qui s'appuient toutes deux sur l'estimation du temps de propagation et donc de la date d'arrivée du signal utile. Cela est classiquement réalisé par une opération de Compression d'Impulsion. Cette technique qui est largement utilisée dans les domaines du SONAR, RADAR et imagerie bio-médicale, repose sur une application sous-optimale du Filtrage Adapté. En effet, le Filtrage Adapté est une technique d’estimation ou de détection optimale lorsque le bruit et blanc et gaussien et lorsque le signal utile est déterministe, c’est-à-dire que le signal reçu est bien connu. Cependant, il est bien connu que dans le monde sous-marin, le bruit n’est pas blanc, et pas toujours gaussien. Aussi, le signal utile étant déformé soit par le milieu de propagation soit par des phénomènes physiques tels que l’effet Doppler, celui-ci n’est pas déterministe. On peut alors considérer que le bruit est coloré et que le signal utile est une réalisation d’un processus aléatoire. Ainsi, en vue d’étendre les hypothèse d’application de la Compression d’Impulsion classique, nous proposons de construire une nouvelle forme de Compression d’Impulsion basée sur l’utilisation du Filtrage Adapté Stochastique. En effet, ce dernier est une extension naturelle du Filtrage Adapté pour des bruits colorés et des signaux déterministes. Toutefois, le Filtrage Adapté Stochastique suppose que les signaux sont stationnaires au second ordre. Or, cela n’est pas toujours le cas pour le bruit en milieu marin, et cela n’est jamais le cas pour un signal modulé en fréquence tel que ceux utilisés par les systèmes de positionnement acoustiques. Ainsi, nous proposons une nouvelle technique de Compression d’Impulsion alliant les qualités du Filtrage Adapté Stochastique et celle des techniques Temps-Fréquence. Ces dernières, et en particulier la transformée de Wigner-Ville, permettent de contourner l’hypothèse de stationnarité imposée par le Filtrage Adapté Stochastique. D’autre part, en vue de contrer l’apparition d’interférences générées par ces techniques, nous développons ici une approche par « décomposition atomique » sur une base de DCT. Ainsi donc, ces trois années de thèse, ont donné naissance à de nouvelles méthodes de Compression d'Impulsion qui permettent d'améliorer les performances des systèmes de positionnement sous-marin
The underwater vehicules positioning is based on acoustic systems. These systems provide us the relative position of the immersed submarine to the carrier ship. The systems performances are defined in terms of precision and slant range. The positioning systems use concepts like distance measurement and goniometry, both based on the Time Of Arrival estimation of the useful signal, which is classically performed by a Pulse Compression. This technique, widely applied on SONAR, RADAR and bio-medical imaging, is a sub-optimal application of the Matched Filtering. After these three years of work, we had obtained new methods of Pulse Compression that allow to improve the performances of the acoustic positioning systems. These new techniques are based on an expension of the application assumptions of the Pulse Compression to reach, as well as possible, the optimality
APA, Harvard, Vancouver, ISO, and other styles
48

Abdallah, Ben M'hamed. "Contribution à l'étude de fiabilité des composants : développement d'un générateur de bases de données de fiabilité et maintenabilité opérationnelles." Compiègne, 1990. http://www.theses.fr/1990COMPD236.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la tendance actuelle des industriels à développer des outils d'aide à la gestion de la sûreté de fonctionnement de leurs installations. Elle présente les objectifs et les caractéristiques d'un générateur de bases de données de fiabilité et de maintenabilité opérationnelles baptisé GBDOS, conçu et développé en collaboration avec l'industriel. Le chapitre 1 replace la réalisation dans le contexte théorique des études de sûreté, afin de mieux identifier les problèmes liés aux difficultés de modélisation lors de la construction de base de données de fiabilité et maintenabilité opérationnelles. Le chapitre 2 présente l'identification des données de fiabilité et maintenabilité, ainsi que leurs diverses sources. Après un rappel des principales lois de probabilité, le chapitre 3 présente les méthodes de recherche d'un modèle et d'obtention des données et conclue de l'intérêt d'une analyse exploratoire des données. A partir de l'expérience des bases de données de fiabilité opérationnelle développée en Europe, le chapitre 4 fait l'analyse critique des deux des trois phases essentielles que sont l'acquisition et l'exploitation des données. Le chapitre 5 présente le générateur qui a servi à élaborer une base de données de fiabilité et maintenabilité opérationnelle pour l'acquisition, le stockage et l'exploitation des historiques relatifs aux équipements techniques d'une chaufferie urbaine.
APA, Harvard, Vancouver, ISO, and other styles
49

Volpi, Agnès. "Processus associés à l'équation de diffusion rapide : étude asymptotique du temps de ruine et de l'overshoot." Nancy 1, 2003. http://docnum.univ-lorraine.fr/public/SCD_T_2003_0062_VOLPI.pdf.

Full text
Abstract:
I- Processus de diffusion rapide. Nous démontrons l'existence et l'unicité d'un processus associé à l'équation de diffusion rapide pour une large classe de données initiales. Nous montrons la convergence vers la solution associée à la masse de Dirac en 0. II- Etude asymptotique de la ruine et de l'overshoot. Soit Tx, le premier temps d'atteinte du niveau x par un processus de Lévy. Soit Kx l'overshoot. Nous obtenons : 1) un développement asymptotique de la transformée de Laplace de la loi du couple (Tx;Kx), quand x tend vers l'infini ; 2) une majoration polynomiale de la probabilité de ruine ; 3) un théorème de convergence en loi pour le couple (Tx;Kx) convenablement renormalisée, quand x tend vers l'infini
I- Processes of Rapid Diffusion. We check the existence and the unicity of the process associated with the equation of rapid diffusion for a large class of initial data. We show the convergence to the solution associated with the Dirac measure at 0. II- Ruin and Overshoot : Asymptotic Behaviour. Let Tx be the first hitting time of level x > 0 by a Lévy process. Let Kx be the overshoot. We obtain : 1) an asymptotic expansion of the Laplace transform of the distribution of (Tx;Kx), as x tends to infinity ; 2) a polynomial upper bound of the ruin probability ; 3) a convergence in law theorem for the normalized distribution of (Tx;Kx), as x tends to infinity
APA, Harvard, Vancouver, ISO, and other styles
50

Lim, T. "Quelques applications du contrôle stochastique aux risques de défaut et de liquidité." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00499532.

Full text
Abstract:
Cette thèse se compose de trois parties indépendantes portant sur l'application du contrôle stochastique à la finance. Dans la première partie, nous étudions le problème de maximisation de la fonction d'utilité dans un marché incomplet avec défauts et information totale/partielle. Nous utilisons le principe de la programmation dynamique pour pouvoir caractériser la fonction valeur solution du problème. Ensuite, nous utilisons cette caractérisation pour en déduire une EDSR dont la fonction valeur est solution. Nous donnons également une approximation de cette fonction valeur. Dans la seconde partie, nous étudions les EDSR à sauts. En utilisant les résultats de décomposition des processus à sauts liée au grossissement progressif de filtration, nous faisons un lien entre les EDSR à sauts et les EDSR browniennes. Cela nous permet de donner un résultat d'existence, un théorème de comparaison ainsi qu'une décomposition de la formule de Feynman-Kac. Puis nous utilisons ces techniques pour la détermination du prix d'une option européenne dans un marché complet et le prix d'indifférence d'un actif contingent non duplicable dans un marché incomplet. Enfin, dans la troisième partie, nous utilisons la théorie des erreurs pour expliquer le risque de liquidité comme une propriété intrinsèque au marché. Cela nous permet de modéliser la fourchette Bid-Ask. Puis nous résolvons dans ce modèle le problème de liquidation optimale d'un portefeuille en temps discret et déterministe en utilisant la programmation dynamique.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography