Дисертації з теми "Accélérations stochastiquess"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Accélérations stochastiquess.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-15 дисертацій для дослідження на тему "Accélérations stochastiquess".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Fossà, Alberto. "Propagation multi-fidélité d’incertitude orbitale en présence d’accélérations stochastiques." Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de la propagation non linéaire d’incertitude est crucial en astrodynamique, car tous les systèmes d’intérêt pratique, allant de la navigation à la détermination d’orbite et au suivi de cibles, impliquent des non-linéarités dans leurs modèles dynamiques et de mesure. Un sujet d’intérêt est la propagation précise d’incertitude à travers la dynamique orbitale non linéaire, une exigence fondamentale dans plusieurs applications telles que la surveillance de l’espace, la gestion du trafic spatial et la fin de vie des satellites. Étant donnée une représentation dimensionnelle finie de la fonction de densité de probabilité (pdf) de l’état initial, l’objectif est d’obtenir une représentation similaire de cette pdf à tout moment futur. Ce problème a été historiquement abordé avec des méthodes linéarisées ou des simulations de Monte Carlo (MC), toutes deux inadaptées pour satisfaire la demande d’un nombre croissant d’applications. Les méthodes linéarisées sont très performantes, mais ne peuvent pas gérer de fortes non-linéarités ou de longues fenêtres de propagation en raison de la validité locale de la linéarisation. En revanche, les méthodes MC peuvent gérer tout type de non-linéarité, mais sont trop coûteuses en termes de calcul pour toute tâche nécessitant la propagation de plusieurs pdf. Au lieu de cela, cette thèse exploite des méthodes multi-fidélité et des techniques d’algèbre différentielle (DA) pour développer des méthodes efficaces pour la propagation précise des incertitudes à travers des systèmes dynamiques non linéaires. La première méthode, appelée low-order automatic domain splitting (LOADS), représente l’incertitude avec un ensemble de polynômes de Taylor du deuxième ordre et exploite une mesure de non-linéarité basée sur la DA pour ajuster leur nombre en fonction de la dynamique locale et de la précision requise. Un modèle adaptatif de mélange Gaussien (GMM) est ensuite développé en associant chaque polynôme à un noyau pondéré pour obtenir une représentation analytique de la pdf d’état. En outre, une méthode multi-fidélité est proposée pour réduire le coût computationnel des algorithmes précédents tout en conservant une précision similaire. La méthode GMM est dans ce cas exécutée sur un modèle dynamique à faible fidélité, et seules les moyennes des noyaux sont propagées ponctuellement dans une dynamique à haute fidélité pour corriger la pdf à faible fidélité. Si les méthodes précédentes traitent de la propagation d’une incertitude initiale dans un modèle dynamique déterministe, les effets des forces mal ou non modélisées sont enfin pris en compte pour améliorer le réalisme des statistiques propagées. Dans ce cas, la méthode multi-fidélité est d’abord utilisée pour propager l’incertitude initiale dans un modèle dynamique déterministe de faible fidélité. Les propagations ponctuelles sont ensuite remplacées par une propagation polynomiale des moments de la pdf dans un système dynamique stochastique. Ces moments modélisent les effets des accélérations stochastiques sur les moyennes des noyaux, et couplés à la méthode GMM, ils fournissent une description de la pdf qui tient compte de l’incertitude initiale et des effets des forces négligées. Les méthodes proposées sont appliquées au problème de la propagation d’incertitude en orbite, et leurs performances sont évaluées dans différents régimes orbitaux. Les résultats démontrent leur efficacité pour une propagation précise de l’incertitude initiale et des effets du bruit du processus à une fraction du coût de calcul des simulations MC. La méthode LOADS est ensuite utilisée pour résoudre le problème de la détermination initiale d’orbite en exploitant les informations sur l’incertitude des mesures, et pour développer une méthode de prétraitement des données qui améliore la robustesse des algorithmes de détermination d’orbite. Ces outils sont enfin validés sur des observations réelles d’un objet en orbite de transfert géostationnaire
The problem of nonlinear uncertainty propagation (UP) is crucial in astrodynamics since all systems of practical interest, ranging from navigation to orbit determination (OD) and target tracking, involve nonlinearities in their dynamics and measurement models. One topic of interest is the accurate propagation of uncertainty through the nonlinear orbital dynamics, a fundamental requirement in several applications such as space surveillance and tracking (SST), space traffic management (STM), and end-of-life (EOL) disposal. Given a finite-dimensional representation of the probability density function (pdf) of the initial state, the main goal is to obtain a similar representation of the state pdf at any future time. This problem has been historically tackled with either linearized methods or Monte Carlo (MC) simulations, both of which are unsuitable to satisfy the demand of a rapidly growing number of applications. Linearized methods are light on computational resources, but cannot handle strong nonlinearities or long propagation windows due to the local validity of the linearization. In contrast, MC methods can handle any kind of nonlinearity, but are too computationally expensive for any task that requires the propagation of several pdfs. Instead, this thesis leverages multifidelity methods and differential algebra (DA) techniques to develop computationally efficient methods for the accurate propagation of uncertainties through nonlinear dynamical systems. The first method, named low-order automatic domain splitting (LOADS), represents the uncertainty with a set of second-order Taylor polynomials and leverages a DA-based measure of nonlinearity to adjust their number based on the local dynamics and the required accuracy. An adaptive Gaussian mixture model (GMM) method is then developed by associating each polynomial to a weighted Gaussian kernel, thus obtaining an analytical representation of the state pdf. Going further, a multifidelity method is proposed to reduce the computational cost of the former algorithms while retaining a similar accuracy. The adaptive GMM method is in this case run on a low-fidelity dynamical model, and only the expected values of the kernels are propagated point-wise in high-fidelity dynamics to compute a posteriori correction of the low-fidelity state pdf. If the former methods deal with the propagation of an initial uncertainty through a deterministic dynamical model, the effects of mismodeled or unmodeled forces are finally considered to further enhance the realism of the propagated statistics. In this case, the multifidelity GMM method is used at first to propagate the initial uncertainty through a low-fidelity, deterministic dynamical model. The point-wise propagations are then replaced with a DA-based algorithm to efficiently propagate a polynomial representation of the moments of the pdf in a stochastic dynamical system. These moments model the effects of stochastic accelerations on the deterministic kernels’ means, and coupled with the former GMM provide a description of the propagated state pdf that accounts for both the uncertainty in the initial state and the effects of neglected forces. The proposed methods are applied to the problem of orbit UP, and their performance is assessed in different orbital regimes. The results demonstrate the effectiveness of these methods in accurately propagating the initial uncertainty and the effects of process noise at a fraction of the computational cost of high-fidelity MC simulations. The LOADS method is then employed to solve the initial orbit determination (IOD) problem by exploiting the information on measurement uncertainty and to develop a preprocessing scheme aimed at improving the robustness of batch OD algorithms. These tools are finally validated on a set of real observations for an object in geostationary transfer orbit (GTO)
2

Soret, Émilie. "Accélération stochastique dans un gaz de Lorentz inélastique." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10054/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions la dynamique d'une particule dans un milieu inélastique composé de diffuseur et communément appelé gaz de Lorentz inélastique. Dans le cas inerte, le milieu n'est pas affecté par le passage de la particule. L'énergie cinétique de celle-ci croît avec le temps et ce phénomène est appelé « accélération stochastique ». Nous approximons le mouvement de la particule par une chaîne de Markov dont chaque pas correspond à une unique collision entre la particule et un diffuseur. Nous montrons que l'énergie cinétique moyenne de la particule croît avec le temps avec pour exposant 2/5. Ce résultat est montré en utilisant des arguments probabilistes, utilisant des théorèmes de convergence de chaînes de Markov ainsi que la convergence en distribution de la chaîne, correctement changée d'échelle en temps et en espace, vers un processus de Bessel. Nous obtenons également un résultat de convergence pour le vecteur vitesse. Sous un changement d'échelle différent de celui utilisé pour l'énergie cinétique, celui-ci converge en distribution vers un mouvement brownien sphérique. Dans le cas dynamique, l'évolution des degrés de liberté du gaz de Lorentz est affecté par le passage de la particule et le système dynamique considéré est composé de la particule et du milieu. Dans un tel système, le phénomène d'accélération stochastique ne peut pas être observé. En revanche nous montrons que la distribution des vitesses admet un état stationnaire
In this thesis, we study the dynamics of a particle in an inelastic environment composed of scatterer which is commonly known as inelastic Lorentz gas. In the inert case, the environment is not affected by the particle. The kinetic energy of the latter grows with the time and this phenomenon is called « stochastic acceleration ». We approximate the particle's motion by a Markov chain where each step corresponds to a unique collision of the particle with a scatterer. We show that the particle's averaged kinetic energy grows with the time with the exponent 2/5. The result is proved by using probabilistic arguments, bringing into weak convergence theorems of Markov chain as well as the weak convergence of the chain, correctly rescaled in time and space, to a Bessel process.We thus obtain a convergence result for the velocity vector. Under a different rescaling that the one used for the kinetic energy, the latter converges weakly to a spherical brownian motion. In the dynamical case, the evolution of the degrees of freedom of the Lorentz gas is affected by the particle and the dynamical system considered is constitued of the particle and the environment. In such a system, the stochastic acceleration phenomenon cannot be observed. However, we show that the velocity distribution admits a stationnary state
3

Kulunchakov, Andrei. "Optimisation stochastique pour l'apprentissage machine à grande échelle : réduction de la variance et accélération." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse vise à explorer divers sujets liés à l'analyse des méthodes de premier ordre appliquées à des problèmes stochastiques de grande dimension. Notre première contribution porte sur divers algorithmes incrémentaux, tels que SVRG, SAGA, MISO, SDCA, qui ont été analysés de manière approfondie pour les problèmes avec des informations de gradient exactes. Nous proposons une nouvelle technique, qui permet de traiter ces méthodes de manière unifiée et de démontrer leur robustesse à des perturbations stochastiques lors de l'observation des gradients. Notre approche est basée sur une extension du concept de suite d'estimation introduite par Yurii Nesterov pour l'analyse d'algorithmes déterministes accélérés.Cette approche permet de concevoir de façon naturelle de nouveaux algorithmes incrémentaux offrant les mêmes garanties que les méthodes existantes tout en étant robustes aux perturbations stochastiques.Enfin, nous proposons un nouvel algorithme de descente de gradient stochastique accéléré et un nouvel algorithme SVRG accéléré robuste au bruit stochastique. Dans le dernier cas il s'agit essentiellement de l'accélération déterministe au sens de Nesterov, qui préserve la convergence optimale des erreurs stochastiques.Finalement, nous abordons le problème de l'accélération générique. Pour cela, nous étendons l'approche multi-étapes de Catalyst, qui visait à l'origine l'accélération de méthodes déterministes. Afin de l'appliquer aux problèmes stochastiques, nous le modifions pour le rendre plus flexible par rapport au choix des fonctions auxiliaires minimisées à chaque étape de l'algorithme. Finalement, à partir d'une méthode d'optimisation pour les problèmes fortement convexes, avec des garanties standard de convergence, notre procédure commence par accélérer la convergence vers une région dominée par le bruit, pour converger avec une vitesse quasi-optimale ensuite. Cette approche nous permet d'accélérer diverses méthodes stochastiques, y compris les algorithmes à variance réduite. Là encore, le cadre développé présente des similitudes avec l'analyse d'algorithmes accélérés à l'aide des suites d'estimation. En ce sens, nous essayons de combler l'écart entre l'optimisation déterministe et stochastique en termes d'accélération de Nesterov. Une autre contribution est une analyse unifiée d'algorithmes proximaux stochastiques lorsque l'opérateur proximal ne peut pas être calculé de façon exacte.Ensuite, nous étudions des propriétés d'algorithmes stochastique non-Euclidiens appliqués au problème d'estimation parcimonieuse. La structure de parcimonie permet de réduire de façon significative les effets du bruit dans les observation du gradient. Nous proposons un nouvel algorithme stochastique, appelé SMD-SR, permettant de faire meilleur usage de cette structure. Là encore, la méthode en question est une routine multi-étapes qui utilise l'algorithme stochastique de descente en miroir comme élément constitutif de ses étapes. Cette procédure comporte deux phases de convergence, dont la convergence linéaire de l'erreur pendant la phase préliminaire, et la convergence à la vitesse asymptotique optimale pendant la phase asymptotique. Par rapport aux solutions existantes les plus efficaces aux problèmes d’optimisation stochastique parcimonieux, nous proposons une amélioration sur plusieurs aspects. Tout d'abord, nous montrons que l'algorithme proposé réduit l'erreur initiale avec une vitesse linéaire (comme un algorithme déterministe de descente de gradient, utilisant l'observation complète du gradient), avec un taux de convergence optimal par rapport aux caractéristiques du bruit. Deuxièmement, nous obtenons ce taux pour une grande classe de modèles de bruit, y compris les distributions sous-gaussiennes, de Rademacher, de Student multivariées, etc. Enfin, ces résultats sont obtenus sous la condition optimale sur le niveau de parcimonie qui peut approcher le nombre total d'iterations de l'algorithme (à un facteur logarithmique près)
A goal of this thesis is to explore several topics in optimization for high-dimensional stochastic problems. The first task is related to various incremental approaches, which rely on exact gradient information, such as SVRG, SAGA, MISO, SDCA. While the minimization of large limit sums of functions was thoroughly analyzed, we suggest in Chapter 2 a new technique, which allows to consider all these methods in a generic fashion and demonstrate their robustness to possible stochastic perturbations in the gradient information.Our technique is based on extending the concept of estimate sequence introduced originally by Yu. Nesterov in order to accelerate deterministic algorithms.Using the finite-sum structure of the problems, we are able to modify the aforementioned algorithms to take into account stochastic perturbations. At the same time, the framework allows to derive naturally new algorithms with the same guarantees as existing incremental methods. Finally, we propose a new accelerated stochastic gradient descent algorithm and a new accelerated SVRG algorithm that is robust to stochastic noise. This acceleration essentially performs the typical deterministic acceleration in the sense of Nesterov, while preserving the optimal variance convergence.Next, we address the problem of generic acceleration in stochastic optimization. For this task, we generalize in Chapter 3 the multi-stage approach called Catalyst, which was originally aimed to accelerate deterministic methods. In order to apply it to stochastic problems, we improve its flexibility on the choice of surrogate functions minimized at each stage. Finally, given an optimization method with mild convergence guarantees for strongly convex problems, our developed multi-stage procedure, accelerates convergence to a noise-dominated region, and then achieves the optimal (up to a logarithmic factor) worst-case convergence depending on the noise variance of the gradients. Thus, we successfully address the acceleration of various stochastic methods, including the variance-reduced approaches considered and generalized in Chapter 2. Again, the developed framework bears similarities with the acceleration performed by Yu. Nesterov using the estimate sequences. In this sense, we try to fill the gap between deterministic and stochastic optimization in terms of Nesterov's acceleration. A side contribution of this chapter is a generic analysis that can handle inexact proximal operators, providing new insights about the robustness of stochastic algorithms when the proximal operator cannot be exactly computed.In Chapter 4, we study properties of non-Euclidean stochastic algorithms applied to the problem of sparse signal recovery. A sparse structure significantly reduces the effects of noise in gradient observations. We propose a new stochastic algorithm, called SMD-SR, allowing to make better use of this structure. This method is a multi-step procedure which uses the stochastic mirror descent algorithm as a building block over its stages. Essentially, SMD-SR has two phases of convergence with the linear bias convergence during the preliminary phase and the optimal asymptotic rate during the asymptotic phase.Comparing to the most effective existing solution to the sparse stochastic optimization problems, we offer an improvement in several aspects. First, we establish the linear bias convergence (similar to the one of the deterministic gradient descent algorithm, when the full gradient observation is available), while showing the optimal robustness to noise. Second, we achieve this rate for a large class of noise models, including sub-Gaussian, Rademacher, multivariate Student distributions and scale mixtures. Finally, these results are obtained under the optimal condition on the level of sparsity which can approach the total number of iterations of the algorithm (up to a logarithmic factor)
4

Patin, David. "Le chauffage stochastique dans l'interaction laser-plasma à très haut flux." Paris 11, 2006. http://www.theses.fr/2006PA112020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre de l'étude de l'interaction laser plasma à très haut flux. L'objectif a été de rendre compte d'un phénomène bien précis : le chauffage stochastique. Ce phénomène trouve son origine dans la nature chaotique du comportement des électrons du plasma. Afin de construire un modèle théorique simple nous avons fait deux hypothèses : (i) des plasmas très peu denses, (ii) des intensités lasers très élevées. La deuxième hypothèse se traduit par un a>1 (où a=e*E0/m*c*omega0 avec -e la charge de l'électron, E0 le champ électrique du laser, m la masse de l'électron, c la vitesse de la lumière dans le vide et omega0 la pulsation de l'onde laser), ce qui entraîne la nécessité d'utiliser une approche relativiste du système. Avec ces deux hypothèses, notre système se compose d'un électron interagissant avec un ou plusieurs lasers et le modèle théorique pour décrire celui ci fait appel aux outils de la dynamique hamiltonienne. L'étude approfondie du modèle théorique a permis, via le critère de Chirikov, de dégager un ensemble de paramètres pour lequel le chaos est étendu. Ce chaos étendu est à la base du chauffage stochastique. Ensuite des simulations réalisées à l'aide d'un code PIC (Particle In Cell) ont permis de retrouver la signature d'un comportement chaotique prédit par le modèle théorique. L'influence de différents paramètres sur le gain en énergie cinétique des électrons apporté par le chauffage stochastique a été étudiée. Cela a permis également de conforter le bon choix du modèle théorique. Enfin, un premier test (numérique) d'utilisation du chauffage stochastique est présenté en annexe
This thesis takes place in the field of high intensity laser-plasma interaction. The aim was to highlight the stochastic heating effect. This phenomenon comes from the chaotic behavior of the plasma electrons. In order to have a simple theoretical model, two assumptions were made : underdense plasma and high intensity laser. The second one is equivalent to a>1 (where a is the normalized vector potential, a=eE0/mcw0 with (-e) the electron charge, E0 the electric field of the laser, m the electron mass, c the speed of light in vacuum and w0 the pulsation of the laser), so we need a relativistic approach of the system. The hamiltonian formalism is used in order to get information from our system. Using the Chirikov criterion, a set of parameters was deduced in order to get global stochasticity. Then, particle in cell simulations were performed in order to validate theoretical predictions. The influence of several parameters on the energy gain has been studied. Finally, a first numerical test was performed for protons acceleration
5

Rassou, Sébastien. "Accélération d'électrons par onde de sillage laser : Développement d’un modèle analytique étendu au cas d’un plasma magnétisé dans le régime du Blowout." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS066/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une impulsion laser intense se propageant dans un plasma sous-dense (ne< 10¹⁸ W.cm⁻²) et de durée très courte (τ₀< 100 fs), , on atteint le régime de la bulle. Les champs électriques dans ces bulles, de l’ordre de 100 GV/m, peuvent accélérer un faisceau d’électrons jusqu’au GeV sur des distances de l’ordre du centimètre. Dans ce régime, les électrons expulsés par la force pondéromotrice du laser forment une fine et dense couche à la surface d'une cavité d'ions restés immobiles. Les propriétés de ce régime sont examinées par l’intermédiaire d’un modèle analytique, que nous avons développé en nous inspirant du travail de W. Lu et S. Yi. En nous plaçant dans ce régime prometteur, nous avons étudié les mécanismes d’injection et de piégeage dans l'onde de sillage. Dans l’injection optique, les polarisations parallèles ou circulaires positives conduisent respectivement à une injection mettant en jeu du chauffage stochastique, ou à l’injection froide. Un paramètre de similarité est introduit, celui-ci permet de déterminer la méthode d’injection la plus appropriée pour maximiser la charge injectée. Enfin, le modèle analytique présenté en première partie est étendu afin d’étudier l’onde de sillage dans le régime de la bulle lorsqu’un champ magnétique longitudinal initial est appliqué au plasma. Lorsque le plasma est magnétisé deux phénomènes remarquables se manifestent, d'une part une ouverture apparaît à l'arrière de la bulle et d'autre part un mécanisme d'amplification du champ magnétique longitudinale est induit par la variation du flux magnétique. Les prédictions de notre modèle analytique sont confrontées aux résultats de simulations PIC 3D issues du code CALDER-Circ. La conséquence immédiate de la déformation de l'onde de sillage est la réduction, voire la suppression de l'auto-injection. L’application d’un champ magnétique longitudinal, combinée à un choix judicieux des paramètres laser-plasma, permet de réduire la dispersion en énergie des faisceaux d’électrons produits après injection optique
An intense laser pulse propagating in an under dense plasma (ne< 10¹⁸ W.cm⁻²) and short(τ₀< 100 fs), the bubble regime is reached. Within the bubble the electric field can exceed 100 GV/m and a trapped electron beam is accelerated to GeV energy with few centimetres of plasma.In this regime, the electrons expelled by the laser ponderomotive force are brought back and form a dense sheath layer. First, an analytic model was derived using W. Lu and S. Yi formalisms in order to investigate the properties of the wakefield in the blowout regime. In a second part, the trapping and injection mechanisms into the wakefield were studied. When the optical injection scheme is used, electrons may undergo stochastic heating or cold injection depending on the lasers’ polarisations. A similarity parameter was introduced to find out the most appropriate method to maximise the trapped charge. In a third part, our analytic model is extended to investigate the influence of an initially applied longitudinal magnetic field on the laser wakefield in the bubble regime. When the plasma is magnetized two remarkable phenomena occur. Firstly the bubble is opened at its rear, and secondly the longitudinal magnetic field is amplified - at the rear of the bubble - due to the azimuthal current induced by the variation of the magnetic flux. The predictions of our analytic model were shown to be in agreement with 3D PIC simulation results obtained with Calder-Circ. In most situations the wake shape is altered and self-injection can be reduced or even cancelled by the applied magnetic field. However, the application of a longitudinal magnetic field, combined with a careful choice of laser-plasma parameters, reduces the energy spread of the electron beam produced after optical injection
6

Faure, Jérôme. "Accélération de particules par interaction laser-plasma dans le régime relativiste." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00404354.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire de HDR résume les dix dernières années de recherche effectuée au Laboratoire d'Optique Appliquée sur l'accélération d'électrons par interaction laser-plasma. Les résultats principaux sont l'obtention d'une source d'électrons relativiste (100-300 MeV), mono-énergétique, ultracourte (quelques fs), compacte (quelques millimètres), stable et réglable. Le manuscrit décrit les étapes qui ont permis d'élucider la physique en jeu puis de la maîtriser, ce qui a finalement abouti à la génération de cette nouvelle source. Les aspects de propagation non linéaire de l'impulsion laser dans un plasma sous-dense sont tout d'abord traités: la création d'onde de sillage linéaire et non linéaire, l'auto-focalisation relativiste et pondéromotrice d'impulsions courtes et intenses, l'auto-compression dans les ondes plasmas. Puis l'accélération et l'injection des électrons dans les ondes de sillage est rappelée d'un point de vue théorique. La démonstration expérimentale de l'injection des électrons dans le régime de la bulle et/ou par collision de deux impulsions laser est ensuite développée. Ces expériences ont été parmi les premières à permettre l'obtention de faisceaux mono-énergétiques de bonne qualité dans un premier temps, et stable et réglable dans un deuxième temps. Les deux derniers chapitres sont consacrés aux diagnostics du faisceau d'électrons par rayonnement de transition puis aux applications en radiographie gamma et radiothérapie. Finalement les perspectives de cette recherche sont présentées en conclusion. En particulier, on s'est intéressé aux paramètres atteignables sur les lasers petawatt en cours de construction.
7

Castellanos, Lopez Clara. "Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-01064412.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension.
8

Delhome, Raphaël. "Modélisation de la variabilité des temps de parcours et son intégration dans des algorithmes de recherche du plus court chemin stochastique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La représentation des temps de parcours est un enjeu influençant la qualité de l’information transmise aux usagers des réseaux de transport. En particulier, la congestion constitue un inconvénient majeur dont la prise en compte n’est pas toujours maîtrisée au sein des calculateurs d’itinéraires. De même, les évènements comme les réductions de capacité, les perturbations climatiques, ou encore les pics de fréquentation incitent à dépasser la définition statique des temps de parcours. Des travaux antérieurs se sont focalisés sur des temps dynamiques, i.e. dépendants de la date de départ, de manière à affiner le détail de la représentation, et à prendre notamment en compte le caractère périodique des congestions. La considération d’informations en temps réel est aussi une amélioration indéniable, que ce soit lors de la préparation du trajet, ou lorsqu’il s’agit de s’adapter à des perturbations rencontrées en cours de route. Ceci dit, aussi fines qu’elles soient dans les calculateurs disponibles, ces modélisations présentent un inconvénient majeur : elles ne prennent pas en compte toutes les facettes de la variabilité des temps de parcours. Cette variabilité est très importante, en particulier si l’on considère le niveau d’aversion au risque des usagers. En outre, dans un réseau multimodal, les correspondances éventuelles rendent encore plus critique l’incertitude associée aux temps de parcours. En réponse à ces enjeux, les présents travaux de thèse ont ainsi été consacrés à l’étude de temps de parcours stochastiques, i.e. vus comme des variables aléatoires distribuées.Dans une première étape, nous nous intéressons à la modélisation statistique des temps de parcours et à la quantification de leur variabilité. Nous proposons l’utilisation d’un système de lois développé dans le domaine de l’hydrologie, la famille des lois de Halphen. Ces lois présentent les caractéristiques typiques des distributions de temps de parcours, elles vérifient par ailleurs la propriété de fermeture par l’addition sous certaines hypothèses afférentes à leurs paramètres. En exploitant les ratios de moments associés aux définitions de ces lois de probabilité, nous mettons également au point de nouveaux indicateurs de fiabilité, que nous confrontons avec la palette d’indicateurs classiquement utilisés. Cette approche holistique de la variabilité des temps de parcours nous semble ainsi ouvrir de nouvelles perspectives quant au niveau de détail de l’information, notamment à destination des gestionnaires de réseaux.Par la suite, nous étendons le cadre d’analyse aux réseaux, en utilisant les résultats obtenus à l’étape précédente. Différentes lois de probabilité sont ainsi testées dans le cadre de la recherche du plus court chemin stochastique. Cette première étude nous permet de dresser un panorama des chemins identifiés en fonction du choix de modélisation. S’il est montré que le choix du modèle est important, il s’agit surtout d’affirmer que le cadre stochastique est pertinent. Ensuite, nous soulevons la relative inefficacité des algorithmes de recherche du plus court chemin stochastique, ceux-ci nécessitant des temps de calcul incompatibles avec un passage à l’échelle industrielle. Pour pallier cette difficulté, un nouvel algorithme mettant en oeuvre une technique d’accélération tirée du cadre déterministe est développé dans la dernière partie de la thèse. Les résultats obtenus soulignent la pertinence de l’intégration de modèles stochastiques au sein des calculateurs d’itinéraires
The travel time representation has a major impact on user-oriented routing information. In particular, congestion detection is not perfect in current route planners. Moreover, the travel times cannot be considered as static because of events such as capacity drops, weather disturbances, or demand peaks. Former researches focused on dynamic travel times, i.e. that depend on departure times, in order to improve the representation details, for example concerning the periodicity of congestions. Real-time information is also a significant improvement for users aiming to prepare their travel or aiming to react to on-line events. However these kinds of model still have an important drawback : they do not take into account all the aspects of travel time variability. This dimension is of huge importance, in particular if the user risk aversion is considered. Additionally in a multimodal network, the eventual connections make the travel time uncertainty critical. In this way the current PhD thesis has been dedicated to the study of stochastic travel times, seen as distributed random variables.In a first step, we are interested in the travel time statistical modeling as well as in the travel time variability. In this goal, we propose to use the Halphen family, a probability law system previously developed in hydrology. The Halphen laws show the typical characteristics of travel time distributions, plus they are closed under addition under some parameter hypothesis. By using the distribution moment ratios, we design innovative reliability indexes, that we compare with classical metrics. This holistic approach appears to us as a promising way to produce travel time information, especially for infrastructure managers.Then we extend the analysis to transportation networks, by considering previous results. A set of probability laws is tested during the resolution of the stochastic shortest path problem. This research effort helps us to describe paths according to the different statistical models. We show that the model choice has an impact on the identified paths, and above all, that the stochastic framework is crucial. Furthermore we highlight the inefficiency of algorithms designed for the stochastic shortest path problem. They need long computation times and are consequently incompatible with industrial applications. An accelerated algorithm based on a deterministic state-of-the-art is provided to overcome this problem in the last part of this document. The obtained results let us think that route planners might include travel time stochastic models in a near future
9

Hajji, Kaouther. "Accélération de la méthode de Monte Carlo pour des processus de diffusions et applications en Finance." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132054/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s’intéresse à la combinaison des méthodes de réduction de variance et de réduction de la complexité de la méthode Monte Carlo. Dans une première partie de cette thèse, nous considérons un modèle de diffusion continu pour lequel on construit un algorithme adaptatif en appliquant l’importance sampling à la méthode de Romberg Statistique Nous démontrons un théorème central limite de type Lindeberg Feller pour cet algorithme. Dans ce même cadre et dans le même esprit, on applique l’importance sampling à la méthode de Multilevel Monte Carlo et on démontre également un théorème central limite pour l’algorithme adaptatif obtenu. Dans la deuxième partie de cette thèse,on développe le même type d’algorithme pour un modèle non continu à savoir les processus de Lévy. De même, nous démontrons un théorème central limite de type Lindeberg Feller. Des illustrations numériques ont été menées pour les différents algorithmes obtenus dans les deux cadres avec sauts et sans sauts
In this thesis, we are interested in studying the combination of variance reduction methods and complexity improvement of the Monte Carlo method. In the first part of this thesis,we consider a continuous diffusion model for which we construct an adaptive algorithm by applying importance sampling to Statistical Romberg method. Then, we prove a central limit theorem of Lindeberg-Feller type for this algorithm. In the same setting and in the same spirit, we apply the importance sampling to the Multilevel Monte Carlo method. We also prove a central limit theorem for the obtained adaptive algorithm. In the second part of this thesis, we develop the same type of adaptive algorithm for a discontinuous model namely the Lévy processes and we prove the associated central limit theorem. Numerical simulations are processed for the different obtained algorithms in both settings with and without jumps
10

Zamansky, Rémi. "Simulation numérique directe et modélisation stochastique de sous-maille de l'accélération dans un écoulement de canal à grand nombre de Reynolds." Phd thesis, Ecole Centrale de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00673464.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la caractérisation numérique et la modélisation stochastique de l'accélération du fluide pour l'écoulement en canal à grand nombre de Reynolds. La motivation concerne l'observation et l'analyse des effets de l'intermittence liés aux interactions à longue portée à travers le canal. Dans la première partie, l'accélération est étudiée par simulation numérique directe pour trois différents nombres de Reynolds (180, 590 et 1000). La lognormalité de la norme de l'accélération est observée quelle que soit la distance à la paroi. Un profil universel de la norme de l'accélération est également recherché par analyse dimensionnelle. La seconde partie présente une modélisation stochastique de l'accélération basée sur la décomposition norme/orientation. Le modèle stochastique pour la norme s'appuie sur un processus de fragmentation afin de représenter les interactions à longue portée à travers le canal. Pour l'orientation, l'évolution vers l'isotropie lorsque la distance à la paroi augmente (observée par la DNS) est reproduite grâce à un modèle de marche aléatoire sur une sphère. Ces modèles ont été appliqués à l'approche LES-SSAM (Stochastic Subgrid Acceleration Model) introduite par Sabel'nikov, Chtab et Gorokhovski. Nos calculs montrent que les estimations de la vitesse moyenne, du spectre d'énergie, des contraintes de l'écoulement et de la non-gaussianité des statistiques de l'accélération peuvent être améliorées de façon significative par rapport à la LES classique. L'intérêt de l'approche LES-SSAM, donnant un accès vers la structure intermittente de sous-maille, est illustré dans la dernière partie, par l'étude du transport de particules inertielles ponctuelles par l'écoulement de canal. Cette étude commence par l'analyse par DNS de l'influence des structures de paroi sur la dynamique des particules
11

Guyon, Julien. "Modelisation probabiliste en finance et en biologie : Théorèmes limites et applications." Marne-la-vallée, ENPC, 2006. http://www.theses.fr/2006ENPCXXX8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Barge, Alexis. "Propriétés lagrangiennes de l'accélération turbulente des particules fluides et inertielles dans un écoulement avec un cisaillement homogène : DNS et nouveaux modèles de sous-maille de LES." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte sur l’étude de l’accélération de particules fluides et inertielles en déplacement dans une turbulence soumise à un gradient de vitesse moyen. L’objectif est de récupérer des données de référence afin de développer des modèles LES stochastiques pour la prédiction de l’accélération de sous-maille et l’accélération de particules inertielles dans des conditions inhomogènes. La modélisation de l’accélération de sous-maille est effectuée à l’aide de l’approche LES-SSAM introduite par Sabel’nikov, Chtab et Gorokhovski[EPJB 80:177]. L’accélération est modélisée à l’aide de deux modèles stochastiques indépendants : un processus log-normal d’Ornstein-Uhlenbeck pour la norme d’accélération et un processus stochastique Ornstein-Uhlenbeck basé sur le calcul de Stratonovich pour les composantes du vecteur d’orientation de l’accélération. L’approche est utilisée pour la simulation de particules fluides et inertielles dans le cas d’une turbulence homogène isotrope et dans un cisaillement homogène. Les résultats montrent une amélioration des statistiques à petites échelles par rapport aux LES classiques. La modélisation de l’accélération des particules inertielles dans le cisaillement homogène est effectuée avec l’approche LES-STRIP introduite par Gorokhovski et Zamansky[PRF 3:034602] et est modélisée avec deux modèles stochastiques indépendants de manière similaire à l’accélération de sous-maille. Nos calculs montrent une amélioration de l’accélération et de la vitesse des particules lorsque le modèle STRIP est utilisé. Enfin dans une dernière partie, nous présentons une équation pour décrire la dynamique de particules ponctuelles de taille supérieure à l’échelle de Kolmogorov dans une turbulence homogène isotrope calculée par DNS. Les résultats sont comparés avec l’expérience et montrent que cette description reproduit bien les propriétés dynamiques des particules
The main objective of this thesis is to study the acceleration of fluid and inertial particles moving in a turbulent flow under the influence of a homogeneous shear in order to develop LES stochastic models that predict subgrid acceleration of the flow and acceleration of inertial particles. Subgrid acceleration modelisation is done in the framework of the LES-SSAM approach which was introduced by Sabel’nikov, Chtab and Gorokhovski[EPJB 80:177]. Acceleration is predicted with two independant stochastic models : a log-normal Ornstein-Uhlenbeck process for the norm of acceleration and an Ornstein-Uhlenbeck process expressed in the sense of Stratonovich calculus for the components of the acceleration orientation vector. The approach is used to simulate fluid and inertial particles moving in a homogeneous isotropic turbulence and in a homogeneous sheared turbulence. Our results show that small scales statistics of particles are better predicted in comparison with classical LES approach. Modelling of inertial particles acceleration is done in the framework of the LES-STRIP which was introduced by Gorokhovski and Zamansky[PRF 3:034602] with two independant stochastic models in a similar way to the subgrid fluid acceleration. Computations of inertial particles in the homogeneous shear flow present good predicitons of the particles acceleration and velocity when STRIP model is used. In the last chapter, we present an equation to describe the dynamic of point-like particles which size is larger than the Kolmogorov scale moving in a homogeneous isotropic turbulence computed by direct numerical simulation. Results are compared with experiments and indicate that this description reproduces well the properties of the particles dynamic
13

Flammarion, Nicolas. "Stochastic approximation and least-squares regression, with applications to machine learning." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE056/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De multiples problèmes en apprentissage automatique consistent à minimiser une fonction lisse sur un espace euclidien. Pour l’apprentissage supervisé, cela inclut les régressions par moindres carrés et logistique. Si les problèmes de petite taille sont résolus efficacement avec de nombreux algorithmes d’optimisation, les problèmes de grande échelle nécessitent en revanche des méthodes du premier ordre issues de la descente de gradient. Dans ce manuscrit, nous considérons le cas particulier de la perte quadratique. Dans une première partie, nous nous proposons de la minimiser grâce à un oracle stochastique. Dans une seconde partie, nous considérons deux de ses applications à l’apprentissage automatique : au partitionnement de données et à l’estimation sous contrainte de forme. La première contribution est un cadre unifié pour l’optimisation de fonctions quadratiques non-fortement convexes. Celui-ci comprend la descente de gradient accélérée et la descente de gradient moyennée. Ce nouveau cadre suggère un algorithme alternatif qui combine les aspects positifs du moyennage et de l’accélération. La deuxième contribution est d’obtenir le taux optimal d’erreur de prédiction pour la régression par moindres carrés en fonction de la dépendance au bruit du problème et à l’oubli des conditions initiales. Notre nouvel algorithme est issu de la descente de gradient accélérée et moyennée. La troisième contribution traite de la minimisation de fonctions composites, somme de l’espérance de fonctions quadratiques et d’une régularisation convexe. Nous étendons les résultats existants pour les moindres carrés à toute régularisation et aux différentes géométries induites par une divergence de Bregman. Dans une quatrième contribution, nous considérons le problème du partitionnement discriminatif. Nous proposons sa première analyse théorique, une extension parcimonieuse, son extension au cas multi-labels et un nouvel algorithme ayant une meilleure complexité que les méthodes existantes. La dernière contribution de cette thèse considère le problème de la sériation. Nous adoptons une approche statistique où la matrice est observée avec du bruit et nous étudions les taux d’estimation minimax. Nous proposons aussi un estimateur computationellement efficace
Many problems in machine learning are naturally cast as the minimization of a smooth function defined on a Euclidean space. For supervised learning, this includes least-squares regression and logistic regression. While small problems are efficiently solved by classical optimization algorithms, large-scale problems are typically solved with first-order techniques based on gradient descent. In this manuscript, we consider the particular case of the quadratic loss. In the first part, we are interestedin its minimization when its gradients are only accessible through a stochastic oracle. In the second part, we consider two applications of the quadratic loss in machine learning: clustering and estimation with shape constraints. In the first main contribution, we provided a unified framework for optimizing non-strongly convex quadratic functions, which encompasses accelerated gradient descent and averaged gradient descent. This new framework suggests an alternative algorithm that exhibits the positive behavior of both averaging and acceleration. The second main contribution aims at obtaining the optimal prediction error rates for least-squares regression, both in terms of dependence on the noise of the problem and of forgetting the initial conditions. Our new algorithm rests upon averaged accelerated gradient descent. The third main contribution deals with minimization of composite objective functions composed of the expectation of quadratic functions and a convex function. Weextend earlier results on least-squares regression to any regularizer and any geometry represented by a Bregman divergence. As a fourth contribution, we consider the the discriminative clustering framework. We propose its first theoretical analysis, a novel sparse extension, a natural extension for the multi-label scenario and an efficient iterative algorithm with better running-time complexity than existing methods. The fifth main contribution deals with the seriation problem. We propose a statistical approach to this problem where the matrix is observed with noise and study the corresponding minimax rate of estimation. We also suggest a computationally efficient estimator whose performance is studied both theoretically and experimentally
14

Pradat, Yannick. "Retraite et risque financier." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le premier chapitre examine les caractéristiques statistiques à long terme des rendements financiers en France et aux USA. Les propriétés des différents actifs font apparaître qu’à long terme les actions procurent un risque sensiblement moins élevé. En outre, les propriétés de retour à la moyenne des actions justifient qu’elles soient utilisées dans une stratégie de cycle de vie comme « option par défaut » de plans d’épargne retraite. Le chapitre deux fournit une explication au débat sur l'hypothèse d’efficience des marchés. La cause du débat est souvent attribuée à la petite taille des échantillons et à la faible puissance des tests statistiques dédiés. Afin de contourner ce problème, nous utilisons l'approche développée par Campbell et Viceira (2005) qui utilisent une méthode VAR pour mettre en évidence l’existence de retour vers la moyenne dans le cours des actifs risqués.Le troisième chapitre évalue la vitesse de convergence des cours des actions. Un moyen classique pour caractériser la vitesse de retour vers la moyenne est la « demi-vie ». En comparant les indices boursiers de quatre pays développés (États-Unis, Royaume-Uni, France et Japon) sur la période 1950-2014, nous établissons une vitesse de convergence significative, avec une demi-vie entre 4,0 et 5,8 ans.Le dernier chapitre présente les résultats d'un modèle conçu pour étudier les interactions entre la démographie et les régimes de retraite. Afin d’étudier les risques inhérents à l’utilisation des revenus du capital pour financer les retraites, nous utilisons un « Trending OU process » au lieu d’un MBG classique pour modéliser les rendements. Pour un épargnant averse au risque le marché pourrait concurrencer les régimes par répartition
Chapter one examines the long run statistical characteristics of financial returns in France and the USA for selected assets. This study clearly shows that the returns’ distributions diverge from the Gaussian strategy as regards longholding periods. Thereafter we analyze the consequences of the non-Gaussian nature of stock returns on default-option retirement plans.Chapter two provides a reasonable explanation to the strong debate on the Efficient Market Hypothesis. The cause of the debate is often attributed to small sample sizes in combination with statistical tests for mean reversion that lackpower. In order to bypass this problem, we use the approach developed by Campbell and Viceira (2005) who have settled a vectorial autoregressive methodology (VAR) to measure the mean reversion of asset returns.The third chapter evaluates the speed of convergence of stock prices. A convenient way to characterize the speed of mean reversion is the half-life. Comparing the stock indexes of four developed countries (US, UK, France and Japan) during the period 1950-2014, we establish significant mean reversion, with a half-life lying between 4,0 and 5,8 years.The final chapter provides some results from a model built in order to study the linked impacts of demography and economy on the French pension scheme. In order to reveal the risks that are contained in pension fund investment, we use a Trending Ornstein-Uhlenbeck process instead of the typical GBM for modeling stock returns. We find that funded scheme returns, net of management fees, are slightly lower thanthe PAYG internal rate of return
15

Rei, Walter. "Accélération de méthodes de résolution classiques par l'utilisation de stratégies de séparation locale comme outil d'hybridation." Thèse, 2006. http://hdl.handle.net/1866/17858.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії