Dissertations / Theses on the topic 'Stochastic accelerations'

To see the other types of publications on this topic, follow the link: Stochastic accelerations.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 18 dissertations / theses for your research on the topic 'Stochastic accelerations.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fossà, Alberto. "Propagation multi-fidélité d’incertitude orbitale en présence d’accélérations stochastiques." Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de la propagation non linéaire d’incertitude est crucial en astrodynamique, car tous les systèmes d’intérêt pratique, allant de la navigation à la détermination d’orbite et au suivi de cibles, impliquent des non-linéarités dans leurs modèles dynamiques et de mesure. Un sujet d’intérêt est la propagation précise d’incertitude à travers la dynamique orbitale non linéaire, une exigence fondamentale dans plusieurs applications telles que la surveillance de l’espace, la gestion du trafic spatial et la fin de vie des satellites. Étant donnée une représentation dimensionnelle finie de la fonction de densité de probabilité (pdf) de l’état initial, l’objectif est d’obtenir une représentation similaire de cette pdf à tout moment futur. Ce problème a été historiquement abordé avec des méthodes linéarisées ou des simulations de Monte Carlo (MC), toutes deux inadaptées pour satisfaire la demande d’un nombre croissant d’applications. Les méthodes linéarisées sont très performantes, mais ne peuvent pas gérer de fortes non-linéarités ou de longues fenêtres de propagation en raison de la validité locale de la linéarisation. En revanche, les méthodes MC peuvent gérer tout type de non-linéarité, mais sont trop coûteuses en termes de calcul pour toute tâche nécessitant la propagation de plusieurs pdf. Au lieu de cela, cette thèse exploite des méthodes multi-fidélité et des techniques d’algèbre différentielle (DA) pour développer des méthodes efficaces pour la propagation précise des incertitudes à travers des systèmes dynamiques non linéaires. La première méthode, appelée low-order automatic domain splitting (LOADS), représente l’incertitude avec un ensemble de polynômes de Taylor du deuxième ordre et exploite une mesure de non-linéarité basée sur la DA pour ajuster leur nombre en fonction de la dynamique locale et de la précision requise. Un modèle adaptatif de mélange Gaussien (GMM) est ensuite développé en associant chaque polynôme à un noyau pondéré pour obtenir une représentation analytique de la pdf d’état. En outre, une méthode multi-fidélité est proposée pour réduire le coût computationnel des algorithmes précédents tout en conservant une précision similaire. La méthode GMM est dans ce cas exécutée sur un modèle dynamique à faible fidélité, et seules les moyennes des noyaux sont propagées ponctuellement dans une dynamique à haute fidélité pour corriger la pdf à faible fidélité. Si les méthodes précédentes traitent de la propagation d’une incertitude initiale dans un modèle dynamique déterministe, les effets des forces mal ou non modélisées sont enfin pris en compte pour améliorer le réalisme des statistiques propagées. Dans ce cas, la méthode multi-fidélité est d’abord utilisée pour propager l’incertitude initiale dans un modèle dynamique déterministe de faible fidélité. Les propagations ponctuelles sont ensuite remplacées par une propagation polynomiale des moments de la pdf dans un système dynamique stochastique. Ces moments modélisent les effets des accélérations stochastiques sur les moyennes des noyaux, et couplés à la méthode GMM, ils fournissent une description de la pdf qui tient compte de l’incertitude initiale et des effets des forces négligées. Les méthodes proposées sont appliquées au problème de la propagation d’incertitude en orbite, et leurs performances sont évaluées dans différents régimes orbitaux. Les résultats démontrent leur efficacité pour une propagation précise de l’incertitude initiale et des effets du bruit du processus à une fraction du coût de calcul des simulations MC. La méthode LOADS est ensuite utilisée pour résoudre le problème de la détermination initiale d’orbite en exploitant les informations sur l’incertitude des mesures, et pour développer une méthode de prétraitement des données qui améliore la robustesse des algorithmes de détermination d’orbite. Ces outils sont enfin validés sur des observations réelles d’un objet en orbite de transfert géostationnaire
The problem of nonlinear uncertainty propagation (UP) is crucial in astrodynamics since all systems of practical interest, ranging from navigation to orbit determination (OD) and target tracking, involve nonlinearities in their dynamics and measurement models. One topic of interest is the accurate propagation of uncertainty through the nonlinear orbital dynamics, a fundamental requirement in several applications such as space surveillance and tracking (SST), space traffic management (STM), and end-of-life (EOL) disposal. Given a finite-dimensional representation of the probability density function (pdf) of the initial state, the main goal is to obtain a similar representation of the state pdf at any future time. This problem has been historically tackled with either linearized methods or Monte Carlo (MC) simulations, both of which are unsuitable to satisfy the demand of a rapidly growing number of applications. Linearized methods are light on computational resources, but cannot handle strong nonlinearities or long propagation windows due to the local validity of the linearization. In contrast, MC methods can handle any kind of nonlinearity, but are too computationally expensive for any task that requires the propagation of several pdfs. Instead, this thesis leverages multifidelity methods and differential algebra (DA) techniques to develop computationally efficient methods for the accurate propagation of uncertainties through nonlinear dynamical systems. The first method, named low-order automatic domain splitting (LOADS), represents the uncertainty with a set of second-order Taylor polynomials and leverages a DA-based measure of nonlinearity to adjust their number based on the local dynamics and the required accuracy. An adaptive Gaussian mixture model (GMM) method is then developed by associating each polynomial to a weighted Gaussian kernel, thus obtaining an analytical representation of the state pdf. Going further, a multifidelity method is proposed to reduce the computational cost of the former algorithms while retaining a similar accuracy. The adaptive GMM method is in this case run on a low-fidelity dynamical model, and only the expected values of the kernels are propagated point-wise in high-fidelity dynamics to compute a posteriori correction of the low-fidelity state pdf. If the former methods deal with the propagation of an initial uncertainty through a deterministic dynamical model, the effects of mismodeled or unmodeled forces are finally considered to further enhance the realism of the propagated statistics. In this case, the multifidelity GMM method is used at first to propagate the initial uncertainty through a low-fidelity, deterministic dynamical model. The point-wise propagations are then replaced with a DA-based algorithm to efficiently propagate a polynomial representation of the moments of the pdf in a stochastic dynamical system. These moments model the effects of stochastic accelerations on the deterministic kernels’ means, and coupled with the former GMM provide a description of the propagated state pdf that accounts for both the uncertainty in the initial state and the effects of neglected forces. The proposed methods are applied to the problem of orbit UP, and their performance is assessed in different orbital regimes. The results demonstrate the effectiveness of these methods in accurately propagating the initial uncertainty and the effects of process noise at a fraction of the computational cost of high-fidelity MC simulations. The LOADS method is then employed to solve the initial orbit determination (IOD) problem by exploiting the information on measurement uncertainty and to develop a preprocessing scheme aimed at improving the robustness of batch OD algorithms. These tools are finally validated on a set of real observations for an object in geostationary transfer orbit (GTO)
2

Wolf, Christian [Verfasser]. "Advanced acceleration techniques for Nested Benders decomposition in stochastic programming / Christian Wolf." Paderborn : Universitätsbibliothek, 2014. http://d-nb.info/1046905090/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

McEvoy, Erica L., and Erica L. McEvoy. "A Numerical Method for the Simulation of Skew Brownian Motion and its Application to Diffusive Shock Acceleration of Charged Particles." Diss., The University of Arizona, 2017. http://hdl.handle.net/10150/625664.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Stochastic differential equations are becoming a popular tool for modeling the transport and acceleration of cosmic rays in the heliosphere. In diffusive shock acceleration, cosmic rays diffuse across a region of discontinuity where the up- stream diffusion coefficient abruptly changes to the downstream value. Because the method of stochastic integration has not yet been developed to handle these types of discontinuities, I utilize methods and ideas from probability theory to develop a conceptual framework for the treatment of such discontinuities. Using this framework, I then produce some simple numerical algorithms that allow one to incorporate and simulate a variety of discontinuities (or boundary conditions) using stochastic integration. These algorithms were then modified to create a new algorithm which incorporates the discontinuous change in diffusion coefficient found in shock acceleration (known as Skew Brownian Motion). The originality of this algorithm lies in the fact that it is the first of its kind to be statistically exact, so that one obtains accuracy without the use of approximations (other than the machine precision error). I then apply this algorithm to model the problem of diffusive shock acceleration, modifying it to incorporate the additional effect of the discontinuous flow speed profile found at the shock. A steady-state solution is obtained that accurately simulates this phenomenon. This result represents a significant improvement over previous approximation algorithms, and will be useful for the simulation of discontinuous diffusion processes in other fields, such as biology and finance.
4

Wilhelm, Alina [Verfasser], Martin [Akademischer Betreuer] Pohl, Christoph [Gutachter] Pfrommer, and Julia [Gutachter] Tjus. "Stochastic re-acceleration of particles in supernova remnants / Alina Wilhelm ; Gutachter: Christoph Pfrommer, Julia Tjus ; Betreuer: Martin Pohl." Potsdam : Universität Potsdam, 2021. http://d-nb.info/123972909X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Trimeloni, Thomas. "Accelerating Finite State Projection through General Purpose Graphics Processing." VCU Scholars Compass, 2011. http://scholarscompass.vcu.edu/etd/175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The finite state projection algorithm provides modelers a new way of directly solving the chemical master equation. The algorithm utilizes the matrix exponential function, and so the algorithm’s performance suffers when it is applied to large problems. Other work has been done to reduce the size of the exponentiation through mathematical simplifications, but efficiently exponentiating a large matrix has not been explored. This work explores implementing the finite state projection algorithm on several different high-performance computing platforms as a means of efficiently calculating the matrix exponential function for large systems. This work finds that general purpose graphics processing can accelerate the finite state projection algorithm by several orders of magnitude. Specific biological models and modeling techniques are discussed as a demonstration of the algorithm implemented on a general purpose graphics processor. The results of this work show that general purpose graphics processing will be a key factor in modeling more complex biological systems.
6

Hall, Eric Joseph. "Accelerated numerical schemes for deterministic and stochastic partial differential equations of parabolic type." Thesis, University of Edinburgh, 2013. http://hdl.handle.net/1842/8038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
First we consider implicit finite difference schemes on uniform grids in time and space for second order linear stochastic partial differential equations of parabolic type. Under sufficient regularity conditions, we prove the existence of an appropriate asymptotic expansion in powers of the the spatial mesh and hence we apply Richardson's method to accelerate the convergence with respect to the spatial approximation to an arbitrarily high order. Then we extend these results to equations where the parabolicity condition is allowed to degenerate. Finally, we consider implicit finite difference approximations for deterministic linear second order partial differential equations of parabolic type and give sufficient conditions under which the approximations in space and time can be simultaneously accelerated to an arbitrarily high order.
7

SANTOS, FELIPE SILVA PLACIDO DOS. "ACCELERATING BENDERS STOCHASTIC DECOMPOSITION FOR THE OPTIMIZATION OF PARTIAL BACKORDER CONTROL FOR PERIODIC REVIEW (R, S) INVENTORY SYSTEM WITH UNCERTAIN DEMAND." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2016. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=31326@1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
INSTITUTO MILITAR DE ENGENHARIA
CENTRO TECNOLÓGICO DO EXÉRCITO
Este trabalho apresenta uma proposta de aceleração da decomposição de Benders aplicada a uma versão mais geral e compacta (menos restrições e variáveis) do modelo de gestão de estoques, otimizado via programação estocástica de dois estágios que considera uma camada, um item, demanda incerta e política de controle (R, S). De maneira a ser possível considerar problemas de grande porte, foram aplicados os métodos L-Shaped tradicional com corte único e a sua forma estendida com múltiplos cortes. Resultados computacionais preliminares mostraram um substancial melhor desempenho computacional do método L-Shaped tradicional em relação à sua forma multi-cut L-Shaped, mesmo o primeiro necessitando de mais iterações para convergir na solução ótima. Tal observação motivou o desenvolvimento de uma nova técnica de aceleração da decomposição de Benders e de um conjunto de desigualdades válidas. Experimentos numéricos mostram que a abordagem proposta de combinar a técnica de aceleração elaborada com as desigualdades válidas desenvolvidas provê significativa redução do tempo computacional necessário para a solução de instâncias de grande porte.
This dissertation presents a speed up proposal for the Benders decomposition applied to a more general and compact version (less constraints and variables) of inventory management model, optimized via two-stage stochastic programming, which considers one layer, one item, uncertain demand and control policy (R, S). In order to be possible to consider large scale problems, the L-Shaped traditional method with single cuts and its extended form with multiple cuts were applied. Preliminary computational results showed a substantially better computational performance of the traditional L-Shaped method in comparison to the multi-cut L-Shaped method, even with the first requiring more iterations to converge on optimum solutions. This observation led to the development of a new technique to accelerate the decomposition of Benders and a set of valid inequalities. Numerical experiments show that the proposed approach of combining the elaborate acceleration technique with the developed valid inequalities, provide significant reduction in the computational time required to solve large scale instances.
8

Flammarion, Nicolas. "Stochastic approximation and least-squares regression, with applications to machine learning." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE056/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De multiples problèmes en apprentissage automatique consistent à minimiser une fonction lisse sur un espace euclidien. Pour l’apprentissage supervisé, cela inclut les régressions par moindres carrés et logistique. Si les problèmes de petite taille sont résolus efficacement avec de nombreux algorithmes d’optimisation, les problèmes de grande échelle nécessitent en revanche des méthodes du premier ordre issues de la descente de gradient. Dans ce manuscrit, nous considérons le cas particulier de la perte quadratique. Dans une première partie, nous nous proposons de la minimiser grâce à un oracle stochastique. Dans une seconde partie, nous considérons deux de ses applications à l’apprentissage automatique : au partitionnement de données et à l’estimation sous contrainte de forme. La première contribution est un cadre unifié pour l’optimisation de fonctions quadratiques non-fortement convexes. Celui-ci comprend la descente de gradient accélérée et la descente de gradient moyennée. Ce nouveau cadre suggère un algorithme alternatif qui combine les aspects positifs du moyennage et de l’accélération. La deuxième contribution est d’obtenir le taux optimal d’erreur de prédiction pour la régression par moindres carrés en fonction de la dépendance au bruit du problème et à l’oubli des conditions initiales. Notre nouvel algorithme est issu de la descente de gradient accélérée et moyennée. La troisième contribution traite de la minimisation de fonctions composites, somme de l’espérance de fonctions quadratiques et d’une régularisation convexe. Nous étendons les résultats existants pour les moindres carrés à toute régularisation et aux différentes géométries induites par une divergence de Bregman. Dans une quatrième contribution, nous considérons le problème du partitionnement discriminatif. Nous proposons sa première analyse théorique, une extension parcimonieuse, son extension au cas multi-labels et un nouvel algorithme ayant une meilleure complexité que les méthodes existantes. La dernière contribution de cette thèse considère le problème de la sériation. Nous adoptons une approche statistique où la matrice est observée avec du bruit et nous étudions les taux d’estimation minimax. Nous proposons aussi un estimateur computationellement efficace
Many problems in machine learning are naturally cast as the minimization of a smooth function defined on a Euclidean space. For supervised learning, this includes least-squares regression and logistic regression. While small problems are efficiently solved by classical optimization algorithms, large-scale problems are typically solved with first-order techniques based on gradient descent. In this manuscript, we consider the particular case of the quadratic loss. In the first part, we are interestedin its minimization when its gradients are only accessible through a stochastic oracle. In the second part, we consider two applications of the quadratic loss in machine learning: clustering and estimation with shape constraints. In the first main contribution, we provided a unified framework for optimizing non-strongly convex quadratic functions, which encompasses accelerated gradient descent and averaged gradient descent. This new framework suggests an alternative algorithm that exhibits the positive behavior of both averaging and acceleration. The second main contribution aims at obtaining the optimal prediction error rates for least-squares regression, both in terms of dependence on the noise of the problem and of forgetting the initial conditions. Our new algorithm rests upon averaged accelerated gradient descent. The third main contribution deals with minimization of composite objective functions composed of the expectation of quadratic functions and a convex function. Weextend earlier results on least-squares regression to any regularizer and any geometry represented by a Bregman divergence. As a fourth contribution, we consider the the discriminative clustering framework. We propose its first theoretical analysis, a novel sparse extension, a natural extension for the multi-label scenario and an efficient iterative algorithm with better running-time complexity than existing methods. The fifth main contribution deals with the seriation problem. We propose a statistical approach to this problem where the matrix is observed with noise and study the corresponding minimax rate of estimation. We also suggest a computationally efficient estimator whose performance is studied both theoretically and experimentally
9

Kulunchakov, Andrei. "Optimisation stochastique pour l'apprentissage machine à grande échelle : réduction de la variance et accélération." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à explorer divers sujets liés à l'analyse des méthodes de premier ordre appliquées à des problèmes stochastiques de grande dimension. Notre première contribution porte sur divers algorithmes incrémentaux, tels que SVRG, SAGA, MISO, SDCA, qui ont été analysés de manière approfondie pour les problèmes avec des informations de gradient exactes. Nous proposons une nouvelle technique, qui permet de traiter ces méthodes de manière unifiée et de démontrer leur robustesse à des perturbations stochastiques lors de l'observation des gradients. Notre approche est basée sur une extension du concept de suite d'estimation introduite par Yurii Nesterov pour l'analyse d'algorithmes déterministes accélérés.Cette approche permet de concevoir de façon naturelle de nouveaux algorithmes incrémentaux offrant les mêmes garanties que les méthodes existantes tout en étant robustes aux perturbations stochastiques.Enfin, nous proposons un nouvel algorithme de descente de gradient stochastique accéléré et un nouvel algorithme SVRG accéléré robuste au bruit stochastique. Dans le dernier cas il s'agit essentiellement de l'accélération déterministe au sens de Nesterov, qui préserve la convergence optimale des erreurs stochastiques.Finalement, nous abordons le problème de l'accélération générique. Pour cela, nous étendons l'approche multi-étapes de Catalyst, qui visait à l'origine l'accélération de méthodes déterministes. Afin de l'appliquer aux problèmes stochastiques, nous le modifions pour le rendre plus flexible par rapport au choix des fonctions auxiliaires minimisées à chaque étape de l'algorithme. Finalement, à partir d'une méthode d'optimisation pour les problèmes fortement convexes, avec des garanties standard de convergence, notre procédure commence par accélérer la convergence vers une région dominée par le bruit, pour converger avec une vitesse quasi-optimale ensuite. Cette approche nous permet d'accélérer diverses méthodes stochastiques, y compris les algorithmes à variance réduite. Là encore, le cadre développé présente des similitudes avec l'analyse d'algorithmes accélérés à l'aide des suites d'estimation. En ce sens, nous essayons de combler l'écart entre l'optimisation déterministe et stochastique en termes d'accélération de Nesterov. Une autre contribution est une analyse unifiée d'algorithmes proximaux stochastiques lorsque l'opérateur proximal ne peut pas être calculé de façon exacte.Ensuite, nous étudions des propriétés d'algorithmes stochastique non-Euclidiens appliqués au problème d'estimation parcimonieuse. La structure de parcimonie permet de réduire de façon significative les effets du bruit dans les observation du gradient. Nous proposons un nouvel algorithme stochastique, appelé SMD-SR, permettant de faire meilleur usage de cette structure. Là encore, la méthode en question est une routine multi-étapes qui utilise l'algorithme stochastique de descente en miroir comme élément constitutif de ses étapes. Cette procédure comporte deux phases de convergence, dont la convergence linéaire de l'erreur pendant la phase préliminaire, et la convergence à la vitesse asymptotique optimale pendant la phase asymptotique. Par rapport aux solutions existantes les plus efficaces aux problèmes d’optimisation stochastique parcimonieux, nous proposons une amélioration sur plusieurs aspects. Tout d'abord, nous montrons que l'algorithme proposé réduit l'erreur initiale avec une vitesse linéaire (comme un algorithme déterministe de descente de gradient, utilisant l'observation complète du gradient), avec un taux de convergence optimal par rapport aux caractéristiques du bruit. Deuxièmement, nous obtenons ce taux pour une grande classe de modèles de bruit, y compris les distributions sous-gaussiennes, de Rademacher, de Student multivariées, etc. Enfin, ces résultats sont obtenus sous la condition optimale sur le niveau de parcimonie qui peut approcher le nombre total d'iterations de l'algorithme (à un facteur logarithmique près)
A goal of this thesis is to explore several topics in optimization for high-dimensional stochastic problems. The first task is related to various incremental approaches, which rely on exact gradient information, such as SVRG, SAGA, MISO, SDCA. While the minimization of large limit sums of functions was thoroughly analyzed, we suggest in Chapter 2 a new technique, which allows to consider all these methods in a generic fashion and demonstrate their robustness to possible stochastic perturbations in the gradient information.Our technique is based on extending the concept of estimate sequence introduced originally by Yu. Nesterov in order to accelerate deterministic algorithms.Using the finite-sum structure of the problems, we are able to modify the aforementioned algorithms to take into account stochastic perturbations. At the same time, the framework allows to derive naturally new algorithms with the same guarantees as existing incremental methods. Finally, we propose a new accelerated stochastic gradient descent algorithm and a new accelerated SVRG algorithm that is robust to stochastic noise. This acceleration essentially performs the typical deterministic acceleration in the sense of Nesterov, while preserving the optimal variance convergence.Next, we address the problem of generic acceleration in stochastic optimization. For this task, we generalize in Chapter 3 the multi-stage approach called Catalyst, which was originally aimed to accelerate deterministic methods. In order to apply it to stochastic problems, we improve its flexibility on the choice of surrogate functions minimized at each stage. Finally, given an optimization method with mild convergence guarantees for strongly convex problems, our developed multi-stage procedure, accelerates convergence to a noise-dominated region, and then achieves the optimal (up to a logarithmic factor) worst-case convergence depending on the noise variance of the gradients. Thus, we successfully address the acceleration of various stochastic methods, including the variance-reduced approaches considered and generalized in Chapter 2. Again, the developed framework bears similarities with the acceleration performed by Yu. Nesterov using the estimate sequences. In this sense, we try to fill the gap between deterministic and stochastic optimization in terms of Nesterov's acceleration. A side contribution of this chapter is a generic analysis that can handle inexact proximal operators, providing new insights about the robustness of stochastic algorithms when the proximal operator cannot be exactly computed.In Chapter 4, we study properties of non-Euclidean stochastic algorithms applied to the problem of sparse signal recovery. A sparse structure significantly reduces the effects of noise in gradient observations. We propose a new stochastic algorithm, called SMD-SR, allowing to make better use of this structure. This method is a multi-step procedure which uses the stochastic mirror descent algorithm as a building block over its stages. Essentially, SMD-SR has two phases of convergence with the linear bias convergence during the preliminary phase and the optimal asymptotic rate during the asymptotic phase.Comparing to the most effective existing solution to the sparse stochastic optimization problems, we offer an improvement in several aspects. First, we establish the linear bias convergence (similar to the one of the deterministic gradient descent algorithm, when the full gradient observation is available), while showing the optimal robustness to noise. Second, we achieve this rate for a large class of noise models, including sub-Gaussian, Rademacher, multivariate Student distributions and scale mixtures. Finally, these results are obtained under the optimal condition on the level of sparsity which can approach the total number of iterations of the algorithm (up to a logarithmic factor)
10

Rassou, Sébastien. "Accélération d'électrons par onde de sillage laser : Développement d’un modèle analytique étendu au cas d’un plasma magnétisé dans le régime du Blowout." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une impulsion laser intense se propageant dans un plasma sous-dense (ne< 10¹⁸ W.cm⁻²) et de durée très courte (τ₀< 100 fs), , on atteint le régime de la bulle. Les champs électriques dans ces bulles, de l’ordre de 100 GV/m, peuvent accélérer un faisceau d’électrons jusqu’au GeV sur des distances de l’ordre du centimètre. Dans ce régime, les électrons expulsés par la force pondéromotrice du laser forment une fine et dense couche à la surface d'une cavité d'ions restés immobiles. Les propriétés de ce régime sont examinées par l’intermédiaire d’un modèle analytique, que nous avons développé en nous inspirant du travail de W. Lu et S. Yi. En nous plaçant dans ce régime prometteur, nous avons étudié les mécanismes d’injection et de piégeage dans l'onde de sillage. Dans l’injection optique, les polarisations parallèles ou circulaires positives conduisent respectivement à une injection mettant en jeu du chauffage stochastique, ou à l’injection froide. Un paramètre de similarité est introduit, celui-ci permet de déterminer la méthode d’injection la plus appropriée pour maximiser la charge injectée. Enfin, le modèle analytique présenté en première partie est étendu afin d’étudier l’onde de sillage dans le régime de la bulle lorsqu’un champ magnétique longitudinal initial est appliqué au plasma. Lorsque le plasma est magnétisé deux phénomènes remarquables se manifestent, d'une part une ouverture apparaît à l'arrière de la bulle et d'autre part un mécanisme d'amplification du champ magnétique longitudinale est induit par la variation du flux magnétique. Les prédictions de notre modèle analytique sont confrontées aux résultats de simulations PIC 3D issues du code CALDER-Circ. La conséquence immédiate de la déformation de l'onde de sillage est la réduction, voire la suppression de l'auto-injection. L’application d’un champ magnétique longitudinal, combinée à un choix judicieux des paramètres laser-plasma, permet de réduire la dispersion en énergie des faisceaux d’électrons produits après injection optique
An intense laser pulse propagating in an under dense plasma (ne< 10¹⁸ W.cm⁻²) and short(τ₀< 100 fs), the bubble regime is reached. Within the bubble the electric field can exceed 100 GV/m and a trapped electron beam is accelerated to GeV energy with few centimetres of plasma.In this regime, the electrons expelled by the laser ponderomotive force are brought back and form a dense sheath layer. First, an analytic model was derived using W. Lu and S. Yi formalisms in order to investigate the properties of the wakefield in the blowout regime. In a second part, the trapping and injection mechanisms into the wakefield were studied. When the optical injection scheme is used, electrons may undergo stochastic heating or cold injection depending on the lasers’ polarisations. A similarity parameter was introduced to find out the most appropriate method to maximise the trapped charge. In a third part, our analytic model is extended to investigate the influence of an initially applied longitudinal magnetic field on the laser wakefield in the bubble regime. When the plasma is magnetized two remarkable phenomena occur. Firstly the bubble is opened at its rear, and secondly the longitudinal magnetic field is amplified - at the rear of the bubble - due to the azimuthal current induced by the variation of the magnetic flux. The predictions of our analytic model were shown to be in agreement with 3D PIC simulation results obtained with Calder-Circ. In most situations the wake shape is altered and self-injection can be reduced or even cancelled by the applied magnetic field. However, the application of a longitudinal magnetic field, combined with a careful choice of laser-plasma parameters, reduces the energy spread of the electron beam produced after optical injection
11

Barge, Alexis. "Propriétés lagrangiennes de l'accélération turbulente des particules fluides et inertielles dans un écoulement avec un cisaillement homogène : DNS et nouveaux modèles de sous-maille de LES." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC012/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur l’étude de l’accélération de particules fluides et inertielles en déplacement dans une turbulence soumise à un gradient de vitesse moyen. L’objectif est de récupérer des données de référence afin de développer des modèles LES stochastiques pour la prédiction de l’accélération de sous-maille et l’accélération de particules inertielles dans des conditions inhomogènes. La modélisation de l’accélération de sous-maille est effectuée à l’aide de l’approche LES-SSAM introduite par Sabel’nikov, Chtab et Gorokhovski[EPJB 80:177]. L’accélération est modélisée à l’aide de deux modèles stochastiques indépendants : un processus log-normal d’Ornstein-Uhlenbeck pour la norme d’accélération et un processus stochastique Ornstein-Uhlenbeck basé sur le calcul de Stratonovich pour les composantes du vecteur d’orientation de l’accélération. L’approche est utilisée pour la simulation de particules fluides et inertielles dans le cas d’une turbulence homogène isotrope et dans un cisaillement homogène. Les résultats montrent une amélioration des statistiques à petites échelles par rapport aux LES classiques. La modélisation de l’accélération des particules inertielles dans le cisaillement homogène est effectuée avec l’approche LES-STRIP introduite par Gorokhovski et Zamansky[PRF 3:034602] et est modélisée avec deux modèles stochastiques indépendants de manière similaire à l’accélération de sous-maille. Nos calculs montrent une amélioration de l’accélération et de la vitesse des particules lorsque le modèle STRIP est utilisé. Enfin dans une dernière partie, nous présentons une équation pour décrire la dynamique de particules ponctuelles de taille supérieure à l’échelle de Kolmogorov dans une turbulence homogène isotrope calculée par DNS. Les résultats sont comparés avec l’expérience et montrent que cette description reproduit bien les propriétés dynamiques des particules
The main objective of this thesis is to study the acceleration of fluid and inertial particles moving in a turbulent flow under the influence of a homogeneous shear in order to develop LES stochastic models that predict subgrid acceleration of the flow and acceleration of inertial particles. Subgrid acceleration modelisation is done in the framework of the LES-SSAM approach which was introduced by Sabel’nikov, Chtab and Gorokhovski[EPJB 80:177]. Acceleration is predicted with two independant stochastic models : a log-normal Ornstein-Uhlenbeck process for the norm of acceleration and an Ornstein-Uhlenbeck process expressed in the sense of Stratonovich calculus for the components of the acceleration orientation vector. The approach is used to simulate fluid and inertial particles moving in a homogeneous isotropic turbulence and in a homogeneous sheared turbulence. Our results show that small scales statistics of particles are better predicted in comparison with classical LES approach. Modelling of inertial particles acceleration is done in the framework of the LES-STRIP which was introduced by Gorokhovski and Zamansky[PRF 3:034602] with two independant stochastic models in a similar way to the subgrid fluid acceleration. Computations of inertial particles in the homogeneous shear flow present good predicitons of the particles acceleration and velocity when STRIP model is used. In the last chapter, we present an equation to describe the dynamic of point-like particles which size is larger than the Kolmogorov scale moving in a homogeneous isotropic turbulence computed by direct numerical simulation. Results are compared with experiments and indicate that this description reproduces well the properties of the particles dynamic
12

Zamansky, Rémi. "Simulation numérique directe et modélisation stochastique de sous-maille de l'accélération dans un écoulement de canal à grand nombre de Reynolds." Phd thesis, Ecole Centrale de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00673464.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la caractérisation numérique et la modélisation stochastique de l'accélération du fluide pour l'écoulement en canal à grand nombre de Reynolds. La motivation concerne l'observation et l'analyse des effets de l'intermittence liés aux interactions à longue portée à travers le canal. Dans la première partie, l'accélération est étudiée par simulation numérique directe pour trois différents nombres de Reynolds (180, 590 et 1000). La lognormalité de la norme de l'accélération est observée quelle que soit la distance à la paroi. Un profil universel de la norme de l'accélération est également recherché par analyse dimensionnelle. La seconde partie présente une modélisation stochastique de l'accélération basée sur la décomposition norme/orientation. Le modèle stochastique pour la norme s'appuie sur un processus de fragmentation afin de représenter les interactions à longue portée à travers le canal. Pour l'orientation, l'évolution vers l'isotropie lorsque la distance à la paroi augmente (observée par la DNS) est reproduite grâce à un modèle de marche aléatoire sur une sphère. Ces modèles ont été appliqués à l'approche LES-SSAM (Stochastic Subgrid Acceleration Model) introduite par Sabel'nikov, Chtab et Gorokhovski. Nos calculs montrent que les estimations de la vitesse moyenne, du spectre d'énergie, des contraintes de l'écoulement et de la non-gaussianité des statistiques de l'accélération peuvent être améliorées de façon significative par rapport à la LES classique. L'intérêt de l'approche LES-SSAM, donnant un accès vers la structure intermittente de sous-maille, est illustré dans la dernière partie, par l'étude du transport de particules inertielles ponctuelles par l'écoulement de canal. Cette étude commence par l'analyse par DNS de l'influence des structures de paroi sur la dynamique des particules
13

McCollum, James Michael. "Accelerating exact stochastic simulation." 2004. http://etd.utk.edu/2004/McCollumJamesMichael.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (M.S.)--University of Tennessee, Knoxville, 2004.
Title from title page screen (viewed May 20, 2004). Thesis advisor: Gregory D. Peterson. Document formatted into pages (x, 148 p. : ill. (some col.)). Vita. Includes bibliographical references (p. 85-87).
14

Thurmon, Brandon Parks. "Reconfigurable hardware acceleration of exact stochastic simulation." 2005. http://etd.utk.edu/2005/ThurmonBrandon.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (M.S.) -- University of Tennessee, Knoxville, 2005.
Title from title page screen (viewed on Sept. 1, 2005). Thesis advisor: Gregory D. Peterson. Document formatted into pages (viii, 218 p. : ill. (some color)). Vita. Includes bibliographical references (p. 67-69).
15

McCollum, James Michael. "Accelerating exact stochastic simulation of biochemical systems." 2006. http://etd.utk.edu/2006/McCollumJamesMichael.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (Ph. D.) -- University of Tennessee, Knoxville, 2006.
Title from title page screen (viewed on Sept. 15, 2006). Thesis advisor: Gregory D. Peterson. Vita. Includes bibliographical references.
16

Jenkins, David Dewayne. "Accelerating the Stochastic Simulation Algorithm Using Emerging Architectures." 2009. http://trace.tennessee.edu/utk_gradthes/533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In order for scientists to learn more about molecular biology, it is imperative that they have the ability to construct and evaluate models. Model statistics consistent with the chemical master equation can be obtained using Gillespie's stochastic simulation algorithm (SSA). Due to the stochastic nature of the Monte Carlo simulations, large numbers of simulations must be run in order to get accurate statistics for the species populations and reactions. However, the algorithm tends to be computationally heavy and leads to long simulation runtimes for large systems. In this research, the performance of Gillespie's stochastic simulation algorithm is analyzed and optimized using a number of techniques and architectures. These techniques include parallelizing simulations using streaming SIMD extensions (SSE), message passing interface with multicore systems and computer cluters, and CUDA with NVIDIA graphics processing units. This research is an attempt to make using the SSA a better option for modeling biological and chemical systems. Through this work, it will be shown that accelerating the algorithm in both of the serial and SSE implementations proved to be beneficial, while the CUDA implementation had lower than expected results.
17

Shen, Jie Pan, and 沈介磐. "The study of stochastic charged particle acceleration by electromagnetic waves in the uniform magnetic field." Thesis, 1995. http://ndltd.ncl.edu.tw/handle/68809201774250171302.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
碩士
國立清華大學
核子工程學系
83
A general relativistic Hamiltonian formalism is established including the consideration of several mixture electromagnetic and electrostatic waves propagating obliquely to an external, uniform, static magnetic field. The mechanism of unlimited particle aceleration is explained and relativistic effect is proved to play a crucial role, which determins the topology of Hamiltonian surface. Both accidentally and intrinsically degenerate cases are thoroughly considered. The stochasticity threshold based on overlap criterion is given. An emphasis on instrinsic degeneracy is discussed. Especially, the well-know autoresonance mechanism is shown to be a special case of intrinsic degeneracy. Finally, an application of intrinsic degeneracy to a novel enhanced acceleration mechanism in two waves is asserted and several numerical results are present.
18

ALDERUCCI, TIZIANA. "Methods for the analysis of structural systems subjected to seismic acceleration modelled as stochastic processes." Doctoral thesis, 2017. http://hdl.handle.net/11570/3105309.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In the framework of the design and of the reliability assessment of fixed structures, among the static and dynamic loads that have to be considered, certainly the most important one is the seismic load, due to its terrible and disastrous consequences, not only in terms of the breakdown of the structure but also for the preservation of life. In fact during the past decades Italy has been the scene of terrible earthquakes, that destroyed whole cities and with a lot of human victims. First of all, in terms of magnitude and, unfortunately, a large number of deaths, Messina earthquake, in 1908, caused about 120000 victims, between Messina and Reggio Calabria, with an estimated magnitude of 7.1 (Richter scale). Then Irpinia earthquake, in 1980 (2914 victims, 6.5 Ricther), L’Aquila earthquake, in 2009 (309 victims, 5.9 Ricther) and the last events in 2016 in the centre of Italy, see Amatrice (299 victims, 6 Richter), Ussita (5.9 Richter), and Norcia (2 victims, 6.1 Ricther). Due to the difficulty in the prevision of the seismic event, one of the most important and hard problem in seismic engineering is the correct characterization of the ground motion acceleration; in fact it has been demonstrated that it is possible to increase the reliability level of the structures defining in a suitable way the seismic input and shaping realistically the structure. Nowadays, from the analysis of the large amount of data of recorded events, it is possible to study the main characteristics of real earthquakes and reproduce them with analytical models. In particular, because of the randomness of the seismic event, in terms of energy distribution and intensity, propagation path of the seismic waves through any specified location from the earthquake focus to the epicenter, etc…, it has been shown that it should be modelled as a stochastic process. On the other hand, once the input has been defined, the second problem in the seismic engineering is the reliability assessment of the structures subjected to the ground motion acceleration. It is obvious that, if the excitations are modelled as random processes, the dynamic responses are random processes too, and the structural safety needs to be evaluated in a probabilistic sense. Among the models of failure, the simplest one, which is also the most widely used in practical analyses, is based on the assumption that a structure fails as soon as the response at a critical location exits a prescribed safe domain for the first time. In random vibration theory, the problem of probabilistically predicting this event is termed first passage problem. Unfortunately, this is one of the most complicated problem in computational stochastic mechanics. Therefore, several approximate procedures have been proposed. These procedures lead to the probabilistic assessment of structural failure as a function of barrier crossing rates, distribution of peaks and extreme values. The latter quantities can be evaluated, for non-stationary input process, as a function of the well-known Non-Geometric Spectral Moments (NGSMs). Aim of this thesis is to propose a novel procedure to obtain closed form solutions of the spectral characteristics of the response of linear structural systems subjected to seismic acceleration modelled as stochastic processes. The proposed method is a powerful tool in the analysis of both classically and non-classically damped systems, in reliability assessment problems and takes into account also the case of multi-correlated forcing input. In Chapter 1 the preliminary definitions of probability theory are outlined, starting from the concept of random variable and stochastic process, analysing the stationary Gaussian random process with its statistics, with a short discussion on the probability distribution for maxima. Chapter 2 focuses on the characterization of the ground motion acceleration, thanks’ to a statistical analysis of a set of real earthquakes; the different strategies to model the ground motion acceleration stochastic process will be investigated. Furthermore, in order to follow the prescriptions of the building codes, a procedure to generate artificial fully non-stationary spectrum-compatible accelerograms will be proposed. The spectral characteristics of the response of linear structural systems, subjected to non-stationary excitation, will be obtained in Chapter 3 and, in Chapter 4, closed form solutions of the Time-Frequency varying Response (TFR) vector function will be proposed. In particular the main steps of the proposed approach are: i) the use of modal analysis, or the complex modal analysis, to decouple the equation of motion; ii) the introduction of the modal state variable in order to evaluate the NGSMs, in the time domain, as element of the Pre-Envelope Covariance (PEC) matrix; iii) the determination, in state variable, by very handy explicit closed-form solutions, of the TFR vector functions and of the Evolutionary Power Spectral Density (EPSD) matrix function of the structural response for the most common adopted models of the seismic input in the framework of stochastic analysis; iv) the evaluation of the spectral characteristics of the stochastic response by adopting the closed-form expression of the EPSD matrix function. Finally, in Chapter 5 the reliability assessment of structural systems will be performed; in particular two different approaches for the first passage probability problem will be used: the method requiring the evaluation of the mean up-crossing rate of given thresholds, considered independent or occurring in clumps, and the method requiring censored closures of the non-stationary extreme value random response process. Several numerical applications will be done in order to test the effectiveness of the proposed procedure; in particular the presented results will be compared with the Monte Carlo simulation method, that will confirm the validity and the generality of the proposed method.

To the bibliography