Dissertations / Theses on the topic 'Hawke Process'

To see the other types of publications on this topic, follow the link: Hawke Process.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 22 dissertations / theses for your research on the topic 'Hawke Process.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lindström, Tommy. "Multivariate Hawkes Process Modeled News Flow: Forecasting Financial Markets." Thesis, Umeå universitet, Institutionen för matematik och matematisk statistik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-157671.

Full text
Abstract:
Within the quantitative financial community there are a lot of different approaches in forming profitable trading strategies. This is frequently performed by analyzing historical prices from different perspectives. Some have analyzed other factors than price that might provide insight in which way the market is heading, which in some cases have been successful. This thesis investigates if a news flow model based on a multivariate Hawkes process could give a peek into the future news flow, and if it can be used to successfully predict financial market movements in terms of logarithmic returns by utilizing regression and classification models such as support vector machines. The results show that the trained models perform poorly in general in terms of common regression and classification metrics. Applying the trained models in simple trading strategies show that in some cases they perform better than a buy-and-hold strategy. The ambiguous results indicate that the models might be profitable in trading strategies, but that the predictions might not be very reliable. The trained models cannot seem to find important structures in the predicted news flow relating to market returns, but before dismissing the news flow model entirely it might altered in some sense by, e.g., expanding the dataset with more observations and by looking at other granularities of time.
Kvantitativa analytiker inom finansvärlden försöker med olika tillvägagångssätt utforma vinnande trading-strategier. Oftast görs detta genom att analysera historiska priser från olika perspektiv. Vissa har analyserat andra faktorer än prisrelaterade sådana, i hopp om att dessa ska ge insikt om vart marknaden är på väg, som i vissa fall har lyckats. Det här arbetet undersöker om en nyhetsflödesmodell baserad på en multivariat Hawkes-process kan ge en inblick i det framtida nyhetsflödet, och om det kan användas för att lyckosamt prediktera finansiella marknaders rörelser i termer av logaritmisk avkastning genom att nyttja regressions- och klassificeringsmodeller. Resultaten visar att de tränade modellerna generellt sett presterar dåligt i termer av vanliga regressions- och klassificeringsmått. Genom att applicera de tränade modellerna till enkelt utformade trading-strategier visas att i vissa fall kan dessa prestera bättre än en buy-and-hold-strategi. De tvetydiga resultaten indikerar att modellerna kan vara lönsamma, men att prediktionerna inte är särskilt pålitliga. De tränade modellerna verkar inte kunna finna viktiga strukturer i data från nyhetsflödesmodellen som relaterar till marknadsavkastningar, men innan nyhetflödesmodellen avfärdas skulle den kunna modifieras genom att, t. ex., utöka antalet observationer, och genom att undersöka andra tidsgranulariteter.
APA, Harvard, Vancouver, ISO, and other styles
2

Haghdan, Maysam. "Hawkes Process Models for Unsupervised Learning on Uncertain Event Data." University of Toledo / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=toledo1503679661498849.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Landström, Julia. "The Hawkes process – a self-exciting Poisson shot noise model." Thesis, Uppsala universitet, Tillämpad matematik och statistik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-396673.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rossi, Paulo Victor Camargo. "Tópicos em dinâmica evolucionária: monomorfismo no jogo hawk-dove e seleção multinível." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-19112014-103425/.

Full text
Abstract:
Nesta dissertação aplicamos conceitos de Teoria de Jogos Evolucionária ao jogo Hawk-Dove introduzido originalmente por Maynard Smith como um modelo para lutas convencionais [37]. Estudamos então a competição entre estratégias puras (consistentes) e mistas/aleatórias (inconsistentes) em uma extensão deste jogo que, sujeita a efeitos estocásticos, apresenta um mecanismo de drift que leva à população a um equilíbrio monomórfico da estratégia inconsistente. Também estudamos o problema do altruísmo forte e os efeitos de uma demografia de grupos em sua evolução, baseado no framework 2LFW de Schonman, Vicente e Caticha [58]. Elaboramos uma fórmula para a probabilidade de extinção do processo em seus estágios iniciais e calculamos e simulamos os equilíbrios estáveis do framework no regime de seleção fraca em t ! 1 para alguns jogos de interesse.
In this dissertation we have applied Evolutionary Game Theory concepts to the Hawk-Dove game that has been originally introduced by Maynard Smith as a model for conventional aggression [37]. We then studied the competition between pure (consistent) and mixed/random (inconsistent) strategies in an extension of this game which, subject to stochastic effects, presents a drift mechanism that drives the population to a monomorphic equilibrium of the inconsistente strategy. We have also studied the problem of Strong Altruism and the effects of a group demography in its evolution, based on Schonman, Vicente and Catichas 2LFW framework [58]. We have elaborated a formula for the processs extinction probability in its initial stages and calculated and simulated the stable equilibriums of the framework under weak selection for t ! 1 for some games of interest.
APA, Harvard, Vancouver, ISO, and other styles
5

Jahn, Michael [Verfasser], Hauke [Akademischer Betreuer] Harms, Hauke [Gutachter] Harms, Lars [Gutachter] Blank, and Susann [Gutachter] Müller. "Characterization of population heterogeneity in a model biotechnological process using Pseudomonas putida / Michael Jahn ; Gutachter: Hauke Harms, Lars Blank, Susann Müller ; Betreuer: Hauke Harms." Leipzig : Universitätsbibliothek Leipzig, 2015. http://d-nb.info/1239656904/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Anane, Marouane. "Une approche mathématique de l'investissement boursier." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0017/document.

Full text
Abstract:
Le but de cette thèse est de répondre au vrai besoin de prédire les fluctuations futures des prix d'actions. En effet, l'aléatoire régissant ces fluctuations constitue pour des acteurs de la finance, tels que les Market Maker, une des plus grandes sources de risque. Tout au long de cette étude, nous mettons en évidence la possibilité de réduire l'incertitude sur les prix futurs par l'usage des modèles mathématiques appropriés. Cette étude est rendue possible grâce à une grande base de données financières et une puissante grille de calcul mises à notre disposition par l'équipe Automatic Market Making de BNP Paribas. Dans ce document, nous présentons uniquement les résultats de la recherche concernant le trading haute fréquence. Les résultats concernant la partie basse fréquence présentent un intérêt scientifique moindre pour le monde académique et rentrent par ailleurs dans le cadre des résultats confidentiels. Ces résultats seront donc volontairement omis.Dans le premier chapitre, nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le chapitre 2, nous nous intéressons à l'apport de la supériorité technologique en trading haute fréquence. Dans ce but, nous simulons un trader ultra rapide, omniscient, et agressif, puis nous calculons son gain total sur 3 ans. Les gains obtenus sont très modestes et reflètent l'apport limité de la technologie en trading haute fréquence. Ce résultat souligne l'intérêt primordial de la recherche et de la modélisation dans ce domaine.Dans le chapitre 3, nous étudions la prédictibilité des prix à partir des indicateurs de carnet d'ordre. Nous présentons, à l'aide des espérances conditionnelles, des preuves empiriques de dépendances statistiques entre les prix et les différents indicateurs. L'importance de ces dépendances résulte de la simplicité de la méthode, éliminant tout risque de surapprentissage des données. Nous nous intéressons, ensuite, à la combinaison des différents indicateurs par une régression linéaire et nous analysons les différents problèmes numériques et statistiques liés à cette méthode. Enfin, nous concluons que les prix sont prédictibles pour un horizon de quelques minutes et nous mettons en question l'hypothèse de l'efficience du marché.Dans le chapitre 4, nous nous intéressons au mécanisme de formation du prix à partir des arrivés des évènements dans le carnet d'ordre. Nous classifions les ordres en douze types dont nous analysons les propriétés statistiques. Nous étudions par la suite les dépendances entre ces différents types d'ordres et nous proposons un modèle de carnet d'ordre en ligne avec les observations empiriques. Enfin, nous utilisons ce modèle pour prédire les prix et nous appuyons l'hypothèse de la non-efficience des marchés, suggérée au chapitre 3
The aim of this thesis is to address the real need of predicting the prices of stocks. In fact, the randomness governing the evolution of prices is, for financial players like market makers, one of the largest sources of risk. In this context, we highlight the possibility of reducing the uncertainty of the future prices using appropriate mathematical models. This study was made possible by a large base of high frequency data and a powerful computational grid provided by the Automatic Market Making team at BNP Paribas. In this paper, we present only the results of high frequency tests. Tests are of less scientific interest in the academic world and are confidential. Therefore, these results will be deliberately omitted.In the first chapter, the background and the objectives of this study are presented along with the different methods used and the main results obtained.The focus of chapter 2 is on the contribution of technological superiority in high frequency trading. In order to do this, an omniscient trader is simulated and the total gain over three years is calculated. The obtained gain is very modest and reflects the limited contribution of technology in high frequency trading. This result underlines the primary role of research and modeling in this field.In Chapter 3, the predictability of prices using some order book indicators is studied. Using conditional expectations, the empirical evidence of the statistical dependencies between the prices and indicators is presented. The importance of these dependencies results from the simplicity of the method, eliminating any risk of over fitting the data. Then the combination of the various indicators is tested using a linear regression and the various numerical and statistical problems associated with this method are analyzed. Finally, it can be concluded that the prices are predictable for a period of a few minutes and the assumption of market efficiency is questioned.In Chapter 4, the mechanism of price formation from the arrival of events in the order book is investigated. The orders are classified in twelve types and their statistical properties are analyzed. The dependencies between these different types of orders are studied and a model of order book in line with the empirical observations is proposed. Finally, this model is used to predict prices and confirm the assumption of market inefficiency suggested in Chapter 3
APA, Harvard, Vancouver, ISO, and other styles
7

Cordi, Marcus. "Causalité des marchés financiers : asymétrie temporelle et réseaux multi-échelles de meneurs et suiveurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC013/document.

Full text
Abstract:
Cette thèse a pour but d’explorer la structure de causalité qui sous-tend les marchés financiers. Elle se concentre sur l’inférence multi-échelle de réseaux de causalité entre investisseurs dans deux bases de données contenant les identifiants des investisseurs. La première partie de cette thèse est consacrée à l’étude de la causalité dans les processus de Hawkes. Ces derniers définissent la façon dont l’activité d’un investisseur (par exemple) dépend du passé; sa version multivariée inclut l’interaction entre séries temporelles, à toutes les échelles. Les résultats principaux de cette partie est que l’estimation avec le maximum de vraisemblance des paramètres du processus changent remarquablement peu lorsque la direction du temps est inversée, tant pour les processus univariés que pour les processus multivariés avec noyaux d’influence mutuelle symétriques, et que la causalité effective de ces processus dépend de leur endogénéité. Cela implique qu’on ne peut pas utiliser ce type de processus pour l’inférence de causalité sans précautions. L’utilisation de tests statistiques permet la différentiation des directions du temps pour des longues données synthétiques. Par contre, l’analyse de données empiriques est plus problématique: il est tout à fait possible de trouver des données financières pour lesquelles la vraisemblance des processus de Hawkes est plus grande si le temps s’écoule en sens inverse. Les processus de Hawkes multivariés avec noyaux d’influence asymétriques ne sont pas affectés par une faible causalité. Il est malheureusement difficile de les calibrer aux actions individuelles des investisseurs présents dans nos bases de données, pour deux raisons. Nous avons soigneusement vérifie que l’activité des investisseurs est hautement non-stationaire et qu’on ne peut pas supposer que leur activité est localement stationaire, faute de données en nombre suffisant, bien que nos bases de données contiennent chacune plus de 1 million de transactions. Ces problèmes sont renforcés par le fait que les noyaux dans les processus de Hawkes codent l’influence mutuelle des investisseurs pour toutes les échelles de temps simultanément. Afin de pallier ce problème, la deuxième partie de cette thèse se concentre sur la causalité entre des échelles de temps spécifiques. Un filtrage supplémentaire est obtenu en réduisant le nombre effectif d’investisseurs grâce aux Réseaux Statistiquement Validés. Ces derniers sont utilisés pour catégoriser les investisseurs, qui sont groupés selon leur degré de la synchronisation de leurs actions (achat, vente, neutre) dans des intervalles déterminés à une échelle temporelle donnée. Cette partie propose une méthode pour l’inférence de réseaux de meneurs et suiveurs déterminés à une échelle de temps donnée dans le passé et à une autre dans le futur. Trois variations de cette méthode sont étudiées. Cette méthode permet de caractériser la causalité d’une façon novatrice. Nous avons comparé l’asymétrie temporelle des actions des investisseurs et celle de la volatilité des prix, et conclure que la structure de causalité des investisseurs est considérablement plus complexe que celle de la volatilité. De façon attendue, les investisseurs institutionnels, dont l’impact sur l’évolution des prix est beaucoup plus grand que celui des clients privés, ont une structure causale proche de celle de la volatilité: en effet, la volatilité, étant une quantité macroscopique, est le résultat d’une aggrégation des comportements de tous les investisseurs, qui fait disparaître la structure causale des investisseurs privés
This thesis aims to uncover the underlyingcausality structure of financial markets by focusing onthe inference of investor causal networks at multipletimescales in two trader-resolved datasets.The first part of this thesis is devoted to the causal strengthof Hawkes processes. These processes describe in a clearlycausal way how the activity rate of e.g. an investor dependson his past activity rate; its multivariate version alsomakes it possible to include the interactions between theagents, at all time scales. The main result of this part isthat the classical MLE estimation of the process parametersdoes not vary significantly if the arrow of time is reversedin the univariate and symmetric multivariate case.This means that blindly trusting univariate and symmetricmultivariate Hawkes processes to infer causality from datais problematic. In addition, we find a dependency betweenthe level of causality in the process and its endogeneity.For long time series of synthetic data, one can discriminatebetween the forward and backward arrows of time byperforming rigorous statistical tests on the processes, butfor empirical data the situation is much more ambiguous,as it is entirely possible to find a better Hawkes process fitwhen time runs backwards compared to forwards.Asymmetric Hawkes processes do not suffer from veryweak causality. Fitting them to the individual traders’ actionsfound in our datasets is unfortunately not very successfulfor two reasons. We carefully checked that tradersactions in both datasets are highly non-stationary, andthat local stationarity cannot be assumed to hold as thereis simply not enough data, even if each dataset containsabout one million trades. This is also compounded by thefact that Hawkes processes encode the pairwise influenceof traders for all timescales simultaneously.In order to alleviate this problem, the second part ofthis thesis focuses on causality between specific pairs oftimescales. Further filtering is achieved by reducing theeffective number of investors; Statistically Validated Networksare applied to cluster investors into groups basedon the statistically high synchronisation of their actions(buy, sell or neutral) in time intervals of a given timescale.This part then generalizes single-timescale lead-lag SVNsto lead-lag networks between two timescales and introducesthree slightly different methodsThese methods make it possible to characterize causalityin a novel way. We are able to compare the time reversalasymmetry of trader activity and that of price volatility,and conclude that the causal structure of trader activity isconsiderably more complex than that of the volatility for agiven category of traders. Expectedly, institutional traders,whose impact on prices is much larger than that of retailclients, have a causality structure that is closer to that ofvolatility. This is because volatility, being a macroscopicquantity, aggregates the behaviour of all types of traders,thereby hiding the causality structure of minor players
APA, Harvard, Vancouver, ISO, and other styles
8

Fosset, Antoine. "Crises de liquidité endogènes dans les marchés financiers." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX054.

Full text
Abstract:
De récentes analyses empiriques ont révélé l'existence de l'effet Zumbach. Cette découverte a conduit à l'élaboration des processus de Hawkes quadratique, adapté pour reproduire cet effet. Ce modèle ne faisant pas de lien avec le processus de formation de prix, nous l'avons étendu au carnet d'ordres avec un processus de Hawkes quadratique généralisé (GQ-Hawkes). En utilisant des données de marchés, nous avons montré qu'il existe un effet de type Zumbach qui diminue la liquidité future. Microfondant l'effet Zumbach, il est responsable d'une potentielle déstabilisation des marchés financiers. De plus, la calibration exacte d'un processus GQ-Hawkes nous indique que les marchés sont aux bords de la criticité. Ces preuves empiriques nous ont donc incité à faire une analyse d'un modèle de carnet d'ordres construit avec un couplage de type Zumbach. Nous avons donc introduit le modèle de Santa Fe quadratique et prouvé numériquement qu'il existe une transition de phase entre un marché stable et un marché instable sujet à des crises de liquidité. Grâce à une analyse de taille finie nous avons pu déterminer les exposants critiques de cette transition, appartenant à une nouvelle classe d'universalité. N'étant pas analytiquement soluble, cela nous a conduit à introduire des modèles plus simples pour décrire les crises de liquidités. En mettant de côté la microstructure du carnet d'ordres, nous obtenons une classe de modèles de spread où nous avons calculé les paramètres critiques de leurs transitions. Même si ces exposants ne sont pas ceux de la transition du Santa Fe quadratique, ces modèles ouvrent de nouveaux horizons pour explorer la dynamique de spread. L'un d'entre eux possède un couplage non-linéaire faisant apparaître un état métastable. Ce scénario alternatif élégant n'a pas besoin de paramètres critiques pour obtenir un marché instable, même si les données empiriques ne sont pas en sa faveur. Pour finir, nous avons regardé la dynamique du carnet d'ordres sous un autre angle: celui de la réaction-diffusion. Nous avons modélisé une liquidité qui se révèle dans le carnet d'ordres avec une certaine fréquence. La résolution de ce modèle à l'équilibre révèle qu'il existe une condition de stabilité sur les paramètres au-delà de laquelle le carnet d'ordres se vide totalement, correspondant à une crise de liquidité. En le calibrant sur des données de marchés nous avons pu analyser qualitativement la distance à cette région instable
Recent empirical analyses have revealed the existence of the Zumbach effect. This discovery has led to the development of quadratic Hawkes processes, which are suitable for reproducing this effect. Since this model is not linked with the price formation process, we extended it to order book modeling with a generalized quadratic Hawkes process (GQ-Hawkes). Using market data, we showed that there is a Zumbach-like effect that decreases future liquidity. Microfounding the Zumbach effect, it is responsible for a destabilization of financial markets. Moreover, the exact calibration of a GQ-Hawkes process tells us that the markets are on the verge of criticality. This empirical evidence therefore prompted us to analyse an order-book model constructed upon a Zumbach-like feedback. We therefore introduced the quadratic Santa Fe model and proved numerically that there is a phase transition between a stable market and an unstable market subject to liquidity crises. Thanks to a finite size scaling we were able to determine the critical exponents of this transition, which appears to belong to a new universality class. As this was not analytically tractable, it led us to introduce simpler models to describe liquidity crises. Setting aside the microstructure of the order book, we obtain a class of spread models where we computed the critical parameters of their transitions. Even if these exponents are not those of the quadratic Santa Fe transition, these models open new horizons for modelling spread dynamics. One of them has a non-linear coupling that reveals a metastable state. This elegant alternative scenario does not need critical parameters to obtain an unstable market, even if the empirical evidence is not in its favour. Finally, we looked at the order book dynamics from another point of view: the reaction-diffusion one. We have modelled a liquidity that appears in the order book with a certain frequency. The resolution of this model at equilibrium reveals that there is a condition of stability on the parameters beyond which the order book empties completely, corresponding to a liquidity crisis. By calibrating it on market data we were able to qualitatively analyse the distance to this unstable region
APA, Harvard, Vancouver, ISO, and other styles
9

Lu, Xiaofei. "Modélisation du carnet d’ordres, Applications Market Making." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC069/document.

Full text
Abstract:
Cette thèse aborde différents aspects de la modélisation de la microstructure du marché et des problèmes de Market Making, avec un accent particulier du point de vue du praticien. Le carnet d’ordres, au cœur du marché financier, est un système de files d’attente complexe à haute dimension. Nous souhaitons améliorer la connaissance du LOB pour la communauté de la recherche, proposer de nouvelles idées de modélisation et développer des applications pour les Market Makers. Nous remercions en particuler l’équipe Automated Market Making d’avoir fourni la base de données haute-fréquence de très bonne qualité et une grille de calculs puissante, sans laquelle ces recherches n’auraient pas été possible. Le Chapitre 1 présente la motivation de cette recherche et reprend les principaux résultats des différents travaux. Le Chapitre 2 se concentre entièrement sur le LOB et vise à proposer un nouveau modèle qui reproduit mieux certains faits stylisés. A travers cette recherche, non seulement nous confirmons l’influence des flux d’ordres historiques sur l’arrivée de nouveaux, mais un nouveau modèle est également fourni qui réplique beaucoup mieux la dynamique du LOB, notamment la volatilité réalisée en haute et basse fréquence. Dans le Chapitre 3, l’objectif est d’étudier les stratégies de Market Making dans un contexte plus réaliste. Cette recherche contribueà deux aspects : d’une part le nouveau modèle proposé est plus réaliste mais reste simple à appliquer pour la conception de stratégies, d’autre part la stratégie pratique de Market Making est beaucoup améliorée par rapport à une stratégie naive et est prometteuse pour l’application pratique. La prédiction à haute fréquence avec la méthode d’apprentissage profond est étudiée dans le Chapitre 4. De nombreux résultats de la prédiction en 1- étape et en plusieurs étapes ont retrouvé la non-linéarité, stationarité et universalité de la relation entre les indicateurs microstructure et le changement du prix, ainsi que la limitation de cette approche en pratique
This thesis addresses different aspects around the market microstructure modelling and market making problems, with a special accent from the practitioner’s viewpoint. The limit order book (LOB), at the heart of financial market, is a complex continuous high-dimensional queueing system. We wish to improve the knowledge of LOB for the research community, propose new modelling ideas and develop concrete applications to the interest of Market Makers. We would like to specifically thank the Automated Market Making team for providing a large high frequency database of very high quality as well as a powerful computational grid, without whom these researches would not have been possible. The first chapter introduces the incentive of this research and resumes the main results of the different works. Chapter 2 fully focuses on the LOB and aims to propose a new model that better reproduces some stylized facts. Through this research, not only do we confirm the influence of historical order flows to the arrival of new ones, but a new model is also provided that captures much better the LOB dynamic, notably the realized volatility in high and low frequency. In chapter 3, the objective is to study Market Making strategies in a more realistic context. This research contributes in two aspects : from one hand the newly proposed model is more realistic but still simple enough to be applied for strategy design, on the other hand the practical Market Making strategy is of large improvement compared to the naive one and is promising for practical use. High-frequency prediction with deep learning method is studied in chapter 4. Many results of the 1-step and multi-step prediction have found the non-linearity, stationarity and universality of the relationship between microstructural indicators and price change, as well as the limitation of this approach in practice
APA, Harvard, Vancouver, ISO, and other styles
10

Cheysson, Felix. "Maladies infectieuses et données agrégées : estimation de la fraction attribuable et prise en compte de biais." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASR012.

Full text
Abstract:
La surveillance épidémiologique repose le plus souvent sur l'analyse d'indicateurs de santé agrégés. Nous étudions les problèmes méthodologiques rencontrés lorsque l'on travaille sur ce type de données dans un contexte de santé publique. Dans un premier temps, nous nous intéressons au calcul de la fraction attribuable lorsque l'exposition est épidémique et le nombre d'événements de santé saisonnier. Pour les modèles statistiques de séries temporelles les plus souvent utilisés, nous présentons une méthode d'estimation de cette fraction et de ses intervalles de confiance. Ce travail nous a permis de montrer que la campagne de sensibilisation "Les antibiotiques, c'est pas automatique !" avait conduit à une diminution de plus de moitié des prescriptions antibiotiques associées aux épidémies de syndromes grippaux dès 2005. Par ailleurs, récemment 17% des prescriptions seraient attribuables aux infections virales des voies respiratoires basses pendant la période hivernale, et près de 38% chez les enfants, dont la moitié attribuables aux bronchiolites. Dans un second temps, nous proposons les processus de Hawkes comme modèles pour les maladies contagieuses et étudions l'impact de l'agrégation des données sur leur estimation. Dans ce contexte, nous développons une méthode d'estimation des paramètres du processus et prouvons que les estimateurs ont de bonnes propriétés asymptotiques. Ces travaux fournissent des outils statistiques pour éviter certains biais dus à l'agrégation de données individuelles pour l'étude de fractions attribuables et de maladies contagieuses
Epidemiological surveillance is most often based on the analysis of aggregate health indicators. We study the methodological problems encountered when working with this type of data in a public health context. First, we focus on calculating the attributable fraction when the exposure is epidemic and the number of health events exhibits a seasonality. For the most frequently used time series models, we present a method for estimating this fraction and its confidence intervals. This work enabled us to show that the awareness campaign "Antibiotics are not automatic!" led to a reduction of more than half of the antibiotic prescriptions associated with influenza epidemics as early as 2005. Moreover, recently 17% of prescriptions are thought to be attributable to viral infections of the lower respiratory tract during the cold period, and nearly 38% in children, half of which attributable to bronchiolitis. In a second step, we propose Hawkes processes as models for contagious diseases and study the impact of data aggregation on their estimation. In this context, we develop a method for estimating the process parameters and prove that the estimators have good asymptotic properties. This work provides statistical tools to avoid some biases due to the use of aggregate data for the study of attributable fractions and contagious diseases
APA, Harvard, Vancouver, ISO, and other styles
11

Phi, Tien Cuong. "Décomposition de Kalikow pour des processus de comptage à intensité stochastique." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4029.

Full text
Abstract:
L'objectif de cette thèse est de construire des algorithmes capables de simuler l'activité d'un réseau de neurones. L'activité du réseau de neurones peut être modélisée par le train de spikes de chaque neurone, qui sont représentés par un processus ponctuel multivarié. La plupart des approches connues pour simuler des processus ponctuels rencontrent des difficultés lorsque le réseau sous-jacent est de grande taille.Dans cette thèse, nous proposons de nouveaux algorithmes utilisant un nouveau type de décomposition de Kalikow. En particulier, nous présentons un algorithme permettant de simuler le comportement d'un neurone intégré dans un réseau neuronal infini sans simuler l'ensemble du réseau. Nous nous concentrons sur la preuve mathématique que notre algorithme renvoie les bons processus ponctuels et sur l'étude de sa condition d'arrêt. Ensuite, une preuve constructive montre que cette nouvelle décomposition est valable pour divers processus ponctuels.Enfin, nous proposons des algorithmes, qui peuvent être parallélisés et qui permettent de simuler une centaine de milliers de neurones dans un graphe d'interaction complet, sur un ordinateur portable. Plus particulièrement, la complexité de cet algorithme semble linéaire par rapport au nombre de neurones à simuler
The goal of this thesis is to construct algorithms which are able to simulate the activity of a neural network. The activity of the neural network can be modeled by the spike train of each neuron, which are represented by a multivariate point processes. Most of the known approaches to simulate point processes encounter difficulties when the underlying network is large.In this thesis, we propose new algorithms using a new type of Kalikow decomposition. In particular, we present an algorithm to simulate the behavior of one neuron embedded in an infinite neural network without simulating the whole network. We focus on mathematically proving that our algorithm returns the right point processes and on studying its stopping condition. Then, a constructive proof shows that this new decomposition holds for on various point processes.Finally, we propose algorithms, that can be parallelized and that enables us to simulate a hundred of thousand neurons in a complete interaction graph, on a laptop computer. Most notably, the complexity of this algorithm seems linear with respect to the number of neurons on simulation
APA, Harvard, Vancouver, ISO, and other styles
12

Valmy, Larissa. "Modèles hiérarchiques et processus ponctuels spatio-temporels - Applications en épidémiologie et en sismologie." Phd thesis, Université des Antilles-Guyane, 2012. http://tel.archives-ouvertes.fr/tel-00841146.

Full text
Abstract:
Les processus ponctuels sont souvent utilisés comme modèles de répartitions spatiales ou spatio-temporelles d'occurrences. Dans cette thèse, nous nous intéressons tout d'abord à des processus de Cox dirigés par un processus caché associé à un processus de Dirichlet. Ce modèle correspond à des occurrences cachées influençant l'intensité stochastique des occurrences observées. Nous généralisons la notion de " Shot noise Cox process " introduite par Moller et développons le traitement bayésien par un échantillonneur de Gibbs combiné à un algorithme de Metropolis-Hastings. Nous montrons que cette méthode MCMC est à sauts réversibles. Le modèle prend en compte, en effet, un nombre aléatoire de contributions cachées influençant l'intensité du processus ponctuel observé donc a un espace paramétrique de dimension variable. Nous focalisons l'inférence statistique sur l'estimation de la valeur espérée de chaque contribution cachée, le nombre espéré de contributions cachées, le degré d'influence spatiale de ces contributions et leur degré de corrélation. Le test d'égalité des contributions et celui de leur indépendance sont ainsi développés. L'utilité en épidémiologie et en écologie est alors démontrée à partir de données de Rubus fruticosa, Ibicella lutea et de mortalité dans les cantons de Georgia, USA. En termes de données observées, deux situations sont considérées: premièrement, les positions spatiales des occurrences sont observées entre plusieurs paires de dates consécutives; deuxièmement, des comptages sont effectués, au cours d'une période fixée, dans des unités d'échantillonnage spatiales. D'autre part, nous nous intéressons aux processus ponctuels à mémoire introduits par Kagan, Ogata et Vere-Jones, précurseurs de la statistique sismologique. En effet, les processus ponctuels spatio-temporels ont une place importante dans l'étude des catalogues sismiques puisque ces derniers sont généralement constitués d'événements sismiques datés et géo-référencés. Nous avons étudié un modèle ETAS (Epidemic Type Aftershock Sequence) avec une intensité d'arrière-plan indépendante du temps et plusieurs fonctions déclenchantes permettant d'intégrer les événements antérieurs récents. Cette approche est utilisée pour étudier la sismicité de l'arc des Petites Antilles. Une étude comparative des modèles Gamma, Weibull, Log-Normal et loi d'Omori modifiée pour les fonctions déclenchantes est menée. Nous montrons que la loi d'Omori modifiée ne s'ajuste pas aux données sismiques des Petites Antilles et la fonction déclenchante la plus adaptée est le modèle de Weibull. Cela implique que le temps d'attente entre répliques dans la zone des Petites Antilles est plus faible que celui des régions à sismicité décrite par la loi d'Omori modifiée. Autrement dit, l'agrégation des répliques après un événement majeur est plus prononcée dans la zone des Petites Antilles. La possibilité d'inclure une intensité d'arrière-plan suivant un processus de Dirichlet centré sur un processus spatial log-gaussien est discutée.
APA, Harvard, Vancouver, ISO, and other styles
13

Papalexiou, Vasilios. "An analysis of the impact of high frequency trading on equity markets." Thesis, Queensland University of Technology, 2020. https://eprints.qut.edu.au/205752/1/Vasilios_Papalexiou_Thesis.pdf.

Full text
Abstract:
This thesis investigated the impacts of high frequency traders on the equity markets. At a base level, high frequency traders improve market liquidity and efficiency because they both compete with and undercut each other, thereby benefitting slower traders. However, high frequency traders have increased both systematic and systemic risk within the equity markets and have also increased liquidity resilience commonality during unfavourable market conditions. Overall, the results suggest that high frequency traders contribute both positively and negatively to the market, thus making it difficult to draw a clear conclusion about their overall value to the market.
APA, Harvard, Vancouver, ISO, and other styles
14

Krapf, Lutz Christian [Verfasser], Urs [Akademischer Betreuer] Schmidhalter, Hauke [Akademischer Betreuer] Heuwinkel, and Andreas [Akademischer Betreuer] Gronauer. "Evaluation of near infrared spectroscopy to estimate process parameters in anaerobic digestion of agricultural feedstocks / Lutz Christian Krapf. Gutachter: Hauke Heuwinkel ; Urs Schmidhalter ; Andreas Gronauer. Betreuer: Urs Schmidhalter." München : Universitätsbibliothek der TU München, 2013. http://d-nb.info/1043041788/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Arastuie, Makan. "Generative Models of Link Formation and Community Detection in Continuous-Time Dynamic Networks." University of Toledo / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=toledo1596718772873086.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

El, Euch Omar. "Quantitative Finance under rough volatility." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS172/document.

Full text
Abstract:
Cette thèse a pour objectif la compréhension de plusieurs aspects du caractère rugueux de la volatilité observé de manière universelle sur les actifs financiers. Ceci est fait en six étapes. Dans une première partie, on explique cette propriété à partir des comportements typiques des agents sur le marché. Plus précisément, on construit un modèle de prix microscopique basé sur les processus de Hawkes reproduisant les faits stylisés importants de la microstructure des marchés. En étudiant le comportement du prix à long terme, on montre l’émergence d’une version rugueuse du modèle de Heston (appelé modèle rough Heston) avec effet de levier. En utilisant ce lien original entre les processus de Hawkes et les modèles de Heston, on calcule dans la deuxième partie de cette thèse la fonction caractéristique du log-prix du modèle rough Heston. Cette fonction caractéristique est donnée en terme d’une solution d’une équation de Riccati dans le cas du modèle de Heston classique. On montre la validité d’une formule similaire dans le cas du modèle rough Heston, où l’équation de Riccati est remplacée par sa version fractionnaire. Cette formule nous permet de surmonter les difficultés techniques dues au caractère non markovien du modèle afin de valoriser des produits dérivés. Dans la troisième partie, on aborde la question de la gestion des risques des produits dérivés dans le modèle rough Heston. On présente des stratégies de couverture utilisant comme instruments l’actif sous-jacent et la courbe variance forward. Ceci est fait en spécifiant la structure markovienne infini-dimensionnelle du modèle. Étant capable de valoriser et couvrir les produits dérivés dans le modèle rough Heston, nous confrontons ce modèle à la réalité des marchés financiers dans la quatrième partie. Plus précisément, on montre qu’il reproduit le comportement de la volatilité implicite et historique. On montre également qu’il génère l’effet Zumbach qui est une asymétrie par inversion du temps observée empiriquement sur les données financières. On étudie dans la cinquième partie le comportement limite de la volatilité implicite à la monnaie à faible maturité dans le cadre d’un modèle à volatilité stochastique général (incluant le modèle rough Bergomi), en appliquant un développement de la densité du prix de l’actif. Alors que l’approximation basée sur les processus de Hawkes a permis de traiter plusieurs questions relatives au modèle rough Heston, nous examinons dans la sixième partie une approximation markovienne s’appliquant sur une classe plus générale de modèles à volatilité rugueuse. En utilisant cette approximation dans le cas particulier du modèle rough Heston, on obtient une méthode numérique pour résoudre les équations de Riccati fractionnaires. Enfin, nous terminons cette thèse en étudiant un problème non lié à la littérature sur la volatilité rugueuse. Nous considérons le cas d’une plateforme cherchant le meilleur système de make-take fees pour attirer de la liquidité. En utilisant le cadre principal-agent, on décrit le meilleur contrat à proposer au market maker ainsi que les cotations optimales affichées par ce dernier. Nous montrons également que cette politique conduit à une meilleure liquidité et à une baisse des coûts de transaction pour les investisseurs
The aim of this thesis is to study various aspects of the rough behavior of the volatility observed universally on financial assets. This is done in six steps. In the first part, we investigate how rough volatility can naturally emerge from typical behav- iors of market participants. To do so, we build a microscopic price model based on Hawkes processes in which we encode the main features of the market microstructure. By studying the asymptotic behavior of the price on the long run, we obtain a rough version of the Heston model exhibiting rough volatility and leverage effect. Using this original link between Hawkes processes and the Heston framework, we compute in the second part of the thesis the characteristic function of the log-price in the rough Heston model. In the classical Heston model, the characteristic function is expressed in terms of a solution of a Riccati equation. We show that rough Heston models enjoy a similar formula, the Riccati equation being replaced by its fractional version. This formula enables us to overcome the non-Markovian nature of the model in order to deal with derivatives pricing. In the third part, we tackle the issue of managing derivatives risks under the rough Heston model. We establish explicit hedging strategies using as instruments the underlying asset and the forward variance curve. This is done by specifying the infinite-dimensional Markovian structure of the rough Heston model. Being able to price and hedge derivatives in the rough Heston model, we challenge the model to practice in the fourth part. More precisely, we show the excellent fit of the model to historical and implied volatilities. We also show that the model reproduces the Zumbach’s effect, that is a time reversal asymmetry which is observed empirically on financial data. While the Hawkes approximation enabled us to solve the pricing and hedging issues under the rough Heston model, this approach cannot be extended to an arbitrary rough volatility model. We study in the fifth part the behavior of the at-the-money implied volatility for small maturity under general stochastic volatility models. In the same spirit as the Hawkes approximation, we look in the sixth part of this thesis for a tractable Markovian approximation that holds for a general class of rough volatility models. By applying this approximation on the specific case of the rough Heston model, we derive a numerical scheme for solving fractional Riccati equations. Finally, we end this thesis by studying a problem unrelated to rough volatility. We consider an exchange looking for the best make-take fees system to attract liquidity in its platform. Using a principal-agent framework, we describe the best contract that the exchange should propose to the market maker and provide the optimal quotes displayed by the latter. We also argue that this policy leads to higher quality of liquidity and lower trading costs for investors
APA, Harvard, Vancouver, ISO, and other styles
17

Smith, Carrie Rachael. ""Poetry in the making" : Ted Hughes and the art of writing." Thesis, University of Exeter, 2013. http://hdl.handle.net/10871/12143.

Full text
Abstract:
This study takes as its focus Ted Hughes’s composition techniques throughout his career, arguing that his self-conscious experimentation with the processes by which he wrote affected the style and subject matter of his work. Hughes’s poetry has lent itself to a number of familiar critical approaches, focusing on his preoccupation with mythology, his interaction with the natural world and his creative partnership with his first wife, Sylvia Plath. Yet no study, until now, has looked systematically at his literary drafts and the extent to which Hughes’s method of composition radically altered during his writing career. Archive material at Emory University, accessible since 2000, and new archive materials held at the British Library and made available for study for the first time in 2010, have opened up possibilities for much greater depth of research into Hughes’s writing processes and the birth and evolution of individual poems. By engaging with these materials, my research complements new studies which are tackling under-examined areas of Hughes’s work, whilst contributing more broadly to an increased awareness of the central importance of archival work in the study of literature. Literary manuscript drafts have often been used to study writers whose writing methods consciously foreground the drafting process. Whilst Hughes has not previously been considered in this light, my original investigations into his archival materials reveal a poet for whom the nature of the compositional process was a central concern which defines and redefines his poetry across his career.
APA, Harvard, Vancouver, ISO, and other styles
18

Sansonnet, Laure. "Inférence non-paramétrique pour des interactions poissoniennes." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00835427.

Full text
Abstract:
L'objet de cette thèse est d'étudier divers problèmes de statistique non-paramétrique dans le cadre d'un modèle d'interactions poissoniennes. De tels modèles sont, par exemple, utilisés en neurosciences pour analyser les interactions entre deux neurones au travers leur émission de potentiels d'action au cours de l'enregistrement de l'activité cérébrale ou encore en génomique pour étudier les distances favorisées ou évitées entre deux motifs le long du génome. Dans ce cadre, nous introduisons une fonction dite de reproduction qui permet de quantifier les positions préférentielles des motifs et qui peut être modélisée par l'intensité d'un processus de Poisson. Dans un premier temps, nous nous intéressons à l'estimation de cette fonction que l'on suppose très localisée. Nous proposons une procédure d'estimation adaptative par seuillage de coefficients d'ondelettes qui est optimale des points de vue oracle et minimax. Des simulations et une application en génomique sur des données réelles provenant de la bactérie E. coli nous permettent de montrer le bon comportement pratique de notre procédure. Puis, nous traitons les problèmes de test associés qui consistent à tester la nullité de la fonction de reproduction. Pour cela, nous construisons une procédure de test optimale du point de vue minimax sur des espaces de Besov faibles, qui a également montré ses performances du point de vue pratique. Enfin, nous prolongeons ces travaux par l'étude d'une version discrète en grande dimension du modèle précédent en proposant une procédure adaptative de type Lasso.
APA, Harvard, Vancouver, ISO, and other styles
19

McLucas, Alan Charles Civil Engineering Australian Defence Force Academy UNSW. "An investigation into the integration of qualitative and quantitative techniques for addressing systemic complexity in the context of organisational strategic decision-making." Awarded by:University of New South Wales - Australian Defence Force Academy. School of Civil Engineering, 2001. http://handle.unsw.edu.au/1959.4/38744.

Full text
Abstract:
System dynamics modelling has been used for around 40 years to address complex, systemic, dynamic problems, those often described as wicked. But, system dynamics modelling is not an exact science and arguments about the most suitable techniques to use in which circumstances, continues. The nature of these wicked problems is investigated through a series of case studies where poor situational awareness among stakeholders was identified. This was found to be an underlying cause for management failure, suggesting need for better ways of recognising and managing wicked problem situations. Human cognition is considered both as a limitation and enabler to decision-making in wicked problem environments. Naturalistic and deliberate decision-making are reviewed. The thesis identifies the need for integration of qualitative and quantitative techniques. Case study results and a review of the literature led to identification of a set of principles of method to be applied in an integrated framework, the aim being to develop an improved way of addressing wicked problems. These principles were applied to a series of cases in an action research setting. However, organisational and political barriers were encountered. This limited the exploitation and investigation of cases to varying degrees. In response to a need identified in the literature review and the case studies, a tool is designed to facilitate analysis of multi-factorial, non-linear causality. This unique tool and its use to assist in problem conceptualisation, and as an aid to testing alternate strategies, are demonstrated. Further investigation is needed in relation to the veracity of combining causal influences using this tool and system dynamics, broadly. System dynamics modelling was found to have utility needed to support analysis of wicked problems. However, failure in a particular modelling project occurred when it was found necessary to rely on human judgement in estimating values to be input into the models. This was found to be problematic and unacceptably risky for sponsors of the modelling effort. Finally, this work has also identified that further study is required into: the use of human judgement in decision-making and the validity of system dynamics models that rely on the quantification of human judgement.
APA, Harvard, Vancouver, ISO, and other styles
20

Petras, Petr. "Propojenost vysokofrekvenčních dat." Master's thesis, 2016. http://www.nusl.cz/ntk/nusl-352785.

Full text
Abstract:
This work combines discrete and continuous methods while modeling connect- edness of financial tick data. As discrete method we are using vector autore- gression. For continuous domain Hawkes process is used, which is special case of point process. We found out that financial assets are connected in non- symmetrical fashion. By using two methodologies we were able to model bet- ter how are the series connected. We confirmed existence of price leader in our three stock portfolio and modeled connectedness of jumps between stocks. As conclusion we state that both methods yields important results about price nature on the market and should be used together or at least with awareness of second approach. JEL Classification C32, G11, G14 Keywords Vector Autoregression, Hawkes process, High- frequency analysis, Connectedness Author's e-mail petr.petras@email.cz Supervisor's e-mail krehlik@utia.cas.cz
APA, Harvard, Vancouver, ISO, and other styles
21

Kiseľ, Rastislav. "Quoting behaviour of a market-maker under different exchange fee structures." Master's thesis, 2018. http://www.nusl.cz/ntk/nusl-372979.

Full text
Abstract:
During the last few years, market micro-structure research has been active in analysing the dependence of market efficiency on different market character­ istics. Make-take fees are one of those topics as they might modify the incen­ tives for participating agents, e.g. broker-dealers or market-makers. In this thesis, we propose a Hawkes process-based model that captures statistical differences arising from different fee regimes and we estimate the differences on limit order book data. We then use these estimates in an attempt to measure the execution quality from the perspective of a market-maker. We appropriate existing theoretical market frameworks, however, for the pur­ pose of hireling optimal market-making policies we apply a novel method of deep reinforcement learning. Our results suggest, firstly, that maker-taker exchanges provide better liquidity to the markets, and secondly, that deep reinforcement learning methods may be successfully applied to the domain of optimal market-making. JEL Classification Keywords Author's e-mail Supervisor's e-mail C32, C45, C61, C63 make-take fees, Hawkes process, limit order book, market-making, deep reinforcement learn­ ing kiselrastislavSgmail.com barunik@f sv.cuni.cz
APA, Harvard, Vancouver, ISO, and other styles
22

Sha, Hao. "Solving Prediction Problems from Temporal Event Data on Networks." Thesis, 2021. http://dx.doi.org/10.7912/C2/46.

Full text
Abstract:
Indiana University-Purdue University Indianapolis (IUPUI)
Many complex processes can be viewed as sequential events on a network. In this thesis, we study the interplay between a network and the event sequences on it. We first focus on predicting events on a known network. Examples of such include: modeling retweet cascades, forecasting earthquakes, and tracing the source of a pandemic. In specific, given the network structure, we solve two types of problems - (1) forecasting future events based on the historical events, and (2) identifying the initial event(s) based on some later observations of the dynamics. The inverse problem of inferring the unknown network topology or links, based on the events, is also of great important. Examples along this line include: constructing influence networks among Twitter users from their tweets, soliciting new members to join an event based on their participation history, and recommending positions for job seekers according to their work experience. Following this direction, we study two types of problems - (1) recovering influence networks, and (2) predicting links between a node and a group of nodes, from event sequences.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography