To see the other types of publications on this topic, follow the link: Tidsserier.

Dissertations / Theses on the topic 'Tidsserier'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 48 dissertations / theses for your research on the topic 'Tidsserier.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nilsson, Kristoffer, and Viktor Wesström. "Automatiserad detektering av avvikelser i tidsserier." Thesis, Karlstads universitet, Institutionen för matematik och datavetenskap (from 2013), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-67567.

Full text
Abstract:
Uppdragsgivaren till detta examensarbete har uttryckt en önskan om att utveckla ett verktyg för att automatiskt upptäcka avvikelser i signaldata från maskiner inom pappers- och massaindustrin. En önskan har funnits att utvärdera om statistiska verktyg eller maskininlärning kan appliceras på uppgiften att automatisera denna avvikelsedetektering. Detta arbete utvärderar tre olika metoder. En av metoderna innefattar maskininlärning i form av neurala nätverk och de andra är statistiska verktyg för dataanalys. Metoderna som tillämpas för avvikelsedetektering utvärderas i fyra separata experiment. Resultatet av arbetet ger, inom de ramar som satts upp under experimenten, en indikation på att de metoder som skapar prognoser har potentialen att ge en förbättring av träffsäkerheten hos avvikelsedetekteringen. Detta förutsätter dock att tid och resurser läggs på att förbereda verktygen och förse dem med relevant signaldata i tillräcklig mängd.
APA, Harvard, Vancouver, ISO, and other styles
2

Leja, Eliza, and Jonathan Stråle. "Prognoser av ekonomiska tidsserier med säsongsmönster : En empirisk metodjämförelse." Thesis, Uppsala universitet, Statistiska institutionen, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-155790.

Full text
Abstract:
I denna uppsats har olika metoder för att göra prognoser för ekonomiska tidsserier med säsongsmönster jämförts och utvärderats. Frågan som undersökningen har kretsat kring är: Vilken metod är bäst lämpad för att göra prognoser av tidsserier med säsongsmönster? De metoder som jämförs är säsongsrensningsmetoderna Census II och TRAMO/SEATS, säsongsmodellerna SARIMA och ARIMA med dummyvariabler för säsong samt en metod där medelvärdena från de fyra första metoderna används som prognoser. För att genomföra undersökningen har dessa metoder tillämpats på fyra ekonomiska tidsserier, nämligen: konsumtion, BNP, export samt byggstarter. Resultatet från undersökningen är att säsongsmodellerna är bäst för konsumtionsserien, säsongsrensningsmetoderna är bäst för BNP- och exportserien och den ena säsongsmodellen (SARIMA) är bäst för byggstartsserien medan den andra (ARIMA-dummy) är den sämsta. Val av prognosmetod beror med andra ord på vilken serie som ska prognostiseras.
APA, Harvard, Vancouver, ISO, and other styles
3

Arvid, Odencrants, and Dahl Dennis. "Utvärdering av Transportstyrelsens flygtrafiksmodeller." Thesis, Linköpings universitet, Statistik, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-106786.

Full text
Abstract:
The Swedish Transport Agency has for a long time collected data on a monthly basis for different variables that are used to make predictions, short projections as well as longer projections. They have used SAS for producing statistical models in air transport. The model with the largest value of coefficient of determination is the method that has been used for a long time. The Swedish Transport Agency felt it was time for an evaluation of their models and methods of how projections is estimated, they would also explore the possibilities to use different, completely new models for forecasting air travel. This Bachelor thesis examines how the Holt-Winters method does compare with SARIMA, error terms such as RMSE, MAPE, R2, AIC and BIC  will be compared between the methods.  The results which have been produced showing that there may be a risk that the Holt-Winters models adepts a bit too well in a few variables in which Holt-Winters method has been adapted. But overall the Holt-Winters method generates better forecasts .

Avbryt / Spara utkast

APA, Harvard, Vancouver, ISO, and other styles
4

Wall, Tobias, and Jacob Titus. "Imputation and Generation of Multidimensional Market Data." Thesis, Umeå universitet, Institutionen för matematik och matematisk statistik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-184162.

Full text
Abstract:
Market risk is one of the most prevailing risks to which financial institutions are exposed. The most popular approach in quantifying market risk is through Value at Risk. Organisations and regulators often require a long historical horizon of the affecting financial variables to estimate the risk exposures. A long horizon stresses the completeness of the available data; something risk applications need to handle.  The goal of this thesis is to evaluate and propose methods to impute financial time series. The performance of the methods will be measured with respect to both price-, and risk metric replication. Two different use cases are evaluated; missing values randomly place in the time series and consecutively missing values at the end-point of a time series. In total, there are five models applied to each use case, respectively.  For the first use case, the results show that all models perform better than the naive approach. The Lasso model lowered the price replication error by 35% compared to the naive model. The result from use case two is ambiguous. Still, we can conclude that all models performed better than the naive model concerning risk metric replication. In general, all models systemically underestimated the downstream risk metrics, implying that they failed to replicate the fat-tailed property of the price movement.
APA, Harvard, Vancouver, ISO, and other styles
5

Kåge, Linus, and Malke Marouki. "Interventionsanalys av Covidpandemins påverkan på antal flygpassagerare : En studie om flygandet i Sverige under år 2020." Thesis, Linköpings universitet, Statistik och maskininlärning, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-177402.

Full text
Abstract:
År 2020 drabbades Sverige och världen av en pandemin Covid-19. Pandemin har en stor påverkan på flygbranschen enligt tidigare undersökningar. Syftet med studien är att undersöka hur antalet flygpassagerare har påverkats av pandemin samt att jämföra om interventionsmodeller gör mindre prognosfel jämfört med ARIMA-modeller som inte inkluderar en variabel för pandemin. Interventionsanalys av Covid-19 genomförs för att studera effekten av pandemins påverkan på antal flygpassagerare som reser från svenska flygplatser. I mars 2020 gick utrikesdepartementet ut med rekommendation om att undvika onödiga resor för att undvika smittspridning. Interventionsmodeller för inrikes, utrikes och totala antalet flygpassagerare är framtagna. Interventionen betraktas inträffa i mars 2020. Pulsfunktion för maj behöver inkluderas i interventionsmodellen över inrikespassagerare och en pulsfunktion för april behöver modelleras med i interventionsmodellen över utrikespassagerare. För totala antalet flygpassagerare behöver enbart en stegfunktion inkluderas i modellen. Resultaten visar att under covidpandemin har antalet flygpassagerare minskat. Det totala antalet flygpassagerarehar minskat med närmare en miljon passagerare. Utrikespassagerare har minskat med närmare 682000 passagerare och ytterligare cirka 180000 passagerare under lägsta nivåer i april. Inrikespassagerare har minskat med ungefär 370000 passagerare och ytterligare 287000 passagerare i maj. Prognosmodellerna visar delade resultat. För inrikespassagerare blir prognosfelet inte lägre med interventionsmodellerna jämfört med en ARIMA-modell utan interventionseffekt. För utrikespassagerare blir prognosfelet lägre med interventionsmodellerna jämfört med ARIMA-modellen. Över total antalet flygpassagerare gör några av interventionsmodellerna bättre prognoser jämfört med ARIMA-modellen men samtidigt presterade några interventionsmodeller sämre än ARIMA-modellen.
In 2020, Sweden and the world were hit by the Covid-19 pandemic. The pandemic has a major impact on theflight industry according to previous studies. The purpose of this study is to estimate how the number of air passengers has been affected by the pandemic and to estimate models whose purpose is to make short-term forecasts. Intervention analysis is carried out to study the impact of the Covid-19 pandemic on the number of air passengers in Sweden. In March of 2020 the ministry of foreign affairs of Sweden announced a recommendation to avoid unnecessary travels to avoid spreading of the disease. Intervention models for domestic passengers, foreign passengers and the total number of air passengers have been produced. An impulse function for May needed to be included in the intervention model for domestic passengers and an impulse function for April needed to be included in the intervention model for foreign passengers. For the total number of air passengers only a step function for Covid-19 was required. The results show that the Covid-19 pandemic has affected the number of air passenger. The total number of air passengers has decreased by almost one million passengers. Foreign passengers have decreased by almost 682000 passengers and decreased by another 180000 passengers in April 2020. Domestic passengers decreased by approximately 375000 passengers and decreased by another 287000 passengers in May. The forecast models show varying results. For domestic passengers, the forecast errors were not lower for the intervention models compared to the ARIMA model without an intervention effect. For foreign passengers, the forecast errors were lower with the intervention models compared to the ARIMA model. For the total number of passengers, some of the intervention models made better forecasts compared to the ARIMA model, but at the same time some of the intervention models performed worse than the ARIMA model.
APA, Harvard, Vancouver, ISO, and other styles
6

Hirsch, Daniel, and Tim Steinholtz. "Tidsserie regression på finansmarknaden." Thesis, KTH, Skolan för teknikvetenskap (SCI), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-255797.

Full text
Abstract:
I den här rapporten studerar vi prestanda för två maskininlärningsalgoritmer när de implementeras för prisförutsättningar på den svenska elmarknaden. Målet med detta projekt är att utvärdera om dessa algoritmer kan användas som verktyg för investeringar. Algoritmerna är Kernel Ridge Regression (KRR) och Support Vector Regression (SVR). Både KRR och SVR använder kernel trick för att effektivt hitta olinjära beroende på den volatila marknaden. Metoderna används båda med ett offline-tillvägagångssätt. För Kernel Ridge Regression, genomfördes också en online-approach using Stochastic Gradient Descent (SGD) för att minska beräkningskostnaden. Båda algoritmerna tillämpas på den svenska elmarknaden för år 2017, med hjälp av programmeringsmiljön Matlab. För att utvärdera algoritmens prestanda beräknades det genomsnittliga absoluta procentsatsfelet (MAPE), rotenhetens kvadratfel (RMSE) och det genomsnittliga absolutvärdet (MAE). Slutsatserna av detta projekt är att båda metoderna visar potential att användas i finansiella tidsserier förutsägelser. De presenterade implementationerna behöver dock vissa förbättringar. Exempel på möjliga sätt att raffinera de resultat som uppnåtts i detta projekt diskuteras, med idéer avlägsna implementeringar.
In this report, we study the performance of two machine learning algorithms when implemented for price predictions on the Swedish electricity market. The goal of this project is to evaluate if these algorithms can be used as a tool for investments. The algorithms are Kernel Ridge Regression (KRR), and Support Vector Regression (SVR). Both KRR and SVR use the kernel trick to efficiently find non-linear dependencies in the volatile market. The methods are both used with an offline approach. For the Kernel Ridge Regression, an online approach using Stochastic Gradient Descent (SGD) to reduce the computational cost was also implemented. Both algorithms are applied to the Swedish electricity market for the year 2017, using the programming environment Matlab. To evaluate the performance of the algorithms the mean absolute percentage error (MAPE), the root mean squared error (RMSE), and the mean absolute error (MAE) were calculated. The conclusions of this project are that both methods show potential for being used in financial time series predictions. The presented implementations, however, are in need of some refinements. Examples of possible ways to refine the results obtained in this project are discussed, with ideas of future implementations.
APA, Harvard, Vancouver, ISO, and other styles
7

Börsum, Jakob, and Jakob Nyblom. "Prognoser på försäkringsdata : En utvärdering av prediktionsmodeller för antal skador på den svenska försäkringsmarknaden." Thesis, Uppsala universitet, Statistiska institutionen, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-374731.

Full text
Abstract:
The purpose of this report is to predict annual insurance data with quarterly data as predictors and to evaluate its accuracy against other naive prediction models. A relationship is discerned between the two data categories and the interest goes beyond publication frequency as there is a fundamental difference between quarterly and annual data. The insurance industry organization Insurance Sweden publishes quarterly data that contain all insurance events reported while the annual data only contain insurance events which led to disbursement from the insurance companies. This discrepancy shows to be problematic when predicting annual outcomes. Forecasts are estimated by ARIMA models on short time series and compared with classic linear regression models. The implied results from all insurance subcategories in traffic, motor vehicles and household- and corporate insurance are that, in some cases, prediction using linear regression on quarterly data is more precise than the constructed naive prediction models on annual data. However, the results vary between subcategories and the regression models using quarterly data need further improvement before it is the obvious choice when forecasting annual number of events that led to disbursements from the insurance companies.
APA, Harvard, Vancouver, ISO, and other styles
8

Wörman, Jacob. "Analys av nyhetsrapporteringars påverkan på värdet av tillgångar på den amerikanska aktiemarknaden." Thesis, Uppsala universitet, Statistiska institutionen, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-444744.

Full text
Abstract:
Det är allmänt känt att aktiekurser beter sig som om de vore slumpvandringar (random walk), och att därmed prediktioner av framtida avkastning är svåra eller omöjliga att förbättra genom att ansätta någonting annat än det senaste observerade värdet. Samtidigt finns det forskning som visar att prediktioner är möjliga. Till exempel finns det idag forskning som menar att nyhetsrapporteringar med positiva ord om tillgången ger tendenser till ökad avkastning. Syftet med denna uppsats är att undersöka om antalet nyhetsrapporteringar och sentimentet på olika värdepapper på den amerikanska marknaden kan användas för att predicera avkastning. Vi har beräknat ett så kallat Sentiment score, som mäter en relation mellan antal positiva, negativa och neutrala ord i brödtext och titlar, för över 300 000 artiklar. Baserat på detta har vi tittat närmare på två strategier för att skapa portföljer: en strategi som använder regressionsanalys som knyter samman avkastningar och sentiment, och en mindre sofistikerad strategi som helt enkelt väljer de mest omskrivna tillgångarna. I en utvärdering har vi jämfört strategierna med jämförelseindex. Utvärderingen indikerar att den första strategin inte gav en avkastning som var bättre än jämförelseindex. Den andra strategin gav däremot avkastning som var signifikant bättre än avkastningen från jämförelseindex.
APA, Harvard, Vancouver, ISO, and other styles
9

Nordlinder, Magnus. "Clustering of Financial Account Time Series Using Self Organizing Maps." Thesis, KTH, Matematisk statistik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-291612.

Full text
Abstract:
This thesis aims to cluster financial account time series by extracting global features from the time series and by using two different dimensionality reduction methods, Kohonen Self Organizing Maps and principal component analysis, to cluster the set of the time series by using K-means. The results are then used to further cluster a set of financial services provided by a financial institution, to determine if it is possible to find a set of services which coincide with the time series clusters. The results find several sets of services that are prevalent in the different time series clusters. The resulting method can be used to understand the dynamics between deposits variability and the customers usage of different services and to analyse whether a service is more used in different clusters.
Målet med denna uppsats är att klustra tidsserier över finansiella konton genom att extrahera tidsseriernas karakteristik. För detta används två metoder för att reducera tidsseriernas dimensionalitet, Kohonen Self Organizing Maps och principal komponent analys. Resultatet används sedan för att klustra finansiella tjänster som en kund använder, med syfte att analysera om det existerar ett urval av tjänster som är mer eller mindre förekommande bland olika tidsseriekluster. Resultatet kan användas för att analysera dynamiken mellan kontobehållning och kundens finansiella tjänster, samt om en tjänst är mer förekommande i ett tidsseriekluster.
APA, Harvard, Vancouver, ISO, and other styles
10

Anantha, Padmanaban Deepika. "Identification of Fundamental Driving Scenarios Using Unsupervised Machine Learning." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289209.

Full text
Abstract:
A challenge to release autonomous vehicles to public roads is safety verification of the developed features. Safety test driving of vehicles is not practically feasible as the acceptance criterion is driving at least 2.1 billion kilometers [1]. An alternative to this distance-based testing is the scenario-based approach, where the intelligent vehicles are exposed to known scenarios. Identification of such scenarios from the driving data is crucial for this validation. The aim of this thesis is to investigate the possibility of unsupervised identification of driving scenarios from the driving data. The task is performed in two major parts. The first is the segmentation of the time series driving data by detecting changepoints, followed by the clustering of the previously obtained segments. Time-series segmentation is approached using a Deep Learning method, while the second task is performed using time series clustering. The work also includes a visual approach for validating the time-series segmentation, followed by a quantitative measure of the performance. The approach is also qualitatively compared against a Bayesian Nonparametric approach to identify the usefulness of the proposed method. Based on the analysis of results, there is a discussion about the usefulness and drawbacks of the method, followed by the scope for future research.
En utmaning att släppa autonoma fordon på allmänna vägar är säkerhetsverifiering av de utvecklade funktionerna. Säkerhetstestning av fordon är inte praktiskt genomförbart eftersom acceptanskriteriet kör minst 2,1 miljarder kilometer [1]. Ett alternativ till denna distansbaserade testning är det scenaribaserade tillväga-gångssättet, där intelligenta fordon utsätts för kända scenarier. Identifiering av sådana scenarier från kördata är avgörande för denna validering. Syftet med denna avhandling är att undersöka möjligheten till oövervakad identifiering av körscenarier från kördata. Uppgiften utförs i två huvuddelar. Den första är segmenteringen av tidsseriedrivdata genom att detektera ändringspunkter, följt av klustring av de tidigare erhållna segmenten. Tidsseriesegmentering närmar sig med en Deep Learningmetod, medan den andra uppgiften utförs med hjälp av tidsseriekluster. Arbetet innehåller också ett visuellt tillvägagångssätt för att validera tidsserierna, följt av ett kvantitativt mått på prestanda. Tillvägagångssättet jämförs också med en Bayesian icke-parametrisk metod för att identifiera användbarheten av den föreslagna metoden. Baserat på analysen av resultaten diskuteras metodens användbarhet och nackdelar, följt av möjligheten för framtida forskning.
APA, Harvard, Vancouver, ISO, and other styles
11

Singh, Akash. "Anomaly Detection for Temporal Data using Long Short-Term Memory (LSTM)." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-215723.

Full text
Abstract:
We explore the use of Long short-term memory (LSTM) for anomaly detection in temporal data. Due to the challenges in obtaining labeled anomaly datasets, an unsupervised approach is employed. We train recurrent neural networks (RNNs) with LSTM units to learn the normal time series patterns and predict future values. The resulting prediction errors are modeled to give anomaly scores. We investigate different ways of maintaining LSTM state, and the effect of using a fixed number of time steps on LSTM prediction and detection performance. LSTMs are also compared to feed-forward neural networks with fixed size time windows over inputs. Our experiments, with three real-world datasets, show that while LSTM RNNs are suitable for general purpose time series modeling and anomaly detection, maintaining LSTM state is crucial for getting desired results. Moreover, LSTMs may not be required at all for simple time series.
Vi undersöker Long short-term memory (LSTM) för avvikelsedetektion i tidsseriedata. På grund av svårigheterna i att hitta data med etiketter så har ett oövervakat an-greppssätt använts. Vi tränar rekursiva neuronnät (RNN) med LSTM-noder för att lära modellen det normala tidsseriemönstret och prediktera framtida värden. Vi undersö-ker olika sätt av att behålla LSTM-tillståndet och effekter av att använda ett konstant antal tidssteg på LSTM-prediktionen och avvikelsedetektionsprestandan. LSTM är också jämförda med vanliga neuronnät med fasta tidsfönster över indata. Våra experiment med tre verkliga datasetvisar att även om LSTM RNN är tillämpbara för generell tidsseriemodellering och avvikelsedetektion så är det avgörande att behålla LSTM-tillståndet för att få de önskaderesultaten. Dessutom är det inte nödvändigt att använda LSTM för enkla tidsserier.
APA, Harvard, Vancouver, ISO, and other styles
12

Olsson, Lööf Greta, and Aleksandra Vojcic. "It’s Not EU, It’s Me! : An Event Study of Brexit on Financial Markets." Thesis, KTH, Skolan för industriell teknik och management (ITM), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-264181.

Full text
Abstract:
This paper investigates the impact of the European Union membership referendum in the UK on the correlations and volatility between three different broad stock market indices, utilizing an econometric time series model called DCC GARCH. Findings support the claim of higher volatility peaks on the stock market as an immediate response to the event. Evidence indicate higher shortrun correlations between the indices as a response to higher volatility. In addition, the study present evidence that the correlation between the UK stock index and the other two indices declines after the referendum in 2016.
Studien undersöker konsekvenserna av folkomröstningen om Storbritanniens medlemskap i EU. Korrelationen och volatiliteten mellan tre olika aktiemarknadsindex jämförs med hjälp av en ekonometrisk modell för tidsserier kallad DCC GARCH. Resultaten från studien visar på omedelbart högre nivåer av volatilitet på aktiemarknaden dagarna efter omröstningen. Analysen ger stöd för hypotesen om högre nivåer av kortsiktiga korrelationer mellan indexen som en konsekvens av högre nivåer av volatilitet. Resultat visar även på att korrelationen mellan det brittiska aktieindexet och de övriga två minskar efter det undersökta eventet.
APA, Harvard, Vancouver, ISO, and other styles
13

Ghandeharioon, Cosar. "An evaluation of deep neural network approaches for traffic speed prediction." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254911.

Full text
Abstract:
The transportation industry has a significant effect on the sustainability and development of a society. Learning traffic patterns, and predicting the traffic parameters such as flow or speed for a specific spatiotemporal point is beneficial for transportation systems. For instance, intelligent transportation systems (ITS) can use forecasted results to improve services such as driver assistance systems. Furthermore, the prediction can facilitate urban planning by making management decisions data driven. There are several prediction models for time series regression on traffic data to predict the average speed for different forecasting horizons. In this thesis work, we evaluated Long Short-Term Memory (LSTM), one of the recurrent neural network models and Neural decomposition (ND), a neural network that performs Fourier-like decomposition. The results were compared with the ARIMA model. The persistent model was chosen as a baseline for the evaluation task. We proposed two new criteria in addition to RMSE and r2, to evaluate models for forecasting highly variable velocity changes. The dataset was gathered from highway traffic sensors around the E4 in Stockholm, taken from the “Motorway Control System” (MCS) operated by Trafikverket. Our experiments show that none of the models could predict the highly variable velocity changes at the exact times they happen. The reason was that the adjacent local area had no indications of sudden changes in the average speed of vehicles passing the selected sensor. We also conclude that traditional ML metrics of RMSE and r2 could be augmented with domain specific measures.
Transportbranschen har en betydande inverkan på samhällets hållbarhet och utveckling. Att lära sig trafikmönster och förutsäga trafikparametrar som flöde eller hastighet för en specifik spatio-temporal punkt är fördelaktigt för transportsystem. Intelligenta transportsystem (ITS) kan till exempel använda prognostiserade resultat för att förbättra tjänster som förarassistanssystem. Vidare kan förutsägelsen underlätta stadsplanering genom att göra ledningsbeslut datadrivna. Det finns flera förutsägelsemodeller för tidsserieregression på trafikdata för att förutsäga medelhastigheten för olika prognoshorisonter. I det här avhandlingsarbetet utvärderade vi Långtidsminne (LSTM), en av de återkommande neurala nätverksmodellerna och Neural dekomposition (ND), ett neuralt nätverk som utför Fourierliknande sönderdelning. Resultaten jämfördes med ARIMA-modellen. Den ihållande modellen valdes som utgångspunkt för utvärderingsuppgiften. Vi föreslog två nya kriterier utöver RMSE och r2, för att utvärdera modeller för prognoser av högt variabla hastighetsändringar. Datasetet insamlades från trafiksensor på motorvägar runt E4 i Stockholm, för det så kallade motorvägskontrollsystemet (MCS). Våra experiment visar att ingen av modellerna kan förutsäga de höga variabla hastighetsförändringarna vid exakta tider som de händer. Anledningen var att det intilliggande lokala området inte hade några indikationer på plötsliga förändringar i medelhastigheten hos fordon som passerade den valda sensorn. Vi drar också slutsatsen att traditionella ML-metrics av RMSE och R2 kan kompletteras med domänspecifika åtgärder.
APA, Harvard, Vancouver, ISO, and other styles
14

Tang, Chen. "Forecasting Service Metrics for Network Services." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-284505.

Full text
Abstract:
As the size and complexity of the internet increased dramatically in recent years,the burden of network service management also became heavier. The need foran intelligent way for data analysis and forecasting becomes urgent. The wideimplementation of machine learning and data analysis methods provides a newway to analyze large amounts of data.In this project, I study and evaluate data forecasting methods using machinelearning techniques and time series analysis methods on data collected fromthe KTH testbed. Comparing different methods with respect to accuracy andcomputing overhead I propose the best method for data forecasting for differentscenarios.The results show that machine learning techniques using regression can achievebetter performance with higher accuracy and smaller computing overhead. Timeseries data analysis methods have relatively lower accuracy, and the computingoverhead is much higher than machine learning techniques on the datasetsevaluated in this project.
Eftersom storleken och komplexiteten på internet har ökat dramatiskt under de senaste åren så har belastningen av nätverkshantering också blivit tyngre. Behovet av ett intelligent sätt för dataanalys och prognos blir brådskande. Den breda implementeringen av maskininlärningsmetoder och dataanalysmetoder ger ett nytt sätt att analysera stora mängder data.I detta projekt studerar och utvärderar jag dataprognosmetoder med hjälp av maskininlärningstekniker och analyser av tidsserier som samlats in från KTHtestbädden. Baserat på jämförelse av olika metoder med avseende på noggrannhet och beräkningskostnader, så föreslår jag föreslår den bästa metoden för dataprognoser för olika scenarier.Resultaten visar att maskininlärningstekniker som använder regression kan uppnå bättre prestanda med högre noggrannhet och mindre datoromkostnader. Metoderför dataanalys av tidsserier har relativt lägre noggrannhet, och beräkningsomkostnaderna är mycket högre än maskininlärningstekniker på de datauppsättningar som utvärderatsi detta projekt.
APA, Harvard, Vancouver, ISO, and other styles
15

Vera, Barberán José María. "Adding external factors in Time Series Forecasting : Case study: Ethereum price forecasting." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289187.

Full text
Abstract:
The main thrust of time-series forecasting models in recent years has gone in the direction of pattern-based learning, in which the input variable for the models is a vector of past observations of the variable itself to predict. The most used models based on this traditional pattern-based approach are the autoregressive integrated moving average model (ARIMA) and long short-term memory neural networks (LSTM). The main drawback of the mentioned approaches is their inability to react when the underlying relationships in the data change resulting in a degrading predictive performance of the models. In order to solve this problem, various studies seek to incorporate external factors into the models treating the system as a black box using a machine learning approach which generates complex models that require a large amount of data for their training and have little interpretability. In this thesis, three different algorithms have been proposed to incorporate additional external factors into these pattern-based models, obtaining a good balance between forecast accuracy and model interpretability. After applying these algorithms in a study case of Ethereum price time-series forecasting, it is shown that the prediction error can be efficiently reduced by taking into account these influential external factors compared to traditional approaches while maintaining full interpretability of the model.
Huvudinstrumentet för prognosmodeller för tidsserier de senaste åren har gått i riktning mot mönsterbaserat lärande, där ingångsvariablerna för modellerna är en vektor av tidigare observationer för variabeln som ska förutsägas. De mest använda modellerna baserade på detta traditionella mönsterbaserade tillvägagångssätt är auto-regressiv integrerad rörlig genomsnittsmodell (ARIMA) och långa kortvariga neurala nätverk (LSTM). Den huvudsakliga nackdelen med de nämnda tillvägagångssätten är att de inte kan reagera när de underliggande förhållandena i data förändras vilket resulterar i en försämrad prediktiv prestanda för modellerna. För att lösa detta problem försöker olika studier integrera externa faktorer i modellerna som behandlar systemet som en svart låda med en maskininlärningsmetod som genererar komplexa modeller som kräver en stor mängd data för deras inlärning och har liten förklarande kapacitet. I denna uppsatsen har tre olika algoritmer föreslagits för att införliva ytterligare externa faktorer i dessa mönsterbaserade modeller, vilket ger en bra balans mellan prognosnoggrannhet och modelltolkbarhet. Efter att ha använt dessa algoritmer i ett studiefall av prognoser för Ethereums pristidsserier, visas det att förutsägelsefelet effektivt kan minskas genom att ta hänsyn till dessa inflytelserika externa faktorer jämfört med traditionella tillvägagångssätt med bibehållen full tolkbarhet av modellen.
APA, Harvard, Vancouver, ISO, and other styles
16

Gangalic, Catalin. "Improving Queuing Time in a Pull Based Containerized Continuous Integration Build System." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-303114.

Full text
Abstract:
Most of the medium and big size software companies around the world are now using some form of continuous automatic build systems, with smaller companies following through. This approach, towards a more continuous flow, has pushed for more innovation in the domain and the adoption of various orchestration tools for these builds. At the same time, most continuous integration build systems do not leverage the data for improving the total building time. This thesis intends to decrease the overall building time in a pull based build system, named Blazar. This is obtained by decreasing the average time a build waits before being allocated a resource by the orchestration tool, Kubernetes. The improvement of average queuing time is done by leveraging the past data regarding the queue load of the system with the scope of predicting the amount of resources and preemptively allocating them. In the thesis, various time series prediction models are explored in order to find the most relevant one with regards to the available data. The final choice of the model is Facebook’s Prophet due to its ability to leverage multiple seasonalities, handle outliers, accommodate holidays, and provide fast predictions. By tuning various model’s parameters, it was possible to achieve satisfactory results. Thus, for some of the tested periods, the average queuing time was decreased with up to 20%, while maintaining a reasonable resource usage, compared to the time without using any prediction models. Finally, this thesis represents a practical approach that can be applied to other applications and systems. This thesis also details its limitations while discussing other solutions and ideas to further improve the results.
De flesta medelstora och större mjukvaruföretag runt om i världen använder idag någon form av kontinuerliga automatiska byggsystem, något som mindre företag även har börjat efterfölja. Detta tillvägagångssätt mot ett mer kontinuerligt flöde har drivit för mer innovation inom domänen och adopteringen av olika orkestreringsverktyg för dessa byggda program. Samtidigt utnyttjar de flesta kontinuerliga integrationssystem inte den data de samlar in för att förbättra den totala byggtiden. Denna uppsats avser att minska den totala byggtiden i ett pull-baserat byggsystem som heter Blazar. Detta uppnås genom att minska den genomsnittliga tid som ett byggt program väntar innan den tilldelas en resurs av orkestreringsverktyget, Kubernetes. Förbättringen av den genomsnittliga kötiden fås genom att utnyttja tidigare data om systemets köbelastning med omfattningen att förutsäga mängden resurser och fördela dem förebyggande. I avhandlingen undersöks olika tidsserieprognosmodeller för att hitta den mest relevanta med avseende på tillgänglig data. Det slutliga valet av modellen är Facebooks Prophet på grund av dess förmåga att utnyttja flera säsongsbestämmelser, hantera avvikelser, helgdagar och ge snabba förutsägelser. Genom att ställa in olika modellparametrar var det möjligt att uppnå tillfredsställande resultat. Under några av de testade perioderna minskade således den genomsnittliga kötiden med upp till 20%, samtidigt som en rimlig resursanvändning bibehölls, jämfört med tiden som ficks utan att använda någon förutsägelsemodell. Slutligen avser denna avhandling inte att ge en toppmodern lösning. Således slutar det med att beskriva sina begränsningar samtidigt som de tillhandahåller andra lösningar och idéer som kan förbättra resultaten.
APA, Harvard, Vancouver, ISO, and other styles
17

Kangas, Jussi. "An iterative design process for visualizing historical air temperature recordings effectively in a single display : A user study on narrative visualizations of geospatial time-dependent data." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300659.

Full text
Abstract:
How to represent data visually in an intuitive and effective way for gaining quick insights is something that the field of visualization deals with. Effective in this context means that a visualization can be understood accurately or rapidly by the viewer. However, how to visualize geospatial time series data effectively is challenging. The challenge consists of how to visualize geospatial time-dependent data in a single view that can provide both an effective overview and details of the data set. With three or more data dimensions the available coding options grows; hence, the challenge consists in combining several visual coding and viewing options into a single effective view. This thesis investigated visualization guidelines that should promote effectivness for a visualization of geospatial time-dependent data. Furthermore, in this project the data set consisted of historical air temperature measurements in Sweden, which has both geospatial and time-dependent features. The guidelines where used in an iterative design process to redesign an existing geospatial time series visualization. The goal of the redesign was to increase the effectiveness of the existing visualization. An alternative visualization was created and compared to the original visualization in a user study. The results indicate that these users experienced the alternative visualization as more effective than the original. However, the performance of the participants on four tasks indicates that the alternative visualization is not more effective. Furthermore, compared to related work the alternative visualization is not more effective. In conclusion, the alternative visualization is harder to learn than the original which may have an effect on the user’s performance. However, once the visualization is learned, then it may be more effective than the original visualization. Additionally, the use of guidelines was helpful in the design process but, in this case, did not guarantee an effective visualization.
Hur data bör representeras visuellt på ett intuitivt och effektivt sätt undersöks i det vetenskapliga fältet om visualiseringar. Vidare är det utmanande hur geografiska tidsserier ska visualiserar. Utmaningen består i hur en enda visualiserings vy ska skapas som både kan ge en överblick över data och detaljer om specifika data punkter. Anledning till att detta är utmanande är att med fler data dimensioner blir även de möjliga visuella kodnings möjligheterna flera. Därför består utmaningen i hur olika visuella kodningssätt och vyer ska kombineras i en enda vy effektivt. För att designa en effektiv vy undersöktes olika designriktlinjer kopplade till effektivitet. Dessa riktlinjer användes sedan för att designa om en existerande geografisk tidsserie visualisering in en iterativ designprocess. Data som visualiserades var historiska lufttemperaturmätningar i Sverige, en datamängd med både geografiska och tidsberoende komponenter. Den skapade alternativa visualiseringen jämfördes med originalet med hänsyn till effektivitet i en användarstudie. Resultaten tyder på att användarna uppfattar den alternativa visualiseringen som mer effektiv än originalet. Men prestations resultatet på fyra uppgifter tyder inte på att den alternativa visualiseringen skulle vara effektivare. Vidare, jämfört med relaterade arbeten är inte den alternative visualiseringen mer effektiv. Sammanfattningsvis är den alternativa visualiseringen svårare att lära sig än originalet, vilken kan påverka användarnas prestation. Men när användarna lärt sig att använda den alternativa visualiseringen, kan den alternativa vara effektivare att använda än originalet. Vidare är designriktlinjerna användbara i en designprocess men, ingen garanti för en effektiv visualisering i detta fall.
APA, Harvard, Vancouver, ISO, and other styles
18

Rådeström, Johan, and Gustav Skoog. "Realtidssammanställning av stora mängder data från tidsseriedatabaser." Thesis, KTH, Data- och elektroteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-208932.

Full text
Abstract:
Stora mängder tidsseriedata genereras och hanteras i tekniska försörjningssystem och processindustrier i syfte att möjliggöra övervakning av systemen. När tidserierna ska hämtas och sammanställas för dataanalys utgör tidsåtgången ett problem. Examensarbetet hade som syfte att ta reda på hur utvinning av tidsseriedata borde utföras för att ge bästa möjliga svarstid för systemen. För att göra hämtningen och sammanställningen så effektiv som möjligt testades och utvärderades olika tekniker och metoder. De områden som tekniker och metoder jämfördes inom var sammanställning av data inom och utanför databasen, cachning, användandet av minnesdatabaser jämfört med andra databaser, dataformat, dataöverföring, och förberäkning av data. Resultatet var att den bästa lösningen bestod av att sammanställa data parallellt utanför databasen, att använda en egen inbyggd minnesdatabas, att använda Google Protobuf som dataformat, samt att förberäkna data.
Large amounts of time series data are generated and managed within management systems and industries with the purpose to enable monitoring of the systems. When the time series is to be acquired and compiled for data analysis, the expenditure of time is a problem. This thesis was purposed to determine how the extraction of time series data should be performed to give the systems the best response time possible. To make the extraction and compilation as effective as possible, different techniques and methods were tested and evaluated. The areas that techniques and methods were compared for were compilation of data inside and outside the database, caching, usage of in-memory databases compared to other databases, dataformats, data transfer, and precalculation of data. The results showed that the best solution was to compile data in parallel outside the database, to use a custom built-in in-memory database, to use Google Protobuf as data format, and finally to use precalculated data.
APA, Harvard, Vancouver, ISO, and other styles
19

Jaunzems, Davis. "Time-series long-term forcasting for A/B tests." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-205344.

Full text
Abstract:
Den tekniska utvecklingen av datorenheter och kommunikationsverktyg har skapat möjligheter att lagra och bearbeta större mängder information än någonsin tidigare. För forskare är det ett sätt att göra mer exakta vetenskapliga upptäckter, för företag är det ett verktyg för att bättre förstå sina kunder, sina produkter och att skapa fördelar gentemot sina konkurrenter. Inom industrin har A/B-testning blivit ett viktigt och vedertaget sätt att skaffa kunskaper som bidrar till att kunna fatta datadrivna beslut. A/B-test är en jämförelse av två eller flera versioner för att avgöra vilken som fungerar bäst enligt förutbestämda mätningar. I kombination med informationsutvinning och statistisk analys gör dessa tester det möjligt att besvara ett antal viktiga frågor och bidra till övergången från att "vi tror" till att "vi vet". Samtidigt kan dåliga testfall ha negativ inverkan på företags affärer och kan också leda till att användare upplever testerna negativt. Det är skälet till varför det är viktigt att kunna förutsäga A/B-testets långsiktiga effekter, utvunna ur kortsiktiga data. I denna rapport är A/B-tester och de prognoser de skapar undersökta genom att använda univariat tidsserieanalys. Men på grund av den korta tidsperioden och det stora urvalet, är det en stor utmaning att ge korrekta långtidsprognoser. Det är en kvantitativ och empirisk studie som använder verkliga data som tagits från ett socialt spelutvecklingsbolag, King Digital Entertainment PLC (King.com). Först analyseras och förbereds data genom en serie olika steg. Tidsserieprognoser har funnits i generationer. Därför görs en analys och noggrannhetsjämförelse av befintliga prognosmodeller, så som medelvärdesprognos, ARIMA och Artificial Neural Networks. Resultaten av analysen på verkliga data visar liknande resultat som andra forskare har funnit för långsiktiga prognoser med kortsiktiga data. För att förbättra exaktheten i prognosen föreslås en metod med tidsseriekluster. Metoden utnyttjar likheten mellan tidsserier genom Dynamic Time Warping och skapar separata kluster av prognosmodeller. Klustren väljs med hög noggrannhet med hjälp av Random Forest klassificering och de långa tidsserieintervallen säkras genom att använda historiska tester och en Markov Chain. Den föreslagna metoden visar överlägsna resultat i jämförelse med befintliga modeller och kan användas för att erhålla långsiktiga prognoser för A/B-tester.
The technological development of computing devices and communication tools has allowed to store and process more information than ever before. For researchers it is a means of making more accurate scientific discoveries, for companies it is a way of better understanding their clients, products and gain an edge over the competitors. In the industry A/B testing is becoming an important and a common way of obtaining insights that help to make data-driven decisions. A/B test is a comparison of two or more versions to determine which is performing better according to predetermined measurements. In combination of data mining and statistical analysis, these tests allow to answer important questions and help to transition from the state of “we think” to “we know”. Nevertheless, running bad test cases can have negative impact on businesses and can result in bad user experience. That is why it is important to be able to forecast A/B test long-term effects from short-term data. In this report A/B tests and their forecasting is looked at using the univariate time-series analysis. However, because of the short duration and high diversity, it poses a great challenge in providing accurate long-term forecasts. This is a quantitative and empirical study that uses real-world data set from a social game development company King Digital Entertainment PLC(King.com). First through series of steps the data are analysed and pre-processed. Time-series forecasting has been around for generations. That is why an analysis and accuracy comparison of existing forecasting models, like, mean forecast, ARIMA and Artificial Neural Networks, is carried out. The results on real data set show similar results that other researchers have found for long-term forecasts with short-term data. To improve the forecasting accuracy a time-series clustering method is proposed. The method utilizes similarity between time-series through Dynamic Time Warping, and trains separate cluster forecasting models. The clusters are chosen with high accuracy using Random Forest classifier, and certainty about time-series long-term range is obtained by using historical tests and a Markov Chain. The proposed method shows superior results against existing models, and can be used to obtain long-term forecasts for A/B tests.
APA, Harvard, Vancouver, ISO, and other styles
20

Sofokleous, Ioannis. "Correction of Inhomogeneous Data in the Precipitation Time Series of Sweden Due to the Wind Shield Introduction." Thesis, Uppsala universitet, Luft-, vatten och landskapslära, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-281709.

Full text
Abstract:
The work of this master thesis is based on analyses of monthly precipitation data from 70 stations of the SMHI (Swedish Meteorological and Hydrological Institute) in Sweden, in the period 1860-2014, using the information for the year of introduction of the wind shield at each station. The primary goal is the calculation of correction factors which will be applied on the precipitation data in the period of measurements before the introduction of the wind shield. This correction will counterbalance the underestimation of the collected precipitation by the unshielded precipitation gauges due to the effect of the wind. The wind induced error, related to aerodynamical effects, increases with increasing wind speed. The stronger the wind, the more capable it is of deflecting the precipitation water droplets or snowflakes, falling towards the gauge orifice, away from it. In spite of the important efficiency of the wind shield which acts to diminish the wind error, the long-term effect of changing the measuring instrumentation at some time in the observations history is the production of inhomogeneous data in the measurements records. Inhomogeneous precipitation data are sources of errors in climatology and hydrology and result in misleading conclusions regarding the climate change and climate variations, hence they should be identified and corrected through a homogenization method. The analysis includes the comparison of the precipitation data of each station during two periods, one before and one after the introduction of the wind shield. This comparison leads to the calculation of ratios representing the increase in the catch between the two periods due to the introduction of the wind shield. Temperature data are also processed in order to estimate the type of precipitation (snow/rain) in each case. The monthly corrections ranged between 5 %, for rain, and 27 % for snow precipitation. The absolute value of the increase of the average annual precipitation due the implementation of the correction was 50 mm. The comparison of the corrected against the uncorrected precipitation time series indicated a less pronounced increase (0.74 mm/y) of the precipitation during the last 150 years, after the application of the correction, compared to the increase indicated from the uncorrected data (1.19 mm/y).
Kontinuerliga samt felfria nederbördsmätningar är av stor betydelse för geovetenskaper som klimatologi och hydrologi därför att nederbördsdata är en av de primära meteorologiska parametrarna för forskning om klimatförändringen. Att säkerställa felfria (homogena) nederbörds tidsserier betyder i stort sett att säkerställa homogenitet genom att identifiera och korrigera inhomogena data. Icke homogena data uppkommer på grund av förändringar i mätmetoder och mätförhållanden under observationstiden, sedan 1860-talet tills idag alltså. Denna studies syfte är att beräkna en korrektion som ska användas för att korrigera nederbördsmätningar som utfördes sedan 1860 utan vinskydd. Vindskyddet eller vindskärmen, en speciell utrustning som användas på nederbördsinsamlare, infördes gradvis under perioden 1900-1960 vid de svenska nederbördstationerna. Vindskyddet introducerades med avsikt att minska vindens påverka vid nederbördsinsamling. Men trotts den positiva effekten som vindskyddet ledde till, genom den ökade nederbördsmängden som samlades in, skapade denna förändring av mätarutrustningen inhomogena data. Bearbetningen skedde för månadsnederbördsdata från 70 stationer från SMHIs meteorologiska nätverk genom att jämföra nederbördsobservationer som genomfördes under perioderna tio år före och tio år efter införandet av vindskydd. Dessutom användes temperaturdata från samma stationer för att uppskatta nederbördslag (snö/regn). Skälet till detta är att vinskyddseffekten är olika mellan snö och regn. Beräkningarna och bestämningen av nederbördslag ledde till en 5 % respektive 27 % nederbörds ökning för regn och snö för de mätningarna som utfördes utan vindskydd. I genomsnitt har de korrigerade värdena, under perioden som vinskyddet saknades, ökat med omkring 50 mm.
APA, Harvard, Vancouver, ISO, and other styles
21

Carpentier, Benjamin. "Deep Learning for Earth Observation: improvement of classification methods for land cover mapping : Semantic segmentation of satellite image time series." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-299578.

Full text
Abstract:
Satellite Image Time Series (SITS) are becoming available at high spatial, spectral and temporal resolutions across the globe by the latest remote sensing sensors. These series of images can be highly valuable when exploited by classification systems to produce frequently updated and accurate land cover maps. The richness of spectral, spatial and temporal features in SITS is a promising source of data for developing better classification algorithms. However, machine learning methods such as Random Forests (RFs), despite their fruitful application to SITS to produce land cover maps, are structurally unable to properly handle intertwined spatial, spectral and temporal dynamics without breaking the structure of the data. Therefore, the present work proposes a comparative study of various deep learning algorithms from the Convolutional Neural Network (CNN) family and evaluate their performance on SITS classification. They are compared to the processing chain coined iota2, developed by the CESBIO and based on a RF model. Experiments are carried out in an operational context using with sparse annotations from 290 labeled polygons. Less than 80 000 pixel time series belonging to 8 land cover classes from a year of Sentinel- 2 monthly syntheses are used. Results show on a test set of 131 polygons that CNNs using 3D convolutions in space and time are more accurate than 1D temporal, stacked 2D and RF approaches. Best-performing models are CNNs using spatio-temporal features, namely 3D-CNN, 2D-CNN and SpatioTempCNN, a two-stream model using both 1D and 3D convolutions.
Tidsserier av satellitbilder (SITS) blir tillgängliga med hög rumslig, spektral och tidsmässig upplösning över hela världen med hjälp av de senaste fjärranalyssensorerna. Dessa bildserier kan vara mycket värdefulla när de utnyttjas av klassificeringssystem för att ta fram ofta uppdaterade och exakta kartor över marktäcken. Den stora mängden spektrala, rumsliga och tidsmässiga egenskaper i SITS är en lovande datakälla för utveckling av bättre algoritmer. Metoder för maskininlärning som Random Forests (RF), trots att de har tillämpats på SITS för att ta fram kartor över landtäckning, är strukturellt sett oförmögna att hantera den sammanflätade rumsliga, spektrala och temporala dynamiken utan att bryta sönder datastrukturen. I detta arbete föreslås därför en jämförande studie av olika algoritmer från Konvolutionellt Neuralt Nätverk (CNN) -familjen och en utvärdering av deras prestanda för SITS-klassificering. De jämförs med behandlingskedjan iota2, som utvecklats av CESBIO och bygger på en RF-modell. Försöken utförs i ett operativt sammanhang med glesa annotationer från 290 märkta polygoner. Mindre än 80 000 pixeltidsserier som tillhör 8 marktäckeklasser från ett års månatliga Sentinel-2-synteser används. Resultaten visar att CNNs som använder 3D-falsningar i tid och rum är mer exakta än 1D temporala, staplade 2D- och RF-metoder. Bäst presterande modeller är CNNs som använder spatiotemporala egenskaper, nämligen 3D-CNN, 2D-CNN och SpatioTempCNN, en modell med två flöden som använder både 1D- och 3D-falsningar.
APA, Harvard, Vancouver, ISO, and other styles
22

Engström, Olof. "Deep Learning for Anomaly Detection in Microwave Links : Challenges and Impact on Weather Classification." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-276676.

Full text
Abstract:
Artificial intelligence is receiving a great deal of attention in various fields of science and engineering due to its promising applications. In today’s society, weather classification models with high accuracy are of utmost importance. An alternative to using conventional weather radars is to use measured attenuation data in microwave links as the input to deep learning-based weather classification models. Detecting anomalies in the measured attenuation data is of great importance as the output of a classification model cannot be trusted if the input to the classification model contains anomalies. Designing an accurate classification model poses some challenges due to the absence of predefined features to discriminate among the various weather conditions, and due to specific domain requirements in terms of execution time and detection sensitivity. In this thesis we investigate the relationship between anomalies in signal attenuation data, which is the input to a weather classification model, and the model’s misclassifications. To this end, we propose and evaluate two deep learning models based on long short-term memory networks (LSTM) and convolutional neural networks (CNN) for anomaly detection in a weather classification problem. We evaluate the feasibility and possible generalizations of the proposed methodology in an industrial case study at Ericsson AB, Sweden. The results show that both proposed methods can detect anomalies that correlate with misclassifications made by the weather classifier. Although the LSTM performed better than the CNN with regards to top performance on one link and average performance across all 5 tested links, the CNN performance is shown to be more consistent.
Artificiell intelligens har fått mycket uppmärksamhet inom olika teknik- och vetenskapsområden på grund av dess många lovande tillämpningar. I dagens samhälle är väderklassificeringsmodeller med hög noggrannhet av yttersta vikt. Ett alternativ till att använda konventionell väderradar är att använda uppmätta dämpningsdata i mikrovågslänkar som indata till djupinlärningsbaserade väderklassificeringsmodeller. Detektering av avvikelser i uppmätta dämpningsdata är av stor betydelse eftersom en klassificeringsmodells pålitlighet minskar om träningsdatat innehåller avvikelser. Att utforma en noggrann klassificeringsmodell är svårt på grund av bristen på fördefinierade kännetecken för olika typer av väderförhållanden, och på grund av de specifika domänkrav som ofta ställs när det gäller exekveringstid och detekteringskänslighet. I det här examensarbetet undersöker vi förhållandet mellan avvikelser i uppmätta dämpningsdata från mikrovågslänkar, och felklassificeringar gjorda av en väderklassificeringsmodell. För detta ändamål utvärderar vi avvikelsedetektering inom ramen för väderklassificering med hjälp av två djupinlärningsmodeller, baserade på long short-term memory-nätverk (LSTM) och faltningsnätverk (CNN). Vi utvärderar genomförbarhet och generaliserbarhet av den föreslagna metodiken i en industriell fallstudie hos Ericsson AB. Resultaten visar att båda föreslagna metoder kan upptäcka avvikelser som korrelerar med felklassificeringar gjorda av väderklassificeringsmodellen. LSTM-modellen presterade bättre än CNN-modellen både med hänsyn till toppprestanda på en länk och med hänsyn till genomsnittlig prestanda över alla 5 testade länkar, men CNNmodellens prestanda var mer konsistent.
APA, Harvard, Vancouver, ISO, and other styles
23

Andersson, Markus. "Multivariate Financial Time Series and Volatility Models with Applications to Tactical Asset Allocation." Thesis, KTH, Matematisk statistik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-175326.

Full text
Abstract:
The financial markets have a complex structure and the modelling techniques have recently been more and more complicated. So for a portfolio manager it is very important to find better and more sophisticated modelling techniques especially after the 2007-2008 banking crisis. The idea in this thesis is to find the connection between the components in macroeconomic environment and portfolios consisting of assets from OMX Stockholm 30 and use these relationships to perform Tactical Asset Allocation (TAA). The more specific aim of the project is to prove that dynamic modelling techniques outperform static models in portfolio theory.
Den finansiella marknaden är av en väldigt komplex struktur och modelleringsteknikerna har under senare tid blivit allt mer komplicerade. För en portföljförvaltare är det av yttersta vikt att finna mer sofistikerade modelleringstekniker, speciellt efter finanskrisen 2007-2008. Idéen i den här uppsatsen är att finna ett samband mellan makroekonomiska faktorer och aktieportföljer innehållande tillgångar från OMX Stockholm 30 och använda dessa för att utföra Tactial Asset Allocation (TAA). Mer specifikt är målsättningen att visa att dynamiska modelleringstekniker har ett bättre utfall än mer statiska modeller i portföljteori.
APA, Harvard, Vancouver, ISO, and other styles
24

Cronstedt, Axel, and Rebecca Andersson. "Readjusting Historical Credit Ratings : using Ordered Logistic Regression and Principal ComponentAnalysis." Thesis, Umeå universitet, Institutionen för matematik och matematisk statistik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-148567.

Full text
Abstract:
Readjusting Historical Credit Ratings using Ordered Logistic Re-gression and Principal Component Analysis The introduction of the Basel II Accord as a regulatory document for creditrisk presented new concepts of credit risk management and credit risk mea-surements, such as enabling international banks to use internal estimates ofprobability of default (PD), exposure at default (EAD) and loss given default(LGD). These three measurements is the foundation of the regulatory capitalcalculations and are all in turn based on the bank’s internal credit ratings. Ithas hence been of increasing importance to build sound credit rating modelsthat possess the capability to provide accurate measurements of the credit riskof borrowers. These statistical models are usually based on empirical data andthe goodness-of-fit of the model is mainly depending on the quality and sta-tistical significance of the data. Therefore, one of the most important aspectsof credit rating modeling is to have a sufficient number of observations to bestatistically reliable, making the success of a rating model heavily dependenton the data collection and development state.The main purpose of this project is to, in a simple but efficient way, createa longer time series of homogeneous data by readjusting the historical creditrating data of one of Svenska Handelsbanken AB’s credit portfolios. Thisreadjustment is done by developing ordered logistic regression models thatare using independent variables consisting of macro economic data in separateways. One model uses macro economic variables compiled into principal com-ponents, generated through a Principal Component Analysis while all othermodels uses the same macro economic variables separately in different com-binations. The models will be tested to evaluate their ability to readjust theportfolio as well as their predictive capabilities.
Justering av historiska kreditbetyg med hjälp av ordinal logistiskregression och principialkomponentsanalys När Basel II implementerades introducerades även nya riktlinjer för finan-siella instituts riskhantering och beräkning av kreditrisk, så som möjlighetenför banker att använda interna beräkningar av Probability of Default (PD),Exposure at Default (EAD) och Loss Given Default (LGD), som tillsammansgrundar sig i varje låntagares sannoliket för fallissemang. Dessa tre mått ut-gör grunden för beräkningen av de kapitaltäckningskrav som banker förväntasuppfylla och baseras i sin tur på bankernas interna kreditratingsystem. Detär därmed av stor vikt för banker att bygga stabila kreditratingmodeller medkapacitet att generera pålitliga beräkningar av motparternas kreditrisk. Dessamodeller är vanligtvis baserade på empirisk data och modellens goodness-of-fit,eller passning till datat, beror till stor del på kvalitén och den statistiska sig-nifikansen hos det data som står till förfogande. Därför är en av de viktigasteaspekterna för kreditratingsmodeller att ha tillräckligt många observationeratt träna modellen på, vilket gör modellens utvecklingsskede samt mängdendata avgörande för modellens framgång.Huvudsyftet med detta projekt är att, på ett enkelt och effektivt sätt, skapaen längre, homogen tidsserie genom att justera historisk kreditratingdata i enportfölj med företagslån tillhandahållen av Svenska Handelsbanken AB. Jus-teringen görs genom att utveckla olika ordinala logistiska regressionsmodellermed beroende variabler bestående av makroekonomiska variabler, på olikasätt. En av modellerna använder makroekonomiska variabler i form av princi-palkomponenter skapade med hjälp av en principialkomponentsanalys, medande andra modelelrna använder de makroekonomiska variablerna enskilt i olikakombinationer. Modellerna testas för att utvärdera både deras förmåga attjustera portföljens historiska kreditratings samt för att göra prediktioner.
APA, Harvard, Vancouver, ISO, and other styles
25

Karlén, Albin, and Sebastian Genas. "Marginaler för morgondagen : En kvantitativ analys av flexibiliteten hos aggregerade laddande elbilar." Thesis, Linköpings universitet, Energisystem, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-177967.

Full text
Abstract:
Elektrifieringen av bilflottan sker i rasande takt. Även andra samhällssektorers efterfrågan på el väntas öka drastiskt under kommande decennier, vilket i kombination med en växande andel intermittenta energikällor trappar upp påfrestningarna på elnätet och ställer krav på anpassningar. En föreslagen dellösning till kraftsystemets kommande utmaningar är att utnyttja efterfrågeflexibiliteten i laddande elbilar genom att en aggregator styr ett stort antal elbilsladdare och säljer den sammanlagda kapaciteten på till exempel Svenska kraftnäts stödtjänstmarknader.  För att avgöra hur mycket flexibilitet som elbilsladdning kan bidra med behöver aggregatorn upprätta prognoser över hur mycket effekt som mest sannolikt finns tillgänglig vid en viss tidpunkt – en punktprognos – men också en uppskattning av vilken effektnivå man kan vara nästan säker på att utfallet överstiger – en kvantilprognos. I den här studien har en undersökning gjorts av hur prognosfelet förändras om gruppen av aggregerade elbilsladdare ökas, och hur mycket en aggregator på så sätt kan sänka sina marginaler vid försäljning av efterfrågeflexibiliteten för att med säkerhet kunna uppfylla sitt bud. Det gjordes genom att kvantifiera flexibiliteten för 1 000 destinationsladdare belägna vid huvudsakligen arbetsplatser, och genom att skala upp och ner datamängden genom slumpmässiga urval. För dessa grupper gjordes sedan probabilistiska prognoser av flexibiliteten med en rullande medelvärdes- och en ARIMA-modell. Utifrån prognoserna simulerades slutligen potentiella intäkter om aggregatorn skulle använda den flexibla kapaciteten för uppreglering till stödtjänsten FCR-D upp, vilket är en frekvensreserv som aktiveras vid störningar av nätfrekvensen.  Resultaten visar att en tiodubbling av antalet aggregerade elbilsladdare mer än halverar det relativa prognosfelet. De båda prognosmodellerna visade sig ha jämförbar precision, vilket talar för att använda sig av den rullande medelvärdesmetoden på grund av dess lägre komplexitet. Den ökade säkerheten i prognosen resulterade dessutom i högre intäkter per laddare.  De genomsnittliga intäkterna av att leverera flexibilitet från 1 000 aggregerade elbilsladdare till FCR-D uppgick till 6 900 kr per månad, eller 0,8 kr per session – siffror som troligen hade varit högre utan coronapandemins ökade hemarbete. En 99-procentig konfidensgrad för kvantilprognosen resulterade i en säkerhetsmarginal med varierande storlek, som i genomsnitt var runt 90 procent för 100 laddpunkter, 60 procent för 1 000 laddpunkter samt 30 procent för 10 000 laddpunkter. Mest flexibilitet fanns tillgänglig under vardagsförmiddagar då ungefär 600 kW fanns tillgängligt som mest för 1 000 laddpunkter.  Att döma av tio års nätfrekvensdata är den sammanlagda sannolikheten för att över 50 procent aktivering av FCR-D-budet skulle sammanfalla med att utfallet för den tillgängliga kapaciteten är en-på-hundra-låg i princip obefintlig – en gång på drygt 511 år. Att aggregatorn lägger sina bud utifrån en 99-procentig konfidensgrad kan alltså anses säkert.
The electrification of the car fleet is taking place at a frenetic pace. Additionally, demand for electricity from other sectors of the Swedish society is expected to grow considerably in the coming decades, which in combination with an increasing proportion of intermittent energy sources puts increasing pressure on the electrical grid and prompts a need to adapt to these changes. A proposed solution to part of the power system's upcoming challenges is to utilize the flexibility available from charging electric vehicles (EVs) by letting an aggregator control a large number of EV chargers and sell the extra capacity to, for example, Svenska kraftnät's balancing markets. To quantify how much flexibility charging EVs can contribute with, the aggregator needs to make forecasts of how much power that is most likely available at a given time – a point forecast – but also an estimate of what power level the aggregator almost certainly will exceed – a quantile forecast. In this study, an investigation has been made of how the forecast error changes if the amount of aggregated EV chargers is increased, and how much an aggregator can lower their margins when selling the flexibility to be able to deliver according to the bid with certainty. This was done by quantifying the flexibility of 1000 EV chargers located at mainly workplaces, and by scaling up and down the data through random sampling. For these groups, probabilistic forecasts of the flexibility were then made with a moving average forecast as well as an ARIMA model. Based on the forecasts, potential revenues were finally simulated for the case where the aggregator uses the available flexibility for up-regulation to the balancing market FCR-D up, which is a frequency containment reserve that is activated in the event of disturbances. The results show that a tenfold increase in the number of aggregated EV chargers more than halves the forecast error. The two forecast models proved to have comparable precision, which suggests that the moving average forecast is recommended due to its lower complexity compared to the ARIMA model. The increased precision in the forecasts also resulted in higher revenues per charger. The average income from delivering flexibility from 1000 aggregated electric car chargers to FCR-D amounted to SEK 6900 per month, or SEK 0.8 per session – figures that would probably have been higher without the corona pandemic's increased share of work done from home. A 99 percent confidence level for the quantile forecast resulted in a safety margin of varying size, which on average was around 90 percent for 100 chargers, 60 percent for 1000 chargers and 30 percent for 10,000 chargers. Most flexibility was shown to be available on weekday mornings when approximately 600 kW was available at most for 1000 chargers. By examining frequency data for the Nordic power grid from the past ten years, the joint probability that a more than 50 percent activation of the FCR-D bid would coincide with the outcome for the available capacity being one-in-a-hundred-low, was concluded to be nearly non-existent – likely only once in about 511 years. For the aggregator to place bids based on a 99 percent confidence level can thus be considered safe.
APA, Harvard, Vancouver, ISO, and other styles
26

Kim, Yeongwoo. "Dynamic GAN-based Clustering in Federated Learning." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-285576.

Full text
Abstract:
As the era of Industry 4.0 arises, the number of devices that are connectedto a network has increased. The devices continuously generate data that hasvarious information from power consumption to the configuration of thedevices. Since the data have the raw information about each local node inthe network, the manipulation of the information brings a potential to benefitthe network with different methods. However, due to the large amount ofnon-IID data generated in each node, manual operations to process the dataand tune the methods became challenging. To overcome the challenge, therehave been attempts to apply automated methods to build accurate machinelearning models by a subset of collected data or cluster network nodes byleveraging clustering algorithms and using machine learning models withineach cluster. However, the conventional clustering algorithms are imperfectin a distributed and dynamic network due to risk of data privacy, the nondynamicclusters, and the fixed number of clusters. These limitations ofthe clustering algorithms degrade the performance of the machine learningmodels because the clusters may become obsolete over time. Therefore, thisthesis proposes a three-phase clustering algorithm in dynamic environmentsby leveraging 1) GAN-based clustering, 2) cluster calibration, and 3) divisiveclustering in federated learning. GAN-based clustering preserves data becauseit eliminates the necessity of sharing raw data in a network to create clusters.Cluster calibration adds dynamics to fixed clusters by continuously updatingclusters and benefits methods that manage the network. Moreover, the divisiveclustering explores the different number of clusters by iteratively selectingand dividing a cluster into multiple clusters. As a result, we create clustersfor dynamic environments and improve the performance of machine learningmodels within each cluster.
ett nätverk ökat. Enheterna genererar kontinuerligt data som har varierandeinformation, från strömförbrukning till konfigurationen av enheterna. Eftersomdatan innehåller den råa informationen om varje lokal nod i nätverket germanipulation av informationen potential att gynna nätverket med olika metoder.På grund av den stora mängden data, och dess egenskap av att vara icke-o.l.f.,som genereras i varje nod blir manuella operationer för att bearbeta data ochjustera metoderna utmanande. För att hantera utmaningen finns försök med attanvända automatiserade metoder för att bygga precisa maskininlärningsmodellermed hjälp av en mindre mängd insamlad data eller att gruppera nodergenom att utnyttja klustringsalgoritmer och använda maskininlärningsmodellerinom varje kluster. De konventionella klustringsalgoritmerna är emellertidofullkomliga i ett distribuerat och dynamiskt nätverk på grund av risken fördataskydd, de icke-dynamiska klusterna och det fasta antalet kluster. Dessabegränsningar av klustringsalgoritmerna försämrar maskininlärningsmodellernasprestanda eftersom klustren kan bli föråldrade med tiden. Därför föreslårdenna avhandling en trefasklustringsalgoritm i dynamiska miljöer genom attutnyttja 1) GAN-baserad klustring, 2) klusterkalibrering och 3) klyvning avkluster i federerad inlärning. GAN-baserade klustring bevarar dataintegriteteneftersom det eliminerar behovet av att dela rådata i ett nätverk för att skapakluster. Klusterkalibrering lägger till dynamik i klustringen genom att kontinuerligtuppdatera kluster och fördelar metoder som hanterar nätverket. Dessutomdelar den klövlande klustringen olika antal kluster genom att iterativt välja ochdela ett kluster i flera kluster. Som ett resultat skapar vi kluster för dynamiskamiljöer och förbättrar prestandan hos maskininlärningsmodeller inom varjekluster.
APA, Harvard, Vancouver, ISO, and other styles
27

Inersjö, Adam. "Transformation of Time-based Sensor Data to Material Quality Data in Stainless Steel Production." Thesis, Uppsala universitet, Institutionen för informationsteknologi, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-414802.

Full text
Abstract:
Quality assurance in the stainless steel production requires large amounts of sensor data to monitor the processing steps. Digitalisation of the production would allow higher levels of control to both evaluate and increase the quality of the end products. At Outokumpu Avesta Works, continuous processing of coils creates sensor data without connecting it to individual steel coils, a connection needed to achieve the promises of digitalisation. In this project, the time series data generated from 12 sensors in the continuous processing was analysed and four alternative methods to connect the data to coils were presented. A method based on positional time series was deemed the most suitable for the data and was selected for implementation over other methods that would apply time series analysis on the sensor data itself. Evaluations of the selected method showed that it was able to connect sensor data to 98.10 % of coils, just short of reaching the accuracy requirement of 99 %. Because the overhead of creating the positional time series was constant regardless of the number of sensors, the performance per sensor improved with increased number of sensors. The median processing time for 24 hours of sensor data was less than 20 seconds per sensor when batch processing eight or more sensors. The performance for processing fewer than four sensors was not as good, requiring further optimization to reach the requirement of 30 seconds per sensor. Although the requirements were not completely fulfilled, the implemented method can still be used on historical production data to facilitate further quality estimation of stainless steel coils
Kvalitetssäkring av rostfritt stål produktion kräver stora mängder av sensordata för att övervaka processtegen. Digitalisering av produktionen skulle ge större kontroll för att både bedöma och öka kvaliteten på slutprodukterna. Vid Outokumpu Avesta Works skapas sensordata vid kontinuerlig bearbetning av stålband utan att datan sammankopplas till enskilda band, trots att denna sammankoppling krävs för att uppnå löftena som digitaliseringens ger. I detta projekt analyserades tidsseriedata från 12 sensorer vid den kontinuerliga bearbetningen av band och fyra alternativa metoder för att sammankoppla sensordatan till stålband presenterades. En metod som byggde på tidsserier med positionsvärden bedömdes vara mest passande för sensordatan och valdes för implementation över andra metoder som byggde på tidsserieanalys av själva sensordatan. Evaluering av den valda metoden visade att den kunde sammankoppla sensordata till 98.10 % av ståldbanden, något lägre än kravet på 99 % korrekthet.  På grund av att skapandet av tidsserierna med positionsvärden tog lika lång tid oberoende av antalet sensorer så förbättrades bearbetningstiden desto fler sensorer som bearbetades. För bearbetning av 24 timmar av sensordata låg median bearbetningstiden på mindre än 20 sekunder per sensor när åtta eller fler sensorer bearbetades tillsammans. Prestandan för bearbetning av färre än fyra sensorer var inte lilka bra och kräver ytterliga optimering för att nå kravet på 30 sekunder per sensor. Fastän kraven på metoden inte uppnåddes till fullo kan den implementerade metoden ändå användas på historisk data för att främja kvalitetsbedömning av rostfria stålband.
APA, Harvard, Vancouver, ISO, and other styles
28

Engberg, Sara, and Samuel Skånberg. "Hushållsskuldsättningens inverkan på konsumtionen : En tidsserieanalys över skuldackumulation och dess inverkan på konsumtionen." Thesis, Södertörns högskola, Institutionen för samhällsvetenskaper, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:sh:diva-29930.

Full text
Abstract:
Background: As a result of financial liberalization and innovations, households now have access to cheap (mortgage) credit and are able to spend money, to pay it back later in life. With the low interest levels, debt level of households are rising to an alarming rate. In Sweden the debt to income ratio has risen from 90% in the beginning of the 1990s to 170% in 2010. There is a growing concern from several financial institutions regarding the debt level. The concern stems from the latest research on its effects on the general economy. The studies on the subject concludes that a high debt level can be an ignition of financial crises. The debts effect on consumption however, is ambiguous. Studies presents that high debt level can raise the consumption, but the relationship depends on whether the house prices rise, i.e. the consumption growth depends on a wealth effect. When the prospects of the general economy fails to remain positive the growth in consumption stagnates and during recessions consumption levels drops dramatically, which in turn deepens and prolongs the crisis. Purpose: The scope of the study is to examine the accumulation of debt and its effects on consumption. In light of the debt growth among Swedish households, and the rising prices of houses it is of importance to clarify in how debt growth affects the consumption. Method: To examine the growth in consumption and debt, a time-series analysis is applied. The period consists of quarterly observations between 1995 and 2013. Before being able to run the OLS, tests for stationarity and cointegration is required. The tests shows that stationarity is found at the first difference, and a cointegration between the variables at the original form of the data. As lagged variables is used, an autocorrelation test is needed. Positive autocorrelation is found in model four and five. The result of the test on the other models are either inconclusive or free from autocorrelation. Conclusion: A positive relation between debt and consumption can be found, however when a delay of the debt variable is included a somewhat negative relation appears. Thus, the results of the previous studies in the can be confirmed. The study, however shows that the negative impact of debt reveals itself earlier than what the previous studies found.
Bakgrund: Till följd av avreglering av finansmarknader och flertalet finansiella innovationer har hushåll möjlighet att anskaffa krediter mot återbetalning senare i livet. Med låga räntor har skuldsättningen växt till nivåer som oroar flertalet finansiella institutioner. I Sverige har skuldkvoten bland hushåll från 1990-talets mitt fram till 2010 skuldkvoten ökat från 90 % till 170 %. Oron av utvecklingen kan förklaras av den senaste forskningen inom området vars resultat visar på att hög skuldsättning kan vara en faktor som ligger bakom finansiella kriser. Däremot är resultatet gällande skuldens inverkan på konsumtionen något tvetydig. Forskning säger att skulden kan ha en positiv relation med konsumtionen, däremot pekar några studier på att detta ska vara en effekt av ökade huspriser och förmögenhetseffekter. Om utsikterna över ekonomin upphör att vara positiva kommer konsumtionen att minska och recessioner förlängas och fördjupas. Syfte: Studien syftar till att belysa vilken inverkan en ökad skuldsättning har på konsumtionen. Mot bakgrund av de ökade bostadspriserna och skuldsättning bland hushåll är det av vikt att klargöra relationen mellan de två. Metod: För att undersöka skuldtillväxten och dess effekt på konsumtionen används en tidsserieanalys. Med kvartalsdata har perioden mellan 1995 och 2013 undersökts, vilket har genererat en total på 75 observationer. Innan en OLS kan genomföras behövs data undersökas för stationaritet och kointegration. Stationaritet återfinns vid första differensen för samtliga variabler. Kointegration förekommer i original data, och därmed kan regressionen utföras på denna. I och med att laggningar av variabeln skuldsättning förekommer, har data testats för autokorrelation. Modell fyra och fem uppvisar positiv autokorrelation. Därefter är resterande modeller överhängande fria från autokorrelation. Slutsats: Ett positivt förhållande uppvisas mellan skuld och konsumtion. Däremot, när en fördröjning av skuldvariabeln införs uppvisas ett negativt samband mellan skuld och konsumtion. Resultatet från tidigare studier kan bekräftas, däremot verkar den negativa inverkan som skuld har på konsumtion uppvisa sig tidigare än vad befintlig teori specificerat.
APA, Harvard, Vancouver, ISO, and other styles
29

Markou, Ioannis. "Analysing User Viewing Behaviour in Video Streaming Services." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-292095.

Full text
Abstract:
The user experience offered by a video streaming service plays a fundamental role in customer satisfaction. This experience can be degraded by poor playback quality and buffering issues. These problems can be caused by a user demand that is higher than the video streaming service capacity. Resource scaling methods can increase the available resources to cover the need. However, most resource scaling systems are reactive and scale up in an automated fashion when a certain demand threshold is exceeded. During popular live streaming content, the demand can be so high that even by scaling up at the last minute, the system might still be momentarily under-provisioned, resulting in a bad user experience. The solution to this problem is proactive scaling which is event-based, using content-related information to scale up or down, according to knowledge from past events. As a result, proactive resource scaling is a key factor in providing reliable video streaming services. Users viewing habits heavily affect demand. To provide an accurate model for proactive resource scaling tools, these habits need to be modelled. This thesis provides such a forecasting model for user views that can be used by a proactive resource scaling mechanism. This model is created by applying machine learning algorithms to data from both live TV and over-the-top streaming services. To produce a model with satisfactory accuracy, numerous data attributes were considered relating to users, content and content providers. The findings of this thesis show that user viewing demand can be modelled with high accuracy, without heavily relying on user-related attributes but instead by analysing past event logs and with knowledge of the schedule of the content provider, whether it is live tv or a video streaming service.
Användarupplevelsen som erbjuds av en videostreamingtjänst spelar en grundläggande roll för kundnöjdheten. Denna upplevelse kan försämras av dålig uppspelningskvalitet och buffertproblem. Dessa problem kan orsakas av en efterfrågan från användare som är högre än videostreamingtjänstens kapacitet. Resursskalningsmetoder kan öka tillgängliga resurser för att täcka behovet. De flesta resursskalningssystem är dock reaktiva och uppskalas automatiskt när en viss behovströskel överskrids. Under populärt livestreaminginnehåll kan efterfrågan vara så hög att även genom att skala upp i sista minuten kan systemet fortfarande vara underutnyttjat tillfälligt, vilket resulterar i en dålig användarupplevelse. Lösningen på detta problem är proaktiv skalning som är händelsebaserad och använder innehållsrelaterad information för att skala upp eller ner, enligt kunskap från tidigare händelser. Som ett resultat är proaktiv resursskalning en nyckelfaktor för att tillhandahålla tillförlitliga videostreamingtjänster. Användares visningsvanor påverkar efterfrågan kraftigt. För att ge en exakt modell för proaktiva resursskalningsverktyg måste dessa vanor modelleras. Denna avhandling ger en sådan prognosmodell för användarvyer som kan användas av en proaktiv resursskalningsmekanism. Denna modell är skapad genom att använda maskininlärningsalgoritmer på data från både live-TV och streamingtjänster. För att producera en modell med tillfredsställande noggrannhet ansågs ett flertal dataattribut relaterade till användare, innehåll och innehållsleverantörer. Resultaten av den här avhandlingen visar att efterfrågan på användare kan modelleras med hög noggrannhet utan att starkt förlita sig på användarrelaterade attribut utan istället genom att analysera tidigare händelseloggar och med kunskap om innehållsleverantörens schema, vare sig det är live-tv eller tjänster för videostreaming.
APA, Harvard, Vancouver, ISO, and other styles
30

Lindroth, Henriksson Amelia. "Unsupervised Anomaly Detection on Time Series Data: An Implementation on Electricity Consumption Series." Thesis, KTH, Matematisk statistik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301731.

Full text
Abstract:
Digitization of the energy industry, introduction of smart grids and increasing regulation of electricity consumption metering have resulted in vast amounts of electricity data. This data presents a unique opportunity to understand the electricity usage and to make it more efficient, reducing electricity consumption and carbon emissions. An important initial step in analyzing the data is to identify anomalies. In this thesis the problem of anomaly detection in electricity consumption series is addressed using four machine learning methods: density based spatial clustering for applications with noise (DBSCAN), local outlier factor (LOF), isolation forest (iForest) and one-class support vector machine (OC-SVM). In order to evaluate the methods synthetic anomalies were introduced to the electricity consumption series and the methods were then evaluated for the two anomaly types point anomaly and collective anomaly. In addition to electricity consumption data, features describing the prior consumption, outdoor temperature and date-time properties were included in the models. Results indicate that the addition of the temperature feature and the lag features generally impaired anomaly detection performance, while the inclusion of date-time features improved it. Of the four methods, OC-SVM was found to perform the best at detecting point anomalies, while LOF performed the best at detecting collective anomalies. In an attempt to improve the models' detection power the electricity consumption series were de-trended and de-seasonalized and the same experiments were carried out. The models did not perform better on the decomposed series than on the non-decomposed.
Digitaliseringen av elbranschen, införandet av smarta nät samt ökad reglering av elmätning har resulterat i stora mängder eldata. Denna data skapar en unik möjlighet att analysera och förstå fastigheters elförbrukning för att kunna effektivisera den. Ett viktigt inledande steg i analysen av denna data är att identifiera möjliga anomalier. I denna uppsats testas fyra olika maskininlärningsmetoder för detektering av anomalier i elförbrukningsserier: densitetsbaserad spatiell klustring för applikationer med brus (DBSCAN), lokal avvikelse-faktor (LOF), isoleringsskog (iForest) och en-klass stödvektormaskin (OC-SVM). För att kunna utvärdera metoderna infördes syntetiska anomalier i elförbrukningsserierna och de fyra metoderna utvärderades därefter för de två anomalityperna punktanomali och gruppanomali. Utöver elförbrukningsdatan inkluderades även variabler som beskriver tidigare elförbrukning, utomhustemperatur och tidsegenskaper i modellerna. Resultaten tyder på att tillägget av temperaturvariabeln och lag-variablerna i allmänhet försämrade modellernas prestanda, medan införandet av tidsvariablerna förbättrade den. Av de fyra metoderna visade sig OC-SVM vara bäst på att detektera punktanomalier medan LOF var bäst på att detektera gruppanomalier. I ett försök att förbättra modellernas detekteringsförmåga utfördes samma experiment efter att elförbrukningsserierna trend- och säsongsrensats. Modellerna presterade inte bättre på de rensade serierna än på de icke-rensade.
APA, Harvard, Vancouver, ISO, and other styles
31

Erdal, Hamit, and Erik Nyström. "Foreign Direct Investment – Effekten av utländsk direktinvestering på ekonomisk tillväxt : En tidsserie analys av utvecklingsländers tillväxtmöjligheter med FDI." Thesis, Södertörns högskola, Institutionen för samhällsvetenskaper, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:sh:diva-30268.

Full text
Abstract:
Studien koncenterar sig på att FDI som betyder utländska direktinvesteringar har en positiv påverkan på utvecklingsländers BNP. De valda utvecklingsländerna är uppdelade och ingår i gruppen Öst Asien och Stilla Havet och Sub -Sahara Afrika. Vilket ska kontrolleras mot beroende variabeln BNP där de valda oberoende variablerna är FDI, export, import, population och internet användare. Teorin om långsiktig ekonomisk tillväxt byggs upp utav fysiskt kapital och human kapital. Där Solow och Swan bygger sin ekonomiska modell utav det fysiska kapitalet vilket senare utvecklas sig till steady state det vill säga en jämviktsnivå, där investeringarna slås ut utav deprecieringar. Human kapitalet är antalet forskare respektive vanliga arbetare, forskarna är de som utvecklar Romer’s ideer vilket är kärnan för ekonomisk tillväxt. Detta därefter är det som skapar en konstant tillväxt. Man har flera gånger observerat i ett antal tidigare studier att utländsk direktinvestering är en av de avgörande faktorerna när det gäller ekonomisk tillväxt såväl som i utvecklingsländer som utvecklade länder. Det har dock funnits ett fåtal studier som visat det motsatta inom ämnet. Det har också blivit fastställt att företagande och investeringar är ledande faktorer för långsiktig ekonomisk tillväxt i de flesta länder. Genom en tidsserie regression utförd med OLS är ändamålet att leta efter effekten mellan utländsk direktinvestering och ekonomisk tillväxt. Den empiriska analysen visar ett positivt signifikant resultat mellan utländsk direktinvestering och tillväxt i Öst Asien och Stilla Havet men dessvärre negativt i Sub –Sahara Afrika något som ger ett osammanhängande intryck mellan relationen för FDI och ekonomisk tillväxt i de undersökta utvecklingsländerna.
APA, Harvard, Vancouver, ISO, and other styles
32

Saluja, Rohit. "Interpreting Multivariate Time Series for an Organization Health Platform." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289465.

Full text
Abstract:
Machine learning-based systems are rapidly becoming popular because it has been realized that machines are more efficient and effective than humans at performing certain tasks. Although machine learning algorithms are extremely popular, they are also very literal and undeviating. This has led to a huge research surge in the field of interpretability in machine learning to ensure that machine learning models are reliable, fair, and can be held liable for their decision-making process. Moreover, in most real-world problems just making predictions using machine learning algorithms only solves the problem partially. Time series is one of the most popular and important data types because of its dominant presence in the fields of business, economics, and engineering. Despite this, interpretability in time series is still relatively unexplored as compared to tabular, text, and image data. With the growing research in the field of interpretability in machine learning, there is also a pressing need to be able to quantify the quality of explanations produced after interpreting machine learning models. Due to this reason, evaluation of interpretability is extremely important. The evaluation of interpretability for models built on time series seems completely unexplored in research circles. This thesis work focused on achieving and evaluating model agnostic interpretability in a time series forecasting problem.  The use case discussed in this thesis work focused on finding a solution to a problem faced by a digital consultancy company. The digital consultancy wants to take a data-driven approach to understand the effect of various sales related activities in the company on the sales deals closed by the company. The solution involved framing the problem as a time series forecasting problem to predict the sales deals and interpreting the underlying forecasting model. The interpretability was achieved using two novel model agnostic interpretability techniques, Local interpretable model- agnostic explanations (LIME) and Shapley additive explanations (SHAP). The explanations produced after achieving interpretability were evaluated using human evaluation of interpretability. The results of the human evaluation studies clearly indicate that the explanations produced by LIME and SHAP greatly helped lay humans in understanding the predictions made by the machine learning model. The human evaluation study results also indicated that LIME and SHAP explanations were almost equally understandable with LIME performing better but with a very small margin. The work done during this project can easily be extended to any time series forecasting or classification scenario for achieving and evaluating interpretability. Furthermore, this work can offer a very good framework for achieving and evaluating interpretability in any machine learning-based regression or classification problem.
Maskininlärningsbaserade system blir snabbt populära eftersom man har insett att maskiner är effektivare än människor när det gäller att utföra vissa uppgifter. Även om maskininlärningsalgoritmer är extremt populära, är de också mycket bokstavliga. Detta har lett till en enorm forskningsökning inom området tolkbarhet i maskininlärning för att säkerställa att maskininlärningsmodeller är tillförlitliga, rättvisa och kan hållas ansvariga för deras beslutsprocess. Dessutom löser problemet i de flesta verkliga problem bara att göra förutsägelser med maskininlärningsalgoritmer bara delvis. Tidsserier är en av de mest populära och viktiga datatyperna på grund av dess dominerande närvaro inom affärsverksamhet, ekonomi och teknik. Trots detta är tolkningsförmågan i tidsserier fortfarande relativt outforskad jämfört med tabell-, text- och bilddata. Med den växande forskningen inom området tolkbarhet inom maskininlärning finns det också ett stort behov av att kunna kvantifiera kvaliteten på förklaringar som produceras efter tolkning av maskininlärningsmodeller. Av denna anledning är utvärdering av tolkbarhet extremt viktig. Utvärderingen av tolkbarhet för modeller som bygger på tidsserier verkar helt outforskad i forskarkretsar. Detta uppsatsarbete fokuserar på att uppnå och utvärdera agnostisk modelltolkbarhet i ett tidsserieprognosproblem.  Fokus ligger i att hitta lösningen på ett problem som ett digitalt konsultföretag står inför som användningsfall. Det digitala konsultföretaget vill använda en datadriven metod för att förstå effekten av olika försäljningsrelaterade aktiviteter i företaget på de försäljningsavtal som företaget stänger. Lösningen innebar att inrama problemet som ett tidsserieprognosproblem för att förutsäga försäljningsavtalen och tolka den underliggande prognosmodellen. Tolkningsförmågan uppnåddes med hjälp av två nya tekniker för agnostisk tolkbarhet, lokala tolkbara modellagnostiska förklaringar (LIME) och Shapley additiva förklaringar (SHAP). Förklaringarna som producerats efter att ha uppnått tolkbarhet utvärderades med hjälp av mänsklig utvärdering av tolkbarhet. Resultaten av de mänskliga utvärderingsstudierna visar tydligt att de förklaringar som produceras av LIME och SHAP starkt hjälpte människor att förstå förutsägelserna från maskininlärningsmodellen. De mänskliga utvärderingsstudieresultaten visade också att LIME- och SHAP-förklaringar var nästan lika förståeliga med LIME som presterade bättre men med en mycket liten marginal. Arbetet som utförts under detta projekt kan enkelt utvidgas till alla tidsserieprognoser eller klassificeringsscenarier för att uppnå och utvärdera tolkbarhet. Dessutom kan detta arbete erbjuda en mycket bra ram för att uppnå och utvärdera tolkbarhet i alla maskininlärningsbaserade regressions- eller klassificeringsproblem.
APA, Harvard, Vancouver, ISO, and other styles
33

Fredén, Daniel, and Hampus Larsson. "Forecasting Daily Supermarkets Sales with Machine Learning." Thesis, KTH, Optimeringslära och systemteori, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-276483.

Full text
Abstract:
Improved sales forecasts for individual products in retail stores can have a positive effect both environmentally and economically. Historically these forecasts have been done through a combination of statistical measurements and experience. However, with the increased computational power available in modern computers, there has been an interest in applying machine learning for this problem. The aim of this thesis was to utilize two years of sales data, yearly calendar events, and weather data to investigate which machine learning method could forecast sales the best. The investigated methods were XGBoost, ARIMAX, LSTM, and Facebook Prophet. Overall the XGBoost and LSTM models performed the best and had a lower mean absolute value and symmetric mean percentage absolute error compared to the other models. However, Facebook Prophet performed the best in regards to root mean squared error and mean absolute error during the holiday season, indicating that Facebook Prophet was the best model for the holidays. The LSTM model could however quickly adapt during the holiday season improved the performance. Furthermore, the inclusion of weather did not improve the models significantly, and in some cases, the results were worsened. Thus, the results are inconclusive but indicate that the best model is dependent on the time period and goal of the forecast.
Förbättrade försäljningsprognoser för individuella produkter inom detaljhandeln kan leda till både en miljömässig och ekonomisk förbättring. Historiskt sett har dessa utförts genom en kombination av statistiska metoder och erfarenhet. Med den ökade beräkningskraften hos dagens datorer har intresset för att applicera maskininlärning på dessa problem ökat. Målet med detta examensarbete är därför att undersöka vilken maskininlärningsmetod som kunde prognostisera försäljning bäst. De undersökta metoderna var XGBoost, ARIMAX, LSTM och Facebook Prophet. Generellt presterade XGBoost och LSTM modellerna bäst då dem hade ett lägre mean absolute value och symmetric mean percentage absolute error jämfört med de andra modellerna. Dock, gällande root mean squared error hade Facebook Prophet bättre resultat under högtider, vilket indikerade att Facebook Prophet var den bäst lämpade modellen för att förutspå försäljningen under högtider. Dock, kunde LSTM modellen snabbt anpassa sig och förbättrade estimeringarna. Inkluderingen av väderdata i modellerna resulterade inte i några markanta förbättringar och gav i vissa fall även försämringar. Övergripande, var resultaten tvetydiga men indikerar att den bästa modellen är beroende av prognosens tidsperiod och mål.
APA, Harvard, Vancouver, ISO, and other styles
34

Cicek, Sevim. "Economic Growth in China : During the Period of 1980-2003." Thesis, Jönköping University, JIBS, Economics, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-648.

Full text
Abstract:

Innan Kina öppnade dörrarna för omvärlden, ansågs de inneha en av världens mest slutna marknader. Detta har dock förändrats då Kina tillät marknaden styra istället för central styre, samt att de beslöt för en utåtriktad utvecklings strategi. Detta tyder på att Kina tillät utländsk handel att spela en betydelsefull roll i deras ekonomiska utveckling.

Uppsatsen, med hjälp av inkomst benämner av handel och BNP per capita, har som syfte att studera relationen mellan handel och ekonomisk tillväxt i Kina under perioden 1980-2003. Syftet är att man med hjälp av det ekonometriska verktyget, tidserie, kunna finna en positiv relation emellan dessa variabler. Inkomst benämner av handel inkluderar värden av både export och import. Det är därför teorin används för denna uppsats, eftersom teorin anser att export ensam inte kan orsaka ekonomisk tillväxt om inte import är inkluderad.

Undersökningen, tidserie, innebar en enheten rotar problem, cointegration, samt Granger causalitets test. Värdena givna visar på att undersökningen har statistisk signifikanta värden, vilket tyder på att handel är av relevans för den ekonomisk tillväxt i China under 1980-2003.


Prior to China’s open-door policy, China was considered among one of the worlds’ most isolated economies. However, that changed when they allowed the market force to go before central planning, and decided on an outward orientation for their development strategy. This was a sign indicating that China allowed foreign trade to play a leading role in its economic development.

This thesis, with the help of income terms of trade (ITT) and GDP per capita, aim to study if there is any relation between trade and growth in China during 1980-2003. The purpose is with help of the econometric tool, time series, to find a positive correlation between these variables. ITT include both the value of exports and imports. That is why the theory ITT is being used for this thesis, since the theory indicates that exports alone cannot explain growth if imports is not considered as well.

The test, time series, was performed by doing a unit root problem, co integration, and a Granger causality test. The result given when doing these tests show of statistically significant result, which indicates that trade is of relevance for growth in China during 1980-2003.

APA, Harvard, Vancouver, ISO, and other styles
35

Klinkert, Rickard. "Uncertainty Analysis of Long Term Correction Methods for Annual Average Winds." Thesis, Umeå universitet, Institutionen för fysik, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-59690.

Full text
Abstract:
For the construction of a wind farm, one needs to assess the wind resources of the considered site location. Using reference time series from numerical weather prediction models, global assimilation databases or observations close to the area considered, the on-site measured wind speeds and wind directions are corrected in order to represent the actual long-term wind conditions. This long-term correction (LTC) is in the typical case performed by making use of the linear regression within the Measure-Correlate-Predict (MCP) method. This method and two other methods, Sector-Bin (SB) and Synthetic Time Series (ST), respectively, are used for the determination of the uncertainties that are associated with LTC.The test area that has been chosen in this work, is located in the region of the North Sea, using 22 quality controlled meteorological (met) station observations from offshore or nearby shore locations in Denmark, Norway and Sweden. The time series that has been used cover the eight year period from 2002 to 2009 and the year with the largest variability in the wind speeds, 2007, is used as the short-term measurement period. The long-term reference datasets that have been used are the Weather Research and Forecast model, based on both ECMWF Interim Re-Analysis (ERA-Interim) and National Centers for Environmental Prediction Final Analysis (NCEP/FNL), respectively and additional reference datasets of Modern Era Re-Analysis (MERRA) and QuikSCAT satellite observations. The long-term period for all of the reference datasets despite QuikSCAT, correspond to the one of stations observations. The QuikSCAT period of observations used cover the period from November 1st, 1999 until October 31st, 2009.The analysis is divided into three parts. Initially, the uncertainty connected to the corresponding reference dataset, when used in LTC method, is investigated. Thereafter the uncertainty due to the concurrent length of the on-site measurements and reference dataset is analyzed. Finally, the uncertainty is approached using a re-sampling method of the Non-Parametric Bootstrap. The uncertainty of the LTC method SB, for a fixed concurrent length of the datasets is assessed by this methodology, in an effort to create a generic model for the estimation of uncertainty in the predicted values for SB.The results show that LTC with WRF model datasets based on NCEP/FNL and ERA-Interim, respectively, is slightly different, but does not deviate considerably in comparison when comparing with met station observations. The results also suggest the use of MERRA reference dataset in connection with long-term correction methods. However, the datasets of QuikSCAT does not provide much information regarding the overall quality of long-term correction, and a different approach than using station coordinates for the withdrawal of QuikSCAT time series is preferred. Additionally, the LTC model of Sector-Bin is found to be robust against variation in the correlation coefficient between the concurrent datasets. For the uncertainty dependence of concurrent time, the results show that an on-site measurement period of one consistent year or more, gives the lowest uncertainties compared to measurements of shorter time. An additional observation is that the standard deviation of long-term corrected means decreases with concurrent time. Despite the efforts of using the re-sampling method of Non-Parametric Bootstrap the estimation of the uncertainties is not fully determined. However, it does give promising results that are suggested for investigation in further work.
För att bygga en vindkraftspark är man i behov av att kartlägga vindresurserna i det aktuella området. Med hjälp av tidsserier från numeriska vädermodeller (NWP), globala assimileringsdatabaser och intilliggande observationer korrigeras de uppmätta vindhastigheterna och vindriktningarna för att motsvara långtidsvärdena av vindförhållandena. Dessa långtidskorrigeringsmetoder (LTC) genomförs generellt sett med hjälp av linjär regression i Mät-korrelera-predikera-metoden (MCP). Denna metod, och två andra metoder, Sektor-bin (SB) och Syntetiska tidsserier (ST), används i denna rapport för att utreda de osäkerheter som är knutna till långtidskorrigering.Det testområde som är valt för analys i denna rapport omfattas av Nordsjöregionen, med 22 meteorologiska väderobservationsstationer i Danmark, Norge och Sverige. Dessa stationer är till största del belägna till havs eller vid kusten. Tidsserierna som används täcker åttaårsperioden från 2002 till 2009, där det året med högst variabilitet i uppmätt vindhastighet, år 2007, används som den korta mätperiod som blir föremål för långtidskorrigeringen. De långa referensdataseten som använts är väderprediktionsmodellen WRF ( Weather Research and Forecast Model), baserad både på data från NCEP/FNL (National Centers for Environmental Prediciton Final Analysis) och ERA-Interim (ECMWF Interim Re-analysis). Dessutom används även data från MERRA (Modern Era Re-Analysis) och satellitobservationer från QuikSCAT. Långtidsperioden för alla dataset utom QuikSCAT omfattar samma period som observationsstationerna. QuikSCAT-datat som använts omfattar perioden 1 november 1999 till 31 oktober 2009.Analysen är indelad i tre delar. Inledningsvis behandlas osäkerheten som är kopplad till referensdatans ingående i långtidskorrigeringsmetoderna. Därefter analyseras osäkerhetens beroende av längden på den samtidiga datan i referens- och observationsdataseten. Slutligen utreds osäkerheten med hjälp av en icke-parametrisk metod, en s.k. Bootstrap: Osäkerheten i SB-metoden för en fast samtidig längd av tidsserierna från observationer och referensdatat uppskattas genom att skapa en generell modell som estimerar osäkerheten i estimatet.Resultatet visar att skillnaden när man använder WRF-modellen baserad både på NCEP/FNL och ERA-Interim i långtidskorrigeringen är marginell och avviker inte markant i förhållande till stationsobservationerna. Resultatet pekar också på att MERRA-datat kan användas som långtidsreferensdataset i långtidsdkorrigeringsmetoderna. Däremot ger inte QuikSCAT-datasetet tillräckligt med information för att avgöra om det går att använda i långtidskorrigeringsmetoderna. Därför föreslås ett annat tillvägagångssätt än stationsspecifika koordinater vid val av koordinater lämpliga för långtidskorrigering. Ytterligare ett resultat vid analys av långtidskorrigeringsmetoden SB, visar att metoden är robust mot variation i korrelationskoefficienten.Rörande osäkerhetens beroende av längden på samtidig data visar resultaten att en sammanhängande mätperiod på ett år eller mer ger den lägsta osäkerheten i årsmedelvindsestimatet, i förhållande till mätningar av kortare slag. Man kan även se att standardavvikelsen av de långtidskorrigerade medelvärdena avtar med längden på det samtidiga datat. Den implementerade ickeparametriska metoden Bootstrap, som innefattar sampling med återläggning, kan inte estimera osäkerheten till fullo. Däremot ger den lovande resultat som föreslås för vidare arbete.
APA, Harvard, Vancouver, ISO, and other styles
36

Lantz, Robin. "Time series monitoring and prediction of data deviations in a manufacturing industry." Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-100181.

Full text
Abstract:
An automated manufacturing industry makes use of many interacting moving parts and sensors. Data from these sensors generate complex multidimensional data in the production environment. This data is difficult to interpret and also difficult to find patterns in. This project provides tools to get a deeper understanding of Swedsafe’s production data, a company involved in an automated manufacturing business. The project is based on and will show the potential of the multidimensional production data. The project mainly consists of predicting deviations from predefined threshold values in Swedsafe’s production data. Machine learning is a good method of finding relationships in complex datasets. Supervised machine learning classification is used to predict deviation from threshold values in the data. An investigation is conducted to identify the classifier that performs best on Swedsafe's production data. The technique sliding window is used for managing time series data, which is used in this project. Apart from predicting deviations, this project also includes an implementation of live graphs to easily get an overview of the production data. A steady production with stable process values is important. So being able to monitor and predict events in the production environment can provide the same benefit for other manufacturing companies and is therefore suitable not only for Swedsafe. The best performing machine learning classifier tested in this project was the Random Forest classifier. The Multilayer Perceptron did not perform well on Swedsafe’s data, but further investigation in recurrent neural networks using LSTM neurons would be recommended. During the projekt a web based application displaying the sensor data in live graphs is also developed.
APA, Harvard, Vancouver, ISO, and other styles
37

Arvidsson, Philip, and Tobias Ånhed. "Sequence-to-sequence learning of financial time series in algorithmic trading." Thesis, Högskolan i Borås, Akademin för bibliotek, information, pedagogik och IT, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:hb:diva-12602.

Full text
Abstract:
Predicting the behavior of financial markets is largely an unsolved problem. The problem hasbeen approached with many different methods ranging from binary logic, statisticalcalculations and genetic algorithms. In this thesis, the problem is approached with a machinelearning method, namely the Long Short-Term Memory (LSTM) variant of Recurrent NeuralNetworks (RNNs). Recurrent neural networks are artificial neural networks (ANNs)—amachine learning algorithm mimicking the neural processing of the mammalian nervoussystem—specifically designed for time series sequences. The thesis investigates the capabilityof the LSTM in modeling financial market behavior as well as compare it to the traditionalRNN, evaluating their performances using various measures.
Prediktion av den finansiella marknadens beteende är i stort ett olöst problem. Problemet hartagits an på flera sätt med olika metoder så som binär logik, statistiska uträkningar ochgenetiska algoritmer. I den här uppsatsen kommer problemet undersökas medmaskininlärning, mer specifikt Long Short-Term Memory (LSTM), en variant av rekurrentaneurala nätverk (RNN). Rekurrenta neurala nätverk är en typ av artificiellt neuralt nätverk(ANN), en maskininlärningsalgoritm som ska efterlikna de neurala processerna hos däggdjursnervsystem, specifikt utformat för tidsserier. I uppsatsen undersöks kapaciteten hos ett LSTMatt modellera finansmarknadens beteenden och jämförs den mot ett traditionellt RNN, merspecifikt mäts deras effektivitet på olika vis.
APA, Harvard, Vancouver, ISO, and other styles
38

Granemark, Elin. "Minskar införandet av skattetillägg benägenheten att begå skattebrott? : En tidsseriestudie om vilken effekt skattetillägg har på självrättelser av inkomstdeklarationer." Thesis, Uppsala universitet, Nationalekonomiska institutionen, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-449070.

Full text
Abstract:
Vilken effekt har skattetillägg på självrättelser av inkomstdeklarationer för individers benägenhet att begå skattebrott? Enligt grundteorin inom 'economics of crime' bör benägenheten att begå skattebrott minska för en rationell individ av en ökad sannolikhet och kostnad att bli straffad. Studien är en tidsseriestudie som undersöker beteendeförändringar av individers självrättelser av sina inkomstdeklarationer i samband med införandet av skattetillägg som tillkom av Skatteförfarandelagens (2011:1244) reform år 2018. Studien finner statistiskt signifikanta 'structural breaks' år 2019 (med hänsyn till 'first lag') vilket indikerar på ett förändrat beteendemönster i samband med införandet av skattetillägget. Andra faktorer kan dock inte uteslutas.
APA, Harvard, Vancouver, ISO, and other styles
39

Wågberg, Max. "Att förutspå Sveriges bistånd : En jämförelse mellan Support Vector Regression och ARIMA." Thesis, Mittuniversitetet, Institutionen för informationssystem och –teknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:miun:diva-36479.

Full text
Abstract:
In recent years, the use of machine learning has increased significantly. Its uses range from making the everyday life easier with voice-guided smart devices to image recognition, or predicting the stock market. Predicting economic values has long been possible by using methods other than machine learning, such as statistical algorithms. These algorithms and machine learning models use time series, which is a set of data points observed constantly over a given time interval, in order to predict data points beyond the original time series. But which of these methods gives the best results? The overall purpose of this project is to predict Sweden’s aid curve using the machine learning model Support Vector Regression and the classic statistical algorithm autoregressive integrated moving average which is abbreviated ARIMA. The time series used in the prediction are annual summaries of Sweden’s total aid to the world from openaid.se since 1998 and up to 2019. SVR and ARIMA are implemented in python with the help of the Scikit- and Statsmodels libraries. The results from SVR and ARIMA are measured in comparison with the original value and their predicted values, while the accuracy is measured in Root Square Mean Error and presented in the results chapter. The result shows that SVR with the RBF-kernel is the algorithm that provides the best results for the data series. All predictions beyond the times series are then visually presented on a openaid prototype page using D3.js
Under det senaste åren har användningen av maskininlärning ökat markant. Dess användningsområden varierar mellan allt från att göra vardagen lättare med röststyrda smarta enheter till bildigenkänning eller att förutspå börsvärden. Att förutspå ekonomiska värden har länge varit möjligt med hjälp av andra metoder än maskininlärning, såsom exempel statistiska algoritmer. Dessa algoritmer och maskininlärningsmodeller använder tidsserier, vilket är en samling datapunkter observerade konstant över en given tidsintervall, för att kunna förutspå datapunkter bortom den originella tidsserien. Men vilken av dessa metoder ger bäst resultat? Projektets övergripande syfte är att förutse sveriges biståndskurva med hjälp av maskininlärningsmodellen Support Vector Regression och den klassiska statistiska algoritmen autoregressive integrated moving average som förkortas ARIMA. Tidsserien som används vid förutsägelsen är årliga summeringar av biståndet från openaid.se sedan år 1998 och fram till 2019. SVR och ARIMA implementeras i python med hjälp av Scikit-learn och Statsmodelsbiblioteken. Resultatet från SVR och ARIMA mäts i jämförelse mellan det originala värdet och deras förutspådda värden medan noggrannheten mäts i root square mean error och presenteras under resultatkapitlet. Resultatet visar att SVR med RBF kärnan är den algoritm som ger det bästa testresultatet för dataserien. Alla förutsägelser bortom tidsserien presenteras därefter visuellt på en openaid prototypsida med hjälp av D3.js.
APA, Harvard, Vancouver, ISO, and other styles
40

Norgren, Lee. "Segmenting Observed Time Series Using Comovement and Complexity Measures." Thesis, KTH, Matematisk statistik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-252571.

Full text
Abstract:
Society depends on unbiased, efficient and replicable measurement tools to tell us more truthfully what is happening when our senses would otherwise fool us. A new approach is made to consistently detect the start and end of historic recessions as defined by the US Federal Reserve. To do this, three measures, correlation (Spearman and Pearson), Baur comovement and Kolmogorov complexity, are used to quantify market behaviour to detect recessions. To compare the effectiveness of each measure the normalized correct Area Under Curve (AUC) fraction is introduced. It is found that for all three measures, the performance is mostly dependent on the type of data and that financial market data does not perform as good as fundamental economical data to detect recessions. Furthermore, comovement is found to be the most efficient individual measure and also most efficient of all measures when compared against several measures merged together.
Samhället är beronde förväntningsriktiga, effektiva och replikerbara mätverktyg för att mer sanningsenligt informera vad som händer när våra sinnen lurar oss. Ett nytt tillvägagångssätt utvecklas för att konsekvent uppmäta början och slut av historiska lågkonjunkturer så som definierats av US Federal Reserve. För att göra detta används tre mätmetoder, korrelation (Spearman och Pearson), Baur comovement och Kolmogorovkomplexitet, för att kvantifiera marknadsbeteendet i avsikt att upptäcka lågkonjunkturer. För att jämföra effektiviteten hos varje metod introduceras normalized correct Area Under Curve (AUC) fraktionen. Det konstateras att effektiviteten hos alla tre metoder är främst beroende av vilken typ av data som används och att finansiell data inte fungerar lika bra som real ekonomiska data för att upptäcka lågkonjunkturer. Vidare visas att comovement är den mest effektiva individualla mätmetoden och även den mest effektiva metoden jämfört med sammanslagna metoder
APA, Harvard, Vancouver, ISO, and other styles
41

Åberg, Julia, and Jesper Svensson. "Warranty reserve forecast for complex products." Thesis, Blekinge Tekniska Högskola, Institutionen för industriell ekonomi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-18252.

Full text
Abstract:
Warranty is a contract between a seller and a buyer. A warranty is also a signal for quality that can be utilized both by the seller and the customer. Even though the warranty is mainly something that is positive, a warranty also incurs risk to the warranty provider. The warranty cost can range from 2 - 15% of the net sales of a product which means that the warranty cost could potentially affect the company a lot. In order to handle such a risk, forecasting is a necessary tool. Forecasting is no exact science, and it’s impossible to forecast the exact future value due to uncertainty. Factors such as the quality of the product affect the cost of the claims, but unpredictable factors such as fraud, human factors and sales delay must also be considered. Forecasting error affects the warranty provider because the forecast sets the warranty reserve, which should cover the costs of the warranty claims. Overestimations and underestimations of the reserve have negative consequences for the company. The purpose of this study is to forecast a warranty reserve using a quantitative approach, in order to gain insight in to which model that could be best suited for complex products. The models that have been tested originate from causal and time-series methods, where the models tested consider different aspects of the data. The primary data used comes from archive data and to determine the forecast error, error measurements have been utilized. The time series method exponential smoothing Holt’s- Winter’s method was the one that performed best considering the error measurements. From the models tested, it has been shown that a more complex model does not necessarily mean a more accurate result. To be able to decrease the forecasting errors, a model considering unpredictable factors such as fraud could be the answer which makes it interesting to investigate.
Garanti är ett kontrakt mellan en säljare och en köpare. En garanti används ocks. för att signalera kvalitet vilket kan vara användbart för både säljaren och kunden. Även då garanti främst är något positivt innebär garanti ockå. en risk för den som erbjuder garantier då kostanden att erbjuda garanti kan sträcka sig mellan 2–15% av nettoresultatet av försäljningen va en produkt vilket betyder att garanti kan påverka företaget mycket. Man anv.nder sig av prognostiseringar för att kunna hantera den risken garantin bär med sig. Prognostisering är svårt och det är omöjligt att prognostisera det exakta framtida värdet på grund utav osäkerhet. Faktorer så som kvaliteten av produkten påverkar antalet och kostnaderna på garantianspr.ken men oförutsägbara faktorer så som bedrägeri, mänskliga beteenden och fördröjning av försäljning av produkter måste också tas i akt. Prognostiseringsfel på verkar den part som erbjuder garantin då prognosen används för att lägga undan monetära medel till garantireserven för att täcka garantianspråk. Underestimat och överestimat har negativa konsekvenser för företaget. Ändamålet med denna studie är att prognostisera garantireserven med hjälp av kvantitativa metoder för att få en inblick i vilka modeller som fungerar bra för en komplex produkt. Modeller som har testat kommer fr.n tidsserie metoder och kausala metoder, då de olika metoderna tar hänsyn till olika aspekter i data. Primärdata som används kommer från arkivdata och för att kunna bestämma felen på de prognoser som gjorts används fel mått. Tidsserie metoden exponential smoothing Holt’s-Winter’s var den som gav bäst resultat på fel måtten. Resultatet av modellerna som testats visar på att en mer komplex modell inte behöver vara den som ger bäst resultat. För att kunna minska på prognostiseringsfelen kan en modell som tar hänsyn till oförutsägbara faktorer så som bedrägeri vara lösningen vilket är en intressant sak att undersöka.
APA, Harvard, Vancouver, ISO, and other styles
42

Mokhtar, Jonathan, Marcus Larsson, and Martin Westman. "Efterfrågeprognoser : ”En jämförelse av prognosmodeller med avseende på FMCG-marknaden”." Thesis, Linnéuniversitetet, Institutionen för ekonomistyrning och logistik (ELO), 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-35868.

Full text
Abstract:
An organization must manage its resource consumption and material flows in order to satisfy the demand of its products as efficiently as possible. Managing of the aforementioned requires a balance between the organizations resources (such as the capability of distribution and production) and the market demand. According to Gardner (1990), an estimation of future demand is a necessity for maintaining the balance. An instrument that is used frequently to estimate future demand is demand forecasting. The demand forecasting practice has been thoroughly studied and a plethora of academic contributions exist on the topic. However, a best practice demand forecasting method does not exist for every kind of product. The purpose of this paper is to identify which time series forecasting method that will result in the lowest error rate on fast moving consumer goods. The methods are based on sales data of 18 articles from the company Coca-Cola Enterprises Sverige AB which predominantly sells soft drinks. The majority of the theoretical framework is time series models presented by the authors Stig-Arne Mattsson, Patrik Jonsson and Steven Nahmias. The paper identifies Exponential smoothing with individual input variables as the forecasting method with the lowest error rate. The method gave the lowest possible error rate on over 55 percent of the articles. In addition, the combined error rate of the articles using Exponential smoothing with individual input variables gave the lowest overall error.
APA, Harvard, Vancouver, ISO, and other styles
43

Mejdi, Sami. "Encoder-Decoder Networks for Cloud Resource Consumption Forecasting." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-291546.

Full text
Abstract:
Excessive resource allocation in telecommunications networks can be prevented by forecasting the resource demand when dimensioning the networks and the allocation the necessary resources accordingly, which is an ongoing effort to achieve a more sustainable development. In this work, traffic data from cloud environments that host deployed virtualized network functions (VNFs) of an IP Multimedia Subsystem (IMS) has been collected along with the computational resource consumption of the VNFs. A supervised learning approach was adopted to address the forecasting problem by considering encoder-decoder networks. These networks were applied to forecast future resource consumption of the VNFs by regarding the problem as a time series forecasting problem, and recasting it as a sequence-to-sequence (seq2seq) problem. Different encoder-decoder network architectures were then utilized to forecast the resource consumption. The encoder-decoder networks were compared against a widely deployed classical time series forecasting model that served as a baseline model. The results show that while the considered encoder-decoder models failed to outperform the baseline model in overall Root Mean Squared Error (RMSE) and Mean Absolute Error (MAE), the forecasting capabilities were more resilient to degradation over time. This suggests that the encoder-decoder networks are more appropriate for long-term forecasting, which is an agreement with related literature. Furthermore, the encoder-decoder models achieved competitive performance when compared to the baseline, despite being treated with limited hyperparameter-tuning and the absence of more sophisticated functionality such as attention. This work has shown that there is indeed potential for deep learning applications in forecasting of cloud resource consumption.
Överflödig allokering av resurser I telekommunikationsnätverk kan förhindras genom att prognosera resursbehoven vid dimensionering av dessa nätverk. Detta görs i syfte att bidra till en mer hållbar utveckling. Inför detta prjekt har trafikdata från molnmiljön som hyser aktiva virtuella komponenter (VNFs) till ett IÅ Multimedia Subsystem (IMS) samlats in tillsammans med resursförbrukningen av dessa komponenter. Detta examensarbete avhandlar hur effektivt övervakad maskininlärning i form av encoder-decoder nätverk kan användas för att prognosera resursbehovet hos ovan nämnda VNFs. Encoder-decoder nätverken appliceras genom att betrakta den samlade datan som en tidsserie. Problemet med att förutspå utvecklingen av tidsserien formuleras sedan som ett sequence-2-sequence (seq2seq) problem. I detta arbete användes en samling encoder-decoder nätverk med olika arkitekturer för att prognosera resursförbrukningen och dessa jämfördes med en populär modell hämtad från klassisk tidsserieanalys. Resultaten visar att encoder-decoder nätverken misslyckades med att överträffa den klassiska tidsseriemodellen med avseende på Root Mean Squeared Error (RMSE) och Mean Absolut Error (MAE). Dock visar encoder-decoder nätverken en betydlig motståndskraft mot prestandaförfall över tid i jämförelse med den klassiska tidsseriemodellen. Detta indikerar att encoder-decoder nätverk är lämpliga för prognosering över en längre tidshorisont. Utöver detta visade encoder-decoder nätverken en konkurrenskraftig förmåga att förutspå det korrekta resursbehovet, trots en begränsad justering av disponeringsparametrarna och utan mer sofistikerad funktionalitet implementerad som exempelvis attention.
APA, Harvard, Vancouver, ISO, and other styles
44

Mejdi, Sami. "Encoder-Decoder Networks for Cloud Resource Consumption Forecasting." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294066.

Full text
Abstract:
Excessive resource allocation in telecommunications networks can be prevented by forecasting the resource demand when dimensioning the networks and then allocating the necessary resources accordingly, which is an ongoing effort to achieve a more sustainable development. In this work, traffic data from cloud environments that host deployed virtualized network functions (VNFs) of an IP Multimedia Subsystem (IMS) has been collected along with the computational resource consumption of the VNFs. A supervised learning approach was adopted to address the forecasting problem by considering encoder-decoder networks. These networks were applied to forecast future resource consumption of the VNFs by regarding the problem as a time series forecasting problem, and recasting it as a sequence-to-sequence (seq2seq) problem. Different encoder-decoder network architectures were then utilized to forecast the resource consumption. The encoder-decoder networks were compared against a widely deployed classical time series forecasting model that served as a baseline model. The results show that while the considered encoder-decoder models failed to outperform the baseline model in overall Root Mean Squared Error (RMSE) and Mean Absolute Error (MAE), the forecasting capabilities were more resilient to degradation over time. This suggests that the encoder-decoder networks are more appropriate for long-term forecasting, which is in agreement with related literature. Furthermore, the encoder-decoder models achieved competitive performance when compared to the baseline, despite being treated with limited hyperparameter-tuning and the absence of more sophisticated functionality such as attention. This work has shown that there is indeed potential for deep learning applications in forecasting of cloud resource consumption.
Överflödig allokering av resurser i telekommunikationsnätverk kan förhindras genom att prognosera resursbehoven vid dimensionering av dessa nätverk. Detta görs i syfte att bidra till en mer hållbar utveckling. Infor  detta  projekt har  trafikdata från molnmiljon som hyser aktiva virtuella komponenter (VNFs) till ett  IP Multimedia Subsystem (IMS) samlats in tillsammans med resursförbrukningen  av dessa komponenter. Detta examensarbete avhandlar hur effektivt övervakad maskininlärning i form av encoder-decoder natverk kan användas för att prognosera resursbehovet hos ovan nämnda VNFs. Encoder-decoder nätverken appliceras genom att betrakta den samlade datan som en tidsserie. Problemet med att förutspå utvecklingen av tidsserien formuleras sedan som ett sequence-to-sequence (seq2seq) problem. I detta arbete användes en samling encoder-decoder nätverk med olika arkitekturer for att prognosera resursförbrukningen och dessa jämfördes med en populär modell hämtad från klassisk tidsserieanalys. Resultaten visar att encoder- decoder nätverken misslyckades med att överträffa den klassiska tidsseriemodellen med avseende på Root Mean Squared Error (RMSE) och Mean Absolute Error (MAE). Dock visade encoder-decoder nätverken en betydlig motståndskraft mot prestandaförfall över tid i jämförelse med den klassiska tidsseriemodellen. Detta indikerar att encoder-decoder nätverk är lämpliga för prognosering över en längre tidshorisont. Utöver detta visade encoder-decoder nätverken en konkurrenskraftig förmåga att förutspå det korrekta resursbehovet, trots en begränsad justering av disponeringsparametrarna och utan mer sofistikerad funktionalitet implementerad som exempelvis attention.
APA, Harvard, Vancouver, ISO, and other styles
45

Straathof, Bas Theodoor. "A Deep Learning Approach to Predicting the Length of Stay of Newborns in the Neonatal Intensive Care Unit." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-282873.

Full text
Abstract:
Recent advancements in machine learning and the widespread adoption of electronic healthrecords have enabled breakthroughs for several predictive modelling tasks in health care. One such task that has seen considerable improvements brought by deep neural networks is length of stay (LOS) prediction, in which research has mainly focused on adult patients in the intensive care unit. This thesis uses multivariate time series extracted from the publicly available Medical Information Mart for Intensive Care III database to explore the potential of deep learning for classifying the remaining LOS of newborns in the neonatal intensive care unit (NICU) at each hour of the stay. To investigate this, this thesis describes experiments conducted with various deep learning models, including long short-term memory cells, gated recurrentunits, fully-convolutional networks and several composite networks. This work demonstrates that modelling the remaining LOS of newborns in the NICU as a multivariate time series classification problem naturally facilitates repeated predictions over time as the stay progresses and enables advanced deep learning models to outperform a multinomial logistic regression baseline trained on hand-crafted features. Moreover, it shows the importance of the newborn’s gestational age and binary masks indicating missing values as variables for predicting the remaining LOS.
Framstegen inom maskininlärning och det utbredda införandet av elektroniska hälsoregister har möjliggjort genombrott för flera prediktiva modelleringsuppgifter inom sjukvården. En sådan uppgift som har sett betydande förbättringar förknippade med djupa neurala nätverk är förutsägelsens av vistelsetid på sjukhus, men forskningen har främst inriktats på vuxna patienter i intensivvården. Den här avhandlingen använder multivariata tidsserier extraherade från den offentligt tillgängliga databasen Medical Information Mart for Intensive Care III för att undersöka potentialen för djup inlärning att klassificera återstående vistelsetid för nyfödda i den neonatala intensivvårdsavdelningen (neonatal-IVA) vid varje timme av vistelsen. Denna avhandling beskriver experiment genomförda med olika djupinlärningsmodeller, inklusive longshort-term memory, gated recurrent units, fully-convolutional networks och flera sammansatta nätverk. Detta arbete visar att modellering av återstående vistelsetid för nyfödda i neonatal-IVA som ett multivariat tidsserieklassificeringsproblem på ett naturligt sätt underlättar upprepade förutsägelser över tid och gör det möjligt för avancerade djupa inlärningsmodeller att överträffaen multinomial logistisk regressionsbaslinje tränad på handgjorda funktioner. Dessutom visar det vikten av den nyfödda graviditetsåldern och binära masker som indikerar saknade värden som variabler för att förutsäga den återstående vistelsetiden.
APA, Harvard, Vancouver, ISO, and other styles
46

Malmgren, Erik, and Annie Zhang. "Risk Modeling of Sustainable Mutual Funds Using GARCH Time Series." Thesis, KTH, Matematisk statistik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-273578.

Full text
Abstract:
The demand for sustainable investments has seen an increase in recent years. There is considerable literature covering backtesting of the performance and risk of socially responsible investments (SRI) compared to conventional investments. However, literature that models and examines the risk characteristics of SRI compared to conventional investments is limited. This thesis seeks to model and compare the risk of mutual funds scoring in the top 10% in terms of sustainability, based on Morningstar Portfolio Sustainability Score, to those scoring in the bottom 10%. We create one portfolio consisting of the top 10% funds and one portfolio consisting of the bottom 10%, for European and global mutual funds separately, thus in total creating 4 portfolios. The analysis is based on data of the funds' returns and Morningstar Portfolio Sustainability Scores during December 2015 to August 2019. Investigating several GARCH models, we find an ARMA-GARCH model with skewed Student's t-distribution as innovation distribution to give the best fit to the daily log-returns of each portfolio. Based on the fitted ARMA-GARCH models with skewed Student's t-distribution, we use a parametric bootstrap method to compute 95% confidence intervals for the difference in long-run volatility and value at risk (VaR) between the portfolios with high and low Morningstar Portfolio Sustainability Scores. This is performed on the portfolios of European and global funds separately. We conclude that, for global and European funds respectively, no significant difference in terms of long-run volatility and VaR is found between the funds in each of the 10% ends of the Morningstar Portfolio Sustainability Score.
Efterfrågan av hållbara investeringar har ökat kraftigt de senaste åren. Det finns många studier som genomför backtesting av hållbara investeringars avkastning och risk jämfört med konventionella investeringar. Färre studier har däremot gjorts för att modellera och jämföra investeringarnas riskegenskaper. Denna uppsats syftar till att modellera risken av hållbara investeringar genom att jämföra de 10% fonder med högst Morningstar Portfolio Sustainability Score mot de 10% fonder med lägst score. Jämförelsen görs separat för globala fonder och europeiska fonder, vilket resulterar i totalt 4 portföljer. Analysen baseras på data på fondernas avkasting och Morningstar Portfolio Sustainability Score under tidsperioden december 2015 till augusti 2019. Genom att undersöka flera olika GARCH-modeller, kommer vi fram till att en ARMA-GARCH-modell med skev t-fördelning bäst beskriver den dagliga logaritmerade avkastningen för varje portfölj. Baserat på de anpassade ARMA-GARCH-modellerna, används en "parametric bootstrap"-metod för att beräkna 95%-iga konfidensintervall för skillnaden i långsiktig volatilitet och value at risk (VaR) mellan portföljerna med högt och lågt Morningstar Portfolio Sustainability Score. Detta görs separat för de europeiska och globala fonderna. Vår slutsats är att det, för globala och europeiska fonder, inte råder en signifikant skillnad i långsiktig volatilitet eller VaR mellan fonder med högt och lågt Morningstar Portfolio Sustainability Score.
APA, Harvard, Vancouver, ISO, and other styles
47

Bergfors, Anund. "Using machine learning to identify the occurrence of changing air masses." Thesis, Uppsala universitet, Institutionen för teknikvetenskaper, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-357939.

Full text
Abstract:
In the forecast data post-processing at the Swedish Meteorological and Hydrological Institute (SMHI) a regular Kalman filter is used to debias the two meter air temperature forecast of the physical models by controlling towards air temperature observations. The Kalman filter however diverges when encountering greater nonlinearities in shifting weather patterns, and can only be manually reset when a new air mass has stabilized itself within its operating region. This project aimed to automate this process by means of a machine learning approach. The methodology was at its base supervised learning, by first algorithmically labelling the air mass shift occurrences in the data, followed by training a logistic regression model. Observational data from the latest twenty years of the Uppsala automatic meteorological station was used for the analysis. A simple pipeline for loading, labelling, training on and visualizing the data was built. As a work in progress the operating regime was more of a semi-supervised one - which also in the long run could be a necessary and fruitful strategy. Conclusively the logistic regression appeared to be quite able to handle and infer from the dynamics of air temperatures - albeit non-robustly tested - being able to correctly classify 77% of the labelled data. This work was presented at Uppsala University in June 1st of 2018, and later in June 20th at SMHI.
APA, Harvard, Vancouver, ISO, and other styles
48

Alexander, Ödlund Lindholm. "The Salience of Issues in Parliamentary Debates : Its Development and Relation to the Support of the Sweden Democrats." Thesis, Linköpings universitet, Institutionen för ekonomisk och industriell utveckling, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-167610.

Full text
Abstract:
The aim of this study was to analyze the salience of issue dimensions in the Swedish parliament debates by the established parties during the rise of the Sweden Democrats Party (SD). Structural topic modeling was used to construct a measurement of the salience of issues, examining the full body of speeches in the Swedish parliament between September 2006 and December 2019. Trend analysis revealed a realignment from a focus on socio-economic to socio-cultural issues in Swedish politics. Cross-correlation analyses had conflicting results, indicating a weak positive relationship between the salience of issues and the support of SD – but low predictive ability; it also showed that changes in the support of SD did lead (precede) changes in the salience of issues in the parliament. The ramifications of socio-cultural issues being the most salient are that so-called radical right-wing populist parties (RRPs), or neo-nationalist parties, has a greater opportunity to gain support. It can make voters more inclined to base their voting decision on socio-cultural issues, which favors parties who fight for and are trustworthy in those issues – giving them more valence in the eyes of the voters.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography