Dissertations / Theses on the topic 'Given data'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 27 dissertations / theses for your research on the topic 'Given data.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
McLaughlin, N. R. "Robust multimodal person identification given limited training data." Thesis, Queen's University Belfast, 2013. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.579747.
Full textFriesch, Pius. "Generating Training Data for Keyword Spotting given Few Samples." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254960.
Full textTaligenkänningssystem behöver generellt en stor mängd träningsdata med varierande röstoch inspelningsförhållanden för att ge robusta resultat. I det specifika fallet med nyckelordsidentifiering, där endast korta kommandon känns igen i stället för stora vokabulärer, måste resurskrävande datainsamling göras för varje sökord individuellt. Under de senaste åren har neurala metoder i talsyntes och röstkonvertering gjort stora framsteg och genererar tal som är realistiskt för det mänskliga örat. I det här arbetet undersöker vi möjligheten att använda sådana metoder för att generera träningsdata för nyckelordsidentifiering. I detalj vill vi utvärdera om det genererade träningsdatat verkligen är realistiskt eller bara låter så, och om en modell tränad på dessa genererade exempel generaliserar väl till verkligt tal. Vi utvärderade tre metoder för neural talsyntes och röstomvandlingsteknik: (1) Speaker Adaptive VoiceLoop, (2) Factorized Hierarchical Variational Autoencoder (FHVAE), (3) Vector Quantised-Variational AutoEncoder (VQVAE).Dessa tre metoder används för att antingen generera träningsdata från text (talsyntes) eller att berika ett befintligt dataset för att simulera flera olika talare med hjälp av röstkonvertering, och utvärderas i ett system för nyckelordsidentifiering. Modellernas prestanda jämförs med en baslinje baserad på traditionell signalbehandling där tonhöjd och tempo varieras i det ursprungliga träningsdatat. Experimenten visar att man med hjälp av neurala nätverksmetoder kan ge en upp till 20% relativ noggrannhetsförbättring på valideringsuppsättningen jämfört med ursprungligt träningsdata. Baslinjemetoden baserad på signalbehandling ger minst dubbelt så bra resultat. Detta tycks indikera att användningen av talsyntes eller röstkonvertering med flera talare inte ger tillräckligt varierade eller representativa träningsdata.
Fan, Hang. "Species Tree Likelihood Computation Given SNP Data Using Ancestral Configurations." The Ohio State University, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=osu1385995244.
Full textRen, Chunfeng. "LATENT VARIABLE MODELS GIVEN INCOMPLETELY OBSERVED SURROGATE OUTCOMES AND COVARIATES." VCU Scholars Compass, 2014. http://scholarscompass.vcu.edu/etd/3473.
Full textCao, Haoliang. "Automating Question Generation Given the Correct Answer." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-287460.
Full textI den här avhandlingen presenteras en djup neural nätverksmodell för en frågeställningsuppgift. Givet en Wikipediaartikel skriven på engelska och ett textsegment i artikeln kan modellen generera en enkel fråga vars svar är det givna textsegmentet. Modellen är baserad på en kodar-avkodararkitektur (encoderdecoder architecture). Våra experiment visar att en modell med en finjusterad BERT-kodare och en självuppmärksamhetsavkodare (self-attention decoder) ger bästa prestanda. Vi föreslår också en utvärderingsmetrik för frågeställningsuppgiften, som utvärderar både syntaktisk korrekthet och relevans för de genererade frågorna. Enligt vår analys av samplade data visar det sig att den nya metriken ger bättre utvärdering jämfört med andra populära metriker för utvärdering.
GIOIA, PAOLA. "Towards more accurate measures of global sensitivity analysis. Investigation of first and total order indices." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2013. http://hdl.handle.net/10281/45695.
Full textLiu, Fenglei. "Detection and estimation of connection splice events in fiber optics given noisy OTDR data." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0009/MQ36049.pdf.
Full textStoor, John-Bernhard. "Utveckling av GUI utifrån en given affärsprocess." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-205667.
Full textPreem is a Swedish company that operates in the oil industry, which is controlled by very high sales and with relatively small margins. It’s therefore essential with a well working stock control. Today they are looking for a better way of monitoring the stock with a higher precision and therefore they need a new system for that. My role at Preem was to take a closer look at the GUI and the processes behind that. It resulted in this thesis that includes the user interface for the new system and the business processes that are linked to this. The work will focus on how these two methods are produced in relation to each other, and the methods that are used to construct them. The thesis includes illustrations of as-is and to-be process models of the BPMN specification, wireframes and a sitemap. This report shows a proposal of an integrating system and an intuitive GUI with new processes, at Preem, and how the balance is between creating business processes and a graphical user interface out of each other, depending on the people who are involved in the project.
Subramaniam, Rajesh. "Exploring Frameworks for Rapid Visualization of Viral Proteins Common for a Given Host." Thesis, North Dakota State University, 2019. https://hdl.handle.net/10365/31716.
Full textGeorge, Andrew Winston. "A Bayesian analysis for the mapping of a quantitative trait locus given half-sib data." Thesis, Queensland University of Technology, 1998.
Find full textWengrzik, Joanna [Verfasser], Jürgen [Akademischer Betreuer] Timm, and Werner [Akademischer Betreuer] Brannath. "Parameter Estimation for Mixture Models Given Grouped Data / Joanna Wengrzik. Gutachter: Jürgen Timm ; Werner Brannath. Betreuer: Jürgen Timm." Bremen : Staats- und Universitätsbibliothek Bremen, 2012. http://d-nb.info/1071993518/34.
Full textHallström, Richard. "Estimating Loss-Given-Default through Survival Analysis : A quantitative study of Nordea's default portfolio consisting of corporate customers." Thesis, Umeå universitet, Institutionen för matematik och matematisk statistik, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-122914.
Full textI Sverige måste alla banker rapportera sitt lagstadgade kapital i deras rapporter till marknaden och modellerna för att beräkna detta kapital måste vara godkända av den finansiella myndigheten, Finansinspektionen. Det lagstadgade kapitalet är det kapital som en bank måste hålla som en säkerhet för kreditrisk och den agerar som en buffert om banken skulle förlora oväntade summor pengar i deras utlåningsverksamhet. Loss- Given-Default (LGD) är en av de främsta faktorerna i det lagstadgade kapitalet och kravet på det minimala kapitalet är mycket känsligt för det rapporterade LGD. Workout LGD är baserat på diskonteringen av framtida kassaflöden från kunder som gått i default. Det huvudsakliga problemet med workout LGD är ofullständiga workouts, vilket i sin tur resulterar i två problem för banker när de ska beräkna workout LGD. Banken måste antingen vänta på att workout-perioden ska ta slut, vilket i vissa fall kan ta upp till flera år, eller så får banken exkludera eller göra grova antaganden om dessa ofullständiga workouts i sina beräkningar. I den här studien har idén från Survival analysis (SA) metoder använts för att lösa dessa problem. Den mest använda SA modellen, Cox proportional hazards model (Cox model), har applicerats för att undersöka effekten av kovariat på livslängden hos en monetär enhet. De undersökta kovariaten var Land, Säkrat/Osäkrat, Kollateral-kod, Loan-To-Value, Industri-kod Exposure-At-Default och Multipla-kollateral. Dataurvalet uppdelades först i 80 % träningsurval och 20 % testurval. Den applicerade Cox modellen baserades på träningsurvalet och validerades på testurvalet genom tolkning av Kaplan-Meier överlevnadskurvor för riskgrupperna skapade från prognosindexet (PI). Med de presenterade resultaten kan Nordea beräkna ett förväntat LGD för nya kunder i default, givet informationen i den här studiens undersökta kovariat. Nordea kan också få en klar bild över vilka faktorer som driver ett lågt respektive högt LGD.
Brown, Iain Leonard Johnston. "Basel II compliant credit risk modelling : model development for imbalanced credit scoring data sets, loss given default (LGD) and exposure at default (EAD)." Thesis, University of Southampton, 2012. https://eprints.soton.ac.uk/341517/.
Full textAnkaräng, Fredrik, and Fabian Waldner. "Evaluating Random Forest and a Long Short-Term Memory in Classifying a Given Sentence as a Question or Non-Question." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-262209.
Full textSpråkteknologi och textklassificering är vetenskapliga områden som tillägnats mycket uppmärksamhet av forskare inom maskininlärning. Nya metoder och modeller presenteras årligen, men mindre fokus riktas på att jämföra modeller av olika karaktär. Den här uppsatsen jämför Random Forest med ett Long Short-Term Memory neuralt nätverk genom att undersöka hur väl modellerna klassificerar meningar som frågor eller icke-frågor, utan att ta hänsyn till skiljetecken. Modellerna tränades och optimerades på användardata från ett svenskt försäkringsbolag, samt kommentarer från nyhetsartiklar. Resultaten visade att LSTM-modellen presterade bättre än Random Forest. Skillnaden var dock liten, vilket innebär att Random Forest fortfarande kan vara ett bättre alternativ i vissa situationer tack vare dess enkelhet. Modellernas prestanda förbättrades inte avsevärt efter hyperparameteroptimering. En litteraturstudie genomfördes även med målsättning att undersöka hur arbetsuppgifter inom kundsupport kan automatiseras genom införandet av en chatbot, samt vilka funktioner som bör prioriteras av ledningen inför en sådan implementation. Resultaten av studien visade att en data-driven approach var att föredra, där funktionaliteten bestämdes av användarnas och organisationens specifika behov. Tre funktioner var dock tillräckligt generella för att presenteras personligheten av chatboten, dess trovärdighet och i vilket steg av värdekedjan den implementeras.
Mainey, Alexander J. "The mechanisms of moisture driven backout of nailplate connections. Solutions for outdoor environments and numerical modelling and predictions of moisture driven backout given climatic data." Thesis, Griffith University, 2021. http://hdl.handle.net/10072/404468.
Full textThesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Heredia, Guzman Maria Belen. "Contributions to the calibration and global sensitivity analysis of snow avalanche numerical models." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALU028.
Full textSnow avalanche is a natural hazard defined as a snow mass in fast motion. Since the thirties, scientists have been designing snow avalanche models to describe snow avalanches. However, these models depend on some poorly known input parameters that cannot be measured. To understand better model input parameters and model outputs, the aims of this thesis are (i) to propose a framework to calibrate input parameters and (ii) to develop methods to rank input parameters according to their importance in the model taking into account the functional nature of outputs. Within these two purposes, we develop statistical methods based on Bayesian inference and global sensitivity analyses. All the developments are illustrated on test cases and real snow avalanche data.First, we propose a Bayesian inference method to retrieve input parameter distribution from avalanche velocity time series having been collected on experimental test sites. Our results show that it is important to include the error structure (in our case the autocorrelation) in the statistical modeling in order to avoid bias for the estimation of friction parameters.Second, to identify important input parameters, we develop two methods based on variance based measures. For the first method, we suppose that we have a given data sample and we want to estimate sensitivity measures with this sample. Within this purpose, we develop a nonparametric estimation procedure based on the Nadaraya-Watson kernel smoother to estimate aggregated Sobol' indices. For the second method, we consider the setting where the sample is obtained from acceptance/rejection rules corresponding to physical constraints. The set of input parameters become dependent due to the acceptance-rejection sampling, thus we propose to estimate aggregated Shapley effects (extension of Shapley effects to multivariate or functional outputs). We also propose an algorithm to construct bootstrap confidence intervals. For the snow avalanche model application, we consider different uncertainty scenarios to model the input parameters. Under our scenarios, the release avalanche position and volume are the most crucial inputs.Our contributions should help avalanche scientists to (i) account for the error structure in model calibration and (ii) rankinput parameters according to their importance in the models using statistical methods
Aslan, Yasemin. "Which Method Gives The Best Forecast For Longitudinal Binary Response Data?: A Simulation Study." Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/12612582/index.pdf.
Full textve and complex ones, are used by the help of R software. It is concluded that transition models and random effects models with no lag of response can be chosen for getting the most accurate forecasts, especially for the first two years of forecasting.
Kornfeil, Vojtěch. "Soubor úloh pro kurs Sběr, analýza a zpracování dat." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2008. http://www.nusl.cz/ntk/nusl-217707.
Full textBahman, Abdul-Redha Majeed. "Comparisons of date-palm leaves with barley straw and brackish water with fresh water for dairy cows given a high concentrate diet in Kuwait." Thesis, University of Aberdeen, 1991. http://digitool.abdn.ac.uk/R?func=search-advanced-go&find_code1=WSN&request1=AAIU602309.
Full textKang, Lei. "Reduced-Dimension Hierarchical Statistical Models for Spatial and Spatio-Temporal Data." The Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=osu1259168805.
Full textStensholt, Håkon Meyer. "Sound Meets Type : Exploring the form generating qualities of sound as input for a new typography." Thesis, Konstfack, Grafisk Design & Illustration, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:konstfack:diva-4761.
Full textAndersson, Emilia. "Using a Serious Game as an Educational Tool about Obligation to Give Notice : A Game Collaboration with Tidaholm Municipality." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-14572.
Full textZhang, Yunlei. "Two new algorithms for nonparametric analysis given incomplete data." 1997. http://catalog.hathitrust.org/api/volumes/oclc/39456668.html.
Full text"Indexing methods for multimedia data objects given pair-wise distances." 1997. http://library.cuhk.edu.hk/record=b5889136.
Full textThesis (M.Phil.)--Chinese University of Hong Kong, 1997.
Includes bibliographical references (leaves 67-70).
Abstract --- p.ii
Acknowledgement --- p.iii
Chapter 1 --- Introduction --- p.1
Chapter 1.1 --- Definitions --- p.3
Chapter 1.2 --- Thesis Overview --- p.5
Chapter 2 --- Background and Related Work --- p.6
Chapter 2.1 --- Feature-Based Index Structures --- p.6
Chapter 2.2 --- Distance Preserving Methods --- p.8
Chapter 2.3 --- Distance-Based Index Structures --- p.9
Chapter 2.3.1 --- The Vantage-Point Tree Method --- p.10
Chapter 3 --- The Problem of Distance Preserving Methods in Querying --- p.12
Chapter 3.1 --- Some Experimental Results --- p.13
Chapter 3.2 --- Discussion --- p.15
Chapter 4 --- Nearest Neighbor Search in VP-trees --- p.17
Chapter 4.1 --- The sigma-factor Algorithm --- p.18
Chapter 4.2 --- The Constant-α Algorithm --- p.22
Chapter 4.3 --- The Single-Pass Algorithm --- p.24
Chapter 4.4 --- Discussion --- p.25
Chapter 4.5 --- Performance Evaluation --- p.26
Chapter 4.5.1 --- Experimental Setup --- p.27
Chapter 4.5.2 --- Results --- p.28
Chapter 5 --- Update Operations on VP-trees --- p.41
Chapter 5.1 --- Insert --- p.41
Chapter 5.2 --- Delete --- p.48
Chapter 5.3 --- Performance Evaluation --- p.51
Chapter 6 --- Minimizing Distance Computations --- p.57
Chapter 6.1 --- A Single Vantage Point per Level --- p.58
Chapter 6.2 --- Reuse of Vantage Points --- p.59
Chapter 6.3 --- Performance Evaluation --- p.60
Chapter 7 --- Conclusions and Future Work --- p.63
Chapter 7.1 --- Future Work --- p.65
Bibliography --- p.67
Hung, Tsai Wei, and 蔡韋弘. "A likelihood ratio test for any given difference between 2proportions of pair binary data." Thesis, 2007. http://ndltd.ncl.edu.tw/handle/40957571009485506188.
Full text國立臺北大學
統計學系
95
In clinical trials , we want to compare positive rates of two medical exams in a paired design . McNemar (1947) Test was suggested to test the equality of two correlated proportions when sample size is large . However , a Binomial Test was suggested to test when sample size is small . In this paper , we use a likelihood ratio statistic to test any given difference between 2 proportions of pair binary data for sample size between 5 and 30 . Then we calculate the p-value of all possible pair binary data when sample size are equal to 5,10,15,20,25,30 and are equal to -1, -0.9, …, -0.1, 0, 0.1, …, 0.9, 1 by MATLAB program . Finally , we can make a decision to judge whether a sample will be rejected by p-value when the significant level is given . Besides , we can also confer that a sample will be rejected when it falls on what kind of region and build a confidence interval of a sample .
Hsu, Shih-Kai, and 徐士凱. "Two-Machine Flow Shops Scheduling to Minimize Job Independent Earliness and Tardiness Penalties with a Given Common Due Date." Thesis, 2005. http://ndltd.ncl.edu.tw/handle/86456208992008676701.
Full text國立中央大學
工業管理研究所
93
This study deals with the two-machine flow shops scheduling problem with the consideration of earliness and tardiness penalties. There are multiple jobs with a given common due date to be scheduled. All jobs have equal earliness and tardiness weights, and the weight of a job depends on whether the job is early or late, which are job-independent. The objective is to find a schedule that minimizes the weighted sum of earliness and tardiness penalties. We propose a number of propositions and revised Bagchi’s algorithm as a lower bound, which are implemented in our branch-and-bound algorithm to eliminate nodes efficiently in the branching tree. We also conduct computational analysis to show the validation and the effectiveness of our algorithm compared with enumeration.
Ping-Wen, Lin, and 林秉汶. "The Research of Applying Data Mining in the Repair System-To give an example of information product repairing." Thesis, 2002. http://ndltd.ncl.edu.tw/handle/35306488222479634314.
Full text中華大學
科技管理研究所
90
Abstract The remarkable advances made in the IT industry has paved the way for the computerization of the production process. Today, all production related data are automatically stored in a database, including product deficiencies and their causes. From the information in the database, a systematic analysis of the reasons for the deficiencies can be formulated. This will allow technicians to detect deficiencies or errors accurately and more effectively. In view of this, an effective database management mechanism is essential. In the long run, the proposed data mining technique will enhance the company’s competitiveness. This thesis combines information from the ‘Knowledge Discovery in Database’ published by Fayyad in 1996, and the ‘Data Mining’ by Berry & Linoff in 1997 to create a data mining structure fit for the repair system. Applying the proposed data mining structure to analyze the database can detect the deficiency faster and improve the yield rate. There are seven sections in this dissertation, namely: Problem Definition, Data Resources and Data Selection, Data Investigation, Data Transformation, The Creation of Data Mining Mode, The Result Assessment and Explanation and Constructing the Repair Flow, The thesis aims to develop a specific company’s new repair flow by analyzing its database. The result implies that following this new repair flow can shorten the investigation scope and repair time.