Rozprawy doktorskie na temat „BASED DATA”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „BASED DATA”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.
Niggemann, Oliver. "Visual data mining of graph based data". [S.l. : s.n.], 2001. http://deposit.ddb.de/cgi-bin/dokserv?idn=962400505.
Pełny tekst źródłaLi, Liangchun. "Web-based data visualization for data mining". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ35845.pdf.
Pełny tekst źródłaAlbarakati, Rayan. "Density Based Data Clustering". CSUSB ScholarWorks, 2015. https://scholarworks.lib.csusb.edu/etd/134.
Pełny tekst źródłaGaringo, Gary D. "JAVA based data connectivity". Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 1997. http://handle.dtic.mil/100.2/ADA342181.
Pełny tekst źródła"September 1997." Thesis advisor(s): LuQi, V. Berzins. Includes bibliographical references (p. 63). Also available online.
Young, G. A. "Data-based statistical methods". Thesis, University of Cambridge, 1986. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.383307.
Pełny tekst źródłaJäkel, Tobias. "Role-based Data Management". Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2017. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-224416.
Pełny tekst źródłaJi, Yongnan. "Data-driven fMRI data analysis based on parcellation". Thesis, University of Nottingham, 2001. http://eprints.nottingham.ac.uk/12645/.
Pełny tekst źródłaWang, Yi. "Data Management and Data Processing Support on Array-Based Scientific Data". The Ohio State University, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=osu1436157356.
Pełny tekst źródłaHong, Yili. "Reliability prediction based on complicated data and dynamic data". [Ames, Iowa : Iowa State University], 2009.
Znajdź pełny tekst źródłaChepetan, Adrian. "Microcontroller based Data Acquisition System". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ62200.pdf.
Pełny tekst źródłaGaspar, John M. "Denoising amplicon-based metagenomic data". Thesis, University of New Hampshire, 2014. http://pqdtopen.proquest.com/#viewpdf?dispub=3581214.
Pełny tekst źródłaReducing the effects of sequencing errors and PCR artifacts has emerged as an essential component in amplicon-based metagenomic studies. Denoising algorithms have been written that can reduce error rates in mock community data, in which the true sequences are known, but they were designed to be used in studies of real communities. To evaluate the outcome of the denoising process, we developed methods that do not rely on a priori knowledge of the correct sequences, and we applied these methods to a real-world dataset. We found that the denoising algorithms had substantial negative side-effects on the sequence data. For example, in the most widely used denoising pipeline, AmpliconNoise, the algorithm that was designed to remove pyrosequencing errors changed the reads in a manner inconsistent with the known spectrum of these errors, until one of the parameters was increased substantially from its default value.
With these shortcomings in mind, we developed a novel denoising program, FlowClus. FlowClus uses a systematic approach to filter and denoise reads efficiently. When denoising real datasets, FlowClus provides feedback about the process that can be used as the basis to adjust the parameters of the algorithm to suit the particular dataset. FlowClus produced a lower error rate compared to other denoising algorithms when analyzing a mock community dataset, while retaining significantly more sequence information. Among its other attributes, FlowClus can analyze longer reads being generated from current protocols and irregular flow orders. It has processed a full plate (1.5 million reads) in less than four hours; using its more efficient (but less precise) trie analysis option, this time was further reduced, to less than seven minutes.
Vinjarapu, Saranya S. "GPU Based Scattered Data Modeling". University of Akron / OhioLINK, 2012. http://rave.ohiolink.edu/etdc/view?acc_num=akron1335297259.
Pełny tekst źródłaKrisnadhi, Adila Alfa. "Ontology Pattern-Based Data Integration". Wright State University / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=wright1453177798.
Pełny tekst źródłaIslam, Naveed. "Cryptography based Visual Data Protection". Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20178/document.
Pełny tekst źródłaDue to the advancements in the information and communication technologies, the transmission of multimedia data over secure or insecure communication channels has increased exponentially. The security of data in applications like safe storage, authentications, copyright protection,remote military image communication or confidential video-conferencing require new strategies for secure transmission. Two techniques are commonly used for the secure transmission of visual data, i.e. cryptography and steganography. Cryptography achieves security by using secret keysto make the data illegible while steganography aims to hide the data in some innocent carrier signal. For shared trust and distributed environment, secret sharing schemes provide sufficient security in various communication applications. The principal objective of this thesis is to achieveprotection of visual data especially images through modern cryptographic techniques. In this context, the focus of the work in perspective, is twofolded. The first part of our work focuses on the security of image data in shared environment while the second part focuses on the integrity ofimage data in the encrypted domain during transmission.We proposed a new sharing scheme for images which exploits the additive and multiplicative homomorphic properties of two well known public key cryptosystems, namely, the RSA and the Paillier. In traditional secret sharing schemes, the dealer partitions the secret into shares and distributethe shares to each of the player. Thus, none of the involved players participate in the creation of the shared secret and there is always a possibilitythat the dealer can cheat some player. On the contrary, the proposed approach employs the secret sharing scheme in a way that limits the influence of the dealer over the protocol by allowing each player to participate. The second part of our thesis emphasizes on the integrity of visual data during transmission. Data integrity means that the data have its complete structure during any operation like storage, transfer or retrieval. A single bit change in encrypted data can have catastrophic impact over the decrypted data. We address the problem of error correction in images encrypted using symmetric key cryptosystem of the Advanced Encryption Standard (AES) algorithm. Three methods are proposed to exploit the local statistics of the visual data and the encryption algorithm to successfully correct the errors
Jung, Uk. "Wavelet-based Data Reduction and Mining for Multiple Functional Data". Diss., Georgia Institute of Technology, 2004. http://hdl.handle.net/1853/5084.
Pełny tekst źródłaJeong, Myong-Kee. "Wavelet-Based Methodology in Data Mining for Complicated Functional Data". Diss., Georgia Institute of Technology, 2004. http://hdl.handle.net/1853/5148.
Pełny tekst źródłaTutak, Wes A. "Error identification and data recovery in MISR-based data compaction". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/mq22683.pdf.
Pełny tekst źródłaLiu, Xiaodong. "Web-based access to a data warehouse of administrative data". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0019/MQ48278.pdf.
Pełny tekst źródłaKilpatrick, Stephen, Galen Rasche, Chris Cunningham, Myron Moodie i Ben Abbott. "REORDERING PACKET BASED DATA IN REAL-TIME DATA ACQUISITION SYSTEMS". International Foundation for Telemetering, 2007. http://hdl.handle.net/10150/604571.
Pełny tekst źródłaUbiquitous internet protocol (IP) hardware has reached performance and capability levels that allow its use in data collection and real-time processing applications. Recent development experience with IP-based airborne data acquisition systems has shown that the open, pre-existing IP tools, standards, and capabilities support this form of distribution and sharing of data quite nicely, especially when combined with IP multicast. Unfortunately, the packet based nature of our approach also posed some problems that required special handling to achieve performance requirements. We have developed methods and algorithms for the filtering, selecting, and retiming problems associated with packet-based systems and present our approach in this paper.
Tziatzios, Achilleas. "Data mining of range-based classification rules for data characterization". Thesis, Cardiff University, 2014. http://orca.cf.ac.uk/65902/.
Pełny tekst źródłaHric, Jan. "EVENT BASED PREDICTIVE FAILURE DATA ANALYSIS OF RAILWAY OPERATIONAL DATA". Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-48709.
Pełny tekst źródłaZheng, Yao. "Privacy Preservation for Cloud-Based Data Sharing and Data Analytics". Diss., Virginia Tech, 2016. http://hdl.handle.net/10919/73796.
Pełny tekst źródłaPh. D.
Mathew, Avin D. "Asset management data warehouse data modelling". Thesis, Queensland University of Technology, 2008. https://eprints.qut.edu.au/19310/1/Avin_Mathew_Thesis.pdf.
Pełny tekst źródłaMathew, Avin D. "Asset management data warehouse data modelling". Queensland University of Technology, 2008. http://eprints.qut.edu.au/19310/.
Pełny tekst źródłaGrillo, Aderibigbe. "Developing a data quality scorecard that measures data quality in a data warehouse". Thesis, Brunel University, 2018. http://bura.brunel.ac.uk/handle/2438/17137.
Pełny tekst źródłaKong, Jiantao. "Trusted data path protecting shared data in virtualized distributed systems". Diss., Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/33820.
Pełny tekst źródłaDeedman, Galvin Charles. "Building rule-based expert systems in case-based law". Thesis, University of British Columbia, 1987. http://hdl.handle.net/2429/26137.
Pełny tekst źródłaLaw, Peter A. Allard School of
Graduate
Touma, Rizkallah. "Computer-language based data prefetching techniques". Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/665207.
Pełny tekst źródłaPrecargar datos ha sido una de las técnicas más comunes para mejorar los tiempos de acceso a datos persistentes. Esta técnica se basa en predecir los registros de datos que se van a acceder en el futuro y cargarlos del almacenimiento persistente a la memoria con antelación a su uso. Precargar datos ha sido aplicado en multitud de sistemas de almacenimiento persistente, desde sistemas de ficheros a bases de datos relacionales y NoSQL, con el objetivo de reducir los tiempos de acceso a los datos y por lo tanto mejorar los tiempos de ejecución de las aplicaciones que usan estos datos. Sin embargo, la mayoría de los enfoques existentes utilizan predicciones basadas en información que se encuentra dentro del mismo sistema de almacenimiento, ya sea en forma de heurísticas basadas en el esquema de los datos o patrones de acceso a los datos generados mediante la monitorización del acceso al sistema. Estos enfoques presentan varias desventajas en cuanto a la rigidez de las heurísticas usadas, la precisión de las predicciones generadas y el tiempo que necesitan para generar estas predicciones, un proceso que se realiza con frecuencia mientras las aplicaciones acceden a los datos y que puede tener efectos negativos en el tiempo de ejecución de estas aplicaciones. En vista de lo anterior, esta tesis presenta dos enfoques novedosos para precargar datos basados en predicciones generadas por el análisis de las instrucciones y sentencias del lenguaje informático usado para acceder a los datos persistentes. Los enfoques propuestos toman en consideración cómo las aplicaciones acceden a los datos, generan predicciones precisas y mejoran el rendimiento de las aplicaciones sin causar ningún efecto negativo. El primer enfoque analiza las instrucciones de applicaciones escritas en lenguajes de programación orientados a objetos con el fin de precargar datos de almacenes de objetos persistentes. El enfoque emplea análisis estático de código hecho antes de la ejecución de las aplicaciones, y por lo tanto no afecta negativamente el rendimiento de las mismas. El enfoque también incluye varias estrategias para tratar casos que requieren información de runtime no disponible antes de ejecutar las aplicaciones. Además, integramos este enfoque en un almacén de objetos persistentes y ejecutamos una serie extensa de experimentos para medir la mejora de rendimiento que se puede obtener utilizando el enfoque. Por otro lado, el segundo enfoque analiza las sentencias y logs del lenguaje declarativo de consultas SPARQL para precargar datos de triplestores de RDF. Este enfoque aplica dos medidas para calcular la similtud entre las consultas del lenguaje SPARQL con el objetivo de detectar patrones recurrentes en los logs históricos. Posteriormente, el enfoque utiliza los patrones detectados para predecir las consultas siguientes y precargar con antelación los datos que necesitan. Nuestra evaluación muestra que este enfoque produce predicciones de alta precisión y puede lograr un alto índice de aciertos cuando los resultados de las consultas predichas se guardan en el caché.
Hable, Robert. "Data-Based Decisions under Complex Uncertainty". Diss., lmu, 2009. http://nbn-resolving.de/urn:nbn:de:bvb:19-98740.
Pełny tekst źródłaXu, Gang. "Optimisation-based approaches for data analysis". Thesis, University College London (University of London), 2008. http://discovery.ucl.ac.uk/15947/.
Pełny tekst źródłaRemesan, Renji. "Data based Modelling Issues in Hydroinformatics". Thesis, University of Bristol, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.520188.
Pełny tekst źródłaWang, Zhi. "Module-Based Analysis for "Omics" Data". Thesis, North Carolina State University, 2015. http://pqdtopen.proquest.com/#viewpdf?dispub=3690212.
Pełny tekst źródłaThis thesis focuses on methodologies and applications of module-based analysis (MBA) in omics studies to investigate the relationships of phenotypes and biomarkers, e.g., SNPs, genes, and metabolites. As an alternative to traditional single–biomarker approaches, MBA may increase the detectability and reproducibility of results because biomarkers tend to have moderate individual effects but significant aggregate effect; it may improve the interpretability of findings and facilitate the construction of follow-up biological hypotheses because MBA assesses biomarker effects in a functional context, e.g., pathways and biological processes. Finally, for exploratory “omics” studies, which usually begin with a full scan of a long list of candidate biomarkers, MBA provides a natural way to reduce the total number of tests, and hence relax the multiple-testing burdens and improve power.
The first MBA project focuses on genetic association analysis that assesses the main and interaction effects for sets of genetic (G) and environmental (E) factors rather than for individual factors. We develop a kernel machine regression approach to evaluate the complete effect profile (i.e., the G, E, and G-by-E interaction effects separately or in combination) and construct a kernel function for the Gene-Environmental (GE) interaction directly from the genetic kernel and the environmental kernel. We use simulation studies and real data applications to show improved performance of the Kernel Machine (KM) regression method over the commonly adapted PC regression methods across a wide range of scenarios. The largest gain in power occurs when the underlying effect structure is involved complex GE interactions, suggesting that the proposed method could be a useful and powerful tool for performing exploratory or confirmatory analyses in GxE-GWAS.
In the second MBA project, we extend the kernel machine framework developed in the first project to model biomarkers with network structure. Network summarizes the functional interplay among biological units; incorporating network information can more precisely model the biological effects, enhance the ability to detect true signals, and facilitate our understanding of the underlying biological mechanisms. In the work, we develop two kernel functions to capture different network structure information. Through simulations and metabolomics study, we show that the proposed network-based methods can have markedly improved power over the approaches ignoring network information.
Metabolites are the end products of cellular processes and reflect the ultimate responses of biology system to genetic variations or environment exposures. Because of the unique properties of metabolites, pharmcometabolomics aims to understand the underlying signatures that contribute to individual variations in drug responses and identify biomarkers that can be helpful to response predictions. To facilitate mining pharmcometabolomic data, we establish an MBA pipeline that has great practical value in detection and interpretation of signatures, which may potentially indicate a functional basis for the drug response. We illustrate the utilities of the pipeline by investigating two scientific questions in aspirin study: (1) which metabolites changes can be attributed to aspirin intake, and (2) what are the metabolic signatures that can be helpful in predicting aspirin resistance. Results show that the MBA pipeline enables us to identify metabolic signatures that are not found in preliminary single-metabolites analysis.
Pople, Andrew James. "Value-based maintenance using limited data". Thesis, University of Newcastle Upon Tyne, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.391958.
Pełny tekst źródłaHiden, Hugo George. "Data-based modelling using genetic programming". Thesis, University of Newcastle Upon Tyne, 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.246137.
Pełny tekst źródłaLynch, Thomas J. III, Thomas E. Fortmann, Howard Briscoe i Sanford Fidell. "MULTIPROCESSOR-BASED DATA ACQUISITION AND ANALYSIS". International Foundation for Telemetering, 1989. http://hdl.handle.net/10150/614478.
Pełny tekst źródłaMultiprocessing computer systems offer several attractive advantages for telemetry-related data acquisition and processing applications. These include: (1) high-bandwidth, fail-soft operation with convenient, low-cost, growth paths, (2) cost-effective integration and clustering of data acquisition, decommutation, monitoring, archiving, analysis, and display processing, and (3) support for modern telemetry system architectures that allow concurrent network access to test data (for both real-time and post-test analyses) by multiple analysts. This paper asserts that today’s general-purpose hardware and software offer viable platforms for these applications. One such system, currently under development, closely couples VME data buses and other off-the-shelf components, parallel processing computers, and commercial data analysis packages to acquire, process, display, and analyze telemetry and other data from a major weapon system. This approach blurs the formerly clear architectural distinction in telemetry data processing systems between special-purpose, front-end, preprocessing hardware and generalpurpose, back-end, host computers used for further processing and display.
Sandelius, Tim. "Graph-based Visualization of Sensor Data". Thesis, Örebro universitet, Institutionen för naturvetenskap och teknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-94170.
Pełny tekst źródłaVisualizing movement data is a heavily researched area and complex task. In this project I have used movement data collected by sensors from Akademiska hus placed on campus of Örebro University. The data is used to visualize movement made inside the buildings through a developed webapp written entirely in Python. Connectivity between sensors is studied whether it is possible to generate connectivity graphs with the information associated to specific sensors automatically or done by hand. The project also researches whether movement flows are possible to visualize with the data available from Akademiska hus.
Cheung, Ricky. "Stochastic based football simulation using data". Thesis, Uppsala universitet, Matematiska institutionen, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-359835.
Pełny tekst źródłaVeldsman, Werner Pieter. "SNP based literature and data retrieval". Thesis, University of the Western Cape, 2016. http://hdl.handle.net/11394/5345.
Pełny tekst źródłaReference single nucleotide polymorphism (refSNP) identifiers are used to earmark SNPs in the human genome. These identifiers are often found in variant call format (VCF) files. RefSNPs can be useful to include as terms submitted to search engines when sourcing biomedical literature. In this thesis, the development of a bioinformatics software package is motivated, planned and implemented as a web application (http://sniphunter.sanbi.ac.za) with an application programming interface (API). The purpose is to allow scientists searching for relevant literature to query a database using refSNP identifiers and potential keywords assigned to scientific literature by the authors. Multiple queries can be simultaneously launched using either the web interface or the API. In addition, a VCF file parser was developed and packaged with the application to allow users to upload, extract and write information from VCF files to a file format that can be interpreted by the novel search engine created during this project. The parsing feature is seamlessly integrated with the web application's user interface, meaning there is no expectation on the user to learn a scripting language. This multi-faceted software system, called SNiPhunter, envisions saving researchers time during life sciences literature procurement, by suggesting articles based on the amount of times a reference SNP identifier has been mentioned in an article. This will allow the user to make a quantitative estimate as to the relevance of an article. A second novel feature is the inclusion of the email address of a correspondence author in the results returned to the user, which promotes communication between scientists. Moreover, links to external functional information are provided to allow researchers to examine annotations associated with their reference SNP identifier of interest. Standard information such as digital object identifiers and publishing dates, that are typically provided by other search engines, are also included in the results returned to the user.
National Research Foundation (NRF) /The South African Research Chairs Initiative (SARChI)
Kaminski, Kamil. "Data association for object-based SLAM". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-290935.
Pełny tekst źródłaExamensarbetet tar upp problemet med dataassociation för monokulärt objektbaserat SLAM, som ofta utelämnas i relaterade verk. En metod för att uppskatta ellipsoida landmärkesrepresentationer implementeras. Den här metoden använder avgränsningsrutor med flera vyer i 2D-bilder med hjälp av YOLOv3-objektdetektor och ORB-SLAM2 för uppskattning av kamerapositioner. Onlinedataassociationen använder SIFT intressepunktsmatchning samt matchnin gav landmärkesbakprojektioner mot avgränsningsrutorna för att associera dessa objektdetektioner. Denna kombination och dess utvärdering är huvudbidraget i examensarbetet. Den övergripande algoritmen testas på flera datasätt, bådeverkliga och datorgenererade. Associeringsalgoritmen hanterar väl de testa desekvenserna och det visas att matchning med bakprojektionerna av ellipsoidalandmärken gör associeringen mer robust. Det visas att med vissa implementeringsförändringarkan algoritmen köras i realtid. Landmarkeringsberäkningsdelen fungerar acceptabelt för initiering av landmärken. Baserat på resultaten föreslås framtid arbete.
Kaminski, Kamil. "Data association for object-based SLAM". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-291206.
Pełny tekst źródłaExamensarbetet tar upp problemet med dataassociation för monokulärt objektbaserat SLAM, som ofta utelämnas i relaterade verk. En metod för att uppskatta ellipsoida landmärkesrepresentationer implementeras. Den här metodenanvänder avgränsningsrutor med flera vyer i 2D-bilder med hjälp av YOLOv3-objektdetektor och ORB-SLAM2 för uppskattning av kamerapositioner. Online dataassociationen använder SIFT intressepunktsmatchning samt matchningav landmärkesbakprojektioner mot avgränsningsrutorna för att associera dessaobjektdetektioner. Denna kombination och dess utvärdering är huvudbidrageti examensarbetet. Den övergripande algoritmen testas på flera datasätt, bådeverkliga och datorgenererade. Associeringsalgoritmen hanterar väl de testadesekvenserna och det visas att matchning med bakprojektionerna av ellipsoidalandmärken gör associeringen mer robust. Det visas att med vissa implementeringsförändringar kan algoritmen köras i realtid. Landmarkeringsberäkningsdelen fungerar acceptabelt för initiering av landmärken. Baserat på resultatenföreslås framtid arbete.
Tavassoli, Pantea. "Web-based interface for data visualization". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-279460.
Pełny tekst źródłaI en tid med Big Data och en exponentiellt växande digitalisering, blir datavisualisering ett mer förekommande verktyg för att förstå trender, mönster och identifiera avvikelser för att underlätta beslutsfattande. Syftet med studien är att utforska hur ett skalbart datavisualiseringsgränssnitt kan utformas med hjälp av det webbaserade biblioteket D3.js. Gränssnittet är utformat för att visa ett omfång av patienters fysiologiska mätvärden med syftet att hjälpa sjukvårdspersonal med diagnostiken av Covid-19. Flera förutsättningar kunde upptäckas med hjälp av en kvalitativ förstudie. Denna studie visade sig underlätta implementeringsprocessen, där bland annat en robust modell som stödjer visualiseringar trots diskontinuerliga och ofullständiga dataserier identifierades. Eftersom felaktiga, eller delvis fungerande visualiseringar kan leda till potentiell skada i den mycket känsliga medicinska miljön, ansågs en riskanalys vara fördelaktig. Därför utformades en sådan analys, som dessutom visade sig sedan kunna vara användbar i flera sammanhang. Gränssnittets design visade också på gemensam funktionalitet som kan övervägas vid implementeringen av andra visualiseringsgränssnitt, bland annat hur vyer renderas men även funktioner som vägleder användaren till att lättare kunna tolka de olika visualiseringarna.
Liu, Dan. "Tree-based Models for Longitudinal Data". Bowling Green State University / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=bgsu1399972118.
Pełny tekst źródłaAmaglo, Worlanyo Yao. "Volume Calculation Based on LiDAR Data". Thesis, KTH, Fastigheter och byggande, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-299594.
Pełny tekst źródłaI detta avhandlingsprojekt var huvudmålet att jämföra och utvärdera tre kartläggningsmetoder för volymbestämning: Fotogrammetri, Terrestrial Laser Scanning (TLS) och Aerial Laser Scan-ning (ALS) baserat på tidsförbrukning, effektivitet och säkerhet i gruvindustrin. Dessutom formulerades en volymetrisk beräkningsmetod baserad på koordinater för att uppskatta volymen av lager med hjälp av lidardata som fångats med en laserskanner. Användningen av GNSS-mottagare, UAV (obemannad flygbil) utrustad med en LiDAR-sensor samt en kamera och markbunden laserscanner antogs för att göra mätningar på lager. Trimble Business Center och Trimble RealWorks användes vid bearbetning av LiDAR-data från TLS och ALS. Två volymberäkningsmetoder undersöktes också med både TLS- och ALS LiDAR-data. Agisoft Photoscan användes vid bearbetning av de bilder som tagits och antagit strukturen från rörelseprincipen. Denna programvara användes för att uppskatta volymen på lagret. Matlab användes för att uppskatta volymen av lager med LiDAR-data. En volymberäkningsmetod baserad på koordinater för punktmoln implementerades i Matlab. Analys baserad på den tid det tar att fånga och bearbeta alla datatyper tills den slutliga produkten var klar. Resultaten från varje datafångstmetod utvärderades. Simulerad datateknik antas också i detta projekt eftersom den kan modelleras på olika sätt för att studera effekten av ytjämnhet (punkttäthet) på den uppskattade volymen. En del av detta projekt utforskar användningen av MATLAB för att filtrera bort oönskade punktmoln som kommer från ogräset som växer på ytan av ett övergivet lager och även ytarealer som skulle uteslutas från volymberäkningen, som i detta fall. Från de erhållna resultaten skiljer sig TLS och ALS inte mycket i de slutliga volymuppskattningarna. Fotogrammetri å andra sidan uppskattade en högre volym jämfört med de andra undersöknings-metoderna. MATLAB vid uppskattning av lagervolymen uppnår ungefär lika stor uppskattning som TLS och ALS inom en kort tidsperiod. Punkttätheten och filtreringsalgoritmen spelar en viktig roll i volymberäkning som hjälper till att ge en bra uppskattning av lagret. Resultat från detta projekt visar att det är tidskrävande att uppskatta lagervolymen med TLS och fotogram-metrisk metod. När det gäller säkerhet på en aktiv gruvplats har dessa två undersökningsmetoder hög risk sannolikhet jämfört med ALS-metoden. Noggrannheten för de insamlade och bearbetade uppgifterna kan sägas vara tillfredsställande för varje undersökningsmetod.
Venkatesh, Prabhu. "Radio frequency-based data collection network". Master's thesis, This resource online, 1995. http://scholar.lib.vt.edu/theses/available/etd-01262010-020232/.
Pełny tekst źródłaBjörck, Olof. "Analyzing gyro data based image registration". Thesis, Uppsala universitet, Institutionen för informationsteknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-397459.
Pełny tekst źródłaFIGUEROA, MARTINEZ CRISTHIAN NICOLAS. "Recommender Systems based on Linked Data". Doctoral thesis, Politecnico di Torino, 2017. http://hdl.handle.net/11583/2669963.
Pełny tekst źródłaKis, Filip. "Prototyping with Data : Opportunistic Development of Data-Driven Interactive Applications". Doctoral thesis, KTH, Medieteknik och interaktionsdesign, MID, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-196851.
Pełny tekst źródłaMer och mer digital information görs tillgänglig på olika sätt, t.ex. via öppna data-initiativ, Sakernas internet och API:er. Med en ökande teknikanvändning så skapas även ett intresse för att använda denna data i olika sammanhang, både privat och professionellt. Att bygga interaktiva applikationer som adresserar dessa intressen är en utmaning då det kräver avancerade ingenjörskunskaper, vilket man vanligtvis endast hittar hos professionella programmerare. Samtidigt byggs allt fler interaktiva applikationer utanför företagsmiljöer, i mer opportunistiska sammanhang. Detta kan till exempel vara kunskapsarbetare som använder sig av s.k. anveckling (eng. end-user development) för att lösa en uppgift, eller kompisar som träffas en helg för att hålla ett hackaton med hopp om att bli nästa framgångsrika startup-företag. Den här avhandlingen fokuserar på hur prototypverktyg kan utformas för att stödja utveckling av interaktiva applikationer i sådana opportunistiska sammanhang, som utnyttjar den ökande mängden av tillgänglig data. Målet med arbetet som presenteras i den här avhandlingen har varit att förstå utmaningarna som det innebär att använda data i prototyparbete och att identifiera viktiga kvalitéer för de verktyg som ska kunna hantera detta. För att uppnå detta mål har verktyg för deklarativ programmering utforskats med ett fokus kring vilken data och interaktion en applikationen ska erbjuda snarare än hur den ska implementeras. Arbetet som presenteras i den här avhandlingen har genomförts som en iterativ process, med en startpunkt i en utforskning av modellbaserad gränssnittsutveckling, vilket sedan följdes av observationer av prototyparbete i praktiken genom en serie hackathon och en iterativ design av Endev, som är ett prototypverktyg för att skapa datadrivna webbapplikationer. Formativa utvärderingar av Endev har utförts med programmerare och interaktionsdesigners. De viktigaste resultaten av den här avhandlingen är de utmaningar som har identifierats kring hur man skapar prototyper och de kvalitéer som krävs av prototypverktyg som ska adressera dessa utmaningar. De identifierade kvalitéerna som sänker trösklarna för att inkludera data i prototyper är: deklarativt prototyparbete, välbekanta och installationsfria miljöer, och supportverktyg. Kvalitéer som höjer taket för vad som kan göras i en prototyp är: stöd för olika typer av data och för avancerad “look and feel”.
Duan, Yuanyuan. "Statistical Predictions Based on Accelerated Degradation Data and Spatial Count Data". Diss., Virginia Tech, 2014. http://hdl.handle.net/10919/56616.
Pełny tekst źródłaPh. D.
Su, Yu. "Big Data Management Framework based on Virtualization and Bitmap Data Summarization". The Ohio State University, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=osu1420738636.
Pełny tekst źródłaHsu, Pei-Lun. "Machine Learning-Based Data-Driven Traffic Flow Estimation from Mobile Data". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300712.
Pełny tekst źródłaInformation om trafikflödet är nödvändig för övervakning av fordonsutsläpp och trafikstyrning. Trafikflöden kan dock inte observeras överallt och när som helst på vägen på grund av höga installationskostnader och t.ex. funktionsstörningar hos stationära sensorer. För att kompensera för stationära sensorers svagheter analyseras i detta arbete ett tillvägagångssätt för att estimera trafikflöden från mobila data som tillhandahålls av INRIX. Detta kommersiella dataset innehåller restider som kommer från användare av bl.a. färdnavigatorer i fordon och som har en bred rumslig täckning och hög kvalitet. Idén är att utveckla modeller baserade på artificiellt neuronnät för att automatiskt extrahera samband mellan trafikflödesdata och restidsdata från INRIX-mätningarna baserat på historiska data och med hänsyn till tidsmässiga och rumsliga beroenden. Vi utförde experiment med fyra veckors data från INRIX och från stationära sensorer på två intilliggande vägsegment på E4:an i Stockholm. Modellerna valideras med hjälp av estimering av trafikflöde baserat på en veckas INRIX- data. Jämfört med det traditionella tillvägagångssättet som anpassar stationära samband mellan trafikflöde och hastighet baserat på fundamentaldiagram, förbättrar det nya tillvägagångssättet noggrannheten avsevärt. Dessutom visar resultaten att modellerna i den nya metoden bättre hanterar avvikelser i ingående variabler och kan öka noggrannheten på estimatet för vägsegmentet utan stationär sensor. Den nya metoden kan därför vara lämplig för att uppskatta trafikflöden på vägsegment närliggande en stationär sensor. Metodiken ger ett automatiserat sätt att bygga modeller som är anpassade till datamängderna och som förbättrar noggrannheten vid estimering av trafikflöden. Den kan också enkelt integrera nya datakällor. Metodiken är lämplig att tillämpa på tillämpningar inom intelligenta transportsystem för trafikövervakning och trafikstyrning.