Índice

  1. Tesis

Literatura académica sobre el tema "Ceramics, multidimensional data analysis"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Ceramics, multidimensional data analysis".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Tesis sobre el tema "Ceramics, multidimensional data analysis"

1

Passuti, Sara. "Electrοn crystallοgrathy οf nanοdοmains in functiοnal materials". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC230.

Texto completo
Resumen
L’étude des matériaux fonctionnels se concentre de plus en plus sur des échantillonscaractérisés par des nano-domaines (allant de tailles submicroniques à des dizaines denanomètres) en raison de leurs propriétés physiques intéressantes, telles que celles observéesdans les films minces ou les matériaux céramiques. Lorsqu’il faut déterminer des phases inconnuesou obtenir des informations détaillées sur la structure cristalline de ces matériaux, ladiffraction des rayons X et la microscopie électronique à transmission (MET) se heurtent à desdifficultés. Pour résoudre ce problème, une nouvelle technique de diffraction électronique (ED),dite « Scanning Precession Electron Tomography » (SPET), a été employée. La SPET combinela méthode établie d’acquisition de données 3D ED assistée par la précession (également connuesous l’acronyme PEDT) avec un balayage du faisceau d’électrons sur une région d’intérêt (ROI)de l’échantillon et ce à chaque angle d’inclinaison du porte objet. Cette procédure permet decollecter des données 3D ED à partir de plusieurs ROIs en une seule acquisition, ce qui facilitela résolution et l’affinement précis de la structure cristalline de plusieurs nano-domaines ou dezones distinctes à l’intérieur d’un seul domaine. Dans cette thèse, les potentialités de la SPETsont explorées à la fois sur des films minces d’oxyde et sur des matériaux thermoélectriques(céramiques) préparés sous forme de lamelles TEM. En outre, une nouvelle méthodologie a étédéveloppée pour analyser efficacement la grande quantité de données collectées. Cette méthodeconsiste à trier les diagrammes de diffraction en fonction de leur région d’origine, à reconstruirela série 3D ED selon les différentes ROIs et à traiter automatiquement ces données pour la résolutionet l’obtention d’affinements précis de la structure. Ce travail démontre le potentiel de laSPET pour la caractérisation cristallographique fine de matériaux nano-structurés complexes.Cette approche est complémentaire de ce qui peut être fait en imagerie ou en spectroscopie par(S)TEM ou, en diffraction, par les approches dites 4D-STEM et ACOM<br>The investigation of functional materials has increasingly focused on samplescharacterized by nanodomains (ranging from submicron sizes to tens of nanometers) due totheir interesting physical properties, such as those observed in thin films and ceramic materials.When unknown phases need to be determined or detailed information on the crystallinestructure of these materials is required, this presents challenges for both X-ray diffraction andtransmission electron microscopy (TEM). To address this, a novel electron diffraction (ED) technique,Scanning Precession Electron Tomography (SPET), has been employed. SPET combinesthe established precession-assisted 3D ED data acquisition method (a.k.a. Precession ElectronDiffraction Tomography – PEDT) with a scan of the electron beam on a region of interest (ROI)of the specimen at each tilt step. This procedure allows to collect 3D ED data from multipleROIs with a single acquisition, facilitating structure solution and accurate structure refinementsof multiple nanodomains or distinct areas within a single domain, at once. In this thesis, thepotentialities of SPET are explored on both oxide thin films and ceramic thermoelectric materialsprepared as TEM lamellae. Additionally, a novel methodology was developed to efficientlyanalyze the large amount of data collected. This method involves sorting the diffraction patternsaccording to their region of origin, reconstructing the diffraction tilt series of the ROI, andautomatically processing the obtained tilt series for structure solution and accurate refinements.This work demonstrates the potential of SPET for the fine crystallographic characterization ofcomplex nanostructured materials. This approach appears to be complementary to what can bedone in imaging or spectroscopy by (S)TEM or, in diffraction, by the so-called 4D-STEM andACOM approaches
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Westerlund, Per. "Business Intelligence: Multidimensional Data Analysis." Thesis, Umeå universitet, Institutionen för datavetenskap, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-138758.

Texto completo
Resumen
The relational database model is probably the most frequently used database model today. It has its strengths, but it doesn’t perform very well with complex queries and analysis of very large sets of data. As computers have grown more potent, resulting in the possibility to store very large data volumes, the need for efficient analysis and processing of such data sets has emerged. The concept of Online Analytical Processing (OLAP) was developed to meet this need. The main OLAP component is the data cube, which is a multidimensional database model that with various techniques has accomplished an incredible speed-up of analysing and processing large data sets. A concept that is advancing in modern computing industry is Business Intelligence (BI), which is fully dependent upon OLAP cubes. The term refers to a set of tools used for multidimensional data analysis, with the main purpose to facilitate decision making. This thesis looks into the concept of BI, focusing on the OLAP technology and date cubes. Two different approaches to cubes are examined and compared; Multidimensiona lOnline Analytical Processing (MOLAP) and Relational Online Analytical Processing (ROLAP). As a practical part of the thesis, a BI project was implemented for the consulting company Sogeti Sverige AB. The aim of the project was to implement a prototype for easy access to, and visualisation of their internal economical data. There was no easy way for the consultants to view their reported data, such as how many hours they have been working every week, so the prototype was intended to propose a possible method. Finally, a performance study was conducted, including a small scale experiment comparing the performance of ROLAP, MOLAP and querying against the data warehouse. The results of the experiment indicates that ROLAP is generally the better choice for data cubing.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Duch, Brown Amàlia. "Design and Analysis of Multidimensional Data Structures." Doctoral thesis, Universitat Politècnica de Catalunya, 2004. http://hdl.handle.net/10803/6647.

Texto completo
Resumen
Aquesta tesi està dedicada al disseny i a l'anàlisi d'estructures de dades multidimensionals, és a dir, estructures de dades que serveixen per emmagatzemar registres $K$-dimensionals que solen representar-se com a punts en l'espai $[0,1]^K$. Aquestes estructures tenen aplicacions en diverses àrees de la informàtica com poden ser els sistemes d'informació geogràfica, la robòtica, el processament d'imatges, la world wide web, el data mining, entre d'altres. <br/><br/>Les estructures de dades multidimensionals també es poden utilitzar com a indexos d'estructures de dades que emmagatzemen, possiblement en memòria externa, dades més complexes que els punts.<br/><br/>Les estructures de dades multidimensionals han d'oferir la possibilitat de realitzar operacions d'inserció i esborrat de claus dinàmicament, a més de permetre realitzar cerques anomenades associatives. Exemples d'aquest tipus de cerques són les cerques per rangs ortogonals (quins punts cauen dintre d'un hiper-rectangle donat?) i les cerques del veí més proper (quin és el punt més proper a un punt donat?).<br/><br/>Podem dividir les contribucions d'aquesta tesi en dues parts: <br/><br/>La primera part està relacionada amb el disseny d'estructures de dades per a punts multidimensionals. Inclou el disseny d'arbres binaris $K$-dimensionals al·leatoritzats (Randomized $K$-d trees), el d'arbres quaternaris al·leatoritzats (Randomized quad trees) i el d'arbres multidimensionals amb punters de referència (Fingered multidimensional trees).<br/><br/>La segona part analitza el comportament de les estructures de dades multidimensionals. En particular, s'analitza el cost mitjà de les cerques parcials en arbres $K$-dimensionals relaxats, i el de les cerques per rang en diverses estructures de dades multidimensionals.<br/><br/> Respecte al disseny d'estructures de dades multidimensionals, proposem algorismes al·leatoritzats d'inserció i esborrat de registres per als arbres $K$-dimensionals i per als arbres quaternaris. Aquests algorismes produeixen arbres aleatoris, independentment de l'ordre d'inserció dels registres i desprès de qualsevol seqüència d'insercions i esborrats. De fet, el comportament esperat de les estructures produïdes mitjançant els algorismes al·leatoritzats és independent de la distribució de les dades d'entrada, tot i conservant la simplicitat i la flexibilitat dels arbres $K$-dimensionals i quaternaris estàndard. Introduïm també els arbres multidimensionals amb punters de referència. Això permet que les estructures multidimensionals puguin aprofitar l'anomenada localitat de referència en cerques associatives altament correlacionades.<br/><br/>I respecte de l'anàlisi d'estructures de dades multidimensionals, primer analitzem el cost esperat de las cerques parcials en els arbres $K$-dimensionals relaxats. Seguidament utilitzem aquest resultat com a base per a l'anàlisi de les cerques per rangs ortogonals, juntament amb arguments combinatoris i geomètrics. D'aquesta manera obtenim un estimat asimptòtic precís del cost de les cerques per rangs ortogonals en els arbres $K$-dimensionals aleatoris. Finalment, mostrem que les tècniques utilitzades es poden estendre fàcilment a d'altres estructures de dades i per tant proporcionem una anàlisi exacta del cost mitjà de cerques per rang en estructures de dades com són els arbres $K$-dimensionals estàndard, els arbres quaternaris, els tries quaternaris i els tries $K$-dimensionals.<br>Esta tesis está dedicada al diseño y al análisis de estructuras de datos multidimensionales; es decir, estructuras de datos específicas para almacenar registros $K$-dimensionales que suelen representarse como puntos en el espacio $[0,1]^K$. Estas estructuras de datos tienen aplicaciones en diversas áreas de la informática como son: los sistemas de información geográfica, la robótica, el procesamiento de imágenes, la world wide web o data mining, entre otras.<br/><br/>Las estructuras de datos multidimensionales suelen utilizarse también como índices de estructuras que almacenan, posiblemente en memoria externa, datos complejos.<br/><br/>Las estructuras de datos multidimensionales deben ofrecer la posibilidad de realizar operaciones de inserción y borrado de llaves de manera dinámica, pero además deben permitir realizar búsquedas asociativas en los registros almacenados. Ejemplos de búsquedas asociativas son las búsquedas por rangos ortogonales (¿qué puntos de la estructura de datos están dentro de un hiper-rectángulo dado?) y las búsquedas del vecino más cercano (¿cuál es el punto de la estructura de datos más cercano a un punto dado?).<br/><br/>Las contribuciones de esta tesis se dividen en dos partes:<br/><br/>La primera parte está dedicada al diseño de estructuras de datos para puntos multidimensionales, que incluye el diseño de los árboles binarios $K$-dimensionales aleatorios (Randomized $K$-d trees), el de los árboles cuaternarios aleatorios (Randomized quad trees), y el de los árboles multidimensionales con punteros de referencia (Fingered multidimensional trees).<br/>La segunda parte contiene contribuciones al análisis del comportamiento de las estructuras de datos para puntos multidimensionales. En particular, damos el análisis del costo promedio de las búsquedas parciales en los árboles $K$-dimensionales relajados y el de las búsquedas por rango en varias estructuras de datos multidimensionales.<br/><br/><br/>Con respecto al diseño de estructuras de datos multidimensionales, proponemos algoritmos aleatorios de inserción y borrado de registros para los árboles $K$-dimensionales y los árboles cuaternarios que producen árboles aleatorios independientemente del orden de inserción de los registros y después de cualquier secuencia de inserciones y borrados intercalados. De hecho, con la aleatorización garantizamos un buen rendimiento esperado de las estructuras de datos resultantes, que es independiente de la distribución de los datos de entrada, conservando la flexibilidad y la simplicidad de los árboles $K$-dimensionales y de los árboles cuaternarios estándar. También proponemos los árboles multidimensionales con punteros de referencia, una técnica que permite que las estructuras de datos multidimensionales exploten la localidad de referencia en búsquedas asociativas que se presentan altamente correlacionadas.<br/><br/>Con respecto al análisis de estructuras de datos multidimensionales, comenzamos dando un análisis preciso del costo esperado de las búsquedas parciales en los árboles $K$-dimensionales relajados. A continuación, utilizamos este resultado como base para el análisis de las búsquedas por rangos ortogonales, combinándolo con argumentos combinatorios y geométricos. Como resultado obtenemos un estimado asintótico preciso del costo de las búsquedas por rango en los árboles $K$-dimensionales relajados. Finalmente, mostramos que las técnicas utilizadas pueden extenderse fácilmente a otras estructuras de datos y por tanto proporcionamos un análisis preciso del costo promedio de búsquedas por rango en estructuras de datos como los árboles $K$-dimensionales estándar, los árboles cuaternarios, los tries cuaternarios y los tries $K$-dimensionales.<br>This thesis is about the design and analysis of point multidimensional data structures: data structures that store $K$-dimensional keys which we may abstract as points in $[0,1]^K$. These data structures are present in many applications of geographical information systems, image processing or robotics, among others. They are also frequently used as indexes of more complex data structures, possibly stored in external memory.<br/><br/>Point multidimensional data structures must have capabilities such as insertion, deletion and (exact) search of items, but in addition they must support the so called {em associative queries}. Examples of these queries are orthogonal range queries (which are the items that fall inside a given hyper-rectangle?) and nearest neighbour queries (which is the closest item to some given point?).<br/><br/>The contributions of this thesis are two-fold:<br/><br/>Contributions to the design of point multidimensional data structures: the design of randomized $K$-d trees, the design of randomized quad trees and the design of fingered multidimensional search trees;<br/>Contributions to the analysis of the performance of point multidimensional data structures: the average-case analysis of partial match queries in relaxed $K$-d trees and the average-case analysis of orthogonal range queries in various multidimensional data structures.<br/><br/><br/>Concerning the design of randomized point multidimensional data structures, we propose randomized insertion and deletion algorithms for $K$-d trees and quad trees that produce random $K$-d trees and quad trees independently of the order in which items are inserted into them and after any sequence of interleaved insertions and deletions. The use of randomization provides expected performance guarantees, irrespective of any assumption on the data distribution, while retaining the simplicity and flexibility of standard $K$-d trees and quad trees.<br/><br/>Also related to the design of point multidimensional data structures is the proposal of fingered multidimensional search trees, a new technique that enhances point multidimensional data structures to exploit locality of reference in associative queries.<br/><br/>With regards to performance analysis, we start by giving a precise analysis of the cost of partial matches in randomized $K$-d trees. We use these results as a building block in our analysis of orthogonal range queries, together with combinatorial and geometric arguments and we provide a tight asymptotic estimate of the cost of orthogonal range search in randomized $K$-d trees. We finally show that the techniques used apply easily to other data structures, so we can provide an analysis of the average cost of orthogonal range search in other data structures such as standard $K$-d trees, quad trees, quad tries, and $K$-d tries.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Schroeder, Michael Philipp 1986. "Analysis and visualization of multidimensional cancer genomics data." Doctoral thesis, Universitat Pompeu Fabra, 2014. http://hdl.handle.net/10803/301436.

Texto completo
Resumen
Cancer is a complex disease caused by somatic alterations of the genome and epigenome in tumor cells. Increased investments and cheaper access to various technologies have built momentum for the generation of cancer genomics data. The availability of such large datasets offers many new possibilities to gain insight into cancer molecular properties. Within this scope I present two methods that exploit the broad availability of cancer genomic data: OncodriveROLE, an approach to classify mutational cancer driver genes into activating and loss of function mode of actions and MutEx, a statistical measure to assess the trend of the somatic alterations in a set of genes to be mutually exclusive across tumor samples. Nevertheless, the unprecedented dimension of the available data raises new complications for its accessibility and exploration which we try to solve with new visualization solutions: i) Gitools interactive heatmaps with prepared large scale cancer genomics datasets ready to be explored, ii) jHeatmap, an interactive heatmap browser for the web capable of displaying multidimensional cancer genomics data and designed for its inclusion into web portals, and iii) SVGMap, a web server to project data onto customized SVG figures useful for mapping experimental measurements onto the model.<br>El cancer és una malaltia complexa causada per alteracions somàtiques del genoma i epigenoma de les cèl•lules tumorals. Un augment d’inversions i l'accés a tecnologies de baix cost ha provocat un increment important en la generació de dades genòmiques de càncer. La disponibilitat d’aquestes dades ofereix noves possibilitats per entendre millor les propietats moleculars del càncer. En aquest àmbit, presento dos mètodes que aprofiten aquesta gran disponibilitat de dades genòmiques de càncer: OncodriveROLE, un procediment per a classificar gens “drivers” del càncer segons si el seu mode d’acció ésl'activació o la pèrdua de funció del producte gènic; i MutEx, un estadístic per a mesurar la tendència de les mutacions somàtiques a l’exclusió mútua. Tanmateix, la manca de precedents d’aquesta gran dimensió de dades fa sorgir nous problemes en quant a la seva accessibilitat i exploració, els quals intentem solventar amb noves eines de visualització: i) Heatmaps interactius de Gitools amb dades genòmiques de càncer a gran escala, a punt per ser explorades, ii) jHeatmap, un heatmap interactiu per la web capaç de mostrar dades genòmiques de cancer multidimensionals i dissenyat per la seva inclusió a portals web; i iii) SVGMap, un servidor web per traslladar dades en figures SVG customitzades, útil per a la transl•lació de mesures experimentals en un model visual.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Nam, Beomseok. "Distributed multidimensional indexing for scientific data analysis applications." College Park, Md. : University of Maryland, 2007. http://hdl.handle.net/1903/6795.

Texto completo
Resumen
Thesis (Ph. D.) -- University of Maryland, College Park, 2007.<br>Thesis research directed by: Computer Science. Title from t.p. of PDF. Includes bibliographical references. Published by UMI Dissertation Services, Ann Arbor, Mich. Also available in paper.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Palmas, Gregorio. "Visual Analysis of Multidimensional Data for Biomechanics and HCI." Doctoral thesis, KTH, Beräkningsvetenskap och beräkningsteknik (CST), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-193713.

Texto completo
Resumen
Multidimensional analysis is performed in many scientific fields.Its main tasks involve the identification of correlations between data dimensions,the investigation of data clusters, and the identification of outliers. Visualization techniques often help in getting a better understanding. In this thesis, we present our work on improving visual multidimensional analysis by exploiting the semantics of the data and enhancing the perception of existing visualizations. Firstly, we exploit the semantics of the data by creating new visualizations which present visual encodings specifically tailoredto the analyzed dimensions. We consider the resulting visual analysis to be more intuitive for the user asit provides a more easily understandable idea of the data. In this thesis we concentrate on the visual analysis of multidimensional biomechanical data for Human-Computer Interaction (HCI).To this end, we present new visualizations tackling the specific features of different aspectsof biomechanical data such as movement ergonomics, leading to a more intuitive analysis. Moreover, by integrating drawings or sketches of the physical setup of a case study as new visualizations, we allow for a fast and effective case-specific analysis. The creation of additional visualizations for communicating trends of clusters of movements enables a cluster-specific analysis which improves our understanding of postures and muscular co-activation.Moreover, we create a new visualization which addresses the specificity of the multidimensional data related to permutation-based optimization problems. Each permutation of a given set of n elements represents a point defined in an n-dimensional space. Our method approximates the topologyof the problem-related optimization landscape inferring the minima basins and their properties and visualizing them organized in a quasi-landscape. We show the variability of the solutions in a basin using heat maps generated from permutation matrices.Furthermore, we continue improving our visual multidimensional analysis by enhancing the perceptual encoding of existing well-known multidimensional visualizations. We focus on Parallel Coordinates Plots (PCP) and its derivative Continuous Parallel Coordinates (CPC). The main perceptual issues of PCP are visual clutter and overplotting which hamper the recognition of patterns in large data sets. In this thesis, we present an edge-bundling method for PCP which uses density-based clustering for each dimension. This reduces clutter and provides a faster overview of clusters and trends. Moreover, it allows for a fast rendering of the clustered lines using polygons. Furthermore, we present the first bundling approach for Continuous Parallel Coordinates where classic edge-bundling fails due to the absence of lines. Our method performs a deformation of the visualization space of CPC leading to similar results as those obtained through classic edge-bundling.Our work involved 10 HCI case studies and helped to establisha new research methodology in this field. This led to publications in internationally peer-reviewed journals and conference proceedings.<br><p>QC 20161011</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Odondi, Maurice Jacob. "Multidimensional analysis of successive categories (rating) data by dual scaling." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ28031.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Weherage, Pradeep Peiris. "BigDataCube: Distributed Multidimensional Data Cube Over Apache Spark : An OLAP framework that brings Multidimensional Data Analysis to modern Distributed Storage Systems." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-215696.

Texto completo
Resumen
Multidimensional Data Analysis is an important subdivision of Data Analytic paradigm. Data Cube provides the base abstraction for Multidimensional Data Analysis and helps in discovering useful insights of a dataset. On-Line Analytical Processing (OLAP) enhanced it to the next level supporting online responses to analytical queries with the underlying technique that precomputes (materializes) the data cubes. Data Cube Materialization is significant for OLAP, but it is an expensive task in term of data processing and storage. Most of the early decision support system benefits the value of multidimensional data analysis with a standard data architecture that extract, transform and load data from multiple data sources into a centralized database called Data Warehouse, on which OLAP engines provides the data cube abstraction. But this architecture and traditional OLAP engines do not hold with modern intensive datasets. Today, we have distributed data storage systems that keep data on a cluster of computer nodes, in which distributed data processing engines like MapReduce, Spark, Storm, etc. provide more ad-hoc style data analytical capabilities. Yet, there is no proper distributed system approach available for multidimensional data analysis, nor any distributed OLAP engine is available that follows distributed data cube materialization. It is essential to have a proper Distributed Data Cube Materialization mechanism to support multidimensional data analysis over the present distributed storage systems. Various research work available today which considered MapReduce for data cube materialization. Also, Apache Spark recently enabled CUBE operator as part of their DataFrame API. The thesis raises the problem statement, the best-distributed system approach for Data Cube Materialization, MapReduce or Spark? and contributes with experiments that compare the two distributed systems in materializing data cubes over the number of records, dimensions and cluster size. The results confirm Spark is more scalable and efficient in data cube materialization than MapReduce. The thesis further contributed with a novel framework, BigDataCube, which uses Spark DataFrames underneath for materializing data cubes and fulfills the need of multidimensional data analysis for modern distributed storage systems.<br>Multidimensional Data Analysis är en viktig del av Data Analytic paradigm. Data Cube tillhandahåller den grundläggade abstraktionen för Multidimensional Data Analysis och hjälper till att hitta användningsbara observationer av ett dataset. OnLine Analytical Processing (OLAP) lyfter det till nästa nivå och stödjer resultat från analytiska frågor i realtid med en underliggande teknik som materliserar Data Cubes. Data Cube Materialization är signifikant för OLAP, men är en kostsam uppgift vad gäller processa och lagra datat.De flesta av tidiga beslutssystem uppfyller Multidimensional Data Analysis med en standarddataarkitektur som extraherar, transformerar och läser data från flera datakällor in I en central databas, s.k. Data Warehouse, som exekveras av OLAP och tillhandahåller en Data Cube-abstraktion. Men denna arkitektur och tradionella OLAP-motorer klarar inte att hantera moderna högbelastade datasets. Idag har vi system med distribuerad datalagring, som har data på ett kluster av datornoder, med distribuerade dataprocesser, så som MapReduce, Spark, Storm etc. Dessa tillåter en mer ad-hoc dataanalysfunktionalitet. Än så länge så finns det ingen korrekt angreppsätt tillgänlig för Multidimensional Data Analysis eller någon distribuerad OLAP-motor som följer Distributed Data Cube Materialization.Det är viktigt att ha en korrekt Distributed Data Cube Materializationmekanism för att stödja Multidimensional Data Analysis för dagens distribuerade lagringssystem. Det finns många forskningarar idag som tittar på MapReduce för Data Cube Materialization. Nyligen har även Apache Spark tillgänglitgjort CUBE-operationer som en del av deras DataFrame API. Detta examensarbete tar upp frågeställningen, vilket som är det bästa angrepssättet för distribuerade system för Data Cube Materialization, MapReduce eller Spark. Arbetet bidrar dessutom med experiment som jämför de två distribuerade systemen i materialiserande datakubar över antalet poster, dimensioner och klusterstorlek. Examensarbetet bidrar även med ett mindre ramverk BigDataCube, som använder Spark DataFramesi bakgrunden för Data Cube Materialization och uppfyller behovet av Multidimensional Data Analysis av distribuerade lagringssystem.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Jernberg, Robert, and Tobias Hultgren. "Flexible Data Extraction for Analysis using Multidimensional Databases and OLAP Cubes." Thesis, KTH, Data- och elektroteknik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-123393.

Texto completo
Resumen
Bright is a company that provides customer and employee satisfaction surveys, and uses this information to provide feedback to their customers. Data from the surveys are stored in a relational database and information is generated both by directly querying the database as well as doing analysis on extracted data. As the amount of data grows, generating this information takes increasingly more time. Extracting the data requires significant manual work and is in practice avoided. As this is not an uncommon issue, there is a substantial theoretical framework around the area. The aim of this degree project is to explore the different methods for achieving flexible and efficient data analysis on large amounts of data. This was implemented using a multidimensional database designed for analysis as well as an OnLine Analytical Processing (OLAP) cube built using Microsoft's SQL Server Analysis Services (SSAS). The cube was designed with the possibility to extract data on an individual level through PivotTables in Excel. The implemented prototype was analyzed, showing that the prototype consistently delivers correct results severalfold as efficient as the current solution as well as making new types of analysis possible and convenient. It is concluded that the use of an OLAP cube was a good choice for the issue at hand, and that the use of SSAS provided the necessary features for a functional prototype. Finally, recommendations on possible further developments were discussed.<br>Bright är ett företag som tillhandahåller undersökningar för kund- och medarbetarnöjdhet, och använder den informationen för att ge återkoppling till sina kunder. Data från undersökningarna sparas i en relationsdatabas och information genereras både genom att direkt fråga databasen såväl som att göra manuell analys på extraherad data. När mängden data ökar så ökar även tiden som krävs för att generera informationen. För att extrahera data krävs en betydande mängd manuellt arbete och i praktiken undviks det. Då detta inte är ett ovanligt problem finns det ett gediget teoretiskt ramverk kring området. Målet med detta examensarbete är att utforska de olika metoderna för att uppnå flexibel och effektiv dataanalys på stora mängder data. Det implementerades genom att använda en multidimensionell databas designad för analys samt en OnLine Analytical Processing (OLAP)-kub byggd med Microsoft SQL Server Analysis Services (SSAS). Kuben designades med möjligheten att extrahera data på en individuell nivå med PivotTables i Excel. Den implementerade prototypen analyserades vilket visade att prototypen konsekvent levererar korrekta resultat flerfaldigt så effektivt som den nuvarande lösningen såväl som att göra nya typer av analys möjliga och lättanvända. Slutsatsen dras att användandet av en OLAP-kub var ett bra val för det aktuella problemet, samt att valet att använda SSAS tillhandahöll de nödvändiga funktionaliteterna för en funktionell prototyp. Slutligen diskuterades rekommendationer av möjliga framtida utvecklingar.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Johnson, Kevin J. "Strategies for chemometric analysis of gas chromatographic data /." Thesis, Connect to this title online; UW restricted, 2003. http://hdl.handle.net/1773/8513.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía