Thèses sur le sujet « Discovery from data »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Discovery from data ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.
Höppner, Frank. « Knowledge discovery from sequential data ». [S.l. : s.n.], 2003. http://deposit.ddb.de/cgi-bin/dokserv?idn=96728421X.
Texte intégralCao, Huiping. « Pattern discovery from spatiotemporal data ». Click to view the E-thesis via HKUTO, 2006. http://sunzi.lib.hku.hk/hkuto/record/B37381520.
Texte intégralCao, Huiping, et 曹會萍. « Pattern discovery from spatiotemporal data ». Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2006. http://hub.hku.hk/bib/B37381520.
Texte intégralChau, Tom. « Event level pattern discovery in multivariate continuous data ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape15/PQDD_0003/NQ30594.pdf.
Texte intégralEl, Sayed Ahmed. « Contributions in knowledge discovery from textual data ». Lyon 2, 2008. http://theses.univ-lyon2.fr/documents/lyon2/2008/el-sayed_a.
Texte intégralCette thèse se focalise sur deux problématiques clés liées à la fouille de texte, à savoir : la classification et l'acquisition des connaissances. En dépit de leur relative maturité, ces deux problématiques présentent encore certains défis majeurs qui doivent être soulevés. En premier lieu, pour la classification, un défi bien connu et non résolu consiste à effectuer des classifications avec un minimum de paramètres en entrée. Une façon naturelle de parvenir à cette fin, est d'utiliser les indices de validité dans le processus de classification. Bien qu'ils soient d'un grand intérêt, les indices de validité n'ont pas été largement explorés dans la littérature, en particulier lorsqu'il s'agit de données de grande dimension, comme c'est le cas des données textuelles. Ainsi, concernant ce volet, nous proposons trois principales contributions : (1) une large étude expérimentale comparant huit indices de validité, (2) une méthode basée sur le contexte améliorant l'utilisation des indices de validité en tant que critère d'arrêt, (3) I-CBC, une version incrémentale de l'algorithme flou CBC (classification par comités). Ces contributions ont été validées sur deux applications du monde réel : la classification de documents et de mots. En deuxième lieu, pour l’acquisition des connaissances, nous nous sommes intéressés à des problématiques importantes liées à la construction d’ontologies à partir de texte : le faible rappel des approches basées sur les patrons, la faible précision de l’approche distributionnelle, la dépendance au contexte et l’évolution des ontologies. Nous proposons ainsi, un nouveau cadre pour l’apprentissage d’ontologies à partir du texte. Notre proposition est une approche hybride qui combine les avantages suivants par rapport aux autres approches : (1) la capacité de capturer avec plus de flexibilité des relations dans le texte, (2) des concepts qui traduisent mieux le contexte du corpus considéré, (3) des décisions plus fiables prises durant le processus d’apprentissage à travers la considération et l’inclusion de plusieurs relations sémantiques, et, enfin, (4) l’évolution de l’ontologie apprise sans aucun effort manuel considérable, après son inclusion au coeurd’un système de recherche d’information
El, Sayed Ahmed Zighed Djamel Abdelkader. « Contributions in knowledge discovery from textual data ». Lyon : Université Lumière Lyon 2, 2008. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2008/el-sayed_a.
Texte intégralWang, Yang. « High-order pattern discovery and analysis of discrete-valued data sets ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq22245.pdf.
Texte intégralAmado, Vanessa. « Knowledge discovery and data mining from freeway section traffic data ». Diss., Columbia, Mo. : University of Missouri-Columbia, 2008. http://hdl.handle.net/10355/5591.
Texte intégralThe entire dissertation/thesis text is included in the research.pdf file; the official abstract appears in the short.pdf file (which also appears in the research.pdf); a non-technical general description, or public abstract, appears in the public.pdf file. Title from title screen of research.pdf file (viewed on June 8, 2009) Vita. Includes bibliographical references.
PaÌirceÌir, RoÌnaÌn. « Knowledge discovery from distributed aggregate data in data warehouses and statistical databases ». Thesis, University of Ulster, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.274398.
Texte intégralCaruccio, Loredana. « Relaxed functional dependencies : definition, discovery and applications ». Doctoral thesis, Universita degli studi di Salerno, 2018. http://hdl.handle.net/10556/3051.
Texte intégralFunctional dependencies (FDs) were conceived in the early '70s, and were mainly used to verify database design and assess data quality. However, to solve several issues in emerging application domains, such as the identification of data inconsistencies, patterns of semantically related data, query rewriting, and so forth, it has been necessary to extend the FD definition... [edited by author]
XVI n.s.
Sun, Feng-Tso. « Nonparametric Discovery of Human Behavior Patterns from Multimodal Data ». Research Showcase @ CMU, 2014. http://repository.cmu.edu/dissertations/359.
Texte intégralMinnen, David. « Unsupervised discovery of activity primitives from multivariate sensor data ». Diss., Atlanta, Ga. : Georgia Institute of Technology, 2008. http://hdl.handle.net/1853/24623.
Texte intégralCommittee Chair: Thad Starner; Committee Member: Aaron Bobick; Committee Member: Bernt Schiele; Committee Member: Charles Isbell; Committee Member: Irfan Essa
Liang, Huishi. « Knowledge Discovery from Smart Meter Data and Its Applications ». Thesis, The University of Sydney, 2021. https://hdl.handle.net/2123/25982.
Texte intégralBabbar, Sakshi. « Inferring Anomalies from Data using Bayesian Networks ». Thesis, The University of Sydney, 2013. http://hdl.handle.net/2123/9371.
Texte intégralDurbha, Surya Srinivas. « Semantics-enabled framework for knowledge discovery from Earth observation data ». Diss., Mississippi State : Mississippi State University, 2006. http://sun.library.msstate.edu/ETD-db/ETD-browse/browse.
Texte intégralNagao, Katashi, Katsuhiko Kaji et Toshiyuki Shimizu. « Discussion Mining : Knowledge Discovery from Data on the Real World Activities ». INTELLIGENT MEDIA INTEGRATION NAGOYA UNIVERSITY / COE, 2004. http://hdl.handle.net/2237/10350.
Texte intégralSalviato, Elisa. « Computational methods for the discovery of molecular signatures from Omics Data ». Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3421961.
Texte intégralI biomarcatori molecolari, ottenuti attraverso l'utilizzo di piattaforme high-throughput sequencing, costituiscono le basi della medicina personalizzata di nuova generazione. Nonostante un decennio di sforzi e di investimenti, il numero di biomarcatori validi a livello clinico rimane modesto. La natura di "big-data" dei dati omici infatti ha introdotto nuove sfide che richiedono un miglioramento sia degli strumenti di analisi che di quelli di esplorazione dei risultati. In questa tesi vengono proposti due temi centrali, entrambi volti al miglioramento delle metodologie statistiche e computazionali nell'ambito dell'individuazione di firme molecolari. Il primo lavoro si sviluppa attorno all'identificazione di miRNA su siero in pazienti affetti da carcinoma ovarico impiegabili a livello diagnostico. In particolare si propongono delle linee guida per il processo di analisi e una normalizzazione ad-hoc per dati di microarray da utilizzarsi nel contesto di molecole circolanti. Nel secondo lavoro si presenta un nuovo approccio basato sui modelli grafici Gaussiani per l'identificazione di firme molecolari funzionali. Il metodo proposto è in grado di esplorare le informazioni contenute nei pathway biologici e di evidenziare la potenziale origine del comportamento differenziale tra due condizioni sperimentali.
Cece, Esra Nurten 1984. « Metabolite identification in drug discovery : from data to information and from information to knowledge ». Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/403648.
Texte intégralLos estudios de metabolismo de fármacos ofrecen la oportunidad de mejorar las propiedades metabólicas de nuevos fármacos. Los objetivos generales de los estudios de metabolismo de fármacos son: (1.) optimizar las propiedades farmacocinéticas de los fármacos candidatos, (2.) caracterizar la contribución de las enzimas polimórficas a la elimicación y (3.) apoyar la selección de fármacos seguros con respecto a los potenciales bioactivación. El objetivo final en los ensayos de metabolismo de fármacos es traducir los datos analíticos para construir conocimiento final. Mediante la aportación de esta traducción, los científicos que trabajan en metabolismo pueden racionalizar cómo las estructuras de los nuevos compuestos de fármacos podrían ser cambiadas y cómo las vías metabólicas podrían ser mejor entendidaa. Las técnicas analíticas, como la espectrometría de masas de alta resolución (HRMS), han progresado y ahora es posible generar grandes volúmenes de datos a través de ensayos masivos (HTS) en laboratorios de metabolismo de fármacos. Sin embargo, la transformación de estos datos a información y la información a conocimiento es insuficiente. Es necesario un estudio en profundidad de los datos para ayudar a la generación de resultados de alta calidad que sean consistentes con los experimentos. Para este propósito, las soluciones innovadoras de software pueden ser utilizados con el objetivo de procesar los datos analíticos. A este respecto, mediante la aplicación de datos estandarizados y totalmente automatizados herramientas de evaluación, es posible (1.) permitir el análisis de datos completos, (2.) acelerar el manejo de información basada en la estructura, (3.) eliminar el error humano y finalmente (4.) mejorar las características químicas de las moléculas en términos de sus propiedades metabólicas. La investigación de esta tesis tuvo el objetivo que utilizar una novedoso y automatizado “sistema de trabajo” dentro HRMS para identificar los metabolitos de compuestos así como sus estructuras. Los resultados finales se confirmaron que se pueden utilizar herramientas de software para convertir los datos en información de HRMS, necesario para la construcción del conocimiento útil en el metabolismo de fármacos
Venkatasubramanian, Meenakshi. « De novo Population Discovery from Complex Biological Datasets ». University of Cincinnati / OhioLINK, 2019. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1563873297599047.
Texte intégralZhou, Mu. « Knowledge Discovery and Predictive Modeling from Brain Tumor MRIs ». Scholar Commons, 2015. http://scholarcommons.usf.edu/etd/5809.
Texte intégralLe, Van Quoc Anh [Verfasser], et Michael [Akademischer Betreuer] Gertz. « Pattern Discovery from Event Data / Anh Le Van Quoc ; Betreuer : Michael Gertz ». Heidelberg : Universitätsbibliothek Heidelberg, 2014. http://d-nb.info/1180032594/34.
Texte intégralKavasidis, Isaak. « Multifaceted analysis for medical data understanding : from data acquisition to multidimensional signal processing to knowledge discovery ». Doctoral thesis, Università di Catania, 2016. http://hdl.handle.net/10761/3925.
Texte intégralRadovanovic, Aleksandar. « Concept Based Knowledge Discovery from Biomedical Literature ». Thesis, Online access, 2009. http://etd.uwc.ac.za/usrfiles/modules/etd/docs/etd_gen8Srv25Nme4_9861_1272229462.pdf.
Texte intégralElsilä, U. (Ulla). « Knowledge discovery method for deriving conditional probabilities from large datasets ». Doctoral thesis, University of Oulu, 2007. http://urn.fi/urn:isbn:9789514286698.
Texte intégralHahn, Jasper. « From Discovery to Purchase : Improving the User Experience for Buyers in eCommerce ». Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-177473.
Texte intégralPiekenbrock, Matthew J. « Discovering Intrinsic Points of Interest from Spatial Trajectory Data Sources ». Wright State University / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=wright1527160689990512.
Texte intégralDeirmenci, Hazim. « Enabling Content Discovery in an IPTV System : Using Data from Online Social Networks ». Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-200922.
Texte intégralInternet Protocol television (IPTV) är ett sätt att leverera tv via Internet, vilket möjliggör tvåvägskommunikation mellan en operatör och dess användare. Genom att använda IPTV har användare friheten att välja vilket innehåll de vill konsumera och när de vill konsumera det. Användare har t.ex. möjlighet att titta på tv program efter att de har sänts på tv, och de kan komma åt innehåll som inte är en del av någon linjär tv-sändning, t.ex. filmer som är tillgängliga att hyra. Detta betyder att användare, genom att använda IPTV, kan få tillgång till mer videoinnhåll än vad som är möjligt med traditionella tv-distributionsformat. Att ha fler valmöjligheter innebär dock även att det blir svårare att bestämma sig för vad man ska titta på, och det är viktigt att IPTV-leverantörer underlättar processen att hitta intressant innehåll så att användarna finner värde i att använda deras tjänster. I detta exjobb undersökte författaren hur en användares sociala nätverk på Internet kan användas som grund för att underlätta upptäckandet av intressanta filmer i en IPTV miljö. Undersökningen bestod av två delar, en teoretisk och en praktisk. I den teoretiska delen genomfördes en litteraturstudie för att få kunskap om olika rekommendationssystemsstrategier. Utöver litteraturstudien identifierades ett antal sociala nätverk på Internet som studerades empiriskt för att få kunskap om vilken data som är möjlig att hämta in från dem och hur datan kan inhämtas. I den praktiska delen utformades och byggdes en prototyp av ett s.k. content discovery system (“system för att upptäcka innehåll”), som använde sig av den insamlade datan. Detta gjordes för att exponera svårigheter som finns med att implementera ett sådant system. Studien visar att, även om det är möjligt att samla in data från olika sociala nätverk på Internet så erbjuder inte alla data i en form som är lätt att använda i ett content discovery system. Av de undersökta sociala nätverkstjänsterna visade det sig att Facebook erbjuder data som är lättast att samla in och använda. Det största hindret, ur ett tekniskt perspektiv, visade sig vara matchningen av filmtitlar som inhämtats från den sociala nätverkstjänsten med filmtitlarna i IPTV-leverantörens databas; en anledning till detta är att filmer kan ha titlar på olika språk.
Bakhtyar, Shoaib. « A Knowledge Graph Approach Towards Hidden Patterns Discovery From Biomedical Publications ». Thesis, Luleå tekniska universitet, Institutionen för system- och rymdteknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-87267.
Texte intégralParvinzamir, Farzad. « A visual analytics approach for visualisation and knowledge discovery from time-varying personal life data ». Thesis, University of Bedfordshire, 2018. http://hdl.handle.net/10547/622697.
Texte intégralSmith, Tynan S. « Unsupervised discovery of human behavior and dialogue patterns in data from an online game ». Thesis, Massachusetts Institute of Technology, 2011. http://hdl.handle.net/1721.1/76999.
Texte intégralCataloged from PDF version of thesis.
Includes bibliographical references (p. 121-126).
A content authoring bottleneck in AI, coupled with improving technology, has lead to increasing efforts in using large datasets to power Al systems directly. This idea is being used to create Al agents in video games, using logs of human-played games as the dataset. This new approach to AI brings its own challenges, particularly the need to annotate the datasets used. This thesis explores annotating the behavior in human-played games automatically, namely: how can we generate a list of events, with examples, describing the behavior in thousands of games. First dialogue is clustered semantically to simplify the game logs. Next, sequential pattern mining is used to find action-dialogue sequences that correspond to higher-level events. Finally, these sequences are grouped according to their event. The system can not yet replace human annotation, but the results are promising and can already help to significantly reduce the amount of human effort needed.
by Tynan S. Smith.
M.Eng.
Iorio, Francesco. « Automatic discovery of drug mode of action and drug repositioning from gene expression data ». Doctoral thesis, Universita degli studi di Salerno, 2011. http://hdl.handle.net/10556/976.
Texte intégralThe identification of the molecular pathway that is targeted by a compound, combined with the dissection of the following reactions in the cellular environment, i.e. the drug mode of action, is a key challenge in biomedicine. Elucidation of drug mode of action has been attempted, in the past, with different approaches. Methods based only on transcriptional responses are those requiring the least amount of information and can be quickly applied to new compounds. On the other hand, they have met with limited success and, at the present, a general, robust and efficient gene-expression based method to study drugs in mammalian systems is still missing. We developed an efficient analysis framework to investigate the mode of action of drugs by using gene expression data only. Particularly, by using a large compendium of gene expression profiles following treatments with more than 1,000 compounds on different human cell lines, we were able to extract a synthetic consensual transcriptional response for each of the tested compounds. This was obtained by developing an original rank merging procedure. Then, we designed a novel similarity measure among the transcriptional responses to each drug, endingending up with a “drug similarity network”, where each drug is a node and edges represent significant similarities between drugs. By means of a novel hierarchical clustering algorithm, we then provided this network with a modular topology, contanining groups of highly interconnected nodes (i.e. network communities) whose exemplars form secondlevel modules (i.e. network rich-clubs), and so on. We showed that these topological modules are enriched for a given mode of action and that the hierarchy of the resulting final network reflects the different levels of similarities among the composing compound mode of actions. Most importantly, by integrating a novel drug X into this network (which can be done very quickly) the unknown mode of action can be inferred by studying the topology of the subnetwork surrounding X. Moreover, novel potential therapeutic applications can be assigned to safe and approved drugs, that are already present in the network, by studying their neighborhood (i.e. drug repositioning), hence in a very cheap, easy and fast way, without the need of additional experiments. By using this approach, we were able to correctly classify novel anti-cancer compounds; to predict and experimentally validate an unexpected similarity in the mode of action of CDK2 inhibitors and TopoIsomerase inhibitors and to predict that Fasudil, a known and FDA-approved cardiotonic agent, could be repositioned as novel enhancer of cellular autophagy. Due to the extremely safe profile of this drug and its potential ability to traverse the blood-brain barrier, this could have strong implications in the treatment of several human neurodegenerative disorders, such as Huntington and Parkinson diseases. [edited by author]
IX n.s.
De, Wilde Max. « From Information Extraction to Knowledge Discovery : Semantic Enrichment of Multilingual Content with Linked Open Data ». Doctoral thesis, Universite Libre de Bruxelles, 2015. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/218774.
Texte intégralDécouvrir de nouveaux savoirs dans du texte non-structuré n'est pas une tâche aisée. Les moteurs de recherche basés sur l'indexation complète des contenus montrent leur limites quand ils se voient confrontés à des textes de mauvaise qualité, ambigus et/ou multilingues. L'extraction d'information et d'autres techniques issues du traitement automatique des langues permettent de répondre partiellement à cette problématique, mais sans pour autant atteindre l'idéal d'une représentation adéquate de la connaissance. Dans cette thèse, nous défendons une approche générique qui se veut la plus indépendante possible des langues, domaines et types de contenus traités. Pour ce faire, nous proposons de désambiguïser les termes à l'aide d'identifiants issus de bases de connaissances du Web des données, facilitant ainsi l'enrichissement sémantique des contenus. La valeur ajoutée de cette approche est illustrée par une étude de cas basée sur une archive historique trilingue, en mettant un accent particulier sur les contraintes de qualité, de multilinguisme et d'évolution dans le temps. Un prototype d'outil est également développé sous le nom de Multilingual Entity/Resource Combiner & Knowledge eXtractor (MERCKX), démontrant ainsi le caractère généralisable de notre approche, dans un certaine mesure, à n'importe quelle langue, domaine ou type de contenu.
Doctorat en Information et communication
info:eu-repo/semantics/nonPublished
Wickramarathne, Thanuka Lakmal. « A Belief Theoretic Approach for Automated Collaborative Filtering ». Scholarly Repository, 2008. http://scholarlyrepository.miami.edu/oa_theses/182.
Texte intégralTomczak, Jakub. « Algorithms for knowledge discovery using relation identification methods ». Thesis, Blekinge Tekniska Högskola, Sektionen för datavetenskap och kommunikation, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-2563.
Texte intégralDouble Diploma Programme, polish supervisor: prof. Jerzy Świątek, Wrocław University of Technology
Trávníček, Petr. « Aplikace data miningu v podnikové praxi ». Master's thesis, Vysoká škola ekonomická v Praze, 2011. http://www.nusl.cz/ntk/nusl-164048.
Texte intégralTuovinen, L. (Lauri). « From machine learning to learning with machines:remodeling the knowledge discovery process ». Doctoral thesis, Oulun yliopisto, 2014. http://urn.fi/urn:isbn:9789526205243.
Texte intégralTiivistelmä Tiedonlouhintateknologialla etsitään automoidusti tietoa suurista määristä digitaalista dataa. Vakiintunut prosessimalli kuvaa tiedonlouhintaprosessia lineaarisesti ja teknologiakeskeisesti sarjana muunnoksia, jotka jalostavat raakadataa yhä abstraktimpiin ja tiivistetympiin esitysmuotoihin. Todellisissa tiedonlouhintaprosesseissa on kuitenkin aina osa-alueita, joita tällainen malli ei kata riittävän hyvin. Erityisesti on huomattava, että eräät prosessin tärkeimmistä toimijoista ovat ihmisiä, eivät teknologiaa, ja että heidän toimintansa prosessissa on luonteeltaan vuorovaikutteista eikä sarjallista. Tässä väitöskirjassa ehdotetaan vakiintuneen mallin täydentämistä siten, että tämä tiedonlouhintaprosessin laiminlyöty ulottuvuus otetaan huomioon. Ehdotettu prosessimalli koostuu kolmesta osamallista, jotka ovat tietomalli, työnkulkumalli ja arkkitehtuurimalli. Kukin osamalli tarkastelee tiedonlouhintaprosessia eri näkökulmasta: tietomallin näkökulma käsittää tiedon eri olomuodot sekä muunnokset olomuotojen välillä, työnkulkumalli kuvaa prosessin toimijat sekä niiden väliset vuorovaikutukset, ja arkkitehtuurimalli ohjaa prosessin suorittamista tukevien ohjelmistojen suunnittelua. Väitöskirjassa määritellään aluksi kullekin osamallille joukko vaatimuksia, minkä jälkeen esitetään vaatimusten täyttämiseksi suunniteltu ratkaisu. Lopuksi palataan tarkastelemaan vaatimuksia ja osoitetaan, kuinka ne on otettu ratkaisussa huomioon. Väitöskirjan pääasiallinen kontribuutio on se, että se avaa tiedonlouhintaprosessiin valtavirran käsityksiä laajemman tarkastelukulman. Väitöskirjan sisältämä täydennetty prosessimalli hyödyntää vakiintunutta mallia, mutta laajentaa sitä kokoamalla tiedonhallinnan ja tietämyksen esittämisen, tiedon louhinnan työnkulun sekä ohjelmistoarkkitehtuurin osatekijöiksi yhdistettyyn malliin. Lisäksi malli kattaa aiheita, joita tavallisesti ei oteta huomioon tai joiden ei katsota kuuluvan osaksi tiedonlouhintaprosessia; tällaisia ovat esimerkiksi tiedon louhintaan liittyvät filosofiset kysymykset. Väitöskirjassa käsitellään myös kahta ohjelmistokehystä ja neljää tapaustutkimuksena esiteltävää sovellusta, jotka edustavat teknisiä ratkaisuja eräisiin yksittäisiin tiedonlouhintaprosessin osaongelmiin. Kehykset ja sovellukset toteuttavat ja havainnollistavat useita ehdotetun prosessimallin merkittävimpiä ominaisuuksia
Maini, Vincenzo. « Price and liquidity discovery, jumps and co-jumps using high frequency data from the foreign exchange markets ». Thesis, City University London, 2012. http://openaccess.city.ac.uk/2382/.
Texte intégralSundaramurthy, Gopinath. « A Probabilistic Approach for Automated Discovery of Biomarkers using Expression Data from Microarray or RNA-Seq Datasets ». University of Cincinnati / OhioLINK, 2016. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1459528594.
Texte intégralPrichard, Paul Michael. « An investigation into the discovery potential for SUperSYmmetry at the LHC with early data from the ATLAS detector ». Thesis, University of Liverpool, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.533931.
Texte intégralRomero, Bustamante Elkin Giovanni. « Introducing the Water Data Explorer Web Application and Python Library : Uniform Means for Data Discovery and Access from CUAHSI and the WMO WHOS Systems ». BYU ScholarsArchive, 2021. https://scholarsarchive.byu.edu/etd/8915.
Texte intégralPettersson, Max, et Viktor Jansson. « Predicting rifle shooting accuracy from context and sensor data : A study of how to perform data mining and knowledge discovery in the target shooting domain ». Thesis, Tekniska Högskolan, Högskolan i Jönköping, JTH, Datateknik och informatik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-45396.
Texte intégralSeverini, Nicola. « Analysis, Development and Experimentation of a Cognitive Discovery Pipeline for the Generation of Insights from Informal Knowledge ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21013/.
Texte intégralSengstock, Christian [Verfasser], et Michael [Akademischer Betreuer] Gertz. « Geographic Feature Mining : Framework and Fundamental Tasks for Geographic Knowledge Discovery from User-generated Data / Christian Sengstock ; Betreuer : Michael Gertz ». Heidelberg : Universitätsbibliothek Heidelberg, 2015. http://d-nb.info/1180395662/34.
Texte intégralNettling, Arthur Martin [Verfasser]. « New approaches for de-novo motif discovery using phylogenetic footprinting : from data acquisition to motif visualization ; [kumulative Dissertation] / Arthur Martin Nettling ». Halle, 2017. http://d-nb.info/113307412X/34.
Texte intégralABATE, NICODEMO. « Towards an operational use of remote sensing data (satellite, drone, and ground) for Cultural Heritage : from discovery to documentation, monitoring, and valorisation ». Doctoral thesis, Università degli studi della Basilicata, 2022. http://hdl.handle.net/11563/158570.
Texte intégralFihn, John, et Johan Finndahl. « A Framework for How to Make Use of an Automatic Passenger Counting System ». Thesis, Uppsala universitet, Datorteknik, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-158139.
Texte intégralBeth, Madariaga Daniel Guillermo. « Identificación de las tendencias de reclamos presentes en reclamos.cl y que apunten contra instituciones de educación y organizaciones públicas ». Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/113396.
Texte intégralEn la siguiente memoria se busca corroborar, por medio de una experiencia práctica y aplicada, si a caso el uso de las técnicas de Web Opinion Mining (WOM) y de herramientas informáticas, permiten determinar las tendencias generales que pueden poseer un conjunto de opiniones presentes en la Web. Particularmente, los reclamos publicados en el sitio web Reclamos.cl, y que apuntan contra instituciones pertenecientes a las industrias nacionales de Educación y de Gobierno. En ese sentido, los consumidores cada vez están utilizando más la Web para publicar en ella las apreciaciones positivas y negativas que poseen sobre lo que adquieren en el mercado, situación que hace de esta una mina de oro para diversas instituciones, especialmente para lo que es el identificar las fortalezas y las debilidades de los productos y los servicios que ofrecen, su imagen pública, entre varios otros aspectos. Concretamente, el experimento se realiza a través de la confección y la ejecución de una aplicación informática que integra e implementa conceptos de WOM, tales como Knowledge Discovery from Data (KDD), a modo de marco metodológico para alcanzar el objetivo planteado, y Latent Dirichlet Allocation (LDA), para lo que es la detección de tópicos dentro de los contenidos de los reclamos abordados. También se hace uso de programación orientada a objetos, basada en el lenguaje Python, almacenamiento de datos en bases de datos relacionales, y se incorporan herramientas pre fabricadas con tal de simplificar la realización de ciertas tareas requeridas. La ejecución de la aplicación permitió descargar las páginas web en cuyo interior se encontraban los reclamos de interés para la realización experimento, detectando en ellas 6.460 de estos reclamos; los cueles estaban dirigidos hacia 245 instituciones, y cuya fecha de publicación fue entre el 13 de Julio de 2006 y el 5 de Diciembre de 2011. Así también, la aplicación, mediante el uso de listas de palabras a descartar y de herramientas de lematización, procesó los contenidos de los reclamos, dejando en ellos sólo las versiones canónicas de las palabras que los constituían y que aportasen significado a estos. Con ello, la aplicación llevó a cabo varios análisis LDA sobre estos contenidos, los que arbitrariamente se definieron para ser ejecutados por cada institución detectada, tanto sobre el conjunto total de sus reclamos, como en segmentos de estos agrupados por año de publicación, con tal de generar, por cada uno de estos análisis, resultados compuestos por 20 tópicos de 30 palabras cada uno. Con los resultados de los análisis LDA, y mediante una metodología de lectura e interpretación manual de las palabras que constituían cada uno de los conjuntos de tópicos obtenidos, se procedió a generar frases y oraciones que apuntasen a hilarlas, con tal de obtener una interpretación que reflejase la tendencia a la cual los reclamos, representados en estos resultados, apuntaban. De esto se pudo concluir que es posible detectar las tendencias generales de los reclamos mediante el uso de las técnicas de WOM, pero con observaciones al respecto, pues al surgir la determinación de las tendencias desde un proceso de interpretación manual, se pueden generar subjetividades en torno al objeto al que apuntan dichas tendencias, ya sea por los intereses, las experiencias, entre otros, que posea la persona que realice el ejercicio de interpretación de los resultados.
Lima, Junior José. « Descoberta de equivalência semântica entre atributos em bancos de dados utilizando redes neurais ». reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2004. http://hdl.handle.net/10183/12012.
Texte intégralWith the increasing number of companies using database technologies, the database’s administrators create new schemes at every moment, and in most cases there are no normalization or formal procedures to do this task in a homogeneous form, it results in incompatible databases, that difficult data exchange. When the Database Systems (DBS) are projected and implemented independently, it is normal that data incompatibilities among different DBS. Problems related to the names of the attributes, storage in different measurement units, different levels of detail, different attributes with the same name or equal attributes with different names, different type of data, size, precision, etc, can be cited as main conflicts existing in the DBS schemes. These problems compromise the quality information and generate higher costs regarding the data maintenance. These problems arise as the consequence of redundant attributes’ specification. These facts have caused great interest in discovering knowledge in database to identify information semantically equivalent stored in schemes. The process capable to discover this knowledge in database is called KDD (Knowledge Discovery in Database). The available tools to do KDD tasks are generic and derived from other areas of knowledge, in special, statistics and artificial intelligence. The artificial neural networks (ANN) have been used in systems which aim is the identification of previously unknown patterns. These networks can learn similarities among the data directly from instances, without a priori knowledge. An ANN that has been used with success to identify semantic equivalence is the Self-Organizing Map (SOM). This research aims to discover, in a semi-automatic way, semantic equivalence on database attributes, contributing for the management and integration of these databases. This work resulted in a systematic for the discovery process and a tool that implements it.
Kasík, Josef. « Empirické porovnání volně dostupných systémů dobývání znalostí z databází ». Master's thesis, Vysoká škola ekonomická v Praze, 2009. http://www.nusl.cz/ntk/nusl-10731.
Texte intégralKeedwell, Edward. « Knowledge discovery from gene expression data using neural-genetic models : a comparative study of four European countries with special attention to the education of these children ». Thesis, University of Exeter, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.288704.
Texte intégral