Дисертації з теми "Класифікації даних"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся з топ-21 дисертацій для дослідження на тему "Класифікації даних".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.
Охотний, С. М. "Логічні закономірності в задачах класифікації даних у технологіях комп’ютерного зору". Thesis, ЦНТУ, 2017. http://dspace.kntu.kr.ua/jspui/handle/123456789/7492.
Повний текст джерелаГалкін, Олександр Анатолійович. "Методика розширюваних гіперсфер на основі методу опорних векторів для задач класифікації даних". Дис. канд. фіз.-мат. наук, М-во освіти і науки України, Київ. нац. ун-т ім. Тараса Шевченка, 2013.
Знайти повний текст джерелаПовхан, Ігор Федорович. "Методи та принципи побудови дерев класифікації дискретних об’єктів для інтелектуального аналізу даних". Diss., Національний університет "Львівська політехніка", 2021. https://ena.lpnu.ua/handle/ntb/56709.
Повний текст джерелаАбдураімов, Таір Заірович. "Алгоритм глибинного аналізу даних для задачі класифікації на основі штучного бджолиного рою". Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/38328.
Повний текст джерелаActuality of theme. As the size of digital information grows exponentially, large amounts of raw data need to be extracted. To date, there are several methods to customize and process data according to our needs. The most common method is to use Data Mining. Data Mining is used to extract implicit, valid and potentially useful knowledge from large amounts of raw data. The knowledge gained must be accurate, readable and easy to understand. In addition, the data mining process is also called the knowledge discovery process, which has been used in most new interdisciplinary fields, such as databases, artificial intelligence statistics, visualization, parallel computing, and other fields. One of the new and extremely powerful algorithms used in Data Mining is evolutionary algorithms and swarm-based approaches, such as the ant algorithm and particle swarm optimization. In this paper, it is proposed to use a fairly new idea of the swarm of bee swarm algorithm for data mining for a widespread classification problem. Purpose: to develop an algorithm for data mining for the classification problem based on the swarm of bee swarms, which exceeds other common classifiers in terms of accuracy of results and consistency. The object of research is the process of data mining for the classification problem. The subject of the study is the use of a swarm of bee swarms for data mining. Research methods. Methods of parametric research of heuristic algorithms, and also methods of the comparative analysis for algorithms of data mining are used. The scientific novelty of the work is as follows: 1. As a result of the analysis of existing solutions for the classification problem, it is decided to use such metaheuristics as the swarm of bee swarm. 2. The implementation of the bee algorithm for data mining is proposed. The practical value of the results obtained in this work is that the developed algorithm can be used as a classifier for data mining. In addition, the proposed adaptation of the bee algorithm can be considered as a useful and accurate solution to such an important problem as the problem of data classification. Approbation of work. The main provisions and results of the work were presented and discussed at the scientific conference of undergraduates and graduate students "Applied Mathematics and Computing" PMK-2019 (Kyiv, 2019), as well as at the scientific conference of undergraduates and graduate students "Applied Mathematics and Computing" PMK-2020 (Kyiv, 2020). Structure and scope of work. The master's dissertation consists of an introduction, four chapters, conclusions and appendices. The introduction provides a general description of the work, assesses the current state of the problem, substantiates the relevance of research, formulates the purpose and objectives of research, shows the scientific novelty of the results and the practical value of the work, provides information on testing and implementation. The first section discusses the data mining algorithms used for the classification problem. The possibility of using heuristic algorithms, namely the bee swarm algorithm for this problem, is substantiated. The second section discusses in detail the algorithm of the bee swarm and the principles of its operation, also describes the proposed method of its application for data mining, namely for the classification problem. The third section describes the developed algorithm and the software application in which it is implemented. In the fourth section the estimation of efficiency of the offered algorithm, on the basis of testing of algorithm, and also the comparative analysis between the developed algorithm and already different is resulted. The conclusions present the results of the master's dissertation. The work is performed on 89 sheets, contains a link to the list of used literature sources with 18 titles. The paper presents 38 figures and 2 appendices.
Безменова, Ольга Миколаївна. "Про результати діагностування наявності захворювань з використанням алгоритмів класифікації на основі нечітких правил". Thesis, Національний технічний університет "Харківський політехнічний інститут", 2016. http://repository.kpi.kharkov.ua/handle/KhPI-Press/45814.
Повний текст джерелаДушутін, Владислав Володимирович. "Паралельний адаптивний вирішувач для лінійних систем на основі нейронної мережі". Master's thesis, Київ, 2018. https://ela.kpi.ua/handle/123456789/23556.
Повний текст джерелаNow one of the main stages in the study of objects, phenomena and processes of different nature is mathematical modeling and related computer experiment. Numerous experiments give an opportunity to plan a full-scale experiment, as well as to get new knowledge about those processes and phenomena for which it is difficult, or in general, impossible to carry out a full-scale experiment. A large number of mathematical models can be described by systems of linear algebraic equations (SLRs) with soldered matrices after performing the corresponding transformations. The main feature of such systems is their large orders and a small number of non-zero elements. Large orders of SLAR arise due to the fact that researchers want to get the most reliable results, which is why more detailed models are being built. The small number of non-zero elements is due to the discretization of the model. In particular, systems of equations with sparse matrices arise in problems of analysis of the strength of structures in civil and industrial construction, filtration, heat and mass transfer, and others like that. Scope of the methods of solving SLR with sparse matrices is constantly expanding. Because of this, there is an interest in the problem of constructing effective methods for solving such systems, whose orders exceed hundreds of thousands. Classical results concerning the development of methods for solving SLRR with rarefied matrices are covered in a series of monographs of American and domestic authors: A. George, J. Liu, S. Pisanetski, J. Golub, R. Tjurson, I. A. Blatova, ME Ekseryrovskaya and others. Also, the requirements for the computer technology used to conduct a computer experiment are growing. It must provide sufficient speed and have the required amount of resources so that the result of the experiment can be obtained over a relatively short period of time. Now in the market there are many different architectures of computers with parallel computing organization. The most productive are the platforms of the so-called "hybrid" architecture. These systems combine MIMD (multiple instructions - multiple data) and SIMD architecture (single instruction - multiple data), in particular, in a multi-core processor system, computations are accelerated by means of a graphical accelerator. Hence, one of the effective approaches to solving SLR with sparse matrices is the construction of parallel algorithms that take into account the peculiarities of computer architecture. The main problems of developing effective parallel algorithms are: analysis of the structure of the matrix, or bringing it to the corresponding form, using appropriate conversion algorithms; choice of effective data decomposition; determining the effective number of processor cores and graphic accelerators used for calculations; definition of the interprocess communication topology, which reduces the number of communications and synchronizations. It is precisely for analyzing the structure of a sparse matrix that a neural network is used which allows the selection of groups of non-zero elements that can be processed independently. The results of the analysis will be based on the decomposition of data and the number of computing cores to be selected, which will provide the shortest settlement time for a particular matrix structure. The purpose and objectives of the study. The purpose of the work is to develop and research parallel methods and computer algorithms for research and solving SLR with sparse matrices of irregular structure on computers of MIMD architecture and MIMD and SIMD architecture combinations, testing of algorithms in mathematical modeling in applied problems. The research tasks include: • development and research of iterative parallel algorithms for SLR with sparse matrices of irregular structure with approximate data; • development of algorithms and programs for investigating the validity of solutions obtained by direct and iterative methods; • Approbation of algorithms for mathematical modeling in applied problems. The object of the study is the mathematical models described by SLAR with sparse matrices of the irregular structure. The subject of the study is parallel methods and computer algorithms for locating the SLR solution with sparse matrices of the irregular structure. Research methods. The paper uses methods of matrix theory, linear algebra, graph theory, functional analysis, error theory, and the theory of neural networks.
Кириченко, І. О. "Інтелектуальна технологія детектування стану трубопроводів з аугментацією даних в режимі екзамену". Master's thesis, Сумський державний університет, 2021. https://essuir.sumdu.edu.ua/handle/123456789/86859.
Повний текст джерелаМельник, Каріна Володимирівна. "Особливості обробки даних для медичної експертної системи". Thesis, Національний технічний університет "Харківський політехнічний інститут", 2010. http://repository.kpi.kharkov.ua/handle/KhPI-Press/44685.
Повний текст джерелаКрамар, Іван Ігорович. "Кластеризація даних, що збираються з відібраних джерел науково-технічної інформації". Bachelor's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/36639.
Повний текст джерелаThe aim of the work is to use the clustering of scientific and technical data not only for the visual representation of objects, but also for the recognition of new ones. The purpose of document clustering is to automatically detect groups of semantically similar documents among a given fixed set. Groups are formed only on the basis of pairwise similarity of document descriptions, and no characteristics of these groups are set in advance. Methods for deleting uninformative words are considered: deletion of stop words, stemming, N-diagrams, case reduction. The following methods were used to highlight keywords and classify the results: dictionary, statistical and based on the Y-interpretation of Bradford's law, TF-IDF measure, F-measure and the method of licorice patterns. Python programming language was chosen to implement the system of cluster analysis of scientific and technical data, a high-level, the implementation of the interpreter 2.7. This program code is easier to read, its reuse and maintenance is much easier than using program code in other languages.
Целью работы является применение кластеризации научно-технических данных не только для наглядного представления объектов, но и для распознавания новых. Целью кластеризации документов является автоматическое выявление групп семантически похожих документов среди заданной фиксированной множества. Группы формируются только на основе попарно сходства описаний документов, и никакие характеристики этих групп не задаются заранее. Для удаления неинформативных слов рассмотрены методы: удаление стоп-слов, стемминг, N-диаграммы, приведение регистра. Для выделения ключевых слов и классификации результатов использованы следующие методы: словарный, статистический и построен на основе Y-интерпретации закона Брэдфорда, TF-IDF мера, F-мера и способ лакричным шаблонов. Для реализации системы кластерного анализа научно-технических данных избран высокоуровневый язык программирования Python, реализация интерпретатора 2.7. Данный программный код читается легче, его многократное использование и обслуживание выполняется гораздо проще, чем использование программного кода на других языках.
Кунцев, С. В. "Застосування системи data mining бібліотеки Xelopes для розв'язання задач класифікаці". Thesis, ІНЖЕК, 2012. http://essuir.sumdu.edu.ua/handle/123456789/63969.
Повний текст джерелаTo build a model based on the method of classification used software system Data Mining Library Xelopes. Solved two problems of classification. Completed application model for the new data. It is shown that the system is easy, it can be used to teach students techniques Data Mining, as well as for solving classification problems arising in the economy.
Федоров, Д. П. "Comparison of classifiers based on the decision tree." Thesis, ХНУРЕ, 2021. https://openarchive.nure.ua/handle/document/16430.
Повний текст джерелаКалайчев, Г. В. "Machine learning in classification tasks." Thesis, ХНУРЕ, 2021. https://openarchive.nure.ua/handle/document/16433.
Повний текст джерелаПозняк, Дар'я Ігорівна. "Система прогнозування інсульту на основі медичних даних пацієнтів". Bachelor's thesis, КПІ ім. Ігоря Сікорського, 2021. https://ela.kpi.ua/handle/123456789/45228.
Повний текст джерелаThesis: 94 p., 24 fig., 10 tabl., 2 appendices, 21 sources. Subject of research: stroke prediction algorithms based on statistical and structural models. Object of study: a set of patients` medical data from the Kaggle web platform. The purpose of the study: to analyze existing models of prognosis, to develop their own system for predicting stroke on the example of medical data of patients. Models used: gradient boosting model was used in the software implementation. The urgency of the work is due to trends in globalization and digitalization, which in turn lead to changes in the lifestyle of modern man, which necessitates the development of new methods for diagnosing diseases, as well as requires non-trivial solutions for storage and processing of medical data. Results obtained: A stroke prediction system has been developed that can classify the risk of stroke in a patient with acceptable accuracy. As part of the further research, it is proposed to increase the accuracy of the obtained models, taking into account more characteristics of the health status of patients that may be associated with the stroke disease.
Москаленко, Д. М. "Підсистема збору та визначення розподільчих рис даних соціальних мереж в системі виявлення кіберзагроз". Thesis, Чернігів, 2021. http://ir.stu.cn.ua/123456789/22463.
Повний текст джерелаМетою даної кваліфікаційної роботи є розробка підсистеми збору та визначення розподільчих рис даних соціальних мереж в системі виявлення кіберзагроз. Об'єктом дослідження є методи та моделі обробки природної мови за допомогою нейронних мереж. Предметом дослідження є методи та моделі збору та визначення особливостей розподілу даних соціальних мереж у системі виявлення кіберзагроз. В роботі проведено аналіз загроз в соціальних мережах спричинених небезпечними повідомленнями, а також аналіз задачі визначення емоційного тону текстових даних у соціальних мережах. Побудована архітектура та визначені методи та моделі обробки природньої мови та автоматизованої класифікації. В результаті чого була розроблена підсистема збору та визначення розподільчих рис даних соціальних мереж в системі виявлення кіберзагроз. Методи дослідження. В основі досліджень лежить архітектура системи збору даних з соціальної мережі Twitter яка використовує методи машинного навчання та штучного інтелекту для обробки та визначення розподільчих рис даних повідомлень користовачів [47]. Реалізація програмного забезпечення виконувалась з використанням мови програмування Python за підтримки бібліотеки програмного забезпечення з відкритим кодом для машинного навчання TensorFlow та Keras. Результати представлені у вигляді таблиць та ілюстрацій, що демонструють правильність вибору методів збору та визначення розподільчих рис даних соціальних мереж в системі виявлення кіберзагроз на прикладі класифікації повідомлень. Результати роботи можуть бути використані для подальшої розробки системи пошуку наприклад загроз від онлайн хижаків, користувачів які попагандують ідеї тероризму чи екстремізму у соціальних мережах або перекваліфікації для пошуку повідомлень іншого характеру.
Панчук, Владислав Анатолійович. "Вплив короткострокової аренди на стан індустрії на базі аналітичного підходу". Магістерська робота, Хмельницький національний університет, 2020. http://elar.khnu.km.ua/jspui/handle/123456789/9425.
Повний текст джерелаПлацідим, Віталій Вікторович. "Рекомендаційна система пошуку житла та співмешканців в бюджетному сегменті". Магістерська робота, Хмельницький національний університет, 2020. http://elar.khnu.km.ua/jspui/handle/123456789/9416.
Повний текст джерелаШишко, Артур Юрійович. "Інтелектуальна система кластеризації музикальних творів за жанрами". Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/32182.
Повний текст джерелаMasters thesis: 62 p., 8 fig., 23 tables, 2 appendices, 14 sources. The object of study is a set of data in the form of musical works as a set of characteristics and content of this data. The purpose of the work is to analyze information about musical works, using data mining tools to cluster them by genre. The paper analyzes the existing tools used in data analysis, identifies their main advantages and disadvantages, and proposes a method for clustering works. The architecture of the system that performs the given clustering is built. The proposed web interface architecture has been implemented. In the future, it is recommended that you improve this diploma thesis by taking into account more characteristics of musical works and expanding the geography of research.
Смілянець, Федір Андрійович. "Екстракція структурованої інформації з множини веб-сторінок". Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/39926.
Повний текст джерелаRelevance of the research topic. Modern wide internet is a considerable source of data to be used in scientific and business applications. An ability to extract up to date data is frequently crutial for reaching necessary goals, though, modern quality solutions to this problem, which are using computer vision and other technologies, may be finantially demanding to acquire or develop, thus simple and cheap to develop, maintain and use solutions are necessary. The purpose of the study is to create a software instrument aimed at extraction of structured data from news websites for usage in news trustworthiness classification. Following tasks were outlined and implemented to achieve the aforementioned goal: - Outline existing approaches and analogues in areas of data extraction and news classification; - Design and develop extraction, preparation and classification algorhitms; - Compare the results achieved with developed extraction algorhitm and with existing software solution, including comparing machine learning accuracies on both of the extractors. The object of the study is the process of text data extraction with subsequent machine learning analysis. The subjects of the study are methods and tools of extraction and analysis of text data. Scientific novelty of the obtained results. A simple greedy algorithm was created, combining the process of link discovery and data extraction. Expediency of usage of simple web data extraction algorithms for composing machine learning datasets was proven. It was also proven that classical machine learning algorithms can achieve results similar to neural networks such as LSTM. Capabilities of machine learning systems to function efficiently in a bilingual context were also shown. Publications. Materials, related to this study, were published in the All-Ukrainian Scientific and Practical Conference of Young Scientists and Students “Information Systems and Management Technologies” (ISTU-2019) “News trustworthiness classification with machine learning”.
Гороховатський, В. О., та В. Єрьоменко. "Класифікація зображень з використанням засобів нечіткої кластеризації даних". Thesis, 2021. https://openarchive.nure.ua/handle/document/17944.
Повний текст джерелаКнязь, Юрій Ігорович, та Yurii Kniaz. "Комплексний мета-аналіз глобальних наборів даних про COVID-19". Bachelor's thesis, 2021. http://elartu.tntu.edu.ua/handle/lib/35758.
Повний текст джерелаQualification work is devoted to a comprehensive analysis of the structure, content, methods and tools of analytical processing of global datasets about COVID-19. Purpose: to raise awareness of citizens and health professionals about COVID-19. In the first section of the qualification work the analysis of the subject area is carried out. The sources of data about COVID-19 are described, their integral characteristic and conveyor data processing are given. The second section of the qualification work describes the analytical processing of SARS-CoV-2 data based on information from the Omics database. Phylogenetic and mutational variational analysis of data on COVID-19 are considered. Analytical processing of genetic information according to COVID-19 was investigated. Features of interactive analysis of information on COVID-19 are presented. Analysis of chest images for diagnosis and monitoring of COVID-19 is covered. Analytical processing in the processes of use and reassignment of drugs for COVID-19 is described. In particular, the classification table of methods of analytical processing of information on COVID-19 is given.
ВСТУП 7 1 COVID-19, ДЖЕРЕЛА ДАНИХ ТА ЇХ КОНВЕЄРНЕ ОПРАЦЮВАННЯ 9 1.1 Аналіз предметної області 9 1.2 Джерела даних щодо COVID-19 11 1.2.1 Дані Omics 12 1.2.2 Інтерактомні дані 13 1.2.3 Дані ренгенографічних зображень грудної клітки 14 1.2.4 Епідеміологічні дані 15 1.2.5 Бази даних медичних препаратів 17 1.3 Конвеєрне опрацювання даних щодо COVID-19 18 1.4 Висновок до першого розділу 22 2 КОМПЛЕКСНИЙ МЕТААНАЛІЗ ГЛОБАЛЬНИХ НАБОРІВ ДАНИХ ЩОДО COVID-19 23 2.1 Метааналіз глобальних наборів даних щодо COVID-19 23 2.2 Аналітичне опрацювання даних SARS-CoV-2 Omics 23 2.3 Філогенний та мутаційний варіаційний аналіз даних щодо COVID-19 24 2.4 Аналітичне опрацювання генетичної інформаційї шодо COVID-19 25 2.5 Інтерактомний аналіз відомостей щодо COVID-19 26 2.6 Аналіз зображень грудної клітки для діагностики та моніторингу COVID-19 27 2.7 Аналітичне опрацювання в процесах використання та перепризначення лікарських препаратів для COVID-19 29 2.8 Аналітичне опрацювання метаболічних змін для важких та фатальних випадків COVID-19 32 2.9 Висновок до другого розділу 37 3 БЕЗПЕКА ЖИТТЄДІЯЛЬНОСТІ, ОСНОВИ ХОРОНИ ПРАЦІ 38 3.1 Актуальність безпеки життєдіяльності людини 38 3.2 Долікарська допомога при пораненнях 40 3.3 Висновок до третього розділу 41 ВИСНОВКИ 42 ПЕРЕЛІК ДЖЕРЕЛ 43
Багрій, Олександр Олегович, та Oleksandr Bahrii. "Розробка бази даних з веб-інтерфесом для пошуку та систематизації відомостей щодо ліків що використовуються при COVID-19". Bachelor's thesis, 2021. http://elartu.tntu.edu.ua/handle/lib/35780.
Повний текст джерелаQualification work is devoted to the development of a database with a web interface for searching and systematizing information on drugs used in COVID-19. The purpose of this qualification work is to increase the level of awareness of researchers and health professionals about drugs from COVID-19. The first section presents an analysis of the subject area, performed the task of designing a database of drugs for COVID-19, investigated sources of information on drugs from COVID-19, described the networks of interaction of drugs and genes to search for drugs from COVID-19. In the second section, the structure and architecture of the database are designed to search for and systematize information on drugs used in COVID-19. A description of the development of the data selection workflow is given. The syntax of search queries in the database is analyzed. Import of information and transformation of database identifiers are considered. The developed web interface of the database for search and systematization of information on drugs used in COVID-19 is described.
ВСТУП 8 1 АНАЛІЗ ПРЕДМЕТНОЇ ОБЛАСТІ, ДЖЕРЕЛ ДАНИХ ТА ПОСТАНОВКА ЗАВДАННЯ РОЗРОБЛЕННЯ БД З ВЕБ-ІНТЕРФЕЙСОМ 10 1.1 Аналіз предметної області 10 1.2 Постановка завдання проєктування БД ліків для COVID-19 12 1.3 Джерела відомостей щодо ліків від COVID-19 14 1.4 Мережі взаємодії ліків та генів для пошуку медикаментозних засобів проти COVID-19 16 1.5 Висновок до першого розділу 18 2 ПРОЄКТУВАННЯ ТА ПРАКТИЧНА РЕАЛІЗАЦІЯ БД З ВЕБ-ІНТЕРФЕЙСОМ ДЛЯ ПОШУКУ ТА СИСТЕМАТИЗАЦІЇ ВІДОМОСТЕЙ ЩОДО ЛІКІВ ЩО ВИКОРИСТОВУЮТЬСЯ ПРИ COVID-19 19 2.1 Проєктування структури БД для пошуку та систематизації відомостей щодо ліків що використовуються при COVID-19 19 2.2 Розроблення робочого процесу відбору даних щодо ліків які використовуються при COVID-19 21 2.3 Проєктування архітектури ПЗ БД для пошуку та систематизації відомостей щодо ліків що використовуються при COVID-19 23 2.4 Синтаксис пошукових запитів у БД 26 2.5 Імпорт відомостей та перетворення ідентифікаторів БД 27 2.6 Апаратне та програмне забезпечення БД для пошуку та систематизації відомостей щодо ліків від COVID-19 29 2.7 Веб-інтерфейс БД для пошуку та систематизації відомостей щодо ліків що використовуються при COVID-19 30 2.8 Висновок до другого розділу 35 3 БЕЗПЕКА ЖИТТЄДІЯЛЬНОСТІ, ОСНОВИ ХОРОНИ ПРАЦІ 36 3.1 Працездатність людини – оператора 36 3.2 Санітарно-гігієнічні вимоги до умов праці 38 3.3 Висновок до третього розділу 40 ВИСНОВКИ 41 ПЕРЕЛІК ДЖЕРЕЛ 42