Dissertations / Theses on the topic '004.8:004.93'

To see the other types of publications on this topic, follow the link: 004.8:004.93.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic '004.8:004.93.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Шихутський, Сергій Олександрович. "Автоматизована система контролю розрахунків для мережі магазинів роздрібної торгівлі." Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/32286.

Full text
Abstract:
Об’єктом дослідження є комплекс розподілених систем обробки даних, що знаходяться в загальній екосистемі роздрібної торгівлі, та проектування системи самообслуговування в рамках обраної екосистеми. Методи дослідження – метод абстрагування, аналіз і синтез, індункція та дедукція, метод порівняння, метод моделювання. Апаратура, яка використовувалась у дослідженні – персональний комп’ютер. Розроблена технологія самообслуговування з використанням самостійного сканування на мобільній платформі є інноваційним підходом у галузі роздрібної торгівлі. В дисертації розроблено детальну архітектуру майбутньої системи, описано всі взаємодії між її елементами системи, а також обґрунтовано вибір інструментів, що використовуватимуться під час розробки.
The object of the study is a complex of distributed data processing systems in the overall retail ecosystem and design of self-service systems within the selected ecosystem. Research methods - abstraction method, analysis and synthesis, induction and deduction, comparison method, modeling method. The equipment used in the study is a personal computer. Self-service technology using self-scanning on a mobile platform is an innovative approach in the retail trade. The dissertation elaborates the detailed architecture of the future system, describes all interactions between its elements of the system, as well as substantiates the choice of tools to be used in the development.
APA, Harvard, Vancouver, ISO, and other styles
2

Смажелюк, Микола Вадимович. "Дослідження методів інтерполяції на візуальному полі уваги." Thesis, Тернопільський національний технічний університет імені Івана Пулюя, 2017. http://elartu.tntu.edu.ua/handle/123456789/18971.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Топчієв, Борис Сергійович. "Алгоритмічно-програмний метод колоризації зображень." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/33832.

Full text
Abstract:
Дана магістерська дисертація присвячена дослідженню та розробці алгоритмічно-програмного методу колоризації зображень за допомогою нейронних мереж. Дана магістерська дисертація включає у себе проведені дослідження проблеми колоризації зображень, власноруч розроблений алгоритмічно-програмний метод для виконання напівавтоматичної колоризації зображень за участю користувача, який вносить власні кольорові підказки. З метою тестування та демонстрації роботи розробленої системи нейронних мереж було створено простий веб-сервіс, який надає можливість користувачу обрати необхідне зображення, за допомогою палітри кольорів внести власні підказки та отримати результат роботи системи. У даній магістерській дисертації проведено детальний аналіз існуючих проблем у роботі з зображеннями, огляд різних алгоритмів для усунення дефектів на зображеннях та запропоновано власний метод для виконання інтерактивної колоризації зображення за участю користувача. Також розроблено простий веб-сервіс, на якому розгорнуто натреновані моделі для їх експлуатації.
This master's dissertation is devoted to the research and development of an algorithmic-software method of coloring images using neural networks. This master's dissertation includes research on the problem of image colorization, self-developed algorithmic-software method for semi-automatic image colorization with the participation of a user who makes their own color prompts. In order to test and demonstrate the work of the developed neural network system, a simple web service was created, which allows the user to select the desired image, use the color palette to enter their own tips and get the result of the system. This master's dissertation provides a detailed analysis of existing problems in working with images, a review of various algorithms for eliminating defects in images and proposed its own method for performing interactive coloring of images with the participation of the user. A simple web service has also been developed, which deploys trained models for their operation.
APA, Harvard, Vancouver, ISO, and other styles
4

Рекеда, Володимир Валерійович. "Вебсервіс підвищення роздільної здатності зображень з використанням SR-алгоритмів." Master's thesis, КПІ ім. Ігоря Сікорського, 2021. https://ela.kpi.ua/handle/123456789/45914.

Full text
Abstract:
Актуальність теми. Завдання покращення роздільної здатності зображень є важливим для різних практичних застосувань. Серед таких застосувань можна виділити обробку та аналіз медичних зображень, супутникових фотознімків, обробку даних з пристроїв відеоспостереження і т.д. Ці застосування вимагають високої якості зображень тому за останні два десятиліття було запропоновано багато методів підвищення роздільної здатності зображень. На сьогоднішній день існує два основних підходи, які застосовуються при вирішенні цієї задачі. Перший спосіб - апаратний. Для цього необхідно використовувати фотоапарати з високоякісною матрицею. Мінусом даного підходу є необхідність використання дорогого спеціалізованого обладнання. Інший спосіб – використання програмних засобів, які реалізують різні алгоритми підвищення якості зображень. Такі алгоритми отримали назву SR алгоритми, які дозволяють якісно збільшити роздільну здатність вихідного зображення, що виходить за межі фізичної роздільної здатності цифрового сенсора, який записав зображення. Перевагою даного підходу є зниження вимог до апаратної складової. Об’єктом дослідження є проблема підвищення роздільної здатності зображень з початковою низькою роздільною здатністю. Предметом дослідження є алгоритми та засоби підвищення роздільної здатності зображень. Мета роботи: модифікація SR-алгоритму та розробка на його основі вебсервісу покращення роздільної здатності зображень. Наукова новизна полягає в наступному: запропоновано модифікацію Super resolution-алгоритму. Особливістю цієї модифікації є те, що дана модифікація поєднує в собі принципи роботи класичних SR-алгоритмів та SR-алгоритмів, які базуються на бібліотеці навчальних прикладів, завдяки чому зображення з низькою роздільною здатністю конвертується в зображення з високою роздільною здатністю без будь-якої іншої додаткової вхідної інформації. Практична цінність отриманих в роботі результатів полягає в тому, що розроблений вебсервіс дозволяє підвищити роздільну здатність зображення без використання додаткових вхідних даних. Такий функціонал може бути корисним у багатьох галузях, які потребують роботи із зображеннями високої роздільної здатності, наприклад, у медичній, у відеоспостереженні і т.д. Також розроблений вебсервіс має відкритий API, що дозволяє використовувати його і в іншому програмному забезпеченні. Апробація роботи. Основні положення і результати роботи були представлені та обговорювались на XIV науковій конференції магістрантів та аспірантів «Прикладна математика та комп’ютинг» ПМК-2021 (Київ, 17-19 листопада 2021 р.). Також опублікована стаття на конференції «VІII Міжнародна науково-технічна Internet-конференція «Сучасні методи, інформаційне, програмне та технічне забезпечення систем керування організаційно-технічними та технологічними комплексами» (Київ, 26 листопада 2021 р.). Структура та обсяг роботи. Магістерська дисертація складається з вступу, чотирьох розділів та висновків. У вступі подано загальну характеристику роботи, зроблено оцінку сучасного стану проблеми, обґрунтовано актуальність напрямку досліджень, сформульовано мету і задачі досліджень, показано наукову новизну отриманих результатів і практичну цінність роботи, наведено відомості про апробацію результатів і їхнє впровадження. У першому розділі розглянуто існуючі програмні засоби, які дозволяють підвищити роздільну здатність зображення. У другому розділі описано принципи роботи SR-алгоритмів та наведено порівняння різноманітних модифікації SR алгоритмів. У третьому розділі та четвертому розділах наведено структуру та опис роботи розробленого програмного забезпечення, а також проведено тестування та проаналізовано результати виконаного дослідження. У висновках представлені результати проведеної роботи. Робота представлена на 81 аркуші, містить посилання на список використаних літературних джерел.
Actuality of theme. The task of improving image resolution is important for various practical applications. Such applications include the processing and analysis of medical images, satellite photographs, data processing from video surveillance devices, etc. These applications require high image quality, so over the last two decades, many methods have been proposed to improve image resolution. To date, there are two main approaches used in solving this problem. The first way is hardware. To do this, you must use cameras with a high quality matrix. The disadvantage of this approach is the need to use expensive specialized equipment. Another way is to use software that implements various algorithms to improve image quality. Such algorithms are called SR algorithms that allow you to qualitatively increase the resolution of the original image, which goes beyond the physical resolution of the digital sensor that recorded the image. The advantage of this approach is to reduce the requirements for the hardware component. The object of research is the problem of increasing the resolution of the image with the initial low resolution. The subject of research are algorithms and means of increasing the resolution of images. The goal of the work: modification of the SR-algorithm and development on its basis of a web service to improve image resolution. The scientific novelty is as follows: a web service is proposed to increase the resolution of the image using SR-algorithms. This service has an open API. Modification "Super resolution from a single image" is used. A feature of this modification is that the low-resolution image is converted to a high-resolution image without any other additional input information. Practical value of the results obtained in this work is that the developed web service allows you to increase the resolution of the image without the use of additional input data. This functionality can be useful in many areas that require working with high-resolution images, such as medical, video surveillance, etc. Also developed web service has an open API that allows you to use it in other software. Approbation of work. The main provisions and results of the work were presented and discussed at the XIV scientific conference of undergraduates and graduate students "Applied Mathematics and Computing" PMK-2021 (Kyiv, November 17-19, 2021). An article was published at the conference "VIII International Scientific and Technical Internet Conference" Modern Methods, Information, Software and Technical Support of Management Systems of Organizational, Technical and Technological Complexes" (Kyiv, November 26, 2021). Structure and scope of work. The master's dissertation consists of an introduction, four chapters and conclusions. The introduction presents a general description of the work, assesses the current state of the problem, substantiates the relevance of research, formulates the purpose and objectives of research, shows the scientific novelty of the results and the practical value of the work, provides information on testing the results and their implementation. The first section discusses the existing software tools that increase the image resolution. The second section describes the principles of SR-algorithms and compares various modifications of SR-algorithms. The third section and the fourth sections provide the structure and description of the developed software, as well as testing and analysis of the results of the study. The conclusions present the results of the work. The work is presented on 81 sheets, contains references to the list of used literature sources.
APA, Harvard, Vancouver, ISO, and other styles
5

Костомаха, Марія Володимирівна, and Mariia Kostomakha. "Комп’ютерна система біометричної аутентифікації особи за відбитком пальця." Bachelor's thesis, Тернопільський національний технічний університет імені Івана Пулюя, 2021. http://elartu.tntu.edu.ua/handle/lib/35567.

Full text
Abstract:
У кваліфікаційній роботі спроектовано комп’ютерну систему біометричної аутентифікації особи за відбитком пальців, що відповідає вимогам технічного завдання. Основними апаратними пристроями спроектованої системи є: сканер відбитків пальців на основі ZFM-20; пристрій керування процесом зчитування та аутентифікації особи Raspberry PI Model B; компонента виводу інформаційних повідомлень для взаємодії з користувачем LCD 2*16. Взаємодію між сканером відбитків пальців і Raspberry PI забезпечено шляхом використання USB Serial адаптера. Логіку роботи програмного забезпечення реалізовано засобами мови програмування Python, що підтримується обраним однокристальним міні-комп’ютером.
In the qualification work, a computer system of biometric authentication of a person by fingerprint is designed, which meets the requirements of the technical task. The goal of the work was achieved through the use of sound hardware and developed software. The main hardware devices of the designed system are: fingerprint scanner based on ZFM-20; Raspberry PI Model B reading and authentication process control device; component for outputting information messages for interaction with the user LCD 2 * 16. The interaction between the fingerprint scanner and the Raspberry PI is provided by using a USB Serial adapter. The success of the authentication is additionally signaled by the LED. The logic of the software is implemented using Python programming language supported by the selected single-chip mini-computer.
ПЕРЕЛІК ОСНОВНИХ УМОВНИХ ПОЗНАЧЕНЬ, СИМВОЛІВ І СКОРОЧЕНЬ 8 ВСТУП 9 1 АНАЛІЗ ВИМОГ ТЕХНІЧНОГО ЗАВДАННЯ ТА МЕТОДІВ БІОМЕТРИЧНОЇ АУТЕНТИФІКАЦІЇ ОСОБИ 10 1.1 Аналіз вимог технічного завдання на проектування комп’ютерної системи біометричної аутентифікації особи за відбитком пальця 10 1.2 Методи і засоби аутентифікації особи 16 2 РОЗРОБКА ПРОЕКТУ КОМП’ЮТЕРНОЇ СИСТЕМИ БІОМЕТРИЧНОЇ АУТЕНТИФІКАЦІЇ ОСОБИ ЗА ВІДБИТКОМ ПАЛЬЦІВ 22 2.1 Архітектура комп’ютерної системи біометричної аутентифікації 22 2.2 Обґрунтування вибору та аналіз технічних характеристики Raspberry PI 24 2.3 Аналіз технічних характеристик сканера відбитків пальців 28 2.4 Особливості застосування LCD-дисплея 32 2.5 Перетворювач USB – UART 35 2.6 Побудова схеми комп’ютерної системи біометричної аутентифікації особи за відбитком пальця 36 3 ПРОГРАМНЕ ЗАБЕЗПЕЧЕННЯ КОМП’ЮТЕРНОЇ СИСТЕМИ БІОМЕТРИЧНОЇ АУТЕНТИФІКАЦІЇ ОСОБИ ЗА ВІДБИТКОМ ПАЛЬЦІВ 41 3.1 Реалізація логіки роботи програмного забезпечення комп’ютерної системи біометричної аутентифікації 41 3.2 Тестування комп’ютерної системи аутентифікації особи 53 РОДІЛ 4 БЕЗПЕКА ЖИТТЄДІЯЛЬНОСТІ, ОСНОВИ ОХОРОНИ ПРАЦІ 56 4.1 Вплив виробничого середовища на працездатність та здоров'я користувачів комп'ютерів 56 4.2 Захист населення у надзвичайних ситуаціях від впливу радіації 59 ВИСНОВКИ 56 СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ 57 Додаток A. Технічне завдання Додаток Б. Програмне забезпечення комп’ютерної системи біометричної аутентифікації особи за відбитком пальця
APA, Harvard, Vancouver, ISO, and other styles
6

Петрик, Віталій Віталійович. "Розпізнавання поведінки лабораторних тварин у реальному часі." Master's thesis, КПІ ім. Ігоря Сікорського, 2021. https://ela.kpi.ua/handle/123456789/41623.

Full text
Abstract:
Автоматизоване спостереження та аналіз поведінки тварин є важливою частиною досліджень у галузі неврології та фармакології. Хоча моделі глибокого навчання показують високі результати в завданнях розпізнавання дій людини, вони недостатньо вивчені при застосуванні до задач розпізнавання поведінки тварин через відсутність необхідної вибірки даних. У цій роботі ми створили власну вибірку даних, що складається з 919 коротких кліпів, та дослідили сучасні модель I3D та модель R(2+1)D для вирішення завдання розпізнавання поведінки миші. Ми досягли точності до 96.3% та 95.8% відповідно. Ми також продемонстрували вплив коефіцієнтів злиття двох потоків моделей на точність прогнозів. Результати показали, що використання попередньо натренованих моделей глибокого навчання може перевершити точність моделей з попередніх досліджень.
Automated observation and analysis of animal behavior is an important part of research in neurology and pharmacology. Although deep learning models show high results in recognizing human actions, they are insufficiently studied in tasks of recognizing animal behavior due to the lack of dataset. In this work, we created our own dataset, consisting of 919 short clips, and investigated the modern model I3D and model R(2+1)D to solve the problem of recognizing mouse behavior. We achieved an accuracy of 96.3% and 95.8%, respectively. We also demonstrated the effect of two-stream fusion ratios on prediction perfomances. The results showed that the use of pre-trained models of deep learning can exceed the accuracy of models from previous studies.
Автоматизированное наблюдение и анализ поведения животных является важной частью исследований в области неврологии и фармакологии. Хотя модели глубокого обучения показывают высокие результаты в задачах распознавания действий человека, они недостаточно изучены при применении к задачам распознавания поведения животных из-за отсутствия необходимой выборки данных. В этой работе мы создали собственную выборку данных, состоящий из 919 коротких клипов, и исследовали современные модели I3D и модель R(2 +1)D для решения задачи распознавания поведения мыши. Мы достигли точности до 96.3% и 95.8% соответственно. Мы также продемонстрировали влияние коэффициентов слияния двух потоков моделей на точность прогнозов. Результаты показали, что использование предварительно натренированных моделей глубокого обучения может превзойти точность моделей из предыдущих исследований.
APA, Harvard, Vancouver, ISO, and other styles
7

Шурук, Андрій Сергійович. "Система аналізу людської активності на основі даних з носимих пристроїв." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/38278.

Full text
Abstract:
Актуальність проблеми. Глобалізація та збільшення числа населення сприяють розвитку галузей пов’язаних зі спостереженням за людською активністю, а отже — появі нових засобів для спостереження за різноманітними показниками діяльності людини та способів аналізу цих показників. Враховуючи дані фактори, важливо в сучасному світі правильно використовувати такі об’єми даних в умовах ринку. Якщо мова йде про, наприклад, догляд за літніми людьми, то важливо правильно проаналізувати та спробувати розпізнати ту, чи іншу активність людини, це може допомогти збільшити тривалість життя літніх людей. Зв’язок роботи з науковими програмами, планами, темами. Дипломну роботу (магістерського) рівня вищої освіти було виконано в Національному технічному університеті України «Київський політехнічний інститут імені Ігоря Сікорського» відповідно до планів науково-дослідних робіт кафедри обчислювальної техніки. Мета і задачі дослідження. Завданням цієї роботи є дослідження можливості розпізнавання людської активності на основі даних носимих пристроїв. Метою є розроблення системи, побудованої на базі нейронної мережі, здатної розпізнати людську активність та надати їх користувачеві за допомогою кросплатформеного додатку. Об’єкт дослідження. Процес розпізнавання людської активності з використанням елементів нейронної мережі. Предмет дослідження. Методи аналізу та обробки даних отриманих з носимих пристроїв в реальному часі. Новизна. Запропоновано новий спосіб розпізнавання людської активності на основі даних носимих пристроїв, який за рахунок використання нейронної мережі, дозволяє отримати результати розпізнавання в реальному часі з високою точністю.
The urgency of the problem. Globalization and population growth are contributing to the development of areas related to human activity monitoring, and thus to the emergence of new tools for monitoring various human performance indicators and ways to analyze these indicators. Given these factors, it is important in today's world to properly use such volumes of data in market conditions. When it comes to, for example, caring for the elderly, it is important to properly analyze and try to recognize a particular human activity, it can help increase the life expectancy of the elderly. Relationship with working with scientific programs, plans, topics. Thesis of master's level of higher education was performed at the National Technical University of Ukraine "Kyiv Polytechnic Institute named after Igor Sikorsky" in accordance with the plans of research work of the Department of Computer Science. The purpose and objectives of the study. The aim of this work is to study the possibility of recognizing human activity based on the data of wearable devices. The aim is to develop a system built on a neural network capable of recognizing human activity and providing it to the user through a cross-platform application. Object of study. The process of recognizing human activity using elements of the neural network. Subject of study. Methods of analysis and processing of data obtained from wearable devices in real time. Novelty. A new method of recognizing human activity based on the data of wearable devices is proposed, which, due to the use of a neural network, allows to obtain real-time recognition results with high accuracy.
APA, Harvard, Vancouver, ISO, and other styles
8

Бернацька, Дарина Леонідівна. "Штучний інтелект і психологія. чи може робот замінити психолога?" Thesis, Національний авіаційний університет, 2021. https://er.nau.edu.ua/handle/NAU/52239.

Full text
Abstract:
Тема штучного інтелекту є актуальною у сучасній науці та взагалі у суспільстві, адже наука не стоїть на місці і з кожним днем ми все стрімкіше наближаємося до машинізації, тож давайте розглянемо цю проблему. Штучний інтелект ("artificial intelligence", AI) відноситься до моделювання людського інтелекту в машинах, які запрограмовані думати як людина і імітувати її дії. Тому через постійний прогрес скоро можна буде спостерігати за впровадженням штучного інтелекту і в психологію.
APA, Harvard, Vancouver, ISO, and other styles
9

Гурбанов, Т. А. "Технології порівняльного аналізу електронних текстів як засіб боротьби з плагіатом." Thesis, Національний авіаційний університет, 2021. https://er.nau.edu.ua/handle/NAU/54371.

Full text
Abstract:
Використані джерела: 1. Вавіленкова А.І. Структура системи порівняльного аналізу електронних текстових документів за змістом / А. Вавіленкова // Вісник Національного університету "Львівська політехніка". Комп’ютерні науки та інформаційні технології. - 2017. – № 864. – С. 277-285. URL:http://nbuv.gov.ua/UJRN/VNULPKNIT_2017_864_36 2. Вавіленкова А.І. Теоретичні основи аналізу електронних текстів: монографія. – К.:ТОВ «СІК ГРУП УКРАЇНА», 2016. URL: http://er.nau.edu.ua/handle/NAU/42695
З розвитком науки та технологій ми можемо отримати багато нових можливостей для доступу до знань, але при цьому розвиваються старі та створюються нові проблеми в галузі освіти. Технології, що дозволяють отримати блискавичний доступ до багатьох джерел інформації та наукових робіт є однією з причин гострої проблеми плагіату цих наукових робіт.
APA, Harvard, Vancouver, ISO, and other styles
10

Новіченко, Неля Валеріївна. "Система розпізнавання архітектурних стилів будівель за зображеннями." Bachelor's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/30980.

Full text
Abstract:
Структура та обсяг роботи. Пояснювальна записка дипломного проекту складається з шести розділів, містить 18 рисунків, 21 таблиць, 1 додаткок, 17 джерел. Дипломний проект присвячений розробці системи класифікації зображень з метою визначення архітектурних стилів будівель. В дипломному проекті розглянуті методи класифікації цифрових зображень, засновані на машинному навчанні за допомогою нейронних мереж. Система вирішує задачу документування культурної спадщини та дозволяє зменшити помилки при визначенні архітектурного стилю. У розділі загальні положення описано предметне середовище, процес діяльності та опис функціональної моделі системи. Також у розділі описано порівняння системи з наявними аналогами та описані мета та призначення розробки системи. У розділі з інформаційного забезпечення були визначені дані для навчання системи, вхідні та вихідні дані до комплексу задач, були розроблені вимоги до зображень для аналізу, що відповідають поставленим цілям проекту. Розділ математичного забезпечення присвячений обґрунтуванню обраного підходу навчання системи, що дозволив збільшити точність результатів. Розділ програмного забезпечення описує основні засоби розробки комплексу задач, висунуті вимоги до технічного забезпечення. В цьому розділі обрано та обґрунтовано архітектуру програмного забезпечення. У технологічному розділі описана інструкція користувача та проведене тестування комплексу задач.
Structure and scope of work. Diploma project consists of six sections, contains 18 drawings, 21 tables, 1 applications, 17 sources. The diploma project is devoted to the development of tasks for the classification of images in order to determine the architectural styles of the buildings. Automatic methods for the classification of images during the analysis of architectural objects solve the problem of documenting cultural heritage and significantly reduce mistakes in sorting: usually a large number of images are processed and this is a tedious task, the process of classification by experts is prone to errors and takes a lot of time. The correct classification allows to study and analyze cultural heritage more effectively. In the diploma project were considered methods of classification of digital images, based on machine learning with the help of neural networks. The section on information provision define the data for training neural network, input and output data to a set of tasks, requirements for images for analysis, which corresponds to the set objectives of the project. The section of mathematical support is devoted to substantiation of the chosen approach of training the system, which allows to increase the accuracy of the results. The software section describes the main tools for developing a set of tasks, the requirements for technical support. This section defines and justifies the software architecture. The technology section describes the user's manual and tests a set of tasks.
APA, Harvard, Vancouver, ISO, and other styles
11

Канівець, Дмитро Володимирович. "Математичне та програмне забезпечення класифікації наукових текстів." Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/31517.

Full text
Abstract:
Актуальність теми: для спрощення пошуку необхідної інформації серед наукових публікацій в Україні використовується бібліотечна класифікація. Проте наразі ця система є недосконалою, адже при класифікації допускаються помилки, а в деяких випадках вона виконується для збірника загалом, що призводить до часткової невідповідності для деяких статей, що в нього входять. Також виконання класифікації сторонньою людиною (наприклад, бібліотекарем чи редактором) вимагає багато часу. Вирішенням цієї проблеми є автоматизація процесу класифікації. За рахунок використання машинного навчання можна створити автоматичний класифікатор, яких дозволить покращити точність класифікації порівняно з ручною та прискорити класифікацію нових надходжень. Мета дослідження: створення класифікатора наукових статей за категоріями УДК на основі машинного навчання. Для реалізації поставленої мети були сформульовані наступні завдання: – систематизація існуючих алгоритмів класифікації текстових даних; – збір достатньої навчальних даних, розробка класифікатору на основі машинного навчання; – тестування та аналіз ефективності отриманого алгоритму; – визначення подальшого напрямку досліджень. Об’єкт дослідження: бібліотечна класифікація наукових статей. Предмет дослідження: алгоритми класифікації текстових даних. Методи дослідження: для розв’язання поставленої задачі використовувались наївний баєсів класифікатор, нейронні мережі, алгоритм зворотного поширення помилки. Наукова новизна: найбільш суттєвими науковими результатами магістерської дисертації є дослідження можливостей автоматизації класифікації наукових текстів; пошуку помилок у вже класифікованих текстах; створення алгоритмів класифікації для розрізнення категорій у текстів близьких тематик. Практичне значення отриманих результатів визначається тим, що запропонований алгоритм дозволяє досягти точності бібліотечної класифікації в 86%, що дозволяє використовувати його для пошуку і виправлення помилок у класифікації текстів, а також як допоміжного засобу при класифікації нових надходжень. Зв’язок роботи з науковими програмами, планами, темами: робота виконувалась на кафедрі автоматизованих систем обробки інформації та управління Національного технічного університету України «Київський політехнічний інститут ім. Ігоря Сікорського» в рамках теми «Математичні моделі та технології в СППР». Державний реєстраційний номер 0117U000914 Апробація: основні положення роботи доповідались і обговорювались на XІІ науково-практичній конференції магістрантів та аспірантів «Прикладна математика та комп’ютинг» (ПМК-2019), а також на третій всеукраїнській науково-практичній конференції молодих вчених та студентів «Інформаційні системи та технології управління» (ІСТУ-2019).
Relevance: to simplify the search for relevant information among scientific publications in Ukraine, a library classification is used. However, this system is not perfect at this time, because classification is erroneous, and in some cases it is executed for the journal as a whole, which results in partial discrepancies for some of its articles. Also, it takes a long time to perform the classification by a third party (such as a librarian or editor). The solution to this problem is to automate the classification process. By using machine learning, automatic classifier can be created, which will improve the accuracy of the classification compared to manual and accelerate the classification of new revenues. Purpose: create a classifier of scientific articles by UDC categories based on machine learning. To achieve this goal, the following tasks were formulated: - systematization of existing text data classification algorithms; - gathering sufficient training data, developing a classifier based on machine learning; - testing and analysis of the efficiency of the obtained algorithm; - determining the further direction of research. Object of study: library classification of scientific articles. Subject of study: algorithms for classification of text data. Research methods: naive Bayes classifier, neural networks, backpropagation algorithm were used to solve this problem. Scientific novelty: the most significant scientific results of a master's thesis are the study of the possibilities of automation of the classification of scientific texts; search for mistakes in already classified texts; creation of classification algorithms for distinguishing categories in texts of similar subjects. The practical value of the obtained results is determined by the fact that the proposed algorithm allows to achieve the accuracy of library classification in 86%, which allows to use it for finding and correcting errors in the classification of texts, as well as an aid in the classification of new receipts. Relationship with working with scientific programs, plans, topics: work was performed at the Department of Automated Information Processing and Management Systems of the Igor Sikorsky National Technical University of Ukraine «Kyiv Polytechnic Institute» within the topic «Mathematical Models and Technologies in DSS». State Registration Number 0117U000914 Approbation: the main provisions of the work were reported and discussed at the XIII Scientific and Practical Conference of undergraduate and graduate students «Applied Mathematics and Computing» (AMP-2019), as well as at the third all-Ukrainian scientific and practical conference of young scientists and students «Information Systems and Technologies of Management» (ISTM-2019).
APA, Harvard, Vancouver, ISO, and other styles
12

Погорелов, Володимир Володимирович, and Volodymyr Pogorelov. "Нейромережеві моделі та методи розпізнавання комп’ютерних вірусів." Thesis, Національний авіаційний університет, 2020. https://er.nau.edu.ua/handle/NAU/44636.

Full text
Abstract:
У роботі вирішено актуальну науково-прикладну задачу підвищення ефективності протидії комп’ютерним вірусам, за рахунок дослідження і розробки нових нейромережевих моделей, методів і засобів розпізнавання комп’ютерних вірусів, здатних оперативно пристосовуватись до умов використання і реагувати на виникнення нових видів вірусів. У дисертаційній роботі проведено аналіз сучасних нейромережевих моделей та методів розпізнавання комп’ютерних вірусів, що показав наявність низки недоліків, пов’язаних з високою потребою в обчислювальних ресурсах, низькою адаптованістю до проведення аналізу обфускованого програмного коду та недостатньою ефективністю розпізнавання. Розроблено концептуальну модель оцінювання глибоких нейронних мереж. Розроблено модель формування параметрів навчальних прикладів глибокої нейронної мережі. Розроблено метод визначення архітектурних параметрів глибокої нейронної мережі, призначеної для розпізнавання вірусів. Отримав подальший розвиток метод нейромережевого розпізнавання комп’ютерних вірусів. Розроблене спеціалізоване програмне забезпечення, що базується на створених нейромережевих методах та моделях, дозволило забезпечити достатню точність розпізнавання комп’ютерних вірусів та забезпечити оперативність створення алгоритмів функціонування апаратно-програмних засобів захисту інформації.
APA, Harvard, Vancouver, ISO, and other styles
13

Кохан, Василь Володимир Богданович, and Vasyl Volodymyr Kokhan. "Алгоритмічне та програмне забезпечення систем автоматизованого оцінювання емоційного нахилу статей про Україну." Master's thesis, Тернопільський національний технічний університет імені Івана Пулюя, 2021. http://elartu.tntu.edu.ua/handle/lib/36642.

Full text
Abstract:
Метою роботи є дослідження та розробка алгоритму та програмного забезпечення для проведення автоматизованої оцінки емоційного нахилу статей з соціальної мережі мікроблогів Твіттер. В розділі 1 розглянуто алгоритми для визначення емоційного нахилу текстів, наявні онлайн інструменти аналізу та підходи до збору даних для аналізу. В розділі 2 описано процес отримання доступу до Твіттер АПІ, підходи до збору даних для аналізу та проведено аналіз існуючих алгоритмів оцінки емоційного нахилу текстів. В розділі 3 проведено збір даних для оцінки через Твіттер АПІ, розроблено та реалізовано у коді алгоритм очистки даних від зайвих елементів, розроблено та реалізовано алгоритм аналізу емоційного нахилу текстів. В розділі 4 описано основні вимоги роботи та експлуатації програмної реалізації алгоритму автоматизованого оцінювання емоційного нахилу статей про Україну, відповідно до державних санітарних правил і норм роботи з візуальними дисплейними терміналами електронно-обчислювальних машин ДСанПІН 3.3.2.007-98.
The aim of the work is to research and develop an algorithm and software for automated sentiment analysis of articles from the social microblogs network Twitter. Section 1 describes algorithms for determining the sentiment of texts, analysis tools available online, and approaches to collecting data for analysis. Section 2 describes the process of gaining access to the Twitter API, approaches to data collection for analysis, and analyzes existing algorithms for sentiment analysis of texts. In section 3, data was collected for evaluation via Twitter API, was developed an algorithm for cleaning data from redundant elements and implemented in the code, and an algorithm for sentiment analysis of texts was developed and implemented as well. Section 4 describes the main requirements for the operation of the software implementation of the algorithm for automated sentiment analysis of articles about Ukraine, in accordance with state sanitary rules and regulations for working with visual display terminals of electronic computers DSanPIN 3.3.2.007-98.
ВСТУП 9 РОЗДІЛ 1 АНАЛІЗ ПРЕДМЕТНОЇ ОБЛАСТІ ТА ОГЛЯД АЛГОРИТМІВ ДЛЯ ВИЗНАЧЕННЯ ЕМОЦІЙНОГО НАХИЛУ ТЕКСТІВ 11 1.1. Оцінка емоційного нахилу текстів 11 1.2. Аналіз інструментів та публікацій на тему аналізу емоційного нахилу 14 1.3. Підходи до збору даних для аналізу емоційного нахилу текстів 18 1.4. Висновки розділу 1 23 РОЗДІЛ 2 РОЗРОБКА АЛГОРИТМУ ОЦІНКИ ЕМОЦІЙНОГО НАХИЛУ СТАТТЕЙ НОВИН 25 2.1. Процес отримання доступу до Твіттер АПІ 25 2.2. Звернення до Твіттер АПІ 28 2.3. Аналіз даних 32 2.4. Висновки розділу 2 33 РОЗДІЛ 3 ПРАКТИЧНА РЕАЛІЗАЦІЯ АЛГОРИТМУ ТА ДОСЛІДЖЕННЯ АНАЛІЗУ ЕМОЦІЙНОГО НАХИЛУ ТЕКСТУ 34 3.1. Процес збору даних 34 3.2. Підготовка даних до аналізу 36 3.3. Оцінювання емоційного нахилу текстів 40 3.4. Висновки розділу 3 46 РОЗДІЛ 4 ОХОРОНА ПРАЦІ ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦІЯХ 47 4.1. Охорона праці 47 4.2. Забезпечення безпеки життєдіяльності при роботі з ПК 49 ВИСНОВКИ 52 ПЕРЕЛІК ПОСИЛАНЬ 53 ДОДАТОК А 57 ДОДАТОК Б 64 ДОДАТОК В 65
APA, Harvard, Vancouver, ISO, and other styles
14

Юркевич, Юрій Сергійович, and Yurij Yurkevych. "Розробка та дослідження алгоритмів і технічних систем розпізнавання образів по даних ультразвукової томографії." Master's thesis, Тернопіль, ТНТУ, 2020. http://elartu.tntu.edu.ua/handle/lib/33225.

Full text
Abstract:
Роботу виконано на кафедрі ком’пютерно-інтегрованих технологій Тернопільського національного технічного університету імені Івана Пулюя Міністерства освіти і науки України Захист відбудеться 23 грудня 2020 р. о 08 .00 годині на засіданні екзаменаційної комісії № 24 у Тернопільському національному технічному університеті імені Івана Пулюя за адресою: 46001, м. Тернопіль, вул.Руська, 56, навчальний корпус №1, ауд. 403
У магістерській роботі було розроблено та досліджено алгоритми та технічні системи розпізнавання образів по даних ультразвукової томографії на базі пошарового зображення внутрішньої структури об'єкта за допомогою просвічування об'єкта акустичними хвилями в різних напрямках. In the master's thesis, algorithms and technical systems for pattern recognition based on ultrasound tomography based on a layered image of the internal structure of the object by irradiating the object with acoustic waves in different directions were developed and studied. The system operation was also simulated and its operation was optimized.
ВСТУП 6 1. АНАЛІТИЧНА ЧАСТИНА 9 1.1. Пристрій для ультразвукової діагностики 9 1.2 Збереження даних 10 1.3. Зберігання коду 10 1.4. Знаходження TOF 2 ТЕХНОЛОГІЧНА ЧАСТИНА 20 2.1 Побудова карти щільності 16 2.2 Середовище виконання і візуалізації процесу відновлення особливих областей¬ 18 3 КОНСТРУКТОРСЬКА ЧАСТИНА 20 3.1 Алгоритм розпізнавання особливих областей 20 3.2 Знаходження TOF 27 3.3 Побудова карти перешкод 28 3.4 Побудова карти щільності 30 4. НАУКОВО-ДОСЛІДНИЦЬКА ЧАСТИНА 33 4.1. Архітектура і реалізація 33 4.2 Апробація 37 5 СПЕЦІАЛЬНА ЧАСТИНА 40 5.1 Розробка програм для проведення проектувальних розрахунків з використанням комп’ютерів 40 5.5 Розробка керуючих програм для систем програмного керування 42 5.3 Інструкція по вводу і запуску керуючої програми 50 6 ОХОРОНА ПРАЦІ ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦІЯХ 52 6.1 Значення охорони праці для забезпечення безпечних умов праці 52 6.2 Системи засобів і заходів щодо електробезпеки 55 6.3 Безпека вантажопідіймального обладнання 59 ОСНОВНІ ВИСНОВКИ ДИПЛОМНОЇ РОБОТИ 61 БІБЛІОГРАФІЯ 62
APA, Harvard, Vancouver, ISO, and other styles
15

Яремко, Олег Ігорович, Oleg Yaremko, Василь Геннадійович Ткачук, and Vasyl Tkachuk. "Розробка та дослідження автоматизованої системи для підвищення якості ідентифікації при дактилоскопії." Master's thesis, Тернопіль, ТНТУ, 2021. http://elartu.tntu.edu.ua/handle/lib/36510.

Full text
Abstract:
Роботу виконано на кафедрі ком’пютерно-інтегрованих технологій Тернопільського національного технічного університету імені Івана Пулюя Міністерства освіти і науки України Захист відбудеться 21 грудня 2021 р. о 09 .00 годині на засіданні екзаменаційної комісії № 24 у Тернопільському національному технічному університеті імені Івана Пулюя за адресою: 46001, м. Тернопіль, вул.Руська, 56, навчальний корпус №1, ауд. 403
В результаті проведеної роботи проаналізовано основні параметри та фактори, що впливають на якість ідентифікації під час дактилоскопії. Метою було створити прототип системи розпізнавання біо-відбитків пальців на основі нечіткої логіки та вивчити якість цього алгоритму порівняно з іншими методами в цій галузі.As a result of this work, the main parameters and factors influencing the quality of identification during fingerprinting are analyzed. The aim was to create a prototype of a fingerprint bio-fingerprint recognition system based on fuzzy logic and to study the quality of this algorithm compared to other methods in this field
ЗМIСТ ВСТУП 6 1. АНАЛIТИЧНА ЧАСТИНА 10 1.1. Біометричні системи 10 1.2 Нечітка логіка 12 2. ТЕХНОЛОГIЧНА ЧАСТИНА 15 2.1 Система розпізнавання відбитків пальців 15 2.2 Вимір якості відбитків пальців 16 2.3 Оцінка якості відбитку 17 2.4 Оцінка сходження двох відбитків 18 3 КОНСТРУКТОРСЬКА ЧАСТИНА 20 3.1. Система підтримки прийняття рішень з використанням нечіткої логіки 20 3.2 Застосування правил 24 3.3 Аналіз і порівняння 26 4 НАУКОВО-ДОСЛIДНИЦЬКА 29 4.1 Детектор кордонів Кенні 29 4.2 Подвійна фільтрація 31 4.3 Метод Віоли-Джонса 33 4.3 Ознаки Хаара 36 5. СПЕЦIАЛЬНА ЧАСТИНА 41 5.1. Алгоритм NFIQ 41 5.2 Помилки FMR, FNMR та EER. 42 5.3 Метод визначення якісних областей відбитків пальців 44 5.4 Зіставлення відбитків пальців за допомогою MCC SDK 49 6 ОХОРОНА ПРАЦI ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦIЯХ 53 6.1 Органiзацiя охорони працi при роботi з системою управлiння 53 6.2 Електробезпека 55 6.3 Розрахунок заземлення 58 ОСНОВНI ВИСНОВКИ ДИПЛОМНОЇ РОБОТИ 62 БIБЛIОГРАФIЯ 63 Додаток 65
APA, Harvard, Vancouver, ISO, and other styles
16

Супрун, Назар Олегович, and Nazar Suprun. "Розробка та дослiдження автоматизованої системи збору та аналiзу пульсу людини на основi даних з мобiльних пристроїв." Master's thesis, Тернопіль, ТНТУ, 2020. http://elartu.tntu.edu.ua/handle/lib/33222.

Full text
Abstract:
Роботу виконано на кафедрі ком’пютерно-інтегрованих технологій Тернопільського національного технічного університету імені Івана Пулюя Міністерства освіти і науки України Захист відбудеться 23 грудня 2020 р. о 08 .00 годині на засіданні екзаменаційної комісії № 24 у Тернопільському національному технічному університеті імені Івана Пулюя за адресою: 46001, м. Тернопіль, вул.Руська, 56, навчальний корпус №1, ауд. 403
У магістерській роботі було розроблено автоматизоану систему збору та аналiзу пульсу людини на основi даних з мобiльних пристроїв. Розроблено архiтектуру системи та покращена оцiнка пульсу за допомогою камери телефону. Застосування bluetooth пристроїв дозволяє видiлено надсилати дані в бiблiотеку з доступов до них лікарів. In the master's thesis, an automated system for collecting and analyzing human heart rate based on data from mobile devices was developed. The system architecture has been developed and the heart rate assessment has been improved with the help of the phone camera. The use of bluetooth devices allows you to send data to the library from access to them by doctors.The system operation was also simulated and its operation was optimized.
ВСТУП 5 1. АНАЛIТИЧНА ЧАСТИНА 7 1.1. Алгоритми оцiнки пульсу по камерi 11 1.2 Рiшення для отримання даних з медичних bluetooth пристроїв 12 1.3. Системи для розширеного аналiзу пульсу 13 2. ТЕХНОЛОГIЧНА ЧАСТИНА 14 2.1 Функцiональнiсть системи 14 2.2 Компоненти системи 15 2.3 Використовуванi технологiї 16 3 КОНСТРУКТОРСЬКА ЧАСТИНА 20 3.1.Частотна фiльтрацiя 20 3.2 Амплiтудне вирiвнювання 21 3.3 Уточнення пульсу 22 3.4 Оцiнка динамiки пульсу 23 3.5 Детектор наявностi пальця на камерi 24 3.6 Отримання даних з bluetooth пульсометрiв 24 3.7 Загальний опис бiблiотеки 24 3.8 Формат серiалiзацiї даних з пристроїв 26 3.9 Алгоритм оцiнки пульсу за допомогою камери телефону¬ 29 4 НАУКОВО-ДОСЛIДНИЦЬКА 32 4.1 Оптимiзацiя передаточної функцiї системи 32 5. СПЕЦIАЛЬНА ЧАСТИНА 37 5.1. Реєстрацiя облiкового запису на сайтi порталу MedM Health 40 5.2 Пошук мобiльного додатка MedM Health в Google Play Store (Play Market). 41 5.3 Початок роботи з MedM Health 43 5.4 Головне вiкно мобiльного додатка MedM Health 44 5.5 Передача даних на смартфон 47 5.6 Перегляд даних на серверi зберiгання даннях 49 5.7 Можливостi сервера зберiгання даних MedM Health 51 6 ОХОРОНА ПРАЦI ТА БЕЗПЕКА В НАДЗВИЧАЙНИХ СИТУАЦIЯХ 52 6.1 Органiзацiя охорони працi при роботi з системою управлiння 52 6.2 Електробезпека 54 6.3 Розрахунок заземлення 57 ОСНОВНI ВИСНОВКИ ДИПЛОМНОЇ РОБОТИ 61 БIБЛIОГРАФIЯ 62
APA, Harvard, Vancouver, ISO, and other styles
17

Смішний, Денис Миколайович. "Система прогнозування економічних показників." Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/30950.

Full text
Abstract:
Магістерська дисертація: 88 с., 20 рис., 27 табл., 1 додаток, 33 джерел. Актуальність проблеми. Глобалізація та збільшення числа населення сприяють розвитку глобальної економіки, а отже — появі нових видів госпо-дарської діяльності та нових гравців на ринку праці. При реалізації власного підприємства важливо правильно оцінити ризики ринку, проаналізувавши та спробувавши спрогнозувати рух котирувань на найближчий час задля мінімальних фінансових втрат. Зв’язок роботи з науковими програмами, планами, темами. Наразі, не має конкретних зв’язків з науковими програмами чи планами. Мета і задачі дослідження. Завданням цієї роботи є дослідження мож-ливості прогнозування економічних параметрів підприємств на прикладі цін на акції компаній на фондовій біржі. Метою є розроблення системи, побудо-ваної на базі нейронної мережі, здатної проаналізувати задані економічні по-казники та, на основі отриманих даних спрогнозувати їхню динаміку. Об’єкт дослідження. Процес прогнозування економічних показників з використанням елементів нейронної мережі. Предмет дослідження. Методи аналізу та обробки економічних даних за певний період. Новизна. Отримання програмного продукту, що здатний прогнозувати коливання економічних показників. Дослідження можливості реалізації мо-делі на основі нейронної мережі для виконання поставленої мети та завдань.
Master's Thesis: 88 pp., 20 figs., 27 tables, 1 appendix, 33 sources. The urgency of the problem. Globalization and population growth are con-tributing to the development of the global economy and, consequently, to the emergence of new types of economic activity and new players in the labor market. When implementing your own business it is important to properly evaluate the risks of the market, analyzing and trying to predict the movement of quotations in the near future for minimal financial losses. Relationship with working with scientific programs, plans, topics. Cur-rently, it has no specific links to scientific programs or plans. The purpose and objectives of the study. The purpose of this work is re-search possibility of forecasting the economic parameters of enterprises on the ex-ample of stock prices of companies on the stock exchange. The purpose is to de-velop a system based on a neural network, capable of analyzing specified economic indicators and, based on the data obtained, to predict their dynamics. Object of study. The process of forecasting economic performance using neural network elements. Subject of study. Methods of analysis and processing of economic data for a certain period. Novelty. Obtaining a software product capable of predicting economic fluc-tuations. Investigation of the possibility of creating a universal model based on a neural network, which would not require specialization and would be able to work effectively with any set of input data without further training.
APA, Harvard, Vancouver, ISO, and other styles
18

Блінков, Євген Миколайович. "Інформаційна технологія визначення тональності текстів." Bachelor's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/39700.

Full text
Abstract:
Структура та обсяг роботи. Пояснювальна записка дипломного проекту складається з п’яти розділів, містить 26 рисунків, 7 таблиць, 1 додаток, 17 джерел. Дипломний проект присвячений автоматизації процесів проведення аналізу тональності текстів, застосовуючи різні алгоритми та порівняння ефективності цих алгоритмів. В даному проекті описуються методи визначення тональності текстів та способи їх застосування при розробці інформаційної технології визначення тональності текстів. У розділі інформаційного забезпечення були наведені набори вхідних та вихідних даних, а також описано їх формат, структуру та призначення у програмному продукті. Розділ математичного забезпечення, насамперед, присвячений опису змістовної та математичної постановок задачі, а також ключових методів розв’язання поставленої задачі. Крім цього, наводиться обґрунтування вибору даних методів для їх реалізації у програмному продукті. У розділі програмного забезпечення наводяться засоби розробки, які були використані у даному програмному продукті, а також описується принцип роботи веб-застосування у вигляді різних діаграм. У технологічному розділі наводиться керівництво користувачу при користуванні даною програмою, а також описуються результати випробувань.
Structure and scope of work. The explanatory note of the diploma project consists of five sections, contains 26 figures, 7 tables, 1 appendix, 17 sources. The diploma project is devoted to automation of processes of the sentimental analysis of texts, applying various algorithms, and comparison of efficiency of these algorithms. This project describes the methods of sentimental analysis of texts and principles of their application in the development of information technology for text sentimental analysis. The information support section provided sets of input and output data, as well as described their format, structure and purpose in the software product. The section of mathematical support is primarily devoted to the description of meaningful and mathematical formulations of the problem, as well as key methods for solving the problem. In addition, the rationale for the choice of these methods for their implementation in the software product. The software section lists the development tools that have been used in this software product, as well as how the web application works in the form of various diagrams. The technological section provides user guidance for using this program, as well as describes the test results.
APA, Harvard, Vancouver, ISO, and other styles
19

Бріль, Андрій Сергійович, and Andriy Brilʹ. "Розробка системи підтримки прийняття рішень на основі розпізнавання зображень." Master's thesis, Тернопільський національний технічний університет імені Івана Пулюя, 2019. http://elartu.tntu.edu.ua/handle/lib/30717.

Full text
Abstract:
Дана робота присвячена розробці системи підтримки прийняття рішень на основі розпізнавання зображень, а саме їхньої сегментації. Реалізовано програмний продукт для сегментації й аналізу вхідних зображень з відображенням результатів розпізнавання. Методи й програмні засоби, які були використані для реалізації: мова програмування Python бібліотеку Keras, NumPy та TensorFlow. Практичне значення. Реалізовано систему для сегментації зображень із зручністю завантаження та їхнього аналізу і отримання змістовної інформації щодо отриманих результатів.
This paper is about developing a decision support system based on image recognition, namely their segmentation. Implemented a software product for segmenting and analyzing input images to display recognition results. Methods and tools used to implement this: Python programming language Keras library, NumPy and TensorFlow. Practical meaning. A system for image segmentation with ease of downloading and analyzing them and getting meaningful information about the results obtained.
APA, Harvard, Vancouver, ISO, and other styles
20

Помпа, Костянтин Віталійович. "Нейронна мережа для виявлення повторних новоутворень у мозку пацієнта на МРТ-зображенні." Master's thesis, Київ, 2019. https://ela.kpi.ua/handle/123456789/27735.

Full text
Abstract:
Обсяг магістерської дисертації становить 77 сторінок, містить 25 рисунків, 6 таблиць. Загалом було опрацьовано 53 джерела. Робота присвячена створенню нейронної мережі для виявлення рецидивів пухлини головного мозку. Розроблену мережу можливо застосовувати для післяопераційного моніторингу змін в області, враженій пухлиною, а також для досліджень в області нейронних мереж та медицини. Метою роботи є підвищення ефективності виявлення рецидивів пухлини мозку шляхом створення нейронної мережі для сегментації МРТ зображень. Об’єктом дослідження є нейромережа для сегментації МРТ зображень. Предметом дослідження виступає алгоритм сегментації пухлини головного мозку за допомогою нейронної мережі на зображеннях МРТ. У магістерській дисертації обґрунтовано необхідність створення інформаційної нейронної мережі, її ефективність порівняно з іншими існуючими нейромережами. Розроблена нейронна мережа дозволяє виявити рецидиви пухлин головного мозку. До того ж, архітектуру даної нейромережевої комбінації можна вдосконалити. В середовищі розробки Python створено нейромережевий ансамбль та перевірено точність розпізнавання ним пухлин головного мозку.
The volume of the master's dissertation is 77 pages, contains 25 figures, 6 tables. In total, 53 sources were processed. The work is devoted to the creation of an informative neural network for the detection of recurrence of the brain tumor. The developed system can be used for postoperative monitoring of changes in the affected area of the tumor, as well as for research in the field of neural networks and medicine. The purpose of the work is to create an informative neural network for the detection of recurrent neoplasms in the patient's brain. The object of the study is a neural network for the segmentation of MRI images. The subject of the study is the characteristics of MRI images and the information neural network tested in the development environment of Python. In the master's dissertation the necessity of creation of the informative neural network, its efficiency in comparison with other existing neural networks is substantiated. The developed neural network allows to detect recurrence of tumors of the brain. In addition, the architecture of this neural network combination can be improved. In the development environment of Python, a neural network ensemble was created and the accuracy of the recognition of the brain tumors was checked.
APA, Harvard, Vancouver, ISO, and other styles
21

Ferradi, Houda. "Integrity, authentication and confidentiality in public-key cryptography." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE045/document.

Full text
Abstract:
Cette thèse présente des résultats appartenant aux trois thèmes fondamentaux de la cryptographie à clé publique : l’intégrité, l’authentification et la confidentialité. Au sein de chaque thème nous concevons des nouvelles primitives et améliorons des primitives existantes. Le premier chapitre, dédié à l’intégrité, introduit une preuve non-interactive de génération appropriée de clés publiques RSA et un protocole de co-signature dans lequel tout irrespect de l’équité laisse automatiquement la partie lésée en possession d’une preuve de culpabilité incriminant la partie tricheuse. Le second chapitre, ayant pour sujet l’authentification, montre comme une mesure de temps permet de raccourcir les engagements dans des preuves à divulgation nulle et comment des biais, introduits à dessin dans le défi, permettent d’accroitre l’efficacité de protocoles. Ce chapitre généralise également le protocole de Fiat-Shamir à plusieurs prouveurs et décrit une fraude très sophistiquée de cartes-à-puce illustrant les dangers de protocoles d’authentification mal-conçus. Au troisième chapitre nous nous intéressons à la confidentialité. Nous y proposons un cryptosystème à clé publique où les hypothèses de complexité traditionnelles sont remplacées par un raffinement du concept de CAPTCHA et nous explorons l’application du chiffrement-pot-de-miel au langage naturel. Nos dernières contributions concernent le chiffrement basé sur l’identité (IBE). Nous montrerons comment ajouter des fonctions d’émission à l’IBE hiérarchique et comment l’IBE permet de réduire la fenêtre temporelle de risque lors de la diffusion de mises à jour logicielles
This thesis presents new results in three fundamental areas of public-key cryptography: integrity, authentication and confidentiality. In each case we design new primitives or improve the features of existing ones. The first chapter, dealing with integrity, introduces a non-interactive proof for proper RSA public key generation and a contract co-signature protocol in which a breach in fairness provides the victim with transferable evidence against the cheater. The second chapter, focusing on authentication, shows how to use time measurements to shorten zeroknowledge commitments and how to exploit bias in zero-knowledge challenges to gain efficiency. This chapter also generalizes Fiat-Shamir into a one-to-many protocol and describes a very sophisticated smart card fraud illustrating what can happen when authentication protocols are wrongly designed. The third chapter is devoted to confidentiality. We propose public-key cryptosystems where traditional hardness assumptions are replaced by refinements of the CAPTCHA concept and explore the adaptation of honey encryption to natural language messages. Our final contributions focus on identity-based encryption (IBE) showing how to add broadcast features to hierarchical IBE and how to use IBE to reduce vulnerability exposure time of during software patch broadcast
APA, Harvard, Vancouver, ISO, and other styles
22

Зайяд, Абдаллах Мухаммед. "Ecrypted Network Classification With Deep Learning." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/34069.

Full text
Abstract:
Дисертація складається з 84 сторінок, 59 Цифри та 29 джерел у довідковому списку. Проблема: Оскільки світ стає більш безпечним, для забезпечення належної передачі даних між сторонами, що спілкуються, було використано більше протоколів шифрування. Класифікація мережі стала більше клопоту з використанням деяких прийомів, оскільки перевірка зашифрованого трафіку в деяких країнах може бути незаконною. Це заважає інженерам мережі мати можливість класифікувати трафік, щоб відрізняти зашифрований від незашифрованого трафіку. Мета роботи: Ця стаття спрямована на проблему, спричинену попередніми методами, використовуваними в шифрованій мережевій класифікації. Деякі з них обмежені розміром даних та обчислювальною потужністю. У даній роботі використовується рішення алгоритму глибокого навчання для вирішення цієї проблеми. Основні завдання дослідження: 1. Порівняйте попередні традиційні методи та порівняйте їх переваги та недоліки 2. Вивчити попередні супутні роботи у сучасній галузі досліджень. 3. Запропонуйте більш сучасний та ефективний метод та алгоритм для зашифрованої класифікації мережевого трафіку Об'єкт дослідження: Простий алгоритм штучної нейронної мережі для точної та надійної класифікації мережевого трафіку, що не залежить від розміру даних та обчислювальної потужності. Предмет дослідження: На основі даних, зібраних із приватного потоку трафіку у нашому власному інструменті моделювання мережі. За 4 допомогою запропонованого нами методу визначаємо відмінності корисних навантажень мережевого трафіку та класифікуємо мережевий трафік. Це допомогло відокремити або класифікувати зашифровані від незашифрованого трафіку. Методи дослідження: Експериментальний метод. Ми провели наш експеримент із моделюванням мережі та збиранням трафіку різних незашифрованих протоколів та зашифрованих протоколів. Використовуючи мову програмування python та бібліотеку Keras, ми розробили згорнуту нейронну мережу, яка змогла прийняти корисне навантаження зібраного трафіку, навчити модель та класифікувати трафік у нашому тестовому наборі з високою точністю без вимоги високої обчислювальної потужності.
This dissertation consists of 84 pages, 59 Figures and 29 sources in the reference list. Problem: As the world becomes more security conscious, more encryption protocols have been employed in ensuring suecure data transmission between communicating parties. Network classification has become more of a hassle with the use of some techniques as inspecting encrypted traffic can pose to be illegal in some countries. This has hindered network engineers to be able to classify traffic to differentiate encrypted from unencrypted traffic. Purpose of work: This paper aims at the problem caused by previous techniques used in encrypted network classification. Some of which are limited to data size and computational power. This paper employs the use of deep learning algorithm to solve this problem. The main tasks of the research: 1. Compare previous traditional techniques and compare their advantages and disadvantages 2. Study previous related works in the current field of research. 3. Propose a more modern and efficient method and algorithm for encrypted network traffic classification The object of research: Simple artificial neural network algorithm for accurate and reliable network traffic classification that is independent of data size and computational power. The subject of research: Based on data collected from private traffic flow in our own network simulation tool. We use our proposed method to identify the differences in network traffic payloads and classify network traffic. It helped to separate or classify encrypted from unencrypted traffic. 6 Research methods: Experimental method. We have carried out our experiment with network simulation and gathering traffic of different unencrypted protocols and encrypted protocols. Using python programming language and the Keras library we developed a convolutional neural network that was able to take in the payload of the traffic gathered, train the model and classify the traffic in our test set with high accuracy without the requirement of high computational power.
APA, Harvard, Vancouver, ISO, and other styles
23

Сабодашко, Дмитро Володимирович. "Вдосконалення методів і засобів біометричної автентифікації на основі електрокардіограми." Diss., Національний університет "Львівська політехніка", 2021. https://ena.lpnu.ua/handle/ntb/56772.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Portella, Rodrigo. "Balancing energy, security and circuit area in lightweight cryptographic hardware design." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE036/document.

Full text
Abstract:
Cette thèse aborde la conception et les contremesures permettant d'améliorer le calcul cryptographique matériel léger. Parce que la cryptographie (et la cryptanalyse) sont de nos jours de plus en plus omniprésentes dans notre vie quotidienne, il est crucial que les nouveaux systèmes développés soient suffisamment robustes pour faire face à la quantité croissante de données de traitement sans compromettre la sécurité globale. Ce travail aborde de nombreux sujets liés aux implémentations cryptographiques légères. Les principales contributions de cette thèse sont : - Un nouveau système d'accélération matérielle cryptographique appliqué aux codes BCH ; - Réduction de la consommation des systèmes embarqués et SoCs ; - Contre-mesures légères des attaques par canal auxiliaire applicables à l'algorithme de chiffrement reconfigurable AES ;- CSAC : Un pare-feu sécurisé sur la puce cryptographique ; - Attaques par analyse fréquentielle ; - Un nouveau protocole à divulgation nulle de connaissance appliquée aux réseaux de capteurs sans fil ; - OMD : Un nouveau schéma de chiffrement authentifié
This thesis addresses lightweight hardware design and countermeasures to improve cryptographic computation. Because cryptography (and cryptanalysis) is nowadays becoming more and more ubiquitous in our daily lives, it is crucial that newly developed systems are robust enough to deal with the increasing amount of processing data without compromising the overall security. This work addresses many different topics related to lightweight cryptographic implementations. The main contributions of this thesis are: - A new cryptographic hardware acceleration scheme applied to BCH codes; - Hardware power minimization applied to SoCs and embedded devices; - Timing and DPA lightweight countermeasures applied to the reconfigurable AES block cipher; - CSAC: A cryptographically secure on-chip firewall; - Frequency analysis attack experiments; - A new zero-knowledge zero-knowledge protocol applied to wireless sensor networks; - OMD: A new authenticated encryption scheme
APA, Harvard, Vancouver, ISO, and other styles
25

Бєлозьорова, Яна Андріївна, Яна Андреевна Белозерова, and Yana Andriivna Bielozorova. "Метод застосування вейвлет аналізу в задачах ідентифікації мовної інформації." Thesis, Національний авіаційний університет, 2021. https://er.nau.edu.ua/handle/NAU/52196.

Full text
Abstract:
Дисертаційна робота присвячена розробці на основі апарату фрактального та вейвлет аналізу моделі та методу, що здійснюють обробку, визначення індивідуальних характеристик особи та ідентифікацію мовного сигналу. У роботі обґрунтовано необхідність використання фрактального та вейвлет аналізу для ідентифікації мовної інформації. Для сегментації мовного сигналу розроблена методологія, що використовує фрактальні характеристики сигналу. Застосування методології дозволяє виділяти вокалізовані та невокалізовані фрагменти сигналу, незалежно від мовних даних особи. Запропоновано алгоритм виділення характеристик самоподібних структур в мовному сигналі на основі аналізу максимумів вейвлет-перетворення на різних рівнях декомпозиції мовного сигналу, що дозволяє визначити параметри частоти основного тону та частот формант у вигляді кривих щільності розподілу вірогідності. Розроблений метод ідентифікації особи, що використовує методологію сегментації мовного сигналу та алгоритм виділення характеристик самоподібних структур. На основі виконаного дослідження створено програмну систему, яка по мовним записам здійснює автоматичний розрахунок мовних характеристик, виконує ранжування цих характеристик в базі даних, за визначеними в роботі критеріями, та ідентифікацію особи в мовному сигналі.
Диссертационная работа посвящена разработке на основе аппарата фрактального и вейвлет анализа модели и метода, осуществляющих обработку, определение индивидуальных характеристик личности и идентификациию голосового сигнала. В работе обоснована необходимость использования фрактального и вейвлет анализа для идентификации голосовой информации. Для сегментации голосового сигнала разработана методология, которая использует фрактальные характеристики сигнала. Применение методологии позволяет выделять вокализованные и невокализованные фрагменты сигнала, независимо от голосовых данных личности. Предложен алгоритм выделения характеристик самоподобных структур в голосовом сигнале на основе максимумов вейвлетпреобразования на разных уровнях декомпозиции голосового сигнала, что позволяет определить частоту основного тона и частот формант в виде кривых плотности распределения вероятности. Разработанный метод идентификации личности, использует методологию сегментации голосового сигнала и алгоритм выделения характеристик самоподобных структур. На основе выполненного исследования создана программная система, которая по голосовым записям осуществляет автоматический расчет голосовых характеристик, выполняет ранжирование этих характеристик в базе данных, по определенным в работе критериям, и идентификацию личности в голосовом сигнале.
The thesis is devoted to the development of the model and method that process and determine the individual characteristics of the person and the identification of the speech signal. Models and methods are based on the apparatus of fractal and wavelet analysis. The paper substantiates the need to use fractal and wavelet analysis to identify speech information. The methodology using fractal signal characteristics has been developed for speech signal segmentation. The application of the methodology allows to distinguish vocalized and unvocalized fragments of the signal. This happens regardless of the person's language data. The algorithm for selecting parameters of selfsimilar structures in a speech signal has been proposed, it based on wavelet transform maxima at different levels of voice signal decomposition. This allows us to determine the frequency parameters of the fundamental tone and the formant envelop in the form of probability density curves. The method of personal identification has been developed. This method uses the methodology of speech signal segmentation and the algorithm for selecting parameters of self-similar structures. The software system was created on the basis of the performed research. This software system automatically calculates the voice characteristics of the voice records. In addition, it performs the ranking of these characteristics in the database, according to the criteria, which was defined in the work and the identification of the person in the speech signal.
APA, Harvard, Vancouver, ISO, and other styles
26

Чапалюк, Богдан Володимирович. "Системи автоматичної медичної комп’ютерної дiагностики з використанням методiв штучного iнтелекту." Doctoral thesis, Київ, 2020. https://ela.kpi.ua/handle/123456789/39677.

Full text
Abstract:
Мета даного дисертацiйного дослiдження полягає в детальному розглядi, розробцi та удосконаленнi систем автоматичної комп’ютерної дiагностики раку легень використовуючи методи штучного iнтелекту, зокрема застосовуючи та удосконалюючи останнi досягнення в областi глибинного навчання. Для дiагностування раку легенiв в сучасних медичних закладах використовують комп’ютерну томографiю, що представляє собою тривимiрне зображення легенiв пацiєнта, отримане за допомогою рентгенiвського променю, що пошарово та поступово проходить через тканини людського тiла в рiзних напрямках, з рiзних кутiв та положень. Такий вид зображень використовується в роботi для аналiзу присутностi пухлини в легенях за допомогою згорткових нейронних мереж. Однак, такi особливi данi накладають свої складностi в розробцi систем медичного комп’ютерного дiагностування, оскiльки при роботi з ними необхiдно враховувати їхню тривимiрну природу та вiдповiднi просторовi зв’язки. Тому, в дисертацiйному дослiдженнi розглядається три основнi пiдходи для роботи з такими даними: 1. Використання двовимiрної згорткової нейронної мережi. Для кожного шару КТ знiмка застосовується згорткова нейронна мережа. Виходи мережi для кожного шару знiмку об’єднуються та фiнальний висновок робиться на основi правил навчання за набором зразкiв. 2. Використання тривимiрних згорткових нейронних мереж, якi враховують тривимiрну природу вхiдних даних та можуть вiднайти кориснi патерни використовуючи всi три просторовi вiсi. Часто, такi системи роздiляють задачу на декiлька етапiв, кожен з яких використовує тривимiрну згорткову нейронну мережу налаштовану пiд конкретну пiдзадачу. 3. Використання комбiнованої структури двовимiрної згорткової та рекурентної нейронних мереж. В такому пiдходi двовимiрну згорткову нейронну мережу використовують для представлення вхiдних даних в менш мiрному просторi шляхом навчання многовиду меншої розмiрностi. Завдяки цьому на кожному шарi КТ зображення будуть видiлятися тiльки найбiльш важливi високорiвневi ознаки. Отриманi ознаки обробляються двонаправленою рекурентною нейронною мережею з вентильним вузлом (англ. bidirectional gated recurrent neural network), яка навчається складним нелiнiйним функцiям, що описують просторовi залежностi та вплив мiж ними. Вихiд рекурентної мережi повертає ймовiрнiсть наявностi пухлини на знiмку. В рамках даного дисертацiйного дослiдження проводиться аналiз та виконується експерименти для кожного пiдходу, а отриманi результати порiвнюються з роботами iнших авторiв. Експерименти показують, що найбiльш точними є системи побудованi iз декiлькох тривимiрних згорткових нейронних мереж (одна мережа сегментує потенцiйнi проблемнi регiони, iнша класифiкує присутнiсть в таких регiонах пухлини). Однак, такi системи мають дуже великi обчислювальнi вимоги, через те що використовують операцiю тривимiрної згортки, вимоги до обчислювальної потужностi якої ростуть кубiчно зi збiльшенням розмiрностi вхiдного зображення. В такому випадку, запропонована архiтектура рекурентної згорткової нейронної мережi дозволяє отримати точнiсть роботи системи на достатньо високому рiвнi, в той же час використовуючи значно менш вимогливу до обчислювальних потужностей та пам’ятi операцiю двовимiрної згортки. Наукова новизна отриманих результатiв дисертацiї полягає в запропонованому здобувачем методi побудови комбiнованої структури системи комп’ютерної дiагностики, що полягає в поєднаннi двовимiрної згорткової та двонаправленої рекурентної нейронної мережi LSTM. На вiдмiну вiд iнших рiшень, така система враховує просторовi зв’язки мiж рiзними шарами знiмку комп’ютерної томографiї шляхом використання двонаправленої рекурентної нейронної мережi, на входi якої використовують високорiвневi ознаки сформованi за допомогою двовимiрної згорткової нейронної мережi. Високорiвневi ознаки будуються для кожного шару знiмку пацiєнта. За результатами експериментiв така архiтектура нейронної мережi змогла досягти значення AUC ROC на рiвнi 83%, що трохи нижче у порiвнянi з системами тривимiрних згорткових нейронних мереж, що показують значення AUC ROC на рiвнi 90-95%. Однак, отриманi результати є найвищими результатами для рекурентних нейронних мереж, що застосовуються для побудови систем комп’ютерної дiагностики раку легенiв. Також, запропонована архiтектура має вищу швидкодiю, що досягається шляхом використання операцiї двовимiрної згортки замiсть операцiї тривимiрної згортки, вимоги якої до обчислювальної потужностi та пам’ятi ростуть квадратично з розмiром вхiдних даних, а не кубiчно. Для ефективного навчання комбiнованої структури згорткової рекурентної нейронної мережi був запропонований механiзм м’якої уваги, що надав можливiсть нейроннiй мережi отримати iнформацiю про локацiю пухлини пiд час навчання. Згiдно проведених експериментiв, такий пiдхiд допомiг покращити показники метрики AUC ROC бiльш нiж на 8%. Практичне значення отриманих результатiв полягає в розширенi та удосконаленi iснуючих методiв побудови систем комп’ютерної дiагностики. Запропонована комбiнована структура згорткової нейронної мережi та двонаправленої рекурентної мережi дозволяє отримати достатньо високу точнiсть роботи системи та пiдвищує точнiсть роботи системи у порiвнянi з використанням звичайних рекурентних нейронних мереж. Також, така система вiдзначається використанням меншої кiлькостi ресурсiв чим у тривимiрної згорткової нейронної мережi. Проведенi експерименти та аналiз iснуючих методiв систем комп’ютерної дiагностики дозволив сформулювати необхiднi вимоги та пiдходи, якi потрiбно використовувати в залежностi вiд прiоритету швидкодiї чи точностi роботи системи. Запропонований механiзм м’якої уваги дозволяє значно пiдвищити ефективнiсть навчання комбiнованих архiтектур згорткових рекурентних нейронних мереж. Результати дисертацiйного дослiдження впроваджено в НДР за темою “Розроблення та дослiдження методiв обробки, розпiзнавання, захисту та зберiгання медичних зображень в розподiлених комп’ютерних системах” за номером держ реєстрацiї 0117U004267 (тема №2021п, код КВНТД I.1 01.05.02). Також, основнi результати роботи викладенi в 6 друкованих наукових роботах, з них двоє статей в наукових фахових виданнях України, 2 опублiковано в iноземних журналах, що iндексується в Googel Scholar та iнших базах даних, 1-а стаття у виданнi, що входить до Web of Science Core Collection та SCOPUS. Також опублiковано одну роботу в тезах доповiдей мiжнародної наукової конференцiї.
APA, Harvard, Vancouver, ISO, and other styles
27

Клименко, Ірина Анатоліївна. "Методи та засоби підвищення ефективності обробки інформації в реконфігуровних комп’ютерних системах на базі ПЛІС." Doctoral thesis, Київ, 2017. https://ela.kpi.ua/handle/123456789/19095.

Full text
Abstract:
У дисертації наведено теоретичне узагальнення і нове вирішення наукової проблеми, що полягає в розвитку теорії організації обробки інформації в комп’ютерних системах на ПЛІС з урахуванням їх функціональних та апаратурних обмежень. Запропоновані методи та засоби включають в себе взаємозв’язані вирішення завдань оптимізації процесу обробки інформації шляхом визначення оптимальної зернистості обчислень, а також зменшення накладних витрат процесу відображення задач на реконфігуровне обчислювальне середовище, що в цілому забезпечує підвищення ефективності обробки інформації в реконфігуровних обчислювальних системах на ПЛІС. Запропоновано нову стратегію взаємної адаптації розв’язуваних задач і обчислювального середовища на ПЛІС, що ґрунтується на варіюванні зернистістю обчислень під час розв’язання задач великої розмірності, та вдосконалено концепцію реалізації локальних розподілених засобів керування відображенням задач на реконфігуровне обчислювальне середовище, що підвищує ефективність врахування фізичних параметрів кристалів ПЛІС на всіх рівнях реалізації реконфігуровних комп’ютерних систем.
APA, Harvard, Vancouver, ISO, and other styles
28

Повхан, Ігор Федорович. "Методи та принципи побудови дерев класифікації дискретних об’єктів для інтелектуального аналізу даних." Diss., Національний університет "Львівська політехніка", 2021. https://ena.lpnu.ua/handle/ntb/56709.

Full text
Abstract:
Дисертаційна робота присвячена дослідженню особливостей логічних та алгоритмічних дерев класифікації, деяких питань їх застосування в задачах інтелектуального аналізу даних, розпізнавання образів шляхом створення ефективних моделей класифікації та аналізу великих масивів даних, універсальних систем розпізнавання дискретних об’єктів. Проаналізовано та досліджено деревоподібні моделі класифікації різних типів. Розроблено комплексний метод побудови деревоподібних моделей класифікації, який базується на поетапній апроксимації масиву початкових даних НВ набором відібраних та оцінених незалежних алгоритмів розпізнавання. Розроблено метод Т – опорних множин, який полягає у відборі, фіксації набору ознак разом зі своїми значеннями – класифікаторів в структурі ЛДК. Розроблено моделі та методи побудови структур АДК двох типів, де отримані дерева класифікації складаються з різних алгоритмів та методів розпізнавання й в свою чергу представляють собою нові алгоритми, схеми класифікації. Розроблено модель та метод побудови обмежених структур АДК, які спрямовані на добудову лише тих шляхів, ярусів конструкції дерева класифікації, де є найбільша кількість помилок усіх типів класифікації. Розроблено методи знаходження подібності конструкцій логічних дерев в задачах мінімізації їх структур. Здійснено числову оцінку впливу процедури обрізки побудованого ЛДК – перестановки ярусів, рівнів, блоків структури ЛДК в конструкції регулярного логічного дерева на його загальну складність. Здійснено оцінку збіжності процедури побудови моделей дерев класифікації, запропонованих в дослідженні структур АДК для умов слабкого та сильного розділення класів початкової НВ. Present thesis is devoted to studying the specific features of both logical and algorithmic classification trees, some issues of their use in the problems of intelligence data analysis and image recognition by creating the efficient models of classification and analysis of large and super-large data arrays and universal systems of discrete object recognition. Tree-like classification models of various types are analyzed and studied. The concept of constructing tree-like classification models based on a step-by-step approximation of an array of initial TS data with a set of selected and evaluated independent recognition algorithms is proposed. The concept of T – reference sets is proposed, which consists in selecting and fixing a set of features together with their classifier values in the LCT structure. Models and methods for constructing ACT structures of two types are developed, where the resulting classification trees consist of various algorithms and recognition methods, which in turn represent new algorithms and classification schemes. A model and method for constructing bounded ACT structures are developed, which are aimed at completing only those paths, tiers of the classification tree structure where there are the largest number of errors of all classification types. Methods for finding the similarity of logical tree structures in problems of minimizing their structures are developed. A numerical estimate of the impact of the pruning procedure of the constructed LCT – rearrangement of tiers, levels, and blocks of the LCT structure in the construction of a regular logical tree on its overall complexity is given. The convergence of the procedure for constructing classification tree models proposed in the study of ACT structures for conditions of weak and strong separation of initial TS classes is estimated. Диссертационная работа посвящена исследованию особенностей логических и алгоритмических деревьев классификации, некоторых вопросов их применения в задачах интеллектуального анализа данных, распознавания образов путем создания эффективных моделей классификации и анализа больших массивов данных, универсальных систем распознавания дискретных объектов. В работе исследована и решена актуальная научно-прикладная проблема развития теории анализа и синтеза деревьев решений, разработки моделей, методов, прикладного инструментария интеллектуального анализа данных на основе логических и алгоритмических деревьев классификации с большей точностью, уменьшенной сложностью моделей и повышенной эффективностью классификации дискретных объектов. Проанализированы и исследованы древовидные модели классификации различных типов. Предложен комплексный метод построения древовидных моделей классификации, который базируется на поэтапной аппроксимации массива начальных данных набором отобранных и оцененных независимых алгоритмов распознавания. Предложен метод Т – опорных множеств, который заключается в отборе, фиксации набора признаков вместе со своими значениями – классификаторов в структуре ЛДК. Разработаны модели и методы построения структур АДК двух типов, где полученные деревья классификации состоят из различных алгоритмов и методов распознавания и в свою очередь представляют собой новые алгоритмы, схемы классификации. Разработана модель и метод построения ограниченных структур АДК, которые направлены на достройку только тех путей, ярусов конструкции дерева классификации, где есть наибольшее количество ошибок всех типов классификации. Разработаны методы нахождения сходства конструкций логических деревьев в задачах минимизации их структур. Дана числовая оценка влияния процедуры обрезки построенного ЛДК – перестановки ярусов, уровней, блоков структуры ЛДК в конструкции регулярного логического дерева на его общую сложность. Дана оценка сходимости процедуры построения моделей деревьев классификации, предложенных в исследовании структур АДК для условий слабого и сильного разделения классов начальной ОВ. Разработан программный инструментарий построения структур ЛДК/АДК (моделей деревьев классификации различных типов), который позволяет решать широкий спектр разнотипных прикладных задач распознавания образов. По результатам диссертационного исследования проведено экспериментальное моделирование, апробация разработанных моделей и методов на практических задачах, а определения эффективности предложенных в работе методов построения АДК осуществлено на основе интегральных показателей качества моделей.
APA, Harvard, Vancouver, ISO, and other styles
29

Maio, Paulo Alexandre Fangueiro Oliveira. "An extensible argumentation model for ontology matching negotiation." Doctoral thesis, 2015. http://hdl.handle.net/10348/5339.

Full text
Abstract:
Tese de Doutoramento em Engenharia Electrotécnica e de Computadores
With the advent of new technological and socio-organizational paradigms raised by the globalization phenomenon, information and communication systems are facing unprecedented levels of distribution, heterogeneity and evolution. In this context, many applications/scenarios see the ontology matching process as an appropriate approach to overcome such heterogeneity since it is able to define an alignment between two ontologies at the conceptual level, which in turn is further exploited to enhance interoperability between applications and/or systems. Due to the subjective nature of ontologies, context, preferences, interests and alignment requirements, different systems have contradictory and inconsistent perspectives about the alignment. Consequently, conflicts arise between systems about the best alignment to use. To address such conflicts, ontology matching negotiation arises as promising approach enabling systems to establish a consensual alignment between their ontologies. There are two kinds of ontology matching negotiation approaches: (i) relaxation-based approaches and (ii) argument-based approaches. The first contribution of this thesis is the identification and description of several limitations in the state-of-the-art. These limitations drove the research efforts described in this thesis in order to overcome them. This thesis focus on researching argumentation-based (semi-) automatic negotiation approaches and methodologies that exploit existing ontology matching tools in order to permit heterogeneous applications/systems to overcome potentially existing divergences in establishing a consensual ontology alignment, and consequently facilitating their interoperability. Despite the focus of the thesis, several of the presented contributions go beyond the ontology matching negotiation domain, such that they are also applicable in a diversity of domains including e-commerce, legal reasoning and decision making. In this particular, two generic contributions are highlighted. The first generic contribution is the proposal of an iterative and incremental argument-based negotiation process that promotes the adoption of an explicit, formal and extensible specification of a shared argumentation model between argument-based negotiating agents. Argumentation is adopted by the negotiating agents as a modeling formalism for theoretical and practical reasoning and, therefore, governing the internal and external agents’ behavior. The second contribution concerns the specification of a general argumentation framework that (i) comprehends a conceptualization layer to capture the semantics of the argumentation data employed in a specific context and (ii) provides modularity and extensibility features that simplify its adoption by argumentation systems. Yet, it also adopts a general and intuitive argument structure which is largely accepted by the argumentation community. Finally, a third contribution concerns the application of the previous generic contributions to the ontology matching negotiation domain. The novel argument-based negotiation approach exploits and profits from these generic contributions to overcome (most of) the limitations previously identified in the state-of-the-art on argument-based ontology matching negotiation. Accordingly, the dichotomy and the symbiosis between the generic contributions and ontology matching negotiation contributions are intrinsic and an essential part of this thesis.
APA, Harvard, Vancouver, ISO, and other styles
30

Чорна, Іванна Іванівна. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/30686.

Full text
Abstract:
Сучасний рівень медичного дослідження черепно-лицевої хірургії дозволяє заглянути всередину об'єкта, тим самим діагностувати безліч патологій на різних стадіях. До таких видів досліджень відноситься комп'ютерна томографія, за допомогою якої можна отримати набори томографічних знімків. На сьогоднішній день питання про методи обробки та аналізу медичних зображень є актуальним і важливим у зв'язку із застосуванням на різних етапах діагностики сучасної обчислювальної техніки. Враховуючи особливості медичних знімків, метою магістерської роботи є визначення алгоритму дослідження томографічних знімків для тривимірної візуалізації морфологічних характеристик патологій в черепно-лицьової області. Для досягнення поставленої мети необхідно вирішити наступні задачі: позбавитись від шуму, виділити найбільш інформативні об'єкти та границі зображення, визначити метод виділення патологій. Для вирішення поставлених задач використовувались методи лінійної і нелінійної фільтрації, операції математичної морфології Серра, диференційні оператори виділення границь, операції дзеркального відображення здорової сторони.
APA, Harvard, Vancouver, ISO, and other styles
31

Гупало, Тарас Олегович. "Програмна реалізація репозитарію шаблонів проектування для розробки програмних архітектур." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/30688.

Full text
Abstract:
Метою проектування є розгляд теоретичних та практичних засад створення репозиторію альтернативної архітектури, маючи набір загальних патернів і архітектур що реалізують різні модулі програми. Метою проекта є розгляд теоретичних та практичних засад створення та управління репозиторіем патернів і архітектур. Категоризація для побудови рапозиторію для каркасів архітектур і патернів. Предметом дослідження є програмне забезпечення теоретичні засади оцінки альтернативних архітектур та програмній комплект що формую набір альтернативних архітектур після чого проводиться порівняльна оцінка їх та загальний вибір оптимальнішої архітектури виходячи з експертних оцінок.
APA, Harvard, Vancouver, ISO, and other styles
32

Чорна, Іванна Іванівна. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31364.

Full text
Abstract:
Для того щоб розбиратися розмаїтті лікарських засобів, потрібно їх класифікувати. Для цього використовують різні системи їх класифікації. Проблема класифікації ліків є дуже важливою, оскільки дозволяє систематизувати підходи як для застосування відомих, так і створення нових лікарських засобів. Існує три основних типи класифікації лікарських засобів: за хімічною будовою; за джерелами походження; за лікувальною дією. Тому метою роботи є визначити завдання та вимоги для систем класифікації лікарських засобів. Описати найпоширеніші системи класифікації лікарських засобів. Виділити області застосування систем класифікації лікарських засобів. Вивчено інформаційні джерела з медичного і фармацевтичного товарознавства, електронні ресурси та довідники, що відображають класифікацію лікарських засобів, а також нормативні правові акти і інформаційні джерела, які регулюють оптову та роздрібну реалізацію лікарських засобів, діяльність аптек і аптечного складу. В результаті розроблено програмний засіб у вигляді нейронної мережі для класифікації лікарських засобів.
APA, Harvard, Vancouver, ISO, and other styles
33

Гупало, Тарас Олегович, and Taras Hupalo. "Програмна реалізація репозитарію шаблонів проектування для розробки програмних архітектур." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31365.

Full text
Abstract:
Метою проектування є розгляд теоретичних та практичних засад створення репозиторію альтернативної архітектури, маючи набір загальних патернів і архітектур що реалізують різні модулі програми. Метою проекта є розгляд теоретичних та практичних засад створення та управління репозиторіем патернів і архітектур. Категоризація для побудови рапозиторію для каркасів архітектур і патернів. Предметом дослідження є програмне забезпечення теоретичні засади оцінки альтернативних архітектур та програмній комплект що формую набір альтернативних архітектур після чого проводиться порівняльна оцінка їх та загальний вибір оптимальнішої архітектури виходячи з експертних оцінок.
APA, Harvard, Vancouver, ISO, and other styles
34

Чорна, Іванна Іванівна, and Ivanna Chorna. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31375.

Full text
Abstract:
Проблема класифікації ліків є дуже важливою, оскільки дозволяє систематизувати підходи як для застосування відомих, так і створення нових лікарських засобів. Існує три основних типи класифікації лікарських засобів: за хімічною будовою; за джерелами походження; за лікувальною дією. Тому метою роботи є визначити завдання та вимоги для систем класифікації лікарських засобів. Описати найпоширеніші системи класифікації лікарських засобів. Виділити області застосування систем класифікації лікарських засобів. Вивчено інформаційні джерела з медичного і фармацевтичного товарознавства, електронні ресурси та довідники, що відображають класифікацію лікарських засобів, а також нормативні правові акти і інформаційні джерела, які регулюють оптову та роздрібну реалізацію лікарських засобів, діяльність аптек і аптечного складу. В результаті розроблено програмний засіб у вигляді нейронної мережі для класифікації лікарських засобів.
APA, Harvard, Vancouver, ISO, and other styles
35

Caldeira, Maria Cristina Graça. "Ontologias para ambientes arqueológicos." Master's thesis, 2015. http://hdl.handle.net/10348/5128.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Informática
Os vestígios arqueológicos são elementos importantes das nossas cidades, permitindo reconhecer visualmente, por vezes unicamente de uma forma parcial, qual o seu aspeto original, representando um importante legado para as gerações futuras. A necessidade de obter uma representação digital desses elementos levou à criação de ontologias específicas para a área da arqueologia. Porém, essas ontologias são demasiado genéricas e, geralmente, não são suficientes para descrever com o detalhe necessário, os sítios arqueológicos. Neste âmbito, este trabalho tem como principal objetivo efetuar um estudo sobre as ontologias existentes para a área da arqueologia e identificar o seu potencial para descrever sítios arqueológicos. O trabalho iniciou com a análise de um conjunto de ontologias, tendo sido selecionadas duas delas, dado o seu potencial para a caracterização de sítios arqueológicos. Para identificar o potencial de cada uma dessas ontologias optou-se por uma metodologia de estudo de caso. Assim, as duas ontologias em questão foram aplicadas num caso de estudo, a Igreja Matriz de Sernancelhe, de modo a identificar os seus pontos fortes e fracos para esta área de aplicação. Para a representação de uma grande variedade de monumentos arqueológicos, o CityGML é uma ontologia que abrange um grande leque de representação de monumentos. Porém, a criação de um ficheiro CityGML pode ser uma tarefa complexa e demorada. A segunda ontologia apesar de ser de fácil compreensão e o processo de criação ser rápido e simples, por enquanto, a implementação existente só possibilita a representação de monumentos do tipo Igreja. Nenhuma das ontologias satisfaz, de uma forma isolada, os requisitos necessários para efetuar uma representação 3D de um monumento, mas em conjunto com outras ontologias obtém-se resultados com muito mais abrangência, quer a nível de representação quer ao nível da complexidade do objeto a representar, permitindo maior detalhe através de uma ontologia em detrimento de outra sem esse mesmo nível de representação, enriquecendo o resultado final.
The archaeological remains are important elements of our cities, enabling to visually recognize, sometimes only partially, what was its original aspect, representing an important legacy for future generations. The need to obtain a digital representation of these elements led to the creation of ontologies specific to the field of archaeology. However, these ontologies are too generic and, generally, are not sufficient to describe with the necessary detail, the archaeological sites. In this context, this paper has as main objective to conduct a study on the existing ontologies for the area of archaeology and identify their potential to describe archaeological sites. The work began with the analysis of a set of ontologies, having been selected two of them, given their potential for characterization of archaeological sites. To identify the potential of each of these ontologies a case study methodology was used. Thus, the two ontologies in question were applied in a case study, the Igreja (mother church) of Sernancelhe in order to identify their strengths and weaknesses for this application area. For the representation of a wide variety of archaeological monuments, the CityGML is an ontology covering a wide range of representation of monuments. However, the creation of a CityGML file can be complex and time-consuming. The second ontology despite being easy to understand and the process of creation be quick and simple, for the time being, the existing implementation only allows the representation of monuments like Church. Alone, none of the ontologies satisfies, the conditions required to make a 3D representation of a monument, but in conjunction with other ontologies are obtained results with much more coverage, both at the level of representation and in terms of complexity of the object to represent, allowing greater detail through an ontology in detriment of another without that same level of representation, enriching the final result.
APA, Harvard, Vancouver, ISO, and other styles
36

Costa, Luís Filipe Macedo. "Inteligência artificial aplicada à monitorização automática de alimentação de idosos." Master's thesis, 2016. http://hdl.handle.net/10348/6460.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Informática
A alimentação é um dos fatores que mais influência a saúde das pessoas e ainda mais a das pessoas mais velhas. Com o envelhecimento populacional dos últimos anos, o número destas pessoas, a viver sozinhas e que precisam de acompanhamento, aumentou muito. O acompanhamento institucional não é desejado pelos próprios e, quando necessário, tem custos muito elevados. Neste contexto, a monitorização à distância apresenta-se como uma solução que permite prolongar a sua permanência em casa. A monitorização da alimentação destaca-se, particularmente, por permitir a deteção precoce de problemas de saúde. Tradicionalmente, esta monitorização realiza-se com base em autorrelato, que é um método pouco rigoroso e, frequentemente, considerado como um “fardo pesado”. Em toda a literatura e estudos existentes, até à data, não se conhecem soluções totalmente automáticas e adequadas à monitorização de idosos. Neste contexto, propõe-se um sistema de monitorização automática de alimentação, pensado para a monitorização de idosos, no seu ambiente natural. O sistema analisa as articulações do esqueleto humano, fornecidas pelo sensor Microsoft Kinect, dirigido para uma mesa (cenário proposto), deteta os gestos de alimentação, classifica-os com modelos ocultos de Markov (Hidden Markov Models) e estima a alimentação do utilizador. Foi implementado um protótipo demonstrativo para detetar e classificar gestos de alimentação, tendo sido testado com gestos de 8 utilizadores diferentes. Os gestos foram organizados em 3 grupos principais: comer sopa, comer prato principal e beber. Foram usados 689 gestos para teste de deteção, tendo o sistema obtido 77% de verdadeiros positivos, 22% de falsos positivos e de 23% falsos negativos. A classificação foi feita com 3 métodos propostos, tendo sido utilizados 231 gestos para teste. No método 1 (conta ocorrências), o sistema obteve 78% de classificações corretas para a sopa, 87% para o prato e 57% para os gestos de beber. No método 2 (classificação ponderada dos braços direito e esquerdo), 80% para a sopa, 80% para o prato e 47% para os gestos de beber. E, por fim, no método 3 (gestos da mão direita vs. gestos da mão esquerda), 70% para a sopa, 78% para o prato e 60% para os gestos de beber. As taxas obtidas de deteção e classificação permitem caracterizar a alimentação de uma pessoa (idosa), no seu ambiente natural, no entanto, será desejado melhorar o seu desempenho.
Eating behavior is one of the factors that influences people’s health the most and even more in older people. With the population aging in the latest years, the number of these people, living alone and needing support, has highly increased. Institutional support is not wanted by themselves and, when needed, has high costs. In this context, remote monitoring is presented as a solution allowing to extend their permanence at home. Eating monitoring stands out, particularly, by allowing for premature detection of health problems. Traditionally, this kind of monitoring is achieved based in self-report, which is an inaccurate method and, frequently, considered as a “heavy burden”. In all the literature and existing studies, until today, there are no known automatic solutions that are adequate to monitor elderly people. In this context, we propose an automatic eating behavior monitoring system, thought to monitor elderly people, in their natural environment. The system analyzes the coordinates of the human skeleton, provided by the Microsoft Kinect sensor, facing to a table (proposed scenario), detects eating gestures, classifies them with Hidden Markov Models (HMMs) and estimates the user’s feeding behavior. A demonstrative prototype to detect and classify eating gestures was implemented and tested with gestures of 8 different users. The gestures were organized in 3 main groups: eat soup, eat main dish and drink. 689 gestures were used to test the detection and the system obtained 77% of true positives, 22% false positives and 23% false negatives. The classification was done with 3 proposed methods and 231 gestures were used for test. In method 1 (count occurrences), the system obtained 78% of correct classifications for soup, 87% for main dish and 57% for the drinking gestures. For method 2 (weighted classification of the right and left arms), 80% for soup, 80% for main dish and 47% for the drinking gestures. And, lastly, for method 3 (right hand gestures vs. left hand gestures), 70% for soup, 78% for main dish and 60% for the drinking gestures. The obtained detection and classification rates allow to characterize the eating behavior of a person (elder), in his natural environment, although, its performance should be improved.
APA, Harvard, Vancouver, ISO, and other styles
37

Silva, Emanuel Fernando Cunha. "Ontology-based representation, transformation, maintainability and staging of multiuser and multi-domain choreographies in multiple virtual worlds." Doctoral thesis, 2015. http://hdl.handle.net/10348/5220.

Full text
Abstract:
Tese de Doutoramento em Informática
No contexto de ensino e treino, a utilização de novas ferramentas tecnológicas para auxiliar a implementação das diversas estratégias de ensino/aprendizagem tem sido amplamente adotada. Os mundos virtuais têm sido vistos como um dos artefactos tecnológicos com maior potencial para uso nesta área, uma vez que proporcionam uma plataforma imersiva e colaborativa onde os seus utilizadores podem desenvolver as atividades educativas livremente ou seguindo coreografias com ações e regras bem definidas. Uma coreografia é a descrição de um conjunto de ações que podem ou devem ser executadas por um grupo de personagens, humanos ou virtuais, de acordo com regras específicas e objectivos a alcançar. Devido à elevada quantidade de mundos virtuais existentes, com diferentes características, funcionalidades, vocabulário e API disponíveis, a criação de uma coreografia é feita muito à medida dos mundos virtuais a que se destinam apresentando, assim, fortes dependências a essas plataformas, dificultando a sua aplicação a mundos virtuais distintos. Esta tese foca-se em fornecer um contributo no sentido de facilitar a criação, adaptação e encenação de uma coreografia em múltiplos mundos virtuais. A primeira contribuição desta tese, a partir da qual foram desenvolvidos os esforços de pesquisa, foi identificar e descrever os principais problemas de dependências das coreografias aos mundos virtuais, bem como as limitações encontradas no estado da arte. Para endereçar o problema em mãos, foram escolhidas ontologias como modelos de dados e o paradigma MDE (Model-Driven Engineering) como método de desenvolvimento das coreografias. A segunda contribuição foi a proposta de uma ontologia para representar de forma abstracta e genérica uma coreografia, independente de domínios de aplicação e de mundos virtuais. A terceira contribuição diz respeito à arquitetura de um sistema que permite representar, adaptar e encenar uma coreografia em, potencialmente, qualquer mundo virtual. Para capturar e representar uma coreografia multiutilizador e multi-domínio é adoptada uma abordagem baseada em ontologias com vários níveis de abstração. É também proposta uma abordagem orientada por modelos e um conjunto de processos que, usando mapeamentos entre as diversas ontologias permite a construção automática de uma coreografia específica para uma plataforma a partir de uma coreografia independente de plataformas, contribuindo assim, para a redução do tempo e esforço no desenvolvimento das coreografias. Para isso, o paradigma MDE foi adotado e adaptado, para que os modelos possam refletir duas dimensões de independência: independência em relação à plataforma (tal como no MDE) e independência em relação ao domínio de aplicação. É também apresentada a arquitetura de um componente para gerir a encenação de uma coreografia no mundo virtual explorando as vantagens proporcionadas pelas características intrínsecas às ontologias, tais como, verificação da consistência da base de conhecimento, de regras e classificação automática de instâncias. As ideias e processos propostos no contexto desta tese foram implementados e testados usando vários cenários de diferentes domínios de aplicação e encenados em múltiplos mundos virtuais.
In the context of education and training, the use of new technological tools to assist the implementation of various teaching/learning strategies has been widely adopted. Virtual worlds have been seen as one of the technological artifacts with greatest potential for use in this area, since they provide an immersive and collaborative platform where users can freely develop educational activities, or follow choreographies with well-defined actions and rules. A choreography is a description of a set of actions that may or must be performed by a group of characters, either human or virtual, according to specific rules and goals to be achieved. Due to the large amount of existing virtual worlds with different features, functionalities, vocabulary and available APIs, a choreography is tailored to the target virtual worlds, thus having strong dependencies to these platforms, hindering its application to different virtual worlds platforms. This thesis focuses on providing a contribution to facilitate the creation, adaptation and staging of a choreography in multiple virtual worlds. The first contribution of this thesis, from which the research efforts were made, was to identify and describe the main dependency problems of the choreography to virtual worlds, as well as the limitations found in the state of the art. To address the problem in hands, ontologies were chosen to represent data models, and the MDE (Model-Driven Engineering) paradigm was adopted as the choreography development method. The second contribution was the proposal of an ontology to represent a choreography in an abstract and generic fashion, independent of any application domain and virtual world. The third contribution concerns a system architecture that allows representation, adaptation and staging of a choreography in potentially any virtual world. To capture and represent a multiuser and multi-domain choreography, an approach based on ontologies with multiple levels of abstraction is adopted. It is also proposed a modelling-driven approach and a set of processes that, through mappings between ontologies, enable the automatic construction of a platform-specific choreography from a platform independent one, thus reducing the time and effort of the choreography development. In order to do this, the MDE paradigm was adopted and adapted in a way where models can reflect two dimensions of independence: platform independence (as in MDE) and application domain independence. The architecture of a component that manages the staging of a choreography within the virtual world is also presented, exploring the advantages provided by the intrinsic characteristics of ontologies, such as consistency checking, checking rules and dynamic classification of instances. The proposed ideas and processes in the context of this thesis have been implemented and tested using various scenarios of different application areas and staged in multiple virtual worlds.
APA, Harvard, Vancouver, ISO, and other styles
38

Valente, José Carlos Faceira. "Deteção de veículos para caracterização de tráfego urbano." Master's thesis, 2017. http://hdl.handle.net/10348/7336.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
Nos dias de hoje, muitas horas são passados dentro de automóveis em movimento ou parados em filas de trânsito. Para muitas cidades, o crescente desenvolvimento urbano e modo de vida dos cidadãos, face às infraestruturas dis- poníveis, provoca engarrafamentos e situações anómalas no trânsito. Os principais parâmetros de trânsito utilizados para definição e classificação dos níveis de trânsito são, entre outros, a velocidade e o número de veículos. Estes parâmetros são calcu- lados recorrendo a informação recolhida diretamente nas vias, através de sensores fixos instalados nas mesmas, e.g. câmaras de vídeo e inductive loops. Do ponto do vista do automobilista, saber de modo preventivo o nível de congestionamento de uma via permite tomar uma opção adequada e consciente, sendo esta vantajosa quer para o próprio automobilista, pois escolhe o percurso mais eficiente; quer para o trânsito, o qual pode fluir de modo a não potenciar o congestionamento; quer para o meio ambiente, através da redução do consumo de combustível, tornando assim as cidades mais sustentáveis, o "green thinking". Esta possibilidade implica a capaci- dade de deteção de automóveis. Os sistemas existentes atualmente para a deteção de veículos são diversificados, cada um com as suas vantagens e desvantagens, e um dos critérios de escolha é a autonomia. O objetivo deste projeto é o desenvolvi- mento de um sistema protótipo, com consumo energético reduzido, capaz de detetar veículos, que é posteriormente integrado num outro projeto já implementado e em funcionamento na cidade de Vila Real. Neste sistema, o protótipo vai ser integrado numa rede de sensores sem fios, que envia informações referentes à passagem de veículos para uma estação base. A deteção dos veículos é feita recorrendo a um sensor magnético, aliado a um microcontrolador capaz de estabelecer comunicações sem fios. O protocolo de comunicação entre protótipo e estação base é baseada no padrão IEEE802.15.4.
Nowadays, people spend a lot of time inside their cars, either in movement or stopped in traffic jams. In many cities, the increasing urban development and its citizen lifestyle, in comparison with the available infrastructure, cause a lot of abnormal situations and traffic complications. The main traffic parameters used to define and classify traffic congestion levels, among others, are vehicle speed and vehicle count. These parameters are calculated using information collected in the roads, through installed fixed sensors, like video cameras and inductive loops. From the driver's point of view, being able to know in first hand the traffic condition will allow him to make a proper and conscious decision, which is advantageous for the driver himself, because he chooses the most efficient route; it is also advanta- geous for the traffic itself, which can ow smoothly without any congestion; and advantageous for the environment, through the reduction of the fuel consumption, adopting a "green thinking" and making cities more sustainable. Such a system re- quires the ability to detect vehicles. There is a diversity of systems that can detect vehicles, each one of them having both advantages and disadvantages. One of the main selection criteria is the autonomy. The main goal of this project is to develop a low power system that can detect vehicles. This system will be integrated in a ongoing project already fully working in Vila Real. In this ongoing project, this system will be implemented in a wireless sensor network, which sends information about traffic ow to a central node. The detection of vehicles is done using magnetic sensors, connected to a microcontroller with wireless communications capabilities. The communication protocol is based on IEEE 802.15.4.
APA, Harvard, Vancouver, ISO, and other styles
39

Aguirre, Carlos Augusto Fonseca. "Predictive maintenance in oil and gas offshore drilling." Master's thesis, 2011. http://hdl.handle.net/10348/5776.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e Computadores
A manutenção dos equipamentos utilizados é vital na operação de perfuração. Na verdade, esta é a espinha dorsal para o desenvolvimento de uma operação eficiente e contínua de todo o processo. O processo de perfuração offshore de petróleo e gás é confrontado permanentemente com complexos problemas técnicos e ambientais. O estudo descreve os processos de perfuração e de determinação de possíveis reservatórios de petróleo. É feita uma abordagem ao equipamento utilizado no processo de perfuração e métodos de manutenção diferentes, usados para restaurar a qualidade do processo. Este estudo usou sensores disponíveis no mercado que têm a capacidade de detectar sólidos no processo de lubrificação, e que podem colocar em risco todo o sistema. É referido que os sinais analógicos e digitais são utilizados para transferir as informações transmitidas pelos sensores ao computador responsável pelo armazenamento. O sistema utiliza também PLCs, Controlador Lógico Programável, a fim de gerenciar e controlar todo o processo de perfuração. O estudo utiliza Intranet e integra o uso de VPN, Rede Privada Virtual, para transferir e proteger os dados que precisam ser armazenados e disponíveis para os operadores em terra. Este estudo utiliza um sistema que inclui a aplicação de controlador de domínio (Domain Controller) que é definido como o servidor principal do sistema; este servidor é gerado por Directoria Activa, com o intuito de enviar a informação para os operadores em terra. O sistema também integrou o uso de sistemas especializados e inteligência artificial, a fim de gerenciar a automatização de relatórios de manutenção.
The maintenance of equipment used in drilling operations is vital. In truth, this is the backbone for developing efficiency and continued operation throughout the process. The process of offshore drilling for both oil and gas is constantly faced with complex technical and environmental challenges. This study outlines the process of oil drilling, and the identification of possible oil reservoirs. It also considers the equipment used in the drilling process and different maintenance methods used in order to restore quality of production. This study has used sensors that are available in the market that have the ability to detect solids in the lubrication process and that can jeopardize the entire system. Analog and Digital Signals are referred to as a means of transferring the information forwarded by the sensors to the main storage computer. The system also uses Programmable Logic Controllers (PLCs) in order to manage and control the whole drilling process. This study uses Intranet, and has integrated the use of Virtual Private Network in order to transfer and protect the data that needs to be forwarded to the server and to the onshore operators. Furthermore, this study uses a system which includes the application of Domain Controller that is set as the main server of the system; this server is generated by Active Directory in order to send information to the onshore operators. The system also integrated the use of Expert System and Artificial Intelligence in order to manage the automation of maintenance reporting.
APA, Harvard, Vancouver, ISO, and other styles
40

Форись, Іван Анатолійович. "Математичне та програмне забезпечення комп’ютерних систем керування транспортним засобом." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/29751.

Full text
Abstract:
Дипломну робота магістра присвячено створенню комп’ютерної системи керування поворотом всіх коліс транспортного засобу, згідно заданої поведінки. Розглянуто комп’ютерні системи автоматизації керування транспортним засобом, рівні автоматизації. Розглянуто і проаналізовано системи задіяні у керуванні поворотом коліс транспортного засобу, а також актуальні транспортні засоби із усіма керованими колесами. Проаналізовано поведінку транспортних засобів, що рухаються по рейках та звичайних дорожніх автомобілів, автобусів та вантажівок із різною кількістю поворотних осей. Також розглянуто криві Безьє для побудови траєкторії руху транспортного засобу. Розглянуто та проаналізовано апаратне забезпечення нейронних мереж. Розроблено, проведено навчання та протестовано нейронну мережу, що керує всіма осями транспортного засобу задля реалізації поведінки руху по колії. Також розроблено та описано алгоритм та логіку визначення початкових координат осей та траєкторії руху транспортного засобу.
APA, Harvard, Vancouver, ISO, and other styles
41

Волошин, Назарій Володимирович. "Розробка та дослідження автоматизованої системи розпізнавання номерних знаків транспортних засобів." Master's thesis, 2018. http://elartu.tntu.edu.ua/handle/lib/23731.

Full text
Abstract:
В даній дипломній роботі досліджено методи та алгоритми детектування об’єктів та методи розпізнавання символів. Після чого відібрано оптимальні для потокового відео, в співвідношенні швидкість роботи до результативності. Взято за основу метод Віоли-Джонса для детектування об’єктів, що базується на примітивах Хаара. Завдяки цьому досягли високої швидкості знаходження номерної пластини. Зібрано навчальну базу, та, опісля, створено власний класифікатор об’єктів. За допомогою мови програмування Python та бібліотеки комп’ютерного зору OpenCV, використовуючи отриманий класифікатор, реалізовано детектування номерних знаків. Після чого розроблено модуль розпізнавання символів номерного знаку, в якому зображення номеру, отримане на попередньому кроці, спочатку бінаризується, розбивається на символи, після чого кожен символ стоншується і отриманий результат порівнюється з тим що є в базі і вибирається найбільш схожий. В кінцевому результаті отримуємо розпізнаний номерний знак.
В даній дипломній роботі розглянуто популярні методи детектування об’єктів та розпізнавання текстових символів. Проведено дослідження цих методів на швидкодію, що є одним з головних пунктів при обробці відео. Найоптимальнішим з них виявився метод Віоли-Джонса що базується на основі примітивів Хаара. На базі даного алгоритму розроблено десктопну систему автоматизованого розпізнавання номерних знаків транспортних засобів. Дана система може розпізнавати зображення з кутом повороту до 300 і з забрудненням до 5% загальної площі. Що охоплює близько 92% всіх номерів.
ЗАГАЛЬНА ХАРАКТЕРИСТИКА РОБОТИ Актуальність теми роботи. Мета роботи. Об’єкт, методи та джерела дослідження. Наукова новизна отриманих результатів. Практичне значення отриманих результатів. Апробація. Структура роботи. ОСНОВНИЙ ЗМІСТ РОБОТИ. СПИСОК ОПУБЛІКОВАНИХ АВТОРОМ ПРАЦЬ ЗА ТЕМОЮ РОБОТИ АНОТАЦІЯ Ключові слова ANNOTATION Key words
APA, Harvard, Vancouver, ISO, and other styles
42

Rosa, Fábio Jorge Silva. "Desenvolvimento de uma estratégia para a criação de um território inteligente multimunicipal: caso de estudo: monitorização da qualidade do ar." Master's thesis, 2017. http://hdl.handle.net/10348/7816.

Full text
Abstract:
Dissertação de Mestrado em Engenharia do Ambiente
A constante melhoria das condições de vida e o desenvolvimento do local em que nos inserimos é uma das principais preocupações das populações em todo o Mundo. Tendo em vista um crescimento económico sustentável e uma elevada qualidade de vida em que a gestão sensata dos recursos naturais não é descurada, surge o conceito de “Cidade Inteligente”. A necessidade de investir em capital humano e social, em transportes e nas tecnologias de informação e comunicação contando com o apoio de uma governação participativa que se preocupa e beneficia com a opinião das populações, potencia esta ideia. A presente dissertação pretende cumprir cinco objetivos gerais: em primeiro lugar, listar e comparar os diferentes conceitos existentes para cidades e territórios inteligentes; em seguida, listar e comparar as diferentes metodologias desenvolvidas no âmbito dos territórios inteligentes a nível nacional e internacional; caracterizar o território em análise; selecionar uma temática inteligente a aplicar no território em estudo e, por último, apresentar uma proposta de estratégia para implementar esta temática inteligente no território. O Território em estudo é constituído por sete concelhos distintos: Aguiar da Beira, Castro Daire, Moimenta da Beira, Sátão, Sernancelhe, Tarouca e Vila Nova de Paiva, que perfazem uma área de 1511,95 km2. A definição da metodologia para a realização deste relatório teve por base um estudo aprofundado do Território. Em seguida, é feita uma análise à temática “Territórios Inteligentes” de forma a verificar se a ideia que se propõe se enquadra nesta problemática e, por fim, apresenta-se a proposta da ideia de desenvolvimento inteligente do território, que focar-se-á no funcionamento de uma rede (plataforma). Os trabalhos de caracterização do Território foram elaborados através da utilização de sistemas de informação geográfica (SIG). Na área em estudo, um dos setores de atividade com maior preponderância na economia local é o da extração mineira, em que existem cinquenta e sete explorações licenciadas de massas minerais. Esta atividade surge também como um meio que pode prejudicar o ambiente local, nomeadamente a qualidade do ar. Desta forma, tornou-se clara a necessidade de encaminhar o estudo para o desenvolvimento de uma rede inteligente, uma vez que entre os casos estudados aquando do desenvolvimento desta dissertação e as hipóteses que poderiam ser implementadas no Território, esta seria a solução mais viável. A criação de uma Rede Inteligente de Monitorização da Qualidade do Ar local tornar-se-ia benéfico para o Território em vários aspetos. Monitorização num dos descritores ambientais dos que mais facilmente pode afetar as populações, a qualidade do ar; população incentivada a participar na verificação de anomalias ambientais, obrigando as empresas a ganhar um maior sentido de responsabilidade ambiental e ao mesmo tempo com a abertura de informação a toda a população, colocá-las-ia melhor posicionadas no panorama comercial.
The constant improvement of life´s conditions and development of the place that we´re in is one of the main concerns for populations around the world. Aiming for a sustainable economic growing and a high quality of life where the wise management of natural resources is not forgotten, emerges the concept of “Smart City”. The need of investing in human and social capital, in transports and in technologies of information and communication minding the support of a participatory government that cares and benefits with the opinion of the populations, enhances this idea. This report intends to accomplish five general goals: first of all, list and compare the existing concepts for smart cities and territories; following, list and compare the different methodologies developed in the range of the intelligent territories, national and international wise; to feature the analyzed territory; select an smart theme to apply in the studied territory e for last, to introduce a proposal of a strategy to implement this intelligent theme in the territory. The studied territory is made by seven distinct councils: Aguiar da Beira, Castro Daire, Moimenta da Beira, Sátão, Sernancelhe, Tarouca e Vila Nova de Paiva that correspond to 1511, 95 km². The definition of the methodology for this report had a deep study of the territory as base. Next, there will be made an analysis to the “Intelligent Territories” theme in order to verify if the idea that we propose fits the issue and, at last, we will present the proposal of the idea for the intelligent development of the territory that will be focused in the operation of a net (platform). The territory’s characterization work were elaborated through Geographic Information System (GIS). In the studied area, one of the most predominant activity´s sector is the mining extraction, where there is fifty seven licensed holdings of geological resources. This activity can also neglect the local environment, namely the air´s quality. In this manner, it has become clear the need of forward the study to the development of a smart net, once that among the studied cases at the time that this report was completed and the possible assumptions to be applied in the territory, this would be the most fitted solution. The creation of a local Intelligent Net of Air´s Quality Monitoring would become beneficial for the territory. Monitoring on one of the environmental headings most likely to affect the populations, the quality of air; population encouraged to participate in the environmental anomalies´ verification, forcing the companies to win a bigger sense of responsibility towards environment and at the same time with the opening of the information to everybody, it would make them better positioned in the commercial outlook.
APA, Harvard, Vancouver, ISO, and other styles
43

Magalhães, Paula Maria Ponte de Araújo. "Ferramenta educacional de simulação para algoritmos." Master's thesis, 2008. http://hdl.handle.net/10348/224.

Full text
Abstract:
Dissertação de Mestrado em Informática
Algoritmos Genéticos utilizam o conceito de evolução observado na natureza para solucionar problemas computacionais de forma mais eficiente do que com o uso de algoritmos tradicionais. Os problemas comuns que utilizam algoritmos genéticos são os de pesquisa e optimização. Actualmente, esta técnica é utilizada em diversas áreas, inclusive fora do âmbito da computação. Este trabalho descreve a construção de uma ferramenta, FESAG, com fins didácticos que visa aplicar e validar o uso de algoritmos genéticos num ambiente de aprendizagem. A ferramenta utiliza uma interface gráfica que torna mais simples o manuseamento do algoritmo genético. A evolução pode ser observada através de gráficos, com a possibilidade de poder manipular as variáveis que modelam o ambiente de trabalho em tempo real.
Genetic Algorithms make use of evolutionary concepts observed in nature to solve computational problems more efficiently than traditional algorithms. These types of algorithms are generally used to solve search and optimization problems. Nowadays, these algorithms are becoming more popular in various areas, many outside computer science. This work describes the construction of a tool, FESAG, which intends to apply and validate the use of genetic algorithms in a learning environment. The tool uses a graphical user interface that simplifies handling the genetic algorithm. The evolution is observed through graphics, with the possibility of manipulating variables that model the environment in real time.
APA, Harvard, Vancouver, ISO, and other styles
44

Pereira, Ivo André Soares. "Sistema inteligente para escalonamento assistido por aprendizagem." Doctoral thesis, 2015. http://hdl.handle.net/10348/4250.

Full text
Abstract:
Tese de Doutoramento em Engenharia Eletrotécnica e de Computadores
Em ambientes reais de produção, existe o problema de atribuição de tarefas a determinadas máquinas de forma eficaz e eficiente, que se designa por Escalonamento. A principal motivação deste trabalho surgiu da necessidade de desenvolvimento de abordagens que sejam capazes de controlar, coordenar e otimizar, de forma adaptativa, a resolução dos diferentes desafios existentes no problema de Escalonamento. Este trabalho de doutoramento foi inserido no âmbito do projeto de I&D AutoDynAgents, que consiste num Sistema Multiagente para a resolução autónoma, distribuída e cooperativa de problemas de escalonamento de tarefas em sistemas de produção. Este sistema incorpora conceitos da Computação Autónoma e Meta-heurísticas para a construção de planos de escalonamento. A afinação de parâmetros nas Meta-heurísticas pode permitir uma maior flexibilidade e robustez mas requer uma inicialização cuidadosa. Os parâmetros podem ter uma influência significativa na eficiência e eficácia do processo de pesquisa. Não se torna óbvia a definição a priori dos valores dos parâmetros, que dependem do problema, das instâncias a tratar e do tempo disponível para a resolução do problema. Além disso, não existem valores “universais” para os parâmetros das Meta-heurísticas. Existe uma opinião generalizada que a sua afinação deve resultar de um cuidadoso esforço experimental. Surge assim a necessidade de implementação de um módulo para a seleção autónoma de uma determinada Meta-heurística, e respetiva especificação automática dos parâmetros, para a resolução de novos problemas de escalonamento de tarefas em sistemas de produção. Este módulo incorpora técnicas de aprendizagem, de modo a dotar o sistema da capacidade de aprender com a experiência adquirida na resolução de casos anteriores similares: Racing, Raciocínio baseado em Casos, e híbrida. De modo a avaliar a contribuição deste trabalho, foi desenvolvido um estudo computacional das várias abordagens seguidas, com destaque para a abordagem híbrida que agrega Racing e Raciocínio baseado em Casos. Foi possível concluir acerca da vantagem estatisticamente significativa na utilização de aprendizagem na autoparametrização de Meta-heurísticas.
In real manufacturing environments, there is the problem of assigning tasks to specific machines, effectively and efficiently, which is known as scheduling. The main motivation of this paper came from the need to develop approaches that are able to adaptively control, coordinate and optimize the resolution of the different current challenges in the problem of scheduling. This PhD thesis was done as part of the R&D AutoDynAgents project, consisting of a Multi-Agent System for autonomous, distributed and cooperative resolution of task scheduling problems in production systems. This system incorporates concepts of Autonomic Computing and Metaheuristics for building scheduling plans. The tuning of parameters in Metaheuristics can enable greater flexibility and robustness but requires a careful initialization. The parameters can have a significant influence on the efficiency and effectiveness of the search process. A priori definition of the parameter values does not become obvious, which depends on the problem, instances and time available to solve the problem. Furthermore, there are no “universal” values for the parameters of the Metaheuristics. There is a widespread opinion that its tuning should result from careful experimental effort. Thus leads to the need of implementing a module for the autonomous selection of Metaheuristics, and automatic specification of the respective parameters, to solve new problems of task scheduling in production systems. This module incorporates learning techniques in order to provide the system the ability to learn from the experience acquired in solving previous similar cases: Racing, Case-based Reasoning, and hybrid. In order to evaluate the contribution of this work, a computational study of the different followed approaches was developed, with emphasis on the hybrid approach that combines Racing and Case-based Reasoning. It was possible to conclude about the statistically significant advantage in the use of learning in Metaheuristics self tuning.
APA, Harvard, Vancouver, ISO, and other styles
45

Mendes, Jorge Miguel Ferreira da Silva. "Perceção visual semântica de uma vinha para auxílio à navegação de robôs." Master's thesis, 2017. http://hdl.handle.net/10348/7939.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
O desenvolvimento de robôs para aplicação em cenários agrícolas, nomeadamente em vinhas em patamares, requer sistemas de perceção visual mais inteligentes e adaptativos de forma a aumentar a fiabilidade dos seus sistemas de mapeamento e localização. Trata-se de um desafio complexo uma vez que essas vinhas possuem um declive acentuado e a precisão da localização, utilizando apenas o GPS, é bastante instável nesses locais. Neste contexto, um sistema de localização de confiança requer uma alta densidade de features naturais (e.g. os troncos que existem em toda a vinha) e um detector preciso das mesmas. Desta forma, neste trabalho foi projetado e implementado um sistema de perceção visual semântica, denomidado por ViTruDe, que faz uso de técnicas de deteção e extração de features de alto nível. Para tal recorreu-se ao desenvolvimento de um nó ROS e de um conjunto de algoritmos no domínio do processamento digital de imagem que permitam a extração automática dessas mesmas features de forma a melhorar o processo de localização e navegação de um robô e que permitam facilitar operações de monitorização e inspeção visual das vinhas. Após a execução dos testes no terreno, foi possível concluir que os resultados obtidos para todas as configurações testadas apresentaram uma precisão superior a 95%. Todos os dados de treino e de teste utilizados neste trabalho foram disponibilizados publicamente para possível utilização em trabalhos futuros.
The development of robots for agricultural scenarios, especially for steep slope vineyards with terraces, requires intelligent and adaptive visual perception systems in order to increase the reliability of its location and mapping systems. This is a complex challenge because the steep slopes that characterizes these vineyards makes location accuracy using only GPS very unstable. In this context, a reliable tracking system requires an high density of natural features (e.g. trunks that exist throughout the vineyard) and a precise detector. Thus, in this work a semantic visual perception system, denominated ViTruDe, making use of detection techniques and high-level features extraction, was designed and implemented. ROS nodes and a set of algorithms in the field of digital image processing were developed enabling the automatic extraction of those features to improve the process of location and navigation of a robot and to facilitate monitoring operations and visual inspection of the vines. After running field tests, it was possible to conclude that the results for all tested configurations resulted in an accuracy greater than 95%. All training, and test, data used in this study were made public for possible use in future works.
APA, Harvard, Vancouver, ISO, and other styles
46

Capitão, Cláudia Lopes. "Vida artificial das empresas: ferramenta de simulação de competitividade nas empresas." Master's thesis, 2018. http://hdl.handle.net/10348/8328.

Full text
Abstract:
Dissertação de Mestrado em Tecnologias de Informação e Comunicação
A crise financeira e o crescimento das Tecnologias de Informação têm levado as empresas a procurarem formas inovadoras de alcançarem conhecimento, para conseguirem dar resposta às exigências do mercado. Este trabalho apresenta uma definição síntese de caraterísticas e comportamentos das empresas face aos riscos, para desenho de uma ferramenta de simulação de competitividade que seja uma mais-valia para os gestores. A pesquisa foi baseada na análise de livros de administração de empresas e de Inteligência Artificial, de autores como: P. Drucker ou M. Mitchell e S. Forrest. Dela resultou a definição de um genoma artificial para representação empresarial. Como trabalho futuro, iremos desenvolver uma ferramenta com base num ecossistema artificial e analisar o funcionamento do genoma apresentado, referenciando dados reais partilhados por gestores empresariais.
The financial crisis and the growth of Information Technology have led companies to look for innovative ways to achieve knowledge in order to meet the demands of the market. This work presents a synthesis definition of characteristics and behaviors of the companies phase to risks, to design a tool of simulation of competitiveness that is an advantage for the managers. The research was based on the analysis of business administration books and Artificial Intelligence, by authors such as: P. Drucker or M. Mitchell and S. Forrest. It resulted in the definition of an artificial genome for business representation. As future work, we will develop a tool based on an artificial ecosystem and analyze the functioning of the presented genome, referencing real data shared by business managers.
APA, Harvard, Vancouver, ISO, and other styles
47

Góis, Bárbara Filipa de Carvalho. "Sistema de monitorização do fluxo de seiva em videira." Master's thesis, 2017. http://hdl.handle.net/10348/8051.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
A utilização de equipamentos e metodologias capazes de estimar a utilização de água por parte de culturas agrícolas permite optimizar sistemas de rega, levando a uma melhor gestão deste recurso. Interessa assim desenvolver sensores que permitam avaliar as necessidades hídricas de uma planta. A determinação da transpiração das plantas, nomeadamente em videiras, consiste em medir fluxos de água no xilema e o desenvolvimento de métodos de medição de fluxo de seiva para a determinação da transpiração é crucial. Para avaliar a resposta da videira foi utilizada uma metodologia de medição direta na determinação do fluxo de seiva xilémica, onde foram utilizados sensores invasivos na região do tronco da planta, fazendo uso da técnica de dissipação térmica de Granier. Esta técnica empírica permite calcular a densidade de fluxo de seiva xilémica, expressa por unidade de superfície condutora, baseada na diferença de temperatura entre uma sonda aquecida continuamente a uma potência constante e uma sonda de referência (não-aquecida), corrigida por um coeficiente adimensional de proporcionalidade. Este trabalho descreve o desenvolvimento de um sistema capaz de fornecer dados de gradientes de temperatura em diferentes regimes (com aquecimento ou sem aquecimento), ao longo do dia. Os ensaios foram realizados numa videira (casta Viosinho) durante períodos dos meses de junho, julho e agosto. Os resultados evidenciaram o comportamento do fluxo de seiva da videira ao longo dos diferentes períodos do dia e em condições ambientais díspares (temperaturas diárias diferentes). Foram também efetuados períodos de rega no final do mês de julho / início do mês de agosto para analisar eventuais variações nos gradientes de temperatura obtidos.
The use of equipment and methodologies capable of estimating water use by crops optimizes irrigation systems leading to better management of this resource. It is in this way interest to develop sensors to assess the water needs of a plant. The determination of plant transpiration, specially in vines, is to measure water flows in the xylem and the development of sap flow measurement methods for the determination of transpiration is crucial. To assess the vine response, it was used a direct measurement methodology for determining the perspiration where there were used invasive sensors into the stem region and the vine perspiration was determined by using Granier’s thermal dissipation technique. This empirical technique allows the calculation the sap flux xilemic density expressed per conductive unit surface, based on a temperature difference between a continuously heated probe at a constant power and a reference probe (non-heated) and a coefficient dimensionless proportionality. This work describes the development of a system capable of providing temperature gradients sensor data in different schemes (with heating or without heating) throughout the day. Assays were performed in grapevine (Viosinho) during June, July and August. The results showed the behavior of grapevine transpiration over the different times of the day and in different environmental conditions (different daily temperatures). There were made watering periods at the end of July / beginning of August to analyze the variations in the obtained temperature differences.
APA, Harvard, Vancouver, ISO, and other styles
48

Freire, Hélio Alves. "Many-objective optimization with particle swarm optimization algorithm." Doctoral thesis, 2017. http://hdl.handle.net/10348/7424.

Full text
Abstract:
Tese de Doutoramento em Engenharia Eletrotécnica e de Computadores
Muitos dos problemas de optimização envolvem diversos objectivos sujeitos a algumas restrições e que devem ser considerados simultaneamente. Ao contrário dos problemas uni-objectivo em que se procura a solução óptima global, a resolução dos problemas com múltiplos objectivos dão origem a um conjunto de soluções, chamado frente de Pareto. Nas últimas duas décadas os algoritmos evolutivos conjuntamente com o princípio da dominância de Pareto têm demonstrado uma grande capacidade para obter um conjunto de soluções próximas da frente óptima de Pareto. Esta situação tem-se verificado principalmente para problemas com dois ou três objectivos. Nos últimos anos tem-se levado os algoritmos evolutivos a resolver problemas com mais de três objectivos, denominados many-objective. Os algoritmos evolutivos e métodos baseados no princípio da dominância de Pareto desenvolvidos para resolver problemas com dois ou três objectivos, têm-se mostrado desadequados para problemas many-objective. Uma das questões centrais com os problemas de optimização many-objective usando a dominância de Pareto é que praticamente toda a população se torna não-dominada numa etapa em que a população ainda se encontra muito longe da frente óptima de Pareto. A selecção das “boas" soluções para recombinação com a restante população torna-se praticamente aleatória, tornando difícil a convergência da população para a frente óptima de Pareto. O princípio básico desenvolvido nesta tese de doutoramento é colocar algumas soluções próximas da frente óptima de Pareto na população, denominadas corner solutions, dos algoritmos evolutivos multi-objectivo. Para encontrar as corner solutions foi desenvolvido o algoritmo Corner MOPSO que aproveita os bons resultados demonstrados pelos algoritmos evolutivos e pelo princípio da dominância de Pareto para problemas com dois objectivos. Neste algoritmo faz-se uma transformação de um problema many-objective em diversos problemas bi-objective. Foram usados três algoritmos evolutivos, de paradigmas diferentes, um algoritmo genético, o NSGA-II, um particle swarm, o SMPSO e um algoritmo differential evolution, o GDE3, onde são introduzidos as corner solutions. O algoritmo é testado para a família de problemas benchmark DTLZ, mais propriamente os problemas DTLZ1, DTLZ2, DTLZ3, DTLZ4 e DTLZ5, com o número de objectivos, para cada um dos problemas, variando entre 4 e 10. Os métodos desenvolvidos são aplicados para projectar estruturas de controlo com controlador PID, considerando uma perspectiva many-objective. O objectivo é ajustar os parâmetros do controlador PID para diferentes sistemas.
Many optimization problems involve several objectives subject to certain restrictions that should be considered simultaneously. Unlike single-objective problems which seek for the global optimal solution, problems with multiple objectives give rise to a set of solutions called Pareto front. In the last two decades, evolutionary algorithms in conjunction with Pareto dominance principles have demonstrated a large capacity to find a set of solutions at or nearby the optimal Pareto front. This method has been explored essentially in problems with two or three objectives. In recent years, evolutionary algorithms have been applied to solve problems with more than three criteria, called many-objective problems. Evolutionary algorithms and methods based on the Pareto dominance principle, developed to solve problems with two or three objectives, have proven unsuitable for many-objective problems. One of the main issues with many-objective optimization problems, using the Pareto dominance concept, is that entire population becomes practically nondominated in a stage in which the population is still far from the optimal Pareto front. The selection of “good" solutions for recombination with the remaining population becomes virtually random, making it difficult the population convergence to the optimal Pareto front. The main principle developed in this doctoral thesis is to seed the multi-objective algorithm population with some near optimal solutions, called corner solutions. To find the corner solutions a Corner MOPSO algorithm was developed that takes advantage of the good results demonstrated by evolutionary algorithms and the principle of Pareto dominance for problems with two objectives. This algorithm does a transformation from a many-objective problema into several bi-objective problems. Three evolutionary algorithms were used from different paradigms, a genetic algorithm, NSGA-II, a particle swarm, SMPSO, and a differential evolution algorithm, GDE3, where the corner solutions are introduced. The algorithm is tested for the family DTLZ benchmark problems, more specifically the DTLZ1, DTLZ2, DTLZ3, DTLZ4, and DTLZ5 problems with the number of targets for each of problems ranging between 4 and 10. The developed method are applied to design control structures with PID controller, considering a many-objective perspective. The aim is to tune the PID controller parameters for different systems.
FCT - Funda ção para a Ciência e a Tecnologia (QREN - POPH - Tipologia 4.1 - Forma ção Avan çada comparticipada pelo Fundo Social Europeu e por fundos do MCTES)
APA, Harvard, Vancouver, ISO, and other styles
49

Pinto, Tiago Manuel Campelos Ferreira. "Decision support for the strategic behaviour of electricity market players." Doctoral thesis, 2016. http://hdl.handle.net/10348/5912.

Full text
Abstract:
Tese de Doutoramento em Informática
O contributo desta tese é dado nas áreas complementares da inteligência artificial e dos sistemas de energia, através da proposta de soluções inovadoras para o apoio à decisão, de forma inteligente e adaptativa, dos agentes participantes nos mercados de energia elétrica, considerando a sua participação em múltiplas oportunidades de mercado. O estado atual dos mercados de energia elétrica deve-se em grande parte ao uso crescente de fontes de energia renovável. Este aumento tem sido estimulado por novas políticas energéticas que resultam das preocupações geradas pela escassez dos combustíveis fósseis e pelo seu impacto no ambiente. Estes incentivos têm dado origem a grandes investimentos no sector energético. No entanto, a penetração em larga escala de fontes de energia renovável de natureza intermitente, como o vento e o sol, tem a si associado um grande número de limitações que restringem, não só a fiabilidade da produção, como também o seu uso O crescente aumento da integração de recursos energéticos provenientes de fontes renováveis conduziu a uma inevitável reestruturação do sector energético. Este processo de reestruturação resultou em mudanças significativas na operação dos mercados de energia elétrica por todo o mundo. Estes mercados têm como objetivo assegurar uma competição mais acentuada e justa, desta forma potenciando o decréscimo dos preços da energia elétrica. No entanto, a reestruturação dos mercados de energia elétrica criou também vários desafios, pois exigiu a transformação dos modelos conceptuais que dominavam o sector. A reestruturação trouxe, portanto, um mercado mais competitivo, mas também mais complexo e com maiores desafios para os seus participantes. O aumento da complexidade e da imprevisibilidade destes mercados amplifica a dificuldade na tomada de decisão, que é ainda agravada pela crescente introdução de novos mecanismos de mercado. Por estes motivos as entidades participantes têm constantemente de repensar o seu comportamento e estratégias de mercado. A utilização de ferramentas de apoio à decisão torna-se fundamental para que estas entidades consigam lidar com os novos desafios. A necessidade de perceber o funcionamento dos mercados e de que forma as interações entre as entidades envolvidas afetam os resultados de mercado motivou o desenvolvimento de várias ferramentas de simulação. Os sistemas multi-agente têm sido a solução mais adotada, uma vez que são especialmente adequados à análise de sistemas dinâmicos com interações complexas entre os seus constituintes. Apesar das soluções existentes permitirem o estudo de diferentes mecanismos de mercado e a análise das relações entre os intervenientes, estas ferramentas não estão, no entanto, preparadas para fornecer um apoio à decisão adequado a estes agentes num contexto de negociação em mercado. O trabalho de investigação deste doutoramento é motivado pela lacuna identificada, e surge com o objetivo de propor soluções que permitam aos agentes participantes nos mercados de energia elétrica obterem os melhores resultados possíveis em cada contexto de mercado. A agregação das várias contribuições deste trabalho resulta num sistema multi-agente de apoio à decisão: AiD-EM (Adaptive Decision Support for Electricity Markets Negotiations – apoio à decisão adaptativo para negociações em mercados de energia elétrica). Este sistema inclui uma metodologia que permite aos agentes de mercado identificar as oportunidades de mercado em devem apostar em cada momento. O apoio à decisão para a negociação efetiva em cada mercado é dado por sistemas de apoio à decisão específicos, dirigidos aos diferentes tipos de negociação. O apoio à participação em mercados com funcionamento por leilão é dado pelo sistema ALBidS (Adaptive Learning strategic Bidding System – sistema de aprendizagem adaptativa para licitações estratégicas). Este sistema inclui diversas estratégias de participação em mercado, e tem a capacidade de aprender quais as abordagens que dão maiores garantias de sucesso em cada contexto. Para as negociações de contratos bilaterais foi desenvolvido o sistema DECON (Decision Support for Energy Contracts Negotiation – apoio à decisão para a negociação de contratos de energia), que inclui metodologias para analisar os perfis de negociação dos competidores, permitindo assim a adaptação das estratégias de negociação. Por fim, é proposto um método de análise contextual, que analisa e identifica diferentes contextos de negociação, permitindo assim uma adaptação contextualizada dos diversos processos de aprendizagem. As metodologias desenvolvidas foram testadas e validadas através da simulação de cenários realistas, utilizando dados reais provenientes de diferentes operadores de mercado. Os resultados promissores que foram obtidos em condições realistas de negociação sustêm a tese de que uma análise e aprendizagem adequadas utilizando dados históricos pode, de facto, melhorar os resultados da participação dos agentes em mercados de energia elétrica.
This thesis provides its contribution to the complementary fields of artificial intelligence and power systems by proposing innovative solutions for the intelligent and adaptive decision support of electricity market players, considering their participation in multiple alternative and complementary market opportunities. The current state of worldwide electricity markets is strongly affected by the increasing use of renewable energy sources during the last years. This increase has been stimulated by new energy policies that result from the growing concerns regarding the scarcity of fossil fuels and their impact in the environment. As consequence of the policies and incentives that have been put in place, huge investments have been made in the power and energy sector. However, the large scale integration of fluctuating renewable sources in the power system, such as wind and sun, poses several constraints that limit not only the production reliability but also its use. The large scale integration of renewable based energy resources has led to an unavoidable restructuring of the power and energy sector, which was forced to adapt to the new paradigm. This restructuring process resulted in a deep change in the operation of competitive electricity markets all around the world. These markets aim at ensuring increased and fair competition giving electricity buyers more options and pushing power players to increase their efficiency, thus enabling electricity prices decrease. The electricity markets’ restructuring process brought out, however, several challenges itself, demanding the transformation of the conceptual models that have previously dominated this sector. The restructuring made the market more competitive, but also more complex, placing new challenges to the participants. The growing complexity and unpredictability of the markets’ evolution consequently increases the difficulty of decision making, which is exacerbated by the increasing number of new market types that are continuously being implemented to deal with the new challenges that keep on emerging. Therefore, the intervenient entities are relentlessly forced to rethink their behaviour and market strategies in order to cope with such a constantly changing environment. So that these entities can deal with the new challenges, the use of decision support tools becomes crucial. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of markets has contributed to the emergence of a large number of simulation tools. Multi-agent based software is the most widely adopted solution as this paradigm is particularly suitable to analyse dynamic and adaptive systems with complex interactions among its elements, such as electricity markets. Current software tools allow studying different electricity market mechanisms and analysing the relationships between market entities; however, they are not prepared to provide suitable decision support to the negotiation process of electricity market players. This gap motivates the development of this PhD research work, which arises with the purpose of providing solutions that enable electricity market players to take the best possible outcomes out of each market context. The aggregation of the many contributions of this work ultimately results in an enhanced multi-agent based decision support system: Adaptive Decision Support for Electricity Markets Negotiations (AiD-EM). AiD-EM includes a Portfolio Optimization methodology, which decides in which market opportunities should market players negotiate at each moment. The actual negotiation process in each market is supported by specific decision support systems, directed to different types of negotiation. The participation in auction based markets is supported by the Adaptive Learning strategic Bidding System (ALBidS). This decision support system includes a large number of distinct market participation strategies, and learns which should be used in each context in order to provide the best expected response. Negotiations by means of bilateral contracts are assisted by the Decision Support for Energy Contracts Negotiation (DECON) system, which includes methodologies to analyse competitor players’ negotiation profiles enabling the adaptation of the adopted negotiation strategies and tactics. All methodologies are supported by a context analysis methodology, which allows analysing and identifying different contexts of negotiation, thus enabling a contextual adaptation of the diverse learning processes. The developed decision support methodologies have been tested and validated under realistic simulation scenarios using real data from several electricity market operators. The promising results achieved under realistic negotiation conditions support the thesis that the appropriate analysis and learning from historic data can, in fact, improve players’ outcomes from their participation in electricity markets.
FCT - Fundação para a Ciência e a Tecnologia, através do programa de financiamento QREN – POPH - Tipologia 4.1 – Formação Avançada comparticipado pelo Fundo Social Europeu e por fundos do MCTES.
APA, Harvard, Vancouver, ISO, and other styles
50

Freire, Hélio Alves. "Algoritmos de Optimização Multi-objectivo de Inspiração Natural e Biológica." Master's thesis, 2011. http://hdl.handle.net/10348/2058.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
Os algoritmos estocásticos são muito usados em diversos problemas de optimização. Os algoritmos evolutivos são uma abordagem de pesquisa e optimização baseada numa população, inspirada na teoria evolutiva de Darwin. Uma das correntes que mais se popularizou de entre os algoritmos evolutivos foram os algoritmos genéticos, que serviram de base, ao longo desta dissertação, para a introdução de diversos conceitos e métodos, ligados à optimização, dominância, convergência e diversidade. Outro algoritmo estocástico, este, inspirado no comportamento animal, é o algoritmo de optimização por enxame de partículas. Sendo uma abordagem diferente em relação aos algoritmos evolutivos, adoptou alguns dos métodos usados nos algoritmos evolutivos. Os algoritmos estocásticos e meta-heurísticos, têm mostrado uma aptidão para a resolução de problemas de optimização multi-objectivo. Nesta dissertação é criado um novo algoritmo multi-objectivo de optimização por enxame de partículas, designado MmMOPSO. É apresentada uma análise comparativa deste algoritmo com outros algoritmos de optimização por enxame de partículas, num conjunto de funções de referência. O MmMOPSO é também aplicado na resolução de exemplos práticos de optimização da estrutura de manipuladores robóticos paralelos.
Stochastic algorithms are widely used in various optimization problems. Evolutionary algorithms are an search and optimization population based on approach inspired on Darwin evolutionary theory. One of the streams which turn to be more popular among evolutionary algorithms are the genetic algorithms, which serve as the base along this dissertation to, the introduction of several concepts and methods related to optimization, dominance, convergence and diversity. Another stochastic algorithm, this one inspired in animal behavior, is the particle swarm optimization. As a different approach to evolutionary algorithms, it adopted some methods used in evolutionary algorithms. Stochastic algorithms and meta-heuristics, have shown an aptitude for solving multiobjective optimization problems. A new multi-objective paricle swarm optimization algorithm, ter.med MmMOPSO, is proposed in the dissertation. A comparative analysis of this algorithm with other particle swarm optimization algorithms is presented, for a set of benchmark functions. The MmMOPSO is also applied to solve in practical examples to design parallel robotic manipulators.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography