Dissertations / Theses on the topic '004.8+025.4'

To see the other types of publications on this topic, follow the link: 004.8+025.4.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic '004.8+025.4.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Канівець, Дмитро Володимирович. "Математичне та програмне забезпечення класифікації наукових текстів." Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/31517.

Full text
Abstract:
Актуальність теми: для спрощення пошуку необхідної інформації серед наукових публікацій в Україні використовується бібліотечна класифікація. Проте наразі ця система є недосконалою, адже при класифікації допускаються помилки, а в деяких випадках вона виконується для збірника загалом, що призводить до часткової невідповідності для деяких статей, що в нього входять. Також виконання класифікації сторонньою людиною (наприклад, бібліотекарем чи редактором) вимагає багато часу. Вирішенням цієї проблеми є автоматизація процесу класифікації. За рахунок використання машинного навчання можна створити автоматичний класифікатор, яких дозволить покращити точність класифікації порівняно з ручною та прискорити класифікацію нових надходжень. Мета дослідження: створення класифікатора наукових статей за категоріями УДК на основі машинного навчання. Для реалізації поставленої мети були сформульовані наступні завдання: – систематизація існуючих алгоритмів класифікації текстових даних; – збір достатньої навчальних даних, розробка класифікатору на основі машинного навчання; – тестування та аналіз ефективності отриманого алгоритму; – визначення подальшого напрямку досліджень. Об’єкт дослідження: бібліотечна класифікація наукових статей. Предмет дослідження: алгоритми класифікації текстових даних. Методи дослідження: для розв’язання поставленої задачі використовувались наївний баєсів класифікатор, нейронні мережі, алгоритм зворотного поширення помилки. Наукова новизна: найбільш суттєвими науковими результатами магістерської дисертації є дослідження можливостей автоматизації класифікації наукових текстів; пошуку помилок у вже класифікованих текстах; створення алгоритмів класифікації для розрізнення категорій у текстів близьких тематик. Практичне значення отриманих результатів визначається тим, що запропонований алгоритм дозволяє досягти точності бібліотечної класифікації в 86%, що дозволяє використовувати його для пошуку і виправлення помилок у класифікації текстів, а також як допоміжного засобу при класифікації нових надходжень. Зв’язок роботи з науковими програмами, планами, темами: робота виконувалась на кафедрі автоматизованих систем обробки інформації та управління Національного технічного університету України «Київський політехнічний інститут ім. Ігоря Сікорського» в рамках теми «Математичні моделі та технології в СППР». Державний реєстраційний номер 0117U000914 Апробація: основні положення роботи доповідались і обговорювались на XІІ науково-практичній конференції магістрантів та аспірантів «Прикладна математика та комп’ютинг» (ПМК-2019), а також на третій всеукраїнській науково-практичній конференції молодих вчених та студентів «Інформаційні системи та технології управління» (ІСТУ-2019).
Relevance: to simplify the search for relevant information among scientific publications in Ukraine, a library classification is used. However, this system is not perfect at this time, because classification is erroneous, and in some cases it is executed for the journal as a whole, which results in partial discrepancies for some of its articles. Also, it takes a long time to perform the classification by a third party (such as a librarian or editor). The solution to this problem is to automate the classification process. By using machine learning, automatic classifier can be created, which will improve the accuracy of the classification compared to manual and accelerate the classification of new revenues. Purpose: create a classifier of scientific articles by UDC categories based on machine learning. To achieve this goal, the following tasks were formulated: - systematization of existing text data classification algorithms; - gathering sufficient training data, developing a classifier based on machine learning; - testing and analysis of the efficiency of the obtained algorithm; - determining the further direction of research. Object of study: library classification of scientific articles. Subject of study: algorithms for classification of text data. Research methods: naive Bayes classifier, neural networks, backpropagation algorithm were used to solve this problem. Scientific novelty: the most significant scientific results of a master's thesis are the study of the possibilities of automation of the classification of scientific texts; search for mistakes in already classified texts; creation of classification algorithms for distinguishing categories in texts of similar subjects. The practical value of the obtained results is determined by the fact that the proposed algorithm allows to achieve the accuracy of library classification in 86%, which allows to use it for finding and correcting errors in the classification of texts, as well as an aid in the classification of new receipts. Relationship with working with scientific programs, plans, topics: work was performed at the Department of Automated Information Processing and Management Systems of the Igor Sikorsky National Technical University of Ukraine «Kyiv Polytechnic Institute» within the topic «Mathematical Models and Technologies in DSS». State Registration Number 0117U000914 Approbation: the main provisions of the work were reported and discussed at the XIII Scientific and Practical Conference of undergraduate and graduate students «Applied Mathematics and Computing» (AMP-2019), as well as at the third all-Ukrainian scientific and practical conference of young scientists and students «Information Systems and Technologies of Management» (ISTM-2019).
APA, Harvard, Vancouver, ISO, and other styles
2

Chuleekorn, Thanongsitt. "Management of information system implementation from a power perspective : case studies of organisations in Thailand." Thesis, University of Sheffield, 2012. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.575715.

Full text
Abstract:
An information system is widely recognised as a technological-political system and it can be better understood from a political perspective. This research studies how an information system is socially and politically constructed through the implementation process. It posits that the process of information system implementation can be shaped and impacted by power relations and thus that failing to understand such phenomena will contribute to system failure. The aim of this research is to broaden the understanding of an information system from a power perspective. Particular emphasis is placed on power relations in organisations and how such relations impact the process of system implementation. In order to achieve this aim, the research applies an integrated theoretical framework based on power and discourse perspectives to two qualitative case studies carried out in companies in Thailand. The case studies were undertaken based on an interpretive mode of inquiry, which provides ways of understanding how the process of implementation of information systems was shaped and impacted by human actions and political processes. lnterpretivism helped to explore the complexity of human action and meanings that system participants assigned to those actions leading to the system implementation process. The main findings suggest that information system implementation can be impacted by power relations enacted through discursive actions of textual practices 2 I constituting discourse. Besides, a grand discourse can itself be a source of power that affects the system implementation process. The findings indicate that: i) knowledge integrated in discourse plays a prominent role in power relations, ii) discursive legitimacy could enable and at the same time delimit the exercise of power, and iii) an information system may be used as an apparatus for domination as well as human emancipation. The main findings are taken as significant contributions to both theory and practice in the information systems field. 3
APA, Harvard, Vancouver, ISO, and other styles
3

Lee, Deborah. "Modelling music : a theoretical approach to the classification of notated Western art music." Thesis, City, University of London, 2017. http://openaccess.city.ac.uk/17445/.

Full text
Abstract:
The classification of notated Western art music is a perennial issue. This thesis analyses and models the knowledge organization of notated Western art music in order to elucidate a theoretical understanding of these classification issues and to offer new ways of viewing music classification in the future. This thesis also considers how music classification contributes to developments in general knowledge organization and compares the classification of Western art music across the library and information science (LIS) and music domains. The research is conducted using a number of analytical techniques, including examining music knowledge organization discourse, analysing examples of LIS classification schemes, unpicking discussions of classification in the music domain and analysing composer worklists in the music domain. After ascertaining how music classification fits into theories of faceted classification, three important facets of music are identified: medium, form and genre, and a quasi-facet of function. These three facets are explored in detail over five chapters: the binary vocal/instrumental categorisation; classifying numbers of instruments or voices, accompaniment, arrangements and “extreme” mediums; classifying musical instruments; classifying musical forms and genres; and the quasi-facet of function. Five resulting models of music classification are presented. Model 1 demonstrates the complexities of classifying musical medium, including the interlinked relationships between different parts of musical medium. Model 2 offers a solution to LIS classification’s largely binary view of vocal and instrumental categorisation by suggesting a novel new category: “vocinstrumental”. Model 3 illuminates the entrenched dependencies between facets of music, highlighting one of the structural issues with LIS classifications of music. Model 4 offers an original structure of music classification, proposing a simultaneous faceted and genre-based system. Model 5 compares classification in the music and LIS domains, offering a novel way of considering domain-based classification by codifying various types of relationships between the LIS and domain classifications. This thesis also contributes to the theory and practice of knowledge organization in general through the development of novel frameworks and methodologies to analyse classification schemes: the multiplane approach, reception-infused analysis, webs of Wirkungs (connections) between classification schemes and stress-testing.
APA, Harvard, Vancouver, ISO, and other styles
4

Шурук, Андрій Сергійович. "Система аналізу людської активності на основі даних з носимих пристроїв." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/38278.

Full text
Abstract:
Актуальність проблеми. Глобалізація та збільшення числа населення сприяють розвитку галузей пов’язаних зі спостереженням за людською активністю, а отже — появі нових засобів для спостереження за різноманітними показниками діяльності людини та способів аналізу цих показників. Враховуючи дані фактори, важливо в сучасному світі правильно використовувати такі об’єми даних в умовах ринку. Якщо мова йде про, наприклад, догляд за літніми людьми, то важливо правильно проаналізувати та спробувати розпізнати ту, чи іншу активність людини, це може допомогти збільшити тривалість життя літніх людей. Зв’язок роботи з науковими програмами, планами, темами. Дипломну роботу (магістерського) рівня вищої освіти було виконано в Національному технічному університеті України «Київський політехнічний інститут імені Ігоря Сікорського» відповідно до планів науково-дослідних робіт кафедри обчислювальної техніки. Мета і задачі дослідження. Завданням цієї роботи є дослідження можливості розпізнавання людської активності на основі даних носимих пристроїв. Метою є розроблення системи, побудованої на базі нейронної мережі, здатної розпізнати людську активність та надати їх користувачеві за допомогою кросплатформеного додатку. Об’єкт дослідження. Процес розпізнавання людської активності з використанням елементів нейронної мережі. Предмет дослідження. Методи аналізу та обробки даних отриманих з носимих пристроїв в реальному часі. Новизна. Запропоновано новий спосіб розпізнавання людської активності на основі даних носимих пристроїв, який за рахунок використання нейронної мережі, дозволяє отримати результати розпізнавання в реальному часі з високою точністю.
The urgency of the problem. Globalization and population growth are contributing to the development of areas related to human activity monitoring, and thus to the emergence of new tools for monitoring various human performance indicators and ways to analyze these indicators. Given these factors, it is important in today's world to properly use such volumes of data in market conditions. When it comes to, for example, caring for the elderly, it is important to properly analyze and try to recognize a particular human activity, it can help increase the life expectancy of the elderly. Relationship with working with scientific programs, plans, topics. Thesis of master's level of higher education was performed at the National Technical University of Ukraine "Kyiv Polytechnic Institute named after Igor Sikorsky" in accordance with the plans of research work of the Department of Computer Science. The purpose and objectives of the study. The aim of this work is to study the possibility of recognizing human activity based on the data of wearable devices. The aim is to develop a system built on a neural network capable of recognizing human activity and providing it to the user through a cross-platform application. Object of study. The process of recognizing human activity using elements of the neural network. Subject of study. Methods of analysis and processing of data obtained from wearable devices in real time. Novelty. A new method of recognizing human activity based on the data of wearable devices is proposed, which, due to the use of a neural network, allows to obtain real-time recognition results with high accuracy.
APA, Harvard, Vancouver, ISO, and other styles
5

Бернацька, Дарина Леонідівна. "Штучний інтелект і психологія. чи може робот замінити психолога?" Thesis, Національний авіаційний університет, 2021. https://er.nau.edu.ua/handle/NAU/52239.

Full text
Abstract:
Тема штучного інтелекту є актуальною у сучасній науці та взагалі у суспільстві, адже наука не стоїть на місці і з кожним днем ми все стрімкіше наближаємося до машинізації, тож давайте розглянемо цю проблему. Штучний інтелект ("artificial intelligence", AI) відноситься до моделювання людського інтелекту в машинах, які запрограмовані думати як людина і імітувати її дії. Тому через постійний прогрес скоро можна буде спостерігати за впровадженням штучного інтелекту і в психологію.
APA, Harvard, Vancouver, ISO, and other styles
6

Гурбанов, Т. А. "Технології порівняльного аналізу електронних текстів як засіб боротьби з плагіатом." Thesis, Національний авіаційний університет, 2021. https://er.nau.edu.ua/handle/NAU/54371.

Full text
Abstract:
Використані джерела: 1. Вавіленкова А.І. Структура системи порівняльного аналізу електронних текстових документів за змістом / А. Вавіленкова // Вісник Національного університету "Львівська політехніка". Комп’ютерні науки та інформаційні технології. - 2017. – № 864. – С. 277-285. URL:http://nbuv.gov.ua/UJRN/VNULPKNIT_2017_864_36 2. Вавіленкова А.І. Теоретичні основи аналізу електронних текстів: монографія. – К.:ТОВ «СІК ГРУП УКРАЇНА», 2016. URL: http://er.nau.edu.ua/handle/NAU/42695
З розвитком науки та технологій ми можемо отримати багато нових можливостей для доступу до знань, але при цьому розвиваються старі та створюються нові проблеми в галузі освіти. Технології, що дозволяють отримати блискавичний доступ до багатьох джерел інформації та наукових робіт є однією з причин гострої проблеми плагіату цих наукових робіт.
APA, Harvard, Vancouver, ISO, and other styles
7

Sayah, Tarek. "Selective disclosure and inference leakage problem in the Linked Data." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1156/document.

Full text
Abstract:
L'émergence du Web sémantique a mené à une adoption rapide du format RDF (Resource Description Framework) pour décrire les données et les liens entre elles. Ce modèle de graphe est adapté à la représentation des liens sémantiques entre les objets du Web qui sont identifiés par des IRI. Les applications qui publient et échangent des données RDF potentiellement sensibles augmentent dans de nombreux domaines : bio-informatique, e-gouvernement, mouvements open-data. La problématique du contrôle des accès aux contenus RDF et de l'exposition sélective de l'information en fonction des privilèges des requérants devient de plus en plus importante. Notre principal objectif est d'encourager les entreprises et les organisations à publier leurs données RDF dans l'espace global des données liées. En effet, les données publiées peuvent être sensibles, et par conséquent, les fournisseurs de données peuvent être réticents à publier leurs informations, à moins qu'ils ne soient certains que les droits d'accès à leurs données par les différents requérants sont appliqués correctement. D'où l'importance de la sécurisation des contenus RDF est de l'exposition sélective de l'information pour différentes classes d'utilisateurs. Dans cette thèse, nous nous sommes intéressés à la conception d'un contrôle d'accès pertinents pour les données RDF. De nouvelles problématiques sont posées par l'introduction des mécanismes de déduction pour les données RDF (e.g., RDF/S, OWL), notamment le problème de fuite d'inférence. En effet, quand un propriétaire souhaite interdire l'accès à une information, il faut également qu'il soit sûr que les données diffusées ne pourront pas permettre de déduire des informations secrètes par l'intermédiaire des mécanismes d'inférence sur des données RDF. Dans cette thèse, nous proposons un modèle de contrôle d'accès à grains fins pour les données RDF. Nous illustrons l'expressivité du modèle de contrôle d'accès avec plusieurs stratégies de résolution de conflits, y compris la Most Specific Takes Precedence. Nous proposons un algorithme de vérification statique et nous montrons qu'il est possible de vérifier à l'avance si une politique présente un problème de fuite d'inférence. De plus, nous montrons comment utiliser la réponse de l'algorithme à des fins de diagnostics. Pour traiter les privilèges des sujets, nous définissons la syntaxe et la sémantique d'un langage inspiré de XACML, basé sur les attributs des sujets pour permettre la définition de politiques de contrôle d'accès beaucoup plus fines. Enfin, nous proposons une approche d'annotation de données pour appliquer notre modèle de contrôle d'accès, et nous montrons que notre implémentation entraîne un surcoût raisonnable durant l'exécution
The emergence of the Semantic Web has led to a rapid adoption of the RDF (Resource Description Framework) to describe the data and the links between them. The RDF graph model is tailored for the representation of semantic relations between Web objects that are identified by IRIs (Internationalized Resource Identifier). The applications that publish and exchange potentially sensitive RDF data are increasing in many areas: bioinformatics, e-government, open data movement. The problem of controlling access to RDF content and selective exposure to information based on privileges of the requester becomes increasingly important. Our main objective is to encourage businesses and organizations worldwide to publish their RDF data into the linked data global space. Indeed, the published data may be sensitive, and consequently, data providers may avoid to release their information, unless they are certain that the desired access rights of different accessing entities are enforced properly, to their data. Hence the issue of securing RDF content and ensuring the selective disclosure of information to different classes of users is becoming all the more important. In this thesis, we focused on the design of a relevant access control for RDF data. The problem of providing access controls to RDF data has attracted considerable attention of both the security and the database community in recent years. New issues are raised by the introduction of the deduction mechanisms for RDF data (e.g., RDF/S, OWL), including the inference leakage problem. Indeed, when an owner wishes to prohibit access to information, she/he must also ensure that the information supposed secret, can’t be inferred through inference mechanisms on RDF data. In this PhD thesis we propose a fine-grained access control model for RDF data. We illustrate the expressiveness of the access control model with several conict resolution strategies including most specific takes precedence. To tackle the inference leakage problem, we propose a static verification algorithm and show that it is possible to check in advance whether such a problem will arise. Moreover, we show how to use the answer of the algorithm for diagnosis purposes. To handle the subjects' privileges, we define the syntax and semantics of a XACML inspired language based on the subjects' attributes to allow much finer access control policies. Finally, we propose a data-annotation approach to enforce our access control model, and show that our solution incurs reasonable overhead with respect to the optimal solution which consists in materializing the user's accessible subgraph to enforce our access control model, and show that our solution incurs reasonable overhead with respect to the optimal solution which consists in materializing the user's accessible subgraph
APA, Harvard, Vancouver, ISO, and other styles
8

Погорелов, Володимир Володимирович, and Volodymyr Pogorelov. "Нейромережеві моделі та методи розпізнавання комп’ютерних вірусів." Thesis, Національний авіаційний університет, 2020. https://er.nau.edu.ua/handle/NAU/44636.

Full text
Abstract:
У роботі вирішено актуальну науково-прикладну задачу підвищення ефективності протидії комп’ютерним вірусам, за рахунок дослідження і розробки нових нейромережевих моделей, методів і засобів розпізнавання комп’ютерних вірусів, здатних оперативно пристосовуватись до умов використання і реагувати на виникнення нових видів вірусів. У дисертаційній роботі проведено аналіз сучасних нейромережевих моделей та методів розпізнавання комп’ютерних вірусів, що показав наявність низки недоліків, пов’язаних з високою потребою в обчислювальних ресурсах, низькою адаптованістю до проведення аналізу обфускованого програмного коду та недостатньою ефективністю розпізнавання. Розроблено концептуальну модель оцінювання глибоких нейронних мереж. Розроблено модель формування параметрів навчальних прикладів глибокої нейронної мережі. Розроблено метод визначення архітектурних параметрів глибокої нейронної мережі, призначеної для розпізнавання вірусів. Отримав подальший розвиток метод нейромережевого розпізнавання комп’ютерних вірусів. Розроблене спеціалізоване програмне забезпечення, що базується на створених нейромережевих методах та моделях, дозволило забезпечити достатню точність розпізнавання комп’ютерних вірусів та забезпечити оперативність створення алгоритмів функціонування апаратно-програмних засобів захисту інформації.
APA, Harvard, Vancouver, ISO, and other styles
9

Смішний, Денис Миколайович. "Система прогнозування економічних показників." Master's thesis, КПІ ім. Ігоря Сікорського, 2019. https://ela.kpi.ua/handle/123456789/30950.

Full text
Abstract:
Магістерська дисертація: 88 с., 20 рис., 27 табл., 1 додаток, 33 джерел. Актуальність проблеми. Глобалізація та збільшення числа населення сприяють розвитку глобальної економіки, а отже — появі нових видів госпо-дарської діяльності та нових гравців на ринку праці. При реалізації власного підприємства важливо правильно оцінити ризики ринку, проаналізувавши та спробувавши спрогнозувати рух котирувань на найближчий час задля мінімальних фінансових втрат. Зв’язок роботи з науковими програмами, планами, темами. Наразі, не має конкретних зв’язків з науковими програмами чи планами. Мета і задачі дослідження. Завданням цієї роботи є дослідження мож-ливості прогнозування економічних параметрів підприємств на прикладі цін на акції компаній на фондовій біржі. Метою є розроблення системи, побудо-ваної на базі нейронної мережі, здатної проаналізувати задані економічні по-казники та, на основі отриманих даних спрогнозувати їхню динаміку. Об’єкт дослідження. Процес прогнозування економічних показників з використанням елементів нейронної мережі. Предмет дослідження. Методи аналізу та обробки економічних даних за певний період. Новизна. Отримання програмного продукту, що здатний прогнозувати коливання економічних показників. Дослідження можливості реалізації мо-делі на основі нейронної мережі для виконання поставленої мети та завдань.
Master's Thesis: 88 pp., 20 figs., 27 tables, 1 appendix, 33 sources. The urgency of the problem. Globalization and population growth are con-tributing to the development of the global economy and, consequently, to the emergence of new types of economic activity and new players in the labor market. When implementing your own business it is important to properly evaluate the risks of the market, analyzing and trying to predict the movement of quotations in the near future for minimal financial losses. Relationship with working with scientific programs, plans, topics. Cur-rently, it has no specific links to scientific programs or plans. The purpose and objectives of the study. The purpose of this work is re-search possibility of forecasting the economic parameters of enterprises on the ex-ample of stock prices of companies on the stock exchange. The purpose is to de-velop a system based on a neural network, capable of analyzing specified economic indicators and, based on the data obtained, to predict their dynamics. Object of study. The process of forecasting economic performance using neural network elements. Subject of study. Methods of analysis and processing of economic data for a certain period. Novelty. Obtaining a software product capable of predicting economic fluc-tuations. Investigation of the possibility of creating a universal model based on a neural network, which would not require specialization and would be able to work effectively with any set of input data without further training.
APA, Harvard, Vancouver, ISO, and other styles
10

Codocedo-Henríquez, Víctor. "Contributions à l'indexation et à la recherche d'information avec l'analyse formelle de concepts." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0143/document.

Full text
Abstract:
Un des premiers modèles d'indexation de documents qui utilise des termes comme descripteurs était une structure de treillis, cela une vingtaine d'années avant l'arrivée de l'analyse formelle de concepts (FCA pour "Formal Concept Analysis"), qui s'affirme maintenant comme un formalisme théorique important et solide pour l'analyse de données et la découverte de connaissances. Actuellement, la communauté en recherche d'information (RI) s'intéresse particulièrement à des techniques avancées pour la recherche des documents qui relèvent des probabilités et des statistiques. En parallèle, l'intérêt de la communauté FCA au développement de techniques qui font avancer l'état de l'art en RI tout en offrant des fonctionnalités sémantiques lui est toujours bien vivant. Dans cette thèse, nous présentons un ensemble de contributions sur ce que nous avons appelé les systèmes FCA de recherche d'information ("FCA-based IR systems''). Nous avons divisé nos contributions en deux parties, à savoir l'extraction et l'indexation. Pour la récupération, nous proposons une nouvelle technique qui exploite les relations sémantiques entre les descripteurs dans un corpus de documents. Pour l'indexation, nous proposons un nouveau modèle qui permet de mettre en oeuvre un modèle vectoriel d'indexation des documents s'appuyant sur un treillis de concepts (ou treillis de Galois). En outre, nous proposons un modèle perfectionné pour l'indexation hétérogène dans lequel nous combinons le modèle vectoriel et le modèle de recherche booléen. Finalement, nous présentons une technique de fouille de données inspiré de l'indexation des documents, à savoir un modèle d'énumération exhaustive des biclusters en utilisant la FCA. Le biclustering est une nouvelle technique d'analyse de données dans laquelle les objets sont liés via la similitude dans certains attributs de l'espace de description, et non pas par tous les attributs comme dans le "clustering'' standard. En traduisant ce problème en termes d'analyse formelle de concepts, nous pouvons exploiter l'algorithmique associée à la FCA pour développer une technique d'extraction de biclusters de valeurs similaires. Nous montrons le très bon comportement de notre technique, qui fonctionne mieux que les techniques actuelles de biclustering avec énumération exhaustive
One of the first models ever to be considered as an index for documents using terms as descriptors, was a lattice structure, a couple of decades before the arrival of Formal Concept Analysis (FCA) as a solid theory for data mining and knowledge discovery.While the Information Retrieval (IR) community has shifted to more advanced techniques for document retrieval, like probabilistic and statistic paradigms, the interest of the FCA community on developing techniques that would improve the state-of-the-art in IR while providing relevance feedback and semantic based features, never decayed. In this thesis we present a set of contributions on what we call FCA-based IR systems. We have divided our contributions in two sets, namely retrieval and indexing. For retrieval, we propose a novel technique that exploits semantic relations among descriptors in a document corpus and a new concept lattice navigation strategy (called cousin concepts), enabling us to support classification-based reasoning to provide better results compared with state-of-the-art retrieval techniques. The basic notion in our strategy is supporting query modification using "term replacements'' using the lattice structure and semantic similarity. For indexing, we propose a new model that allows supporting the vector space model of retrieval using concept lattices. One of the main limitations of current FCA-based IR systems is related to the binary nature of the input data required for FCA to generate a concept lattice. We propose the use of pattern structures, an extension of FCA to deal with complex object descriptions, in order to support more advanced retrieval paradigms like the vector space model. In addition, we propose an advanced model for heterogeneous indexing through which we can combine the vector space model and the Boolean retrieval model. The main advantage of this approach is the ability of supporting indexing of convex regions in an arbitrary vectorial space built from a document collection. Finally, we move forward to a mining model associated with document indexing, namely exhaustive bicluster enumeration using FCA. Biclustering is an emerging data analysis technique in which objects are related by similarity under certain attributes of the description space, instead of the whole description space like in standard clustering. By translating this problem to the framework of FCA, we are able to exploit the robust machinery associated with the computation of concept lattices to provide an algorithm for mining biclusters based on similar values. We show how our technique performs better than current exhaustive enumeration biclustering techniques
APA, Harvard, Vancouver, ISO, and other styles
11

Блінков, Євген Миколайович. "Інформаційна технологія визначення тональності текстів." Bachelor's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/39700.

Full text
Abstract:
Структура та обсяг роботи. Пояснювальна записка дипломного проекту складається з п’яти розділів, містить 26 рисунків, 7 таблиць, 1 додаток, 17 джерел. Дипломний проект присвячений автоматизації процесів проведення аналізу тональності текстів, застосовуючи різні алгоритми та порівняння ефективності цих алгоритмів. В даному проекті описуються методи визначення тональності текстів та способи їх застосування при розробці інформаційної технології визначення тональності текстів. У розділі інформаційного забезпечення були наведені набори вхідних та вихідних даних, а також описано їх формат, структуру та призначення у програмному продукті. Розділ математичного забезпечення, насамперед, присвячений опису змістовної та математичної постановок задачі, а також ключових методів розв’язання поставленої задачі. Крім цього, наводиться обґрунтування вибору даних методів для їх реалізації у програмному продукті. У розділі програмного забезпечення наводяться засоби розробки, які були використані у даному програмному продукті, а також описується принцип роботи веб-застосування у вигляді різних діаграм. У технологічному розділі наводиться керівництво користувачу при користуванні даною програмою, а також описуються результати випробувань.
Structure and scope of work. The explanatory note of the diploma project consists of five sections, contains 26 figures, 7 tables, 1 appendix, 17 sources. The diploma project is devoted to automation of processes of the sentimental analysis of texts, applying various algorithms, and comparison of efficiency of these algorithms. This project describes the methods of sentimental analysis of texts and principles of their application in the development of information technology for text sentimental analysis. The information support section provided sets of input and output data, as well as described their format, structure and purpose in the software product. The section of mathematical support is primarily devoted to the description of meaningful and mathematical formulations of the problem, as well as key methods for solving the problem. In addition, the rationale for the choice of these methods for their implementation in the software product. The software section lists the development tools that have been used in this software product, as well as how the web application works in the form of various diagrams. The technological section provides user guidance for using this program, as well as describes the test results.
APA, Harvard, Vancouver, ISO, and other styles
12

Бріль, Андрій Сергійович, and Andriy Brilʹ. "Розробка системи підтримки прийняття рішень на основі розпізнавання зображень." Master's thesis, Тернопільський національний технічний університет імені Івана Пулюя, 2019. http://elartu.tntu.edu.ua/handle/lib/30717.

Full text
Abstract:
Дана робота присвячена розробці системи підтримки прийняття рішень на основі розпізнавання зображень, а саме їхньої сегментації. Реалізовано програмний продукт для сегментації й аналізу вхідних зображень з відображенням результатів розпізнавання. Методи й програмні засоби, які були використані для реалізації: мова програмування Python бібліотеку Keras, NumPy та TensorFlow. Практичне значення. Реалізовано систему для сегментації зображень із зручністю завантаження та їхнього аналізу і отримання змістовної інформації щодо отриманих результатів.
This paper is about developing a decision support system based on image recognition, namely their segmentation. Implemented a software product for segmenting and analyzing input images to display recognition results. Methods and tools used to implement this: Python programming language Keras library, NumPy and TensorFlow. Practical meaning. A system for image segmentation with ease of downloading and analyzing them and getting meaningful information about the results obtained.
APA, Harvard, Vancouver, ISO, and other styles
13

Ferradi, Houda. "Integrity, authentication and confidentiality in public-key cryptography." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE045/document.

Full text
Abstract:
Cette thèse présente des résultats appartenant aux trois thèmes fondamentaux de la cryptographie à clé publique : l’intégrité, l’authentification et la confidentialité. Au sein de chaque thème nous concevons des nouvelles primitives et améliorons des primitives existantes. Le premier chapitre, dédié à l’intégrité, introduit une preuve non-interactive de génération appropriée de clés publiques RSA et un protocole de co-signature dans lequel tout irrespect de l’équité laisse automatiquement la partie lésée en possession d’une preuve de culpabilité incriminant la partie tricheuse. Le second chapitre, ayant pour sujet l’authentification, montre comme une mesure de temps permet de raccourcir les engagements dans des preuves à divulgation nulle et comment des biais, introduits à dessin dans le défi, permettent d’accroitre l’efficacité de protocoles. Ce chapitre généralise également le protocole de Fiat-Shamir à plusieurs prouveurs et décrit une fraude très sophistiquée de cartes-à-puce illustrant les dangers de protocoles d’authentification mal-conçus. Au troisième chapitre nous nous intéressons à la confidentialité. Nous y proposons un cryptosystème à clé publique où les hypothèses de complexité traditionnelles sont remplacées par un raffinement du concept de CAPTCHA et nous explorons l’application du chiffrement-pot-de-miel au langage naturel. Nos dernières contributions concernent le chiffrement basé sur l’identité (IBE). Nous montrerons comment ajouter des fonctions d’émission à l’IBE hiérarchique et comment l’IBE permet de réduire la fenêtre temporelle de risque lors de la diffusion de mises à jour logicielles
This thesis presents new results in three fundamental areas of public-key cryptography: integrity, authentication and confidentiality. In each case we design new primitives or improve the features of existing ones. The first chapter, dealing with integrity, introduces a non-interactive proof for proper RSA public key generation and a contract co-signature protocol in which a breach in fairness provides the victim with transferable evidence against the cheater. The second chapter, focusing on authentication, shows how to use time measurements to shorten zeroknowledge commitments and how to exploit bias in zero-knowledge challenges to gain efficiency. This chapter also generalizes Fiat-Shamir into a one-to-many protocol and describes a very sophisticated smart card fraud illustrating what can happen when authentication protocols are wrongly designed. The third chapter is devoted to confidentiality. We propose public-key cryptosystems where traditional hardness assumptions are replaced by refinements of the CAPTCHA concept and explore the adaptation of honey encryption to natural language messages. Our final contributions focus on identity-based encryption (IBE) showing how to add broadcast features to hierarchical IBE and how to use IBE to reduce vulnerability exposure time of during software patch broadcast
APA, Harvard, Vancouver, ISO, and other styles
14

Топчієв, Борис Сергійович. "Алгоритмічно-програмний метод колоризації зображень." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/33832.

Full text
Abstract:
Дана магістерська дисертація присвячена дослідженню та розробці алгоритмічно-програмного методу колоризації зображень за допомогою нейронних мереж. Дана магістерська дисертація включає у себе проведені дослідження проблеми колоризації зображень, власноруч розроблений алгоритмічно-програмний метод для виконання напівавтоматичної колоризації зображень за участю користувача, який вносить власні кольорові підказки. З метою тестування та демонстрації роботи розробленої системи нейронних мереж було створено простий веб-сервіс, який надає можливість користувачу обрати необхідне зображення, за допомогою палітри кольорів внести власні підказки та отримати результат роботи системи. У даній магістерській дисертації проведено детальний аналіз існуючих проблем у роботі з зображеннями, огляд різних алгоритмів для усунення дефектів на зображеннях та запропоновано власний метод для виконання інтерактивної колоризації зображення за участю користувача. Також розроблено простий веб-сервіс, на якому розгорнуто натреновані моделі для їх експлуатації.
This master's dissertation is devoted to the research and development of an algorithmic-software method of coloring images using neural networks. This master's dissertation includes research on the problem of image colorization, self-developed algorithmic-software method for semi-automatic image colorization with the participation of a user who makes their own color prompts. In order to test and demonstrate the work of the developed neural network system, a simple web service was created, which allows the user to select the desired image, use the color palette to enter their own tips and get the result of the system. This master's dissertation provides a detailed analysis of existing problems in working with images, a review of various algorithms for eliminating defects in images and proposed its own method for performing interactive coloring of images with the participation of the user. A simple web service has also been developed, which deploys trained models for their operation.
APA, Harvard, Vancouver, ISO, and other styles
15

Зайяд, Абдаллах Мухаммед. "Ecrypted Network Classification With Deep Learning." Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/34069.

Full text
Abstract:
Дисертація складається з 84 сторінок, 59 Цифри та 29 джерел у довідковому списку. Проблема: Оскільки світ стає більш безпечним, для забезпечення належної передачі даних між сторонами, що спілкуються, було використано більше протоколів шифрування. Класифікація мережі стала більше клопоту з використанням деяких прийомів, оскільки перевірка зашифрованого трафіку в деяких країнах може бути незаконною. Це заважає інженерам мережі мати можливість класифікувати трафік, щоб відрізняти зашифрований від незашифрованого трафіку. Мета роботи: Ця стаття спрямована на проблему, спричинену попередніми методами, використовуваними в шифрованій мережевій класифікації. Деякі з них обмежені розміром даних та обчислювальною потужністю. У даній роботі використовується рішення алгоритму глибокого навчання для вирішення цієї проблеми. Основні завдання дослідження: 1. Порівняйте попередні традиційні методи та порівняйте їх переваги та недоліки 2. Вивчити попередні супутні роботи у сучасній галузі досліджень. 3. Запропонуйте більш сучасний та ефективний метод та алгоритм для зашифрованої класифікації мережевого трафіку Об'єкт дослідження: Простий алгоритм штучної нейронної мережі для точної та надійної класифікації мережевого трафіку, що не залежить від розміру даних та обчислювальної потужності. Предмет дослідження: На основі даних, зібраних із приватного потоку трафіку у нашому власному інструменті моделювання мережі. За 4 допомогою запропонованого нами методу визначаємо відмінності корисних навантажень мережевого трафіку та класифікуємо мережевий трафік. Це допомогло відокремити або класифікувати зашифровані від незашифрованого трафіку. Методи дослідження: Експериментальний метод. Ми провели наш експеримент із моделюванням мережі та збиранням трафіку різних незашифрованих протоколів та зашифрованих протоколів. Використовуючи мову програмування python та бібліотеку Keras, ми розробили згорнуту нейронну мережу, яка змогла прийняти корисне навантаження зібраного трафіку, навчити модель та класифікувати трафік у нашому тестовому наборі з високою точністю без вимоги високої обчислювальної потужності.
This dissertation consists of 84 pages, 59 Figures and 29 sources in the reference list. Problem: As the world becomes more security conscious, more encryption protocols have been employed in ensuring suecure data transmission between communicating parties. Network classification has become more of a hassle with the use of some techniques as inspecting encrypted traffic can pose to be illegal in some countries. This has hindered network engineers to be able to classify traffic to differentiate encrypted from unencrypted traffic. Purpose of work: This paper aims at the problem caused by previous techniques used in encrypted network classification. Some of which are limited to data size and computational power. This paper employs the use of deep learning algorithm to solve this problem. The main tasks of the research: 1. Compare previous traditional techniques and compare their advantages and disadvantages 2. Study previous related works in the current field of research. 3. Propose a more modern and efficient method and algorithm for encrypted network traffic classification The object of research: Simple artificial neural network algorithm for accurate and reliable network traffic classification that is independent of data size and computational power. The subject of research: Based on data collected from private traffic flow in our own network simulation tool. We use our proposed method to identify the differences in network traffic payloads and classify network traffic. It helped to separate or classify encrypted from unencrypted traffic. 6 Research methods: Experimental method. We have carried out our experiment with network simulation and gathering traffic of different unencrypted protocols and encrypted protocols. Using python programming language and the Keras library we developed a convolutional neural network that was able to take in the payload of the traffic gathered, train the model and classify the traffic in our test set with high accuracy without the requirement of high computational power.
APA, Harvard, Vancouver, ISO, and other styles
16

Portella, Rodrigo. "Balancing energy, security and circuit area in lightweight cryptographic hardware design." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE036/document.

Full text
Abstract:
Cette thèse aborde la conception et les contremesures permettant d'améliorer le calcul cryptographique matériel léger. Parce que la cryptographie (et la cryptanalyse) sont de nos jours de plus en plus omniprésentes dans notre vie quotidienne, il est crucial que les nouveaux systèmes développés soient suffisamment robustes pour faire face à la quantité croissante de données de traitement sans compromettre la sécurité globale. Ce travail aborde de nombreux sujets liés aux implémentations cryptographiques légères. Les principales contributions de cette thèse sont : - Un nouveau système d'accélération matérielle cryptographique appliqué aux codes BCH ; - Réduction de la consommation des systèmes embarqués et SoCs ; - Contre-mesures légères des attaques par canal auxiliaire applicables à l'algorithme de chiffrement reconfigurable AES ;- CSAC : Un pare-feu sécurisé sur la puce cryptographique ; - Attaques par analyse fréquentielle ; - Un nouveau protocole à divulgation nulle de connaissance appliquée aux réseaux de capteurs sans fil ; - OMD : Un nouveau schéma de chiffrement authentifié
This thesis addresses lightweight hardware design and countermeasures to improve cryptographic computation. Because cryptography (and cryptanalysis) is nowadays becoming more and more ubiquitous in our daily lives, it is crucial that newly developed systems are robust enough to deal with the increasing amount of processing data without compromising the overall security. This work addresses many different topics related to lightweight cryptographic implementations. The main contributions of this thesis are: - A new cryptographic hardware acceleration scheme applied to BCH codes; - Hardware power minimization applied to SoCs and embedded devices; - Timing and DPA lightweight countermeasures applied to the reconfigurable AES block cipher; - CSAC: A cryptographically secure on-chip firewall; - Frequency analysis attack experiments; - A new zero-knowledge zero-knowledge protocol applied to wireless sensor networks; - OMD: A new authenticated encryption scheme
APA, Harvard, Vancouver, ISO, and other styles
17

Чапалюк, Богдан Володимирович. "Системи автоматичної медичної комп’ютерної дiагностики з використанням методiв штучного iнтелекту." Doctoral thesis, Київ, 2020. https://ela.kpi.ua/handle/123456789/39677.

Full text
Abstract:
Мета даного дисертацiйного дослiдження полягає в детальному розглядi, розробцi та удосконаленнi систем автоматичної комп’ютерної дiагностики раку легень використовуючи методи штучного iнтелекту, зокрема застосовуючи та удосконалюючи останнi досягнення в областi глибинного навчання. Для дiагностування раку легенiв в сучасних медичних закладах використовують комп’ютерну томографiю, що представляє собою тривимiрне зображення легенiв пацiєнта, отримане за допомогою рентгенiвського променю, що пошарово та поступово проходить через тканини людського тiла в рiзних напрямках, з рiзних кутiв та положень. Такий вид зображень використовується в роботi для аналiзу присутностi пухлини в легенях за допомогою згорткових нейронних мереж. Однак, такi особливi данi накладають свої складностi в розробцi систем медичного комп’ютерного дiагностування, оскiльки при роботi з ними необхiдно враховувати їхню тривимiрну природу та вiдповiднi просторовi зв’язки. Тому, в дисертацiйному дослiдженнi розглядається три основнi пiдходи для роботи з такими даними: 1. Використання двовимiрної згорткової нейронної мережi. Для кожного шару КТ знiмка застосовується згорткова нейронна мережа. Виходи мережi для кожного шару знiмку об’єднуються та фiнальний висновок робиться на основi правил навчання за набором зразкiв. 2. Використання тривимiрних згорткових нейронних мереж, якi враховують тривимiрну природу вхiдних даних та можуть вiднайти кориснi патерни використовуючи всi три просторовi вiсi. Часто, такi системи роздiляють задачу на декiлька етапiв, кожен з яких використовує тривимiрну згорткову нейронну мережу налаштовану пiд конкретну пiдзадачу. 3. Використання комбiнованої структури двовимiрної згорткової та рекурентної нейронних мереж. В такому пiдходi двовимiрну згорткову нейронну мережу використовують для представлення вхiдних даних в менш мiрному просторi шляхом навчання многовиду меншої розмiрностi. Завдяки цьому на кожному шарi КТ зображення будуть видiлятися тiльки найбiльш важливi високорiвневi ознаки. Отриманi ознаки обробляються двонаправленою рекурентною нейронною мережею з вентильним вузлом (англ. bidirectional gated recurrent neural network), яка навчається складним нелiнiйним функцiям, що описують просторовi залежностi та вплив мiж ними. Вихiд рекурентної мережi повертає ймовiрнiсть наявностi пухлини на знiмку. В рамках даного дисертацiйного дослiдження проводиться аналiз та виконується експерименти для кожного пiдходу, а отриманi результати порiвнюються з роботами iнших авторiв. Експерименти показують, що найбiльш точними є системи побудованi iз декiлькох тривимiрних згорткових нейронних мереж (одна мережа сегментує потенцiйнi проблемнi регiони, iнша класифiкує присутнiсть в таких регiонах пухлини). Однак, такi системи мають дуже великi обчислювальнi вимоги, через те що використовують операцiю тривимiрної згортки, вимоги до обчислювальної потужностi якої ростуть кубiчно зi збiльшенням розмiрностi вхiдного зображення. В такому випадку, запропонована архiтектура рекурентної згорткової нейронної мережi дозволяє отримати точнiсть роботи системи на достатньо високому рiвнi, в той же час використовуючи значно менш вимогливу до обчислювальних потужностей та пам’ятi операцiю двовимiрної згортки. Наукова новизна отриманих результатiв дисертацiї полягає в запропонованому здобувачем методi побудови комбiнованої структури системи комп’ютерної дiагностики, що полягає в поєднаннi двовимiрної згорткової та двонаправленої рекурентної нейронної мережi LSTM. На вiдмiну вiд iнших рiшень, така система враховує просторовi зв’язки мiж рiзними шарами знiмку комп’ютерної томографiї шляхом використання двонаправленої рекурентної нейронної мережi, на входi якої використовують високорiвневi ознаки сформованi за допомогою двовимiрної згорткової нейронної мережi. Високорiвневi ознаки будуються для кожного шару знiмку пацiєнта. За результатами експериментiв така архiтектура нейронної мережi змогла досягти значення AUC ROC на рiвнi 83%, що трохи нижче у порiвнянi з системами тривимiрних згорткових нейронних мереж, що показують значення AUC ROC на рiвнi 90-95%. Однак, отриманi результати є найвищими результатами для рекурентних нейронних мереж, що застосовуються для побудови систем комп’ютерної дiагностики раку легенiв. Також, запропонована архiтектура має вищу швидкодiю, що досягається шляхом використання операцiї двовимiрної згортки замiсть операцiї тривимiрної згортки, вимоги якої до обчислювальної потужностi та пам’ятi ростуть квадратично з розмiром вхiдних даних, а не кубiчно. Для ефективного навчання комбiнованої структури згорткової рекурентної нейронної мережi був запропонований механiзм м’якої уваги, що надав можливiсть нейроннiй мережi отримати iнформацiю про локацiю пухлини пiд час навчання. Згiдно проведених експериментiв, такий пiдхiд допомiг покращити показники метрики AUC ROC бiльш нiж на 8%. Практичне значення отриманих результатiв полягає в розширенi та удосконаленi iснуючих методiв побудови систем комп’ютерної дiагностики. Запропонована комбiнована структура згорткової нейронної мережi та двонаправленої рекурентної мережi дозволяє отримати достатньо високу точнiсть роботи системи та пiдвищує точнiсть роботи системи у порiвнянi з використанням звичайних рекурентних нейронних мереж. Також, така система вiдзначається використанням меншої кiлькостi ресурсiв чим у тривимiрної згорткової нейронної мережi. Проведенi експерименти та аналiз iснуючих методiв систем комп’ютерної дiагностики дозволив сформулювати необхiднi вимоги та пiдходи, якi потрiбно використовувати в залежностi вiд прiоритету швидкодiї чи точностi роботи системи. Запропонований механiзм м’якої уваги дозволяє значно пiдвищити ефективнiсть навчання комбiнованих архiтектур згорткових рекурентних нейронних мереж. Результати дисертацiйного дослiдження впроваджено в НДР за темою “Розроблення та дослiдження методiв обробки, розпiзнавання, захисту та зберiгання медичних зображень в розподiлених комп’ютерних системах” за номером держ реєстрацiї 0117U004267 (тема №2021п, код КВНТД I.1 01.05.02). Також, основнi результати роботи викладенi в 6 друкованих наукових роботах, з них двоє статей в наукових фахових виданнях України, 2 опублiковано в iноземних журналах, що iндексується в Googel Scholar та iнших базах даних, 1-а стаття у виданнi, що входить до Web of Science Core Collection та SCOPUS. Також опублiковано одну роботу в тезах доповiдей мiжнародної наукової конференцiї.
APA, Harvard, Vancouver, ISO, and other styles
18

Повхан, Ігор Федорович. "Методи та принципи побудови дерев класифікації дискретних об’єктів для інтелектуального аналізу даних." Diss., Національний університет "Львівська політехніка", 2021. https://ena.lpnu.ua/handle/ntb/56709.

Full text
Abstract:
Дисертаційна робота присвячена дослідженню особливостей логічних та алгоритмічних дерев класифікації, деяких питань їх застосування в задачах інтелектуального аналізу даних, розпізнавання образів шляхом створення ефективних моделей класифікації та аналізу великих масивів даних, універсальних систем розпізнавання дискретних об’єктів. Проаналізовано та досліджено деревоподібні моделі класифікації різних типів. Розроблено комплексний метод побудови деревоподібних моделей класифікації, який базується на поетапній апроксимації масиву початкових даних НВ набором відібраних та оцінених незалежних алгоритмів розпізнавання. Розроблено метод Т – опорних множин, який полягає у відборі, фіксації набору ознак разом зі своїми значеннями – класифікаторів в структурі ЛДК. Розроблено моделі та методи побудови структур АДК двох типів, де отримані дерева класифікації складаються з різних алгоритмів та методів розпізнавання й в свою чергу представляють собою нові алгоритми, схеми класифікації. Розроблено модель та метод побудови обмежених структур АДК, які спрямовані на добудову лише тих шляхів, ярусів конструкції дерева класифікації, де є найбільша кількість помилок усіх типів класифікації. Розроблено методи знаходження подібності конструкцій логічних дерев в задачах мінімізації їх структур. Здійснено числову оцінку впливу процедури обрізки побудованого ЛДК – перестановки ярусів, рівнів, блоків структури ЛДК в конструкції регулярного логічного дерева на його загальну складність. Здійснено оцінку збіжності процедури побудови моделей дерев класифікації, запропонованих в дослідженні структур АДК для умов слабкого та сильного розділення класів початкової НВ. Present thesis is devoted to studying the specific features of both logical and algorithmic classification trees, some issues of their use in the problems of intelligence data analysis and image recognition by creating the efficient models of classification and analysis of large and super-large data arrays and universal systems of discrete object recognition. Tree-like classification models of various types are analyzed and studied. The concept of constructing tree-like classification models based on a step-by-step approximation of an array of initial TS data with a set of selected and evaluated independent recognition algorithms is proposed. The concept of T – reference sets is proposed, which consists in selecting and fixing a set of features together with their classifier values in the LCT structure. Models and methods for constructing ACT structures of two types are developed, where the resulting classification trees consist of various algorithms and recognition methods, which in turn represent new algorithms and classification schemes. A model and method for constructing bounded ACT structures are developed, which are aimed at completing only those paths, tiers of the classification tree structure where there are the largest number of errors of all classification types. Methods for finding the similarity of logical tree structures in problems of minimizing their structures are developed. A numerical estimate of the impact of the pruning procedure of the constructed LCT – rearrangement of tiers, levels, and blocks of the LCT structure in the construction of a regular logical tree on its overall complexity is given. The convergence of the procedure for constructing classification tree models proposed in the study of ACT structures for conditions of weak and strong separation of initial TS classes is estimated. Диссертационная работа посвящена исследованию особенностей логических и алгоритмических деревьев классификации, некоторых вопросов их применения в задачах интеллектуального анализа данных, распознавания образов путем создания эффективных моделей классификации и анализа больших массивов данных, универсальных систем распознавания дискретных объектов. В работе исследована и решена актуальная научно-прикладная проблема развития теории анализа и синтеза деревьев решений, разработки моделей, методов, прикладного инструментария интеллектуального анализа данных на основе логических и алгоритмических деревьев классификации с большей точностью, уменьшенной сложностью моделей и повышенной эффективностью классификации дискретных объектов. Проанализированы и исследованы древовидные модели классификации различных типов. Предложен комплексный метод построения древовидных моделей классификации, который базируется на поэтапной аппроксимации массива начальных данных набором отобранных и оцененных независимых алгоритмов распознавания. Предложен метод Т – опорных множеств, который заключается в отборе, фиксации набора признаков вместе со своими значениями – классификаторов в структуре ЛДК. Разработаны модели и методы построения структур АДК двух типов, где полученные деревья классификации состоят из различных алгоритмов и методов распознавания и в свою очередь представляют собой новые алгоритмы, схемы классификации. Разработана модель и метод построения ограниченных структур АДК, которые направлены на достройку только тех путей, ярусов конструкции дерева классификации, где есть наибольшее количество ошибок всех типов классификации. Разработаны методы нахождения сходства конструкций логических деревьев в задачах минимизации их структур. Дана числовая оценка влияния процедуры обрезки построенного ЛДК – перестановки ярусов, уровней, блоков структуры ЛДК в конструкции регулярного логического дерева на его общую сложность. Дана оценка сходимости процедуры построения моделей деревьев классификации, предложенных в исследовании структур АДК для условий слабого и сильного разделения классов начальной ОВ. Разработан программный инструментарий построения структур ЛДК/АДК (моделей деревьев классификации различных типов), который позволяет решать широкий спектр разнотипных прикладных задач распознавания образов. По результатам диссертационного исследования проведено экспериментальное моделирование, апробация разработанных моделей и методов на практических задачах, а определения эффективности предложенных в работе методов построения АДК осуществлено на основе интегральных показателей качества моделей.
APA, Harvard, Vancouver, ISO, and other styles
19

Maio, Paulo Alexandre Fangueiro Oliveira. "An extensible argumentation model for ontology matching negotiation." Doctoral thesis, 2015. http://hdl.handle.net/10348/5339.

Full text
Abstract:
Tese de Doutoramento em Engenharia Electrotécnica e de Computadores
With the advent of new technological and socio-organizational paradigms raised by the globalization phenomenon, information and communication systems are facing unprecedented levels of distribution, heterogeneity and evolution. In this context, many applications/scenarios see the ontology matching process as an appropriate approach to overcome such heterogeneity since it is able to define an alignment between two ontologies at the conceptual level, which in turn is further exploited to enhance interoperability between applications and/or systems. Due to the subjective nature of ontologies, context, preferences, interests and alignment requirements, different systems have contradictory and inconsistent perspectives about the alignment. Consequently, conflicts arise between systems about the best alignment to use. To address such conflicts, ontology matching negotiation arises as promising approach enabling systems to establish a consensual alignment between their ontologies. There are two kinds of ontology matching negotiation approaches: (i) relaxation-based approaches and (ii) argument-based approaches. The first contribution of this thesis is the identification and description of several limitations in the state-of-the-art. These limitations drove the research efforts described in this thesis in order to overcome them. This thesis focus on researching argumentation-based (semi-) automatic negotiation approaches and methodologies that exploit existing ontology matching tools in order to permit heterogeneous applications/systems to overcome potentially existing divergences in establishing a consensual ontology alignment, and consequently facilitating their interoperability. Despite the focus of the thesis, several of the presented contributions go beyond the ontology matching negotiation domain, such that they are also applicable in a diversity of domains including e-commerce, legal reasoning and decision making. In this particular, two generic contributions are highlighted. The first generic contribution is the proposal of an iterative and incremental argument-based negotiation process that promotes the adoption of an explicit, formal and extensible specification of a shared argumentation model between argument-based negotiating agents. Argumentation is adopted by the negotiating agents as a modeling formalism for theoretical and practical reasoning and, therefore, governing the internal and external agents’ behavior. The second contribution concerns the specification of a general argumentation framework that (i) comprehends a conceptualization layer to capture the semantics of the argumentation data employed in a specific context and (ii) provides modularity and extensibility features that simplify its adoption by argumentation systems. Yet, it also adopts a general and intuitive argument structure which is largely accepted by the argumentation community. Finally, a third contribution concerns the application of the previous generic contributions to the ontology matching negotiation domain. The novel argument-based negotiation approach exploits and profits from these generic contributions to overcome (most of) the limitations previously identified in the state-of-the-art on argument-based ontology matching negotiation. Accordingly, the dichotomy and the symbiosis between the generic contributions and ontology matching negotiation contributions are intrinsic and an essential part of this thesis.
APA, Harvard, Vancouver, ISO, and other styles
20

Чорна, Іванна Іванівна. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/30686.

Full text
Abstract:
Сучасний рівень медичного дослідження черепно-лицевої хірургії дозволяє заглянути всередину об'єкта, тим самим діагностувати безліч патологій на різних стадіях. До таких видів досліджень відноситься комп'ютерна томографія, за допомогою якої можна отримати набори томографічних знімків. На сьогоднішній день питання про методи обробки та аналізу медичних зображень є актуальним і важливим у зв'язку із застосуванням на різних етапах діагностики сучасної обчислювальної техніки. Враховуючи особливості медичних знімків, метою магістерської роботи є визначення алгоритму дослідження томографічних знімків для тривимірної візуалізації морфологічних характеристик патологій в черепно-лицьової області. Для досягнення поставленої мети необхідно вирішити наступні задачі: позбавитись від шуму, виділити найбільш інформативні об'єкти та границі зображення, визначити метод виділення патологій. Для вирішення поставлених задач використовувались методи лінійної і нелінійної фільтрації, операції математичної морфології Серра, диференційні оператори виділення границь, операції дзеркального відображення здорової сторони.
APA, Harvard, Vancouver, ISO, and other styles
21

Гупало, Тарас Олегович. "Програмна реалізація репозитарію шаблонів проектування для розробки програмних архітектур." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/30688.

Full text
Abstract:
Метою проектування є розгляд теоретичних та практичних засад створення репозиторію альтернативної архітектури, маючи набір загальних патернів і архітектур що реалізують різні модулі програми. Метою проекта є розгляд теоретичних та практичних засад створення та управління репозиторіем патернів і архітектур. Категоризація для побудови рапозиторію для каркасів архітектур і патернів. Предметом дослідження є програмне забезпечення теоретичні засади оцінки альтернативних архітектур та програмній комплект що формую набір альтернативних архітектур після чого проводиться порівняльна оцінка їх та загальний вибір оптимальнішої архітектури виходячи з експертних оцінок.
APA, Harvard, Vancouver, ISO, and other styles
22

Чорна, Іванна Іванівна. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31364.

Full text
Abstract:
Для того щоб розбиратися розмаїтті лікарських засобів, потрібно їх класифікувати. Для цього використовують різні системи їх класифікації. Проблема класифікації ліків є дуже важливою, оскільки дозволяє систематизувати підходи як для застосування відомих, так і створення нових лікарських засобів. Існує три основних типи класифікації лікарських засобів: за хімічною будовою; за джерелами походження; за лікувальною дією. Тому метою роботи є визначити завдання та вимоги для систем класифікації лікарських засобів. Описати найпоширеніші системи класифікації лікарських засобів. Виділити області застосування систем класифікації лікарських засобів. Вивчено інформаційні джерела з медичного і фармацевтичного товарознавства, електронні ресурси та довідники, що відображають класифікацію лікарських засобів, а також нормативні правові акти і інформаційні джерела, які регулюють оптову та роздрібну реалізацію лікарських засобів, діяльність аптек і аптечного складу. В результаті розроблено програмний засіб у вигляді нейронної мережі для класифікації лікарських засобів.
APA, Harvard, Vancouver, ISO, and other styles
23

Гупало, Тарас Олегович, and Taras Hupalo. "Програмна реалізація репозитарію шаблонів проектування для розробки програмних архітектур." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31365.

Full text
Abstract:
Метою проектування є розгляд теоретичних та практичних засад створення репозиторію альтернативної архітектури, маючи набір загальних патернів і архітектур що реалізують різні модулі програми. Метою проекта є розгляд теоретичних та практичних засад створення та управління репозиторіем патернів і архітектур. Категоризація для побудови рапозиторію для каркасів архітектур і патернів. Предметом дослідження є програмне забезпечення теоретичні засади оцінки альтернативних архітектур та програмній комплект що формую набір альтернативних архітектур після чого проводиться порівняльна оцінка їх та загальний вибір оптимальнішої архітектури виходячи з експертних оцінок.
APA, Harvard, Vancouver, ISO, and other styles
24

Чорна, Іванна Іванівна, and Ivanna Chorna. "Інформаційна система для задач класифікації багатопараметричних сутностей." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/31375.

Full text
Abstract:
Проблема класифікації ліків є дуже важливою, оскільки дозволяє систематизувати підходи як для застосування відомих, так і створення нових лікарських засобів. Існує три основних типи класифікації лікарських засобів: за хімічною будовою; за джерелами походження; за лікувальною дією. Тому метою роботи є визначити завдання та вимоги для систем класифікації лікарських засобів. Описати найпоширеніші системи класифікації лікарських засобів. Виділити області застосування систем класифікації лікарських засобів. Вивчено інформаційні джерела з медичного і фармацевтичного товарознавства, електронні ресурси та довідники, що відображають класифікацію лікарських засобів, а також нормативні правові акти і інформаційні джерела, які регулюють оптову та роздрібну реалізацію лікарських засобів, діяльність аптек і аптечного складу. В результаті розроблено програмний засіб у вигляді нейронної мережі для класифікації лікарських засобів.
APA, Harvard, Vancouver, ISO, and other styles
25

Caldeira, Maria Cristina Graça. "Ontologias para ambientes arqueológicos." Master's thesis, 2015. http://hdl.handle.net/10348/5128.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Informática
Os vestígios arqueológicos são elementos importantes das nossas cidades, permitindo reconhecer visualmente, por vezes unicamente de uma forma parcial, qual o seu aspeto original, representando um importante legado para as gerações futuras. A necessidade de obter uma representação digital desses elementos levou à criação de ontologias específicas para a área da arqueologia. Porém, essas ontologias são demasiado genéricas e, geralmente, não são suficientes para descrever com o detalhe necessário, os sítios arqueológicos. Neste âmbito, este trabalho tem como principal objetivo efetuar um estudo sobre as ontologias existentes para a área da arqueologia e identificar o seu potencial para descrever sítios arqueológicos. O trabalho iniciou com a análise de um conjunto de ontologias, tendo sido selecionadas duas delas, dado o seu potencial para a caracterização de sítios arqueológicos. Para identificar o potencial de cada uma dessas ontologias optou-se por uma metodologia de estudo de caso. Assim, as duas ontologias em questão foram aplicadas num caso de estudo, a Igreja Matriz de Sernancelhe, de modo a identificar os seus pontos fortes e fracos para esta área de aplicação. Para a representação de uma grande variedade de monumentos arqueológicos, o CityGML é uma ontologia que abrange um grande leque de representação de monumentos. Porém, a criação de um ficheiro CityGML pode ser uma tarefa complexa e demorada. A segunda ontologia apesar de ser de fácil compreensão e o processo de criação ser rápido e simples, por enquanto, a implementação existente só possibilita a representação de monumentos do tipo Igreja. Nenhuma das ontologias satisfaz, de uma forma isolada, os requisitos necessários para efetuar uma representação 3D de um monumento, mas em conjunto com outras ontologias obtém-se resultados com muito mais abrangência, quer a nível de representação quer ao nível da complexidade do objeto a representar, permitindo maior detalhe através de uma ontologia em detrimento de outra sem esse mesmo nível de representação, enriquecendo o resultado final.
The archaeological remains are important elements of our cities, enabling to visually recognize, sometimes only partially, what was its original aspect, representing an important legacy for future generations. The need to obtain a digital representation of these elements led to the creation of ontologies specific to the field of archaeology. However, these ontologies are too generic and, generally, are not sufficient to describe with the necessary detail, the archaeological sites. In this context, this paper has as main objective to conduct a study on the existing ontologies for the area of archaeology and identify their potential to describe archaeological sites. The work began with the analysis of a set of ontologies, having been selected two of them, given their potential for characterization of archaeological sites. To identify the potential of each of these ontologies a case study methodology was used. Thus, the two ontologies in question were applied in a case study, the Igreja (mother church) of Sernancelhe in order to identify their strengths and weaknesses for this application area. For the representation of a wide variety of archaeological monuments, the CityGML is an ontology covering a wide range of representation of monuments. However, the creation of a CityGML file can be complex and time-consuming. The second ontology despite being easy to understand and the process of creation be quick and simple, for the time being, the existing implementation only allows the representation of monuments like Church. Alone, none of the ontologies satisfies, the conditions required to make a 3D representation of a monument, but in conjunction with other ontologies are obtained results with much more coverage, both at the level of representation and in terms of complexity of the object to represent, allowing greater detail through an ontology in detriment of another without that same level of representation, enriching the final result.
APA, Harvard, Vancouver, ISO, and other styles
26

Costa, Luís Filipe Macedo. "Inteligência artificial aplicada à monitorização automática de alimentação de idosos." Master's thesis, 2016. http://hdl.handle.net/10348/6460.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Informática
A alimentação é um dos fatores que mais influência a saúde das pessoas e ainda mais a das pessoas mais velhas. Com o envelhecimento populacional dos últimos anos, o número destas pessoas, a viver sozinhas e que precisam de acompanhamento, aumentou muito. O acompanhamento institucional não é desejado pelos próprios e, quando necessário, tem custos muito elevados. Neste contexto, a monitorização à distância apresenta-se como uma solução que permite prolongar a sua permanência em casa. A monitorização da alimentação destaca-se, particularmente, por permitir a deteção precoce de problemas de saúde. Tradicionalmente, esta monitorização realiza-se com base em autorrelato, que é um método pouco rigoroso e, frequentemente, considerado como um “fardo pesado”. Em toda a literatura e estudos existentes, até à data, não se conhecem soluções totalmente automáticas e adequadas à monitorização de idosos. Neste contexto, propõe-se um sistema de monitorização automática de alimentação, pensado para a monitorização de idosos, no seu ambiente natural. O sistema analisa as articulações do esqueleto humano, fornecidas pelo sensor Microsoft Kinect, dirigido para uma mesa (cenário proposto), deteta os gestos de alimentação, classifica-os com modelos ocultos de Markov (Hidden Markov Models) e estima a alimentação do utilizador. Foi implementado um protótipo demonstrativo para detetar e classificar gestos de alimentação, tendo sido testado com gestos de 8 utilizadores diferentes. Os gestos foram organizados em 3 grupos principais: comer sopa, comer prato principal e beber. Foram usados 689 gestos para teste de deteção, tendo o sistema obtido 77% de verdadeiros positivos, 22% de falsos positivos e de 23% falsos negativos. A classificação foi feita com 3 métodos propostos, tendo sido utilizados 231 gestos para teste. No método 1 (conta ocorrências), o sistema obteve 78% de classificações corretas para a sopa, 87% para o prato e 57% para os gestos de beber. No método 2 (classificação ponderada dos braços direito e esquerdo), 80% para a sopa, 80% para o prato e 47% para os gestos de beber. E, por fim, no método 3 (gestos da mão direita vs. gestos da mão esquerda), 70% para a sopa, 78% para o prato e 60% para os gestos de beber. As taxas obtidas de deteção e classificação permitem caracterizar a alimentação de uma pessoa (idosa), no seu ambiente natural, no entanto, será desejado melhorar o seu desempenho.
Eating behavior is one of the factors that influences people’s health the most and even more in older people. With the population aging in the latest years, the number of these people, living alone and needing support, has highly increased. Institutional support is not wanted by themselves and, when needed, has high costs. In this context, remote monitoring is presented as a solution allowing to extend their permanence at home. Eating monitoring stands out, particularly, by allowing for premature detection of health problems. Traditionally, this kind of monitoring is achieved based in self-report, which is an inaccurate method and, frequently, considered as a “heavy burden”. In all the literature and existing studies, until today, there are no known automatic solutions that are adequate to monitor elderly people. In this context, we propose an automatic eating behavior monitoring system, thought to monitor elderly people, in their natural environment. The system analyzes the coordinates of the human skeleton, provided by the Microsoft Kinect sensor, facing to a table (proposed scenario), detects eating gestures, classifies them with Hidden Markov Models (HMMs) and estimates the user’s feeding behavior. A demonstrative prototype to detect and classify eating gestures was implemented and tested with gestures of 8 different users. The gestures were organized in 3 main groups: eat soup, eat main dish and drink. 689 gestures were used to test the detection and the system obtained 77% of true positives, 22% false positives and 23% false negatives. The classification was done with 3 proposed methods and 231 gestures were used for test. In method 1 (count occurrences), the system obtained 78% of correct classifications for soup, 87% for main dish and 57% for the drinking gestures. For method 2 (weighted classification of the right and left arms), 80% for soup, 80% for main dish and 47% for the drinking gestures. And, lastly, for method 3 (right hand gestures vs. left hand gestures), 70% for soup, 78% for main dish and 60% for the drinking gestures. The obtained detection and classification rates allow to characterize the eating behavior of a person (elder), in his natural environment, although, its performance should be improved.
APA, Harvard, Vancouver, ISO, and other styles
27

Silva, Emanuel Fernando Cunha. "Ontology-based representation, transformation, maintainability and staging of multiuser and multi-domain choreographies in multiple virtual worlds." Doctoral thesis, 2015. http://hdl.handle.net/10348/5220.

Full text
Abstract:
Tese de Doutoramento em Informática
No contexto de ensino e treino, a utilização de novas ferramentas tecnológicas para auxiliar a implementação das diversas estratégias de ensino/aprendizagem tem sido amplamente adotada. Os mundos virtuais têm sido vistos como um dos artefactos tecnológicos com maior potencial para uso nesta área, uma vez que proporcionam uma plataforma imersiva e colaborativa onde os seus utilizadores podem desenvolver as atividades educativas livremente ou seguindo coreografias com ações e regras bem definidas. Uma coreografia é a descrição de um conjunto de ações que podem ou devem ser executadas por um grupo de personagens, humanos ou virtuais, de acordo com regras específicas e objectivos a alcançar. Devido à elevada quantidade de mundos virtuais existentes, com diferentes características, funcionalidades, vocabulário e API disponíveis, a criação de uma coreografia é feita muito à medida dos mundos virtuais a que se destinam apresentando, assim, fortes dependências a essas plataformas, dificultando a sua aplicação a mundos virtuais distintos. Esta tese foca-se em fornecer um contributo no sentido de facilitar a criação, adaptação e encenação de uma coreografia em múltiplos mundos virtuais. A primeira contribuição desta tese, a partir da qual foram desenvolvidos os esforços de pesquisa, foi identificar e descrever os principais problemas de dependências das coreografias aos mundos virtuais, bem como as limitações encontradas no estado da arte. Para endereçar o problema em mãos, foram escolhidas ontologias como modelos de dados e o paradigma MDE (Model-Driven Engineering) como método de desenvolvimento das coreografias. A segunda contribuição foi a proposta de uma ontologia para representar de forma abstracta e genérica uma coreografia, independente de domínios de aplicação e de mundos virtuais. A terceira contribuição diz respeito à arquitetura de um sistema que permite representar, adaptar e encenar uma coreografia em, potencialmente, qualquer mundo virtual. Para capturar e representar uma coreografia multiutilizador e multi-domínio é adoptada uma abordagem baseada em ontologias com vários níveis de abstração. É também proposta uma abordagem orientada por modelos e um conjunto de processos que, usando mapeamentos entre as diversas ontologias permite a construção automática de uma coreografia específica para uma plataforma a partir de uma coreografia independente de plataformas, contribuindo assim, para a redução do tempo e esforço no desenvolvimento das coreografias. Para isso, o paradigma MDE foi adotado e adaptado, para que os modelos possam refletir duas dimensões de independência: independência em relação à plataforma (tal como no MDE) e independência em relação ao domínio de aplicação. É também apresentada a arquitetura de um componente para gerir a encenação de uma coreografia no mundo virtual explorando as vantagens proporcionadas pelas características intrínsecas às ontologias, tais como, verificação da consistência da base de conhecimento, de regras e classificação automática de instâncias. As ideias e processos propostos no contexto desta tese foram implementados e testados usando vários cenários de diferentes domínios de aplicação e encenados em múltiplos mundos virtuais.
In the context of education and training, the use of new technological tools to assist the implementation of various teaching/learning strategies has been widely adopted. Virtual worlds have been seen as one of the technological artifacts with greatest potential for use in this area, since they provide an immersive and collaborative platform where users can freely develop educational activities, or follow choreographies with well-defined actions and rules. A choreography is a description of a set of actions that may or must be performed by a group of characters, either human or virtual, according to specific rules and goals to be achieved. Due to the large amount of existing virtual worlds with different features, functionalities, vocabulary and available APIs, a choreography is tailored to the target virtual worlds, thus having strong dependencies to these platforms, hindering its application to different virtual worlds platforms. This thesis focuses on providing a contribution to facilitate the creation, adaptation and staging of a choreography in multiple virtual worlds. The first contribution of this thesis, from which the research efforts were made, was to identify and describe the main dependency problems of the choreography to virtual worlds, as well as the limitations found in the state of the art. To address the problem in hands, ontologies were chosen to represent data models, and the MDE (Model-Driven Engineering) paradigm was adopted as the choreography development method. The second contribution was the proposal of an ontology to represent a choreography in an abstract and generic fashion, independent of any application domain and virtual world. The third contribution concerns a system architecture that allows representation, adaptation and staging of a choreography in potentially any virtual world. To capture and represent a multiuser and multi-domain choreography, an approach based on ontologies with multiple levels of abstraction is adopted. It is also proposed a modelling-driven approach and a set of processes that, through mappings between ontologies, enable the automatic construction of a platform-specific choreography from a platform independent one, thus reducing the time and effort of the choreography development. In order to do this, the MDE paradigm was adopted and adapted in a way where models can reflect two dimensions of independence: platform independence (as in MDE) and application domain independence. The architecture of a component that manages the staging of a choreography within the virtual world is also presented, exploring the advantages provided by the intrinsic characteristics of ontologies, such as consistency checking, checking rules and dynamic classification of instances. The proposed ideas and processes in the context of this thesis have been implemented and tested using various scenarios of different application areas and staged in multiple virtual worlds.
APA, Harvard, Vancouver, ISO, and other styles
28

Valente, José Carlos Faceira. "Deteção de veículos para caracterização de tráfego urbano." Master's thesis, 2017. http://hdl.handle.net/10348/7336.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
Nos dias de hoje, muitas horas são passados dentro de automóveis em movimento ou parados em filas de trânsito. Para muitas cidades, o crescente desenvolvimento urbano e modo de vida dos cidadãos, face às infraestruturas dis- poníveis, provoca engarrafamentos e situações anómalas no trânsito. Os principais parâmetros de trânsito utilizados para definição e classificação dos níveis de trânsito são, entre outros, a velocidade e o número de veículos. Estes parâmetros são calcu- lados recorrendo a informação recolhida diretamente nas vias, através de sensores fixos instalados nas mesmas, e.g. câmaras de vídeo e inductive loops. Do ponto do vista do automobilista, saber de modo preventivo o nível de congestionamento de uma via permite tomar uma opção adequada e consciente, sendo esta vantajosa quer para o próprio automobilista, pois escolhe o percurso mais eficiente; quer para o trânsito, o qual pode fluir de modo a não potenciar o congestionamento; quer para o meio ambiente, através da redução do consumo de combustível, tornando assim as cidades mais sustentáveis, o "green thinking". Esta possibilidade implica a capaci- dade de deteção de automóveis. Os sistemas existentes atualmente para a deteção de veículos são diversificados, cada um com as suas vantagens e desvantagens, e um dos critérios de escolha é a autonomia. O objetivo deste projeto é o desenvolvi- mento de um sistema protótipo, com consumo energético reduzido, capaz de detetar veículos, que é posteriormente integrado num outro projeto já implementado e em funcionamento na cidade de Vila Real. Neste sistema, o protótipo vai ser integrado numa rede de sensores sem fios, que envia informações referentes à passagem de veículos para uma estação base. A deteção dos veículos é feita recorrendo a um sensor magnético, aliado a um microcontrolador capaz de estabelecer comunicações sem fios. O protocolo de comunicação entre protótipo e estação base é baseada no padrão IEEE802.15.4.
Nowadays, people spend a lot of time inside their cars, either in movement or stopped in traffic jams. In many cities, the increasing urban development and its citizen lifestyle, in comparison with the available infrastructure, cause a lot of abnormal situations and traffic complications. The main traffic parameters used to define and classify traffic congestion levels, among others, are vehicle speed and vehicle count. These parameters are calculated using information collected in the roads, through installed fixed sensors, like video cameras and inductive loops. From the driver's point of view, being able to know in first hand the traffic condition will allow him to make a proper and conscious decision, which is advantageous for the driver himself, because he chooses the most efficient route; it is also advanta- geous for the traffic itself, which can ow smoothly without any congestion; and advantageous for the environment, through the reduction of the fuel consumption, adopting a "green thinking" and making cities more sustainable. Such a system re- quires the ability to detect vehicles. There is a diversity of systems that can detect vehicles, each one of them having both advantages and disadvantages. One of the main selection criteria is the autonomy. The main goal of this project is to develop a low power system that can detect vehicles. This system will be integrated in a ongoing project already fully working in Vila Real. In this ongoing project, this system will be implemented in a wireless sensor network, which sends information about traffic ow to a central node. The detection of vehicles is done using magnetic sensors, connected to a microcontroller with wireless communications capabilities. The communication protocol is based on IEEE 802.15.4.
APA, Harvard, Vancouver, ISO, and other styles
29

Aguirre, Carlos Augusto Fonseca. "Predictive maintenance in oil and gas offshore drilling." Master's thesis, 2011. http://hdl.handle.net/10348/5776.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e Computadores
A manutenção dos equipamentos utilizados é vital na operação de perfuração. Na verdade, esta é a espinha dorsal para o desenvolvimento de uma operação eficiente e contínua de todo o processo. O processo de perfuração offshore de petróleo e gás é confrontado permanentemente com complexos problemas técnicos e ambientais. O estudo descreve os processos de perfuração e de determinação de possíveis reservatórios de petróleo. É feita uma abordagem ao equipamento utilizado no processo de perfuração e métodos de manutenção diferentes, usados para restaurar a qualidade do processo. Este estudo usou sensores disponíveis no mercado que têm a capacidade de detectar sólidos no processo de lubrificação, e que podem colocar em risco todo o sistema. É referido que os sinais analógicos e digitais são utilizados para transferir as informações transmitidas pelos sensores ao computador responsável pelo armazenamento. O sistema utiliza também PLCs, Controlador Lógico Programável, a fim de gerenciar e controlar todo o processo de perfuração. O estudo utiliza Intranet e integra o uso de VPN, Rede Privada Virtual, para transferir e proteger os dados que precisam ser armazenados e disponíveis para os operadores em terra. Este estudo utiliza um sistema que inclui a aplicação de controlador de domínio (Domain Controller) que é definido como o servidor principal do sistema; este servidor é gerado por Directoria Activa, com o intuito de enviar a informação para os operadores em terra. O sistema também integrou o uso de sistemas especializados e inteligência artificial, a fim de gerenciar a automatização de relatórios de manutenção.
The maintenance of equipment used in drilling operations is vital. In truth, this is the backbone for developing efficiency and continued operation throughout the process. The process of offshore drilling for both oil and gas is constantly faced with complex technical and environmental challenges. This study outlines the process of oil drilling, and the identification of possible oil reservoirs. It also considers the equipment used in the drilling process and different maintenance methods used in order to restore quality of production. This study has used sensors that are available in the market that have the ability to detect solids in the lubrication process and that can jeopardize the entire system. Analog and Digital Signals are referred to as a means of transferring the information forwarded by the sensors to the main storage computer. The system also uses Programmable Logic Controllers (PLCs) in order to manage and control the whole drilling process. This study uses Intranet, and has integrated the use of Virtual Private Network in order to transfer and protect the data that needs to be forwarded to the server and to the onshore operators. Furthermore, this study uses a system which includes the application of Domain Controller that is set as the main server of the system; this server is generated by Active Directory in order to send information to the onshore operators. The system also integrated the use of Expert System and Artificial Intelligence in order to manage the automation of maintenance reporting.
APA, Harvard, Vancouver, ISO, and other styles
30

Форись, Іван Анатолійович. "Математичне та програмне забезпечення комп’ютерних систем керування транспортним засобом." Master's thesis, 2019. http://elartu.tntu.edu.ua/handle/lib/29751.

Full text
Abstract:
Дипломну робота магістра присвячено створенню комп’ютерної системи керування поворотом всіх коліс транспортного засобу, згідно заданої поведінки. Розглянуто комп’ютерні системи автоматизації керування транспортним засобом, рівні автоматизації. Розглянуто і проаналізовано системи задіяні у керуванні поворотом коліс транспортного засобу, а також актуальні транспортні засоби із усіма керованими колесами. Проаналізовано поведінку транспортних засобів, що рухаються по рейках та звичайних дорожніх автомобілів, автобусів та вантажівок із різною кількістю поворотних осей. Також розглянуто криві Безьє для побудови траєкторії руху транспортного засобу. Розглянуто та проаналізовано апаратне забезпечення нейронних мереж. Розроблено, проведено навчання та протестовано нейронну мережу, що керує всіма осями транспортного засобу задля реалізації поведінки руху по колії. Також розроблено та описано алгоритм та логіку визначення початкових координат осей та траєкторії руху транспортного засобу.
APA, Harvard, Vancouver, ISO, and other styles
31

Rosa, Fábio Jorge Silva. "Desenvolvimento de uma estratégia para a criação de um território inteligente multimunicipal: caso de estudo: monitorização da qualidade do ar." Master's thesis, 2017. http://hdl.handle.net/10348/7816.

Full text
Abstract:
Dissertação de Mestrado em Engenharia do Ambiente
A constante melhoria das condições de vida e o desenvolvimento do local em que nos inserimos é uma das principais preocupações das populações em todo o Mundo. Tendo em vista um crescimento económico sustentável e uma elevada qualidade de vida em que a gestão sensata dos recursos naturais não é descurada, surge o conceito de “Cidade Inteligente”. A necessidade de investir em capital humano e social, em transportes e nas tecnologias de informação e comunicação contando com o apoio de uma governação participativa que se preocupa e beneficia com a opinião das populações, potencia esta ideia. A presente dissertação pretende cumprir cinco objetivos gerais: em primeiro lugar, listar e comparar os diferentes conceitos existentes para cidades e territórios inteligentes; em seguida, listar e comparar as diferentes metodologias desenvolvidas no âmbito dos territórios inteligentes a nível nacional e internacional; caracterizar o território em análise; selecionar uma temática inteligente a aplicar no território em estudo e, por último, apresentar uma proposta de estratégia para implementar esta temática inteligente no território. O Território em estudo é constituído por sete concelhos distintos: Aguiar da Beira, Castro Daire, Moimenta da Beira, Sátão, Sernancelhe, Tarouca e Vila Nova de Paiva, que perfazem uma área de 1511,95 km2. A definição da metodologia para a realização deste relatório teve por base um estudo aprofundado do Território. Em seguida, é feita uma análise à temática “Territórios Inteligentes” de forma a verificar se a ideia que se propõe se enquadra nesta problemática e, por fim, apresenta-se a proposta da ideia de desenvolvimento inteligente do território, que focar-se-á no funcionamento de uma rede (plataforma). Os trabalhos de caracterização do Território foram elaborados através da utilização de sistemas de informação geográfica (SIG). Na área em estudo, um dos setores de atividade com maior preponderância na economia local é o da extração mineira, em que existem cinquenta e sete explorações licenciadas de massas minerais. Esta atividade surge também como um meio que pode prejudicar o ambiente local, nomeadamente a qualidade do ar. Desta forma, tornou-se clara a necessidade de encaminhar o estudo para o desenvolvimento de uma rede inteligente, uma vez que entre os casos estudados aquando do desenvolvimento desta dissertação e as hipóteses que poderiam ser implementadas no Território, esta seria a solução mais viável. A criação de uma Rede Inteligente de Monitorização da Qualidade do Ar local tornar-se-ia benéfico para o Território em vários aspetos. Monitorização num dos descritores ambientais dos que mais facilmente pode afetar as populações, a qualidade do ar; população incentivada a participar na verificação de anomalias ambientais, obrigando as empresas a ganhar um maior sentido de responsabilidade ambiental e ao mesmo tempo com a abertura de informação a toda a população, colocá-las-ia melhor posicionadas no panorama comercial.
The constant improvement of life´s conditions and development of the place that we´re in is one of the main concerns for populations around the world. Aiming for a sustainable economic growing and a high quality of life where the wise management of natural resources is not forgotten, emerges the concept of “Smart City”. The need of investing in human and social capital, in transports and in technologies of information and communication minding the support of a participatory government that cares and benefits with the opinion of the populations, enhances this idea. This report intends to accomplish five general goals: first of all, list and compare the existing concepts for smart cities and territories; following, list and compare the different methodologies developed in the range of the intelligent territories, national and international wise; to feature the analyzed territory; select an smart theme to apply in the studied territory e for last, to introduce a proposal of a strategy to implement this intelligent theme in the territory. The studied territory is made by seven distinct councils: Aguiar da Beira, Castro Daire, Moimenta da Beira, Sátão, Sernancelhe, Tarouca e Vila Nova de Paiva that correspond to 1511, 95 km². The definition of the methodology for this report had a deep study of the territory as base. Next, there will be made an analysis to the “Intelligent Territories” theme in order to verify if the idea that we propose fits the issue and, at last, we will present the proposal of the idea for the intelligent development of the territory that will be focused in the operation of a net (platform). The territory’s characterization work were elaborated through Geographic Information System (GIS). In the studied area, one of the most predominant activity´s sector is the mining extraction, where there is fifty seven licensed holdings of geological resources. This activity can also neglect the local environment, namely the air´s quality. In this manner, it has become clear the need of forward the study to the development of a smart net, once that among the studied cases at the time that this report was completed and the possible assumptions to be applied in the territory, this would be the most fitted solution. The creation of a local Intelligent Net of Air´s Quality Monitoring would become beneficial for the territory. Monitoring on one of the environmental headings most likely to affect the populations, the quality of air; population encouraged to participate in the environmental anomalies´ verification, forcing the companies to win a bigger sense of responsibility towards environment and at the same time with the opening of the information to everybody, it would make them better positioned in the commercial outlook.
APA, Harvard, Vancouver, ISO, and other styles
32

Magalhães, Paula Maria Ponte de Araújo. "Ferramenta educacional de simulação para algoritmos." Master's thesis, 2008. http://hdl.handle.net/10348/224.

Full text
Abstract:
Dissertação de Mestrado em Informática
Algoritmos Genéticos utilizam o conceito de evolução observado na natureza para solucionar problemas computacionais de forma mais eficiente do que com o uso de algoritmos tradicionais. Os problemas comuns que utilizam algoritmos genéticos são os de pesquisa e optimização. Actualmente, esta técnica é utilizada em diversas áreas, inclusive fora do âmbito da computação. Este trabalho descreve a construção de uma ferramenta, FESAG, com fins didácticos que visa aplicar e validar o uso de algoritmos genéticos num ambiente de aprendizagem. A ferramenta utiliza uma interface gráfica que torna mais simples o manuseamento do algoritmo genético. A evolução pode ser observada através de gráficos, com a possibilidade de poder manipular as variáveis que modelam o ambiente de trabalho em tempo real.
Genetic Algorithms make use of evolutionary concepts observed in nature to solve computational problems more efficiently than traditional algorithms. These types of algorithms are generally used to solve search and optimization problems. Nowadays, these algorithms are becoming more popular in various areas, many outside computer science. This work describes the construction of a tool, FESAG, which intends to apply and validate the use of genetic algorithms in a learning environment. The tool uses a graphical user interface that simplifies handling the genetic algorithm. The evolution is observed through graphics, with the possibility of manipulating variables that model the environment in real time.
APA, Harvard, Vancouver, ISO, and other styles
33

Pereira, Ivo André Soares. "Sistema inteligente para escalonamento assistido por aprendizagem." Doctoral thesis, 2015. http://hdl.handle.net/10348/4250.

Full text
Abstract:
Tese de Doutoramento em Engenharia Eletrotécnica e de Computadores
Em ambientes reais de produção, existe o problema de atribuição de tarefas a determinadas máquinas de forma eficaz e eficiente, que se designa por Escalonamento. A principal motivação deste trabalho surgiu da necessidade de desenvolvimento de abordagens que sejam capazes de controlar, coordenar e otimizar, de forma adaptativa, a resolução dos diferentes desafios existentes no problema de Escalonamento. Este trabalho de doutoramento foi inserido no âmbito do projeto de I&D AutoDynAgents, que consiste num Sistema Multiagente para a resolução autónoma, distribuída e cooperativa de problemas de escalonamento de tarefas em sistemas de produção. Este sistema incorpora conceitos da Computação Autónoma e Meta-heurísticas para a construção de planos de escalonamento. A afinação de parâmetros nas Meta-heurísticas pode permitir uma maior flexibilidade e robustez mas requer uma inicialização cuidadosa. Os parâmetros podem ter uma influência significativa na eficiência e eficácia do processo de pesquisa. Não se torna óbvia a definição a priori dos valores dos parâmetros, que dependem do problema, das instâncias a tratar e do tempo disponível para a resolução do problema. Além disso, não existem valores “universais” para os parâmetros das Meta-heurísticas. Existe uma opinião generalizada que a sua afinação deve resultar de um cuidadoso esforço experimental. Surge assim a necessidade de implementação de um módulo para a seleção autónoma de uma determinada Meta-heurística, e respetiva especificação automática dos parâmetros, para a resolução de novos problemas de escalonamento de tarefas em sistemas de produção. Este módulo incorpora técnicas de aprendizagem, de modo a dotar o sistema da capacidade de aprender com a experiência adquirida na resolução de casos anteriores similares: Racing, Raciocínio baseado em Casos, e híbrida. De modo a avaliar a contribuição deste trabalho, foi desenvolvido um estudo computacional das várias abordagens seguidas, com destaque para a abordagem híbrida que agrega Racing e Raciocínio baseado em Casos. Foi possível concluir acerca da vantagem estatisticamente significativa na utilização de aprendizagem na autoparametrização de Meta-heurísticas.
In real manufacturing environments, there is the problem of assigning tasks to specific machines, effectively and efficiently, which is known as scheduling. The main motivation of this paper came from the need to develop approaches that are able to adaptively control, coordinate and optimize the resolution of the different current challenges in the problem of scheduling. This PhD thesis was done as part of the R&D AutoDynAgents project, consisting of a Multi-Agent System for autonomous, distributed and cooperative resolution of task scheduling problems in production systems. This system incorporates concepts of Autonomic Computing and Metaheuristics for building scheduling plans. The tuning of parameters in Metaheuristics can enable greater flexibility and robustness but requires a careful initialization. The parameters can have a significant influence on the efficiency and effectiveness of the search process. A priori definition of the parameter values does not become obvious, which depends on the problem, instances and time available to solve the problem. Furthermore, there are no “universal” values for the parameters of the Metaheuristics. There is a widespread opinion that its tuning should result from careful experimental effort. Thus leads to the need of implementing a module for the autonomous selection of Metaheuristics, and automatic specification of the respective parameters, to solve new problems of task scheduling in production systems. This module incorporates learning techniques in order to provide the system the ability to learn from the experience acquired in solving previous similar cases: Racing, Case-based Reasoning, and hybrid. In order to evaluate the contribution of this work, a computational study of the different followed approaches was developed, with emphasis on the hybrid approach that combines Racing and Case-based Reasoning. It was possible to conclude about the statistically significant advantage in the use of learning in Metaheuristics self tuning.
APA, Harvard, Vancouver, ISO, and other styles
34

Mendes, Jorge Miguel Ferreira da Silva. "Perceção visual semântica de uma vinha para auxílio à navegação de robôs." Master's thesis, 2017. http://hdl.handle.net/10348/7939.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
O desenvolvimento de robôs para aplicação em cenários agrícolas, nomeadamente em vinhas em patamares, requer sistemas de perceção visual mais inteligentes e adaptativos de forma a aumentar a fiabilidade dos seus sistemas de mapeamento e localização. Trata-se de um desafio complexo uma vez que essas vinhas possuem um declive acentuado e a precisão da localização, utilizando apenas o GPS, é bastante instável nesses locais. Neste contexto, um sistema de localização de confiança requer uma alta densidade de features naturais (e.g. os troncos que existem em toda a vinha) e um detector preciso das mesmas. Desta forma, neste trabalho foi projetado e implementado um sistema de perceção visual semântica, denomidado por ViTruDe, que faz uso de técnicas de deteção e extração de features de alto nível. Para tal recorreu-se ao desenvolvimento de um nó ROS e de um conjunto de algoritmos no domínio do processamento digital de imagem que permitam a extração automática dessas mesmas features de forma a melhorar o processo de localização e navegação de um robô e que permitam facilitar operações de monitorização e inspeção visual das vinhas. Após a execução dos testes no terreno, foi possível concluir que os resultados obtidos para todas as configurações testadas apresentaram uma precisão superior a 95%. Todos os dados de treino e de teste utilizados neste trabalho foram disponibilizados publicamente para possível utilização em trabalhos futuros.
The development of robots for agricultural scenarios, especially for steep slope vineyards with terraces, requires intelligent and adaptive visual perception systems in order to increase the reliability of its location and mapping systems. This is a complex challenge because the steep slopes that characterizes these vineyards makes location accuracy using only GPS very unstable. In this context, a reliable tracking system requires an high density of natural features (e.g. trunks that exist throughout the vineyard) and a precise detector. Thus, in this work a semantic visual perception system, denominated ViTruDe, making use of detection techniques and high-level features extraction, was designed and implemented. ROS nodes and a set of algorithms in the field of digital image processing were developed enabling the automatic extraction of those features to improve the process of location and navigation of a robot and to facilitate monitoring operations and visual inspection of the vines. After running field tests, it was possible to conclude that the results for all tested configurations resulted in an accuracy greater than 95%. All training, and test, data used in this study were made public for possible use in future works.
APA, Harvard, Vancouver, ISO, and other styles
35

Capitão, Cláudia Lopes. "Vida artificial das empresas: ferramenta de simulação de competitividade nas empresas." Master's thesis, 2018. http://hdl.handle.net/10348/8328.

Full text
Abstract:
Dissertação de Mestrado em Tecnologias de Informação e Comunicação
A crise financeira e o crescimento das Tecnologias de Informação têm levado as empresas a procurarem formas inovadoras de alcançarem conhecimento, para conseguirem dar resposta às exigências do mercado. Este trabalho apresenta uma definição síntese de caraterísticas e comportamentos das empresas face aos riscos, para desenho de uma ferramenta de simulação de competitividade que seja uma mais-valia para os gestores. A pesquisa foi baseada na análise de livros de administração de empresas e de Inteligência Artificial, de autores como: P. Drucker ou M. Mitchell e S. Forrest. Dela resultou a definição de um genoma artificial para representação empresarial. Como trabalho futuro, iremos desenvolver uma ferramenta com base num ecossistema artificial e analisar o funcionamento do genoma apresentado, referenciando dados reais partilhados por gestores empresariais.
The financial crisis and the growth of Information Technology have led companies to look for innovative ways to achieve knowledge in order to meet the demands of the market. This work presents a synthesis definition of characteristics and behaviors of the companies phase to risks, to design a tool of simulation of competitiveness that is an advantage for the managers. The research was based on the analysis of business administration books and Artificial Intelligence, by authors such as: P. Drucker or M. Mitchell and S. Forrest. It resulted in the definition of an artificial genome for business representation. As future work, we will develop a tool based on an artificial ecosystem and analyze the functioning of the presented genome, referencing real data shared by business managers.
APA, Harvard, Vancouver, ISO, and other styles
36

Góis, Bárbara Filipa de Carvalho. "Sistema de monitorização do fluxo de seiva em videira." Master's thesis, 2017. http://hdl.handle.net/10348/8051.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
A utilização de equipamentos e metodologias capazes de estimar a utilização de água por parte de culturas agrícolas permite optimizar sistemas de rega, levando a uma melhor gestão deste recurso. Interessa assim desenvolver sensores que permitam avaliar as necessidades hídricas de uma planta. A determinação da transpiração das plantas, nomeadamente em videiras, consiste em medir fluxos de água no xilema e o desenvolvimento de métodos de medição de fluxo de seiva para a determinação da transpiração é crucial. Para avaliar a resposta da videira foi utilizada uma metodologia de medição direta na determinação do fluxo de seiva xilémica, onde foram utilizados sensores invasivos na região do tronco da planta, fazendo uso da técnica de dissipação térmica de Granier. Esta técnica empírica permite calcular a densidade de fluxo de seiva xilémica, expressa por unidade de superfície condutora, baseada na diferença de temperatura entre uma sonda aquecida continuamente a uma potência constante e uma sonda de referência (não-aquecida), corrigida por um coeficiente adimensional de proporcionalidade. Este trabalho descreve o desenvolvimento de um sistema capaz de fornecer dados de gradientes de temperatura em diferentes regimes (com aquecimento ou sem aquecimento), ao longo do dia. Os ensaios foram realizados numa videira (casta Viosinho) durante períodos dos meses de junho, julho e agosto. Os resultados evidenciaram o comportamento do fluxo de seiva da videira ao longo dos diferentes períodos do dia e em condições ambientais díspares (temperaturas diárias diferentes). Foram também efetuados períodos de rega no final do mês de julho / início do mês de agosto para analisar eventuais variações nos gradientes de temperatura obtidos.
The use of equipment and methodologies capable of estimating water use by crops optimizes irrigation systems leading to better management of this resource. It is in this way interest to develop sensors to assess the water needs of a plant. The determination of plant transpiration, specially in vines, is to measure water flows in the xylem and the development of sap flow measurement methods for the determination of transpiration is crucial. To assess the vine response, it was used a direct measurement methodology for determining the perspiration where there were used invasive sensors into the stem region and the vine perspiration was determined by using Granier’s thermal dissipation technique. This empirical technique allows the calculation the sap flux xilemic density expressed per conductive unit surface, based on a temperature difference between a continuously heated probe at a constant power and a reference probe (non-heated) and a coefficient dimensionless proportionality. This work describes the development of a system capable of providing temperature gradients sensor data in different schemes (with heating or without heating) throughout the day. Assays were performed in grapevine (Viosinho) during June, July and August. The results showed the behavior of grapevine transpiration over the different times of the day and in different environmental conditions (different daily temperatures). There were made watering periods at the end of July / beginning of August to analyze the variations in the obtained temperature differences.
APA, Harvard, Vancouver, ISO, and other styles
37

Freire, Hélio Alves. "Many-objective optimization with particle swarm optimization algorithm." Doctoral thesis, 2017. http://hdl.handle.net/10348/7424.

Full text
Abstract:
Tese de Doutoramento em Engenharia Eletrotécnica e de Computadores
Muitos dos problemas de optimização envolvem diversos objectivos sujeitos a algumas restrições e que devem ser considerados simultaneamente. Ao contrário dos problemas uni-objectivo em que se procura a solução óptima global, a resolução dos problemas com múltiplos objectivos dão origem a um conjunto de soluções, chamado frente de Pareto. Nas últimas duas décadas os algoritmos evolutivos conjuntamente com o princípio da dominância de Pareto têm demonstrado uma grande capacidade para obter um conjunto de soluções próximas da frente óptima de Pareto. Esta situação tem-se verificado principalmente para problemas com dois ou três objectivos. Nos últimos anos tem-se levado os algoritmos evolutivos a resolver problemas com mais de três objectivos, denominados many-objective. Os algoritmos evolutivos e métodos baseados no princípio da dominância de Pareto desenvolvidos para resolver problemas com dois ou três objectivos, têm-se mostrado desadequados para problemas many-objective. Uma das questões centrais com os problemas de optimização many-objective usando a dominância de Pareto é que praticamente toda a população se torna não-dominada numa etapa em que a população ainda se encontra muito longe da frente óptima de Pareto. A selecção das “boas" soluções para recombinação com a restante população torna-se praticamente aleatória, tornando difícil a convergência da população para a frente óptima de Pareto. O princípio básico desenvolvido nesta tese de doutoramento é colocar algumas soluções próximas da frente óptima de Pareto na população, denominadas corner solutions, dos algoritmos evolutivos multi-objectivo. Para encontrar as corner solutions foi desenvolvido o algoritmo Corner MOPSO que aproveita os bons resultados demonstrados pelos algoritmos evolutivos e pelo princípio da dominância de Pareto para problemas com dois objectivos. Neste algoritmo faz-se uma transformação de um problema many-objective em diversos problemas bi-objective. Foram usados três algoritmos evolutivos, de paradigmas diferentes, um algoritmo genético, o NSGA-II, um particle swarm, o SMPSO e um algoritmo differential evolution, o GDE3, onde são introduzidos as corner solutions. O algoritmo é testado para a família de problemas benchmark DTLZ, mais propriamente os problemas DTLZ1, DTLZ2, DTLZ3, DTLZ4 e DTLZ5, com o número de objectivos, para cada um dos problemas, variando entre 4 e 10. Os métodos desenvolvidos são aplicados para projectar estruturas de controlo com controlador PID, considerando uma perspectiva many-objective. O objectivo é ajustar os parâmetros do controlador PID para diferentes sistemas.
Many optimization problems involve several objectives subject to certain restrictions that should be considered simultaneously. Unlike single-objective problems which seek for the global optimal solution, problems with multiple objectives give rise to a set of solutions called Pareto front. In the last two decades, evolutionary algorithms in conjunction with Pareto dominance principles have demonstrated a large capacity to find a set of solutions at or nearby the optimal Pareto front. This method has been explored essentially in problems with two or three objectives. In recent years, evolutionary algorithms have been applied to solve problems with more than three criteria, called many-objective problems. Evolutionary algorithms and methods based on the Pareto dominance principle, developed to solve problems with two or three objectives, have proven unsuitable for many-objective problems. One of the main issues with many-objective optimization problems, using the Pareto dominance concept, is that entire population becomes practically nondominated in a stage in which the population is still far from the optimal Pareto front. The selection of “good" solutions for recombination with the remaining population becomes virtually random, making it difficult the population convergence to the optimal Pareto front. The main principle developed in this doctoral thesis is to seed the multi-objective algorithm population with some near optimal solutions, called corner solutions. To find the corner solutions a Corner MOPSO algorithm was developed that takes advantage of the good results demonstrated by evolutionary algorithms and the principle of Pareto dominance for problems with two objectives. This algorithm does a transformation from a many-objective problema into several bi-objective problems. Three evolutionary algorithms were used from different paradigms, a genetic algorithm, NSGA-II, a particle swarm, SMPSO, and a differential evolution algorithm, GDE3, where the corner solutions are introduced. The algorithm is tested for the family DTLZ benchmark problems, more specifically the DTLZ1, DTLZ2, DTLZ3, DTLZ4, and DTLZ5 problems with the number of targets for each of problems ranging between 4 and 10. The developed method are applied to design control structures with PID controller, considering a many-objective perspective. The aim is to tune the PID controller parameters for different systems.
FCT - Funda ção para a Ciência e a Tecnologia (QREN - POPH - Tipologia 4.1 - Forma ção Avan çada comparticipada pelo Fundo Social Europeu e por fundos do MCTES)
APA, Harvard, Vancouver, ISO, and other styles
38

Pinto, Tiago Manuel Campelos Ferreira. "Decision support for the strategic behaviour of electricity market players." Doctoral thesis, 2016. http://hdl.handle.net/10348/5912.

Full text
Abstract:
Tese de Doutoramento em Informática
O contributo desta tese é dado nas áreas complementares da inteligência artificial e dos sistemas de energia, através da proposta de soluções inovadoras para o apoio à decisão, de forma inteligente e adaptativa, dos agentes participantes nos mercados de energia elétrica, considerando a sua participação em múltiplas oportunidades de mercado. O estado atual dos mercados de energia elétrica deve-se em grande parte ao uso crescente de fontes de energia renovável. Este aumento tem sido estimulado por novas políticas energéticas que resultam das preocupações geradas pela escassez dos combustíveis fósseis e pelo seu impacto no ambiente. Estes incentivos têm dado origem a grandes investimentos no sector energético. No entanto, a penetração em larga escala de fontes de energia renovável de natureza intermitente, como o vento e o sol, tem a si associado um grande número de limitações que restringem, não só a fiabilidade da produção, como também o seu uso O crescente aumento da integração de recursos energéticos provenientes de fontes renováveis conduziu a uma inevitável reestruturação do sector energético. Este processo de reestruturação resultou em mudanças significativas na operação dos mercados de energia elétrica por todo o mundo. Estes mercados têm como objetivo assegurar uma competição mais acentuada e justa, desta forma potenciando o decréscimo dos preços da energia elétrica. No entanto, a reestruturação dos mercados de energia elétrica criou também vários desafios, pois exigiu a transformação dos modelos conceptuais que dominavam o sector. A reestruturação trouxe, portanto, um mercado mais competitivo, mas também mais complexo e com maiores desafios para os seus participantes. O aumento da complexidade e da imprevisibilidade destes mercados amplifica a dificuldade na tomada de decisão, que é ainda agravada pela crescente introdução de novos mecanismos de mercado. Por estes motivos as entidades participantes têm constantemente de repensar o seu comportamento e estratégias de mercado. A utilização de ferramentas de apoio à decisão torna-se fundamental para que estas entidades consigam lidar com os novos desafios. A necessidade de perceber o funcionamento dos mercados e de que forma as interações entre as entidades envolvidas afetam os resultados de mercado motivou o desenvolvimento de várias ferramentas de simulação. Os sistemas multi-agente têm sido a solução mais adotada, uma vez que são especialmente adequados à análise de sistemas dinâmicos com interações complexas entre os seus constituintes. Apesar das soluções existentes permitirem o estudo de diferentes mecanismos de mercado e a análise das relações entre os intervenientes, estas ferramentas não estão, no entanto, preparadas para fornecer um apoio à decisão adequado a estes agentes num contexto de negociação em mercado. O trabalho de investigação deste doutoramento é motivado pela lacuna identificada, e surge com o objetivo de propor soluções que permitam aos agentes participantes nos mercados de energia elétrica obterem os melhores resultados possíveis em cada contexto de mercado. A agregação das várias contribuições deste trabalho resulta num sistema multi-agente de apoio à decisão: AiD-EM (Adaptive Decision Support for Electricity Markets Negotiations – apoio à decisão adaptativo para negociações em mercados de energia elétrica). Este sistema inclui uma metodologia que permite aos agentes de mercado identificar as oportunidades de mercado em devem apostar em cada momento. O apoio à decisão para a negociação efetiva em cada mercado é dado por sistemas de apoio à decisão específicos, dirigidos aos diferentes tipos de negociação. O apoio à participação em mercados com funcionamento por leilão é dado pelo sistema ALBidS (Adaptive Learning strategic Bidding System – sistema de aprendizagem adaptativa para licitações estratégicas). Este sistema inclui diversas estratégias de participação em mercado, e tem a capacidade de aprender quais as abordagens que dão maiores garantias de sucesso em cada contexto. Para as negociações de contratos bilaterais foi desenvolvido o sistema DECON (Decision Support for Energy Contracts Negotiation – apoio à decisão para a negociação de contratos de energia), que inclui metodologias para analisar os perfis de negociação dos competidores, permitindo assim a adaptação das estratégias de negociação. Por fim, é proposto um método de análise contextual, que analisa e identifica diferentes contextos de negociação, permitindo assim uma adaptação contextualizada dos diversos processos de aprendizagem. As metodologias desenvolvidas foram testadas e validadas através da simulação de cenários realistas, utilizando dados reais provenientes de diferentes operadores de mercado. Os resultados promissores que foram obtidos em condições realistas de negociação sustêm a tese de que uma análise e aprendizagem adequadas utilizando dados históricos pode, de facto, melhorar os resultados da participação dos agentes em mercados de energia elétrica.
This thesis provides its contribution to the complementary fields of artificial intelligence and power systems by proposing innovative solutions for the intelligent and adaptive decision support of electricity market players, considering their participation in multiple alternative and complementary market opportunities. The current state of worldwide electricity markets is strongly affected by the increasing use of renewable energy sources during the last years. This increase has been stimulated by new energy policies that result from the growing concerns regarding the scarcity of fossil fuels and their impact in the environment. As consequence of the policies and incentives that have been put in place, huge investments have been made in the power and energy sector. However, the large scale integration of fluctuating renewable sources in the power system, such as wind and sun, poses several constraints that limit not only the production reliability but also its use. The large scale integration of renewable based energy resources has led to an unavoidable restructuring of the power and energy sector, which was forced to adapt to the new paradigm. This restructuring process resulted in a deep change in the operation of competitive electricity markets all around the world. These markets aim at ensuring increased and fair competition giving electricity buyers more options and pushing power players to increase their efficiency, thus enabling electricity prices decrease. The electricity markets’ restructuring process brought out, however, several challenges itself, demanding the transformation of the conceptual models that have previously dominated this sector. The restructuring made the market more competitive, but also more complex, placing new challenges to the participants. The growing complexity and unpredictability of the markets’ evolution consequently increases the difficulty of decision making, which is exacerbated by the increasing number of new market types that are continuously being implemented to deal with the new challenges that keep on emerging. Therefore, the intervenient entities are relentlessly forced to rethink their behaviour and market strategies in order to cope with such a constantly changing environment. So that these entities can deal with the new challenges, the use of decision support tools becomes crucial. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of markets has contributed to the emergence of a large number of simulation tools. Multi-agent based software is the most widely adopted solution as this paradigm is particularly suitable to analyse dynamic and adaptive systems with complex interactions among its elements, such as electricity markets. Current software tools allow studying different electricity market mechanisms and analysing the relationships between market entities; however, they are not prepared to provide suitable decision support to the negotiation process of electricity market players. This gap motivates the development of this PhD research work, which arises with the purpose of providing solutions that enable electricity market players to take the best possible outcomes out of each market context. The aggregation of the many contributions of this work ultimately results in an enhanced multi-agent based decision support system: Adaptive Decision Support for Electricity Markets Negotiations (AiD-EM). AiD-EM includes a Portfolio Optimization methodology, which decides in which market opportunities should market players negotiate at each moment. The actual negotiation process in each market is supported by specific decision support systems, directed to different types of negotiation. The participation in auction based markets is supported by the Adaptive Learning strategic Bidding System (ALBidS). This decision support system includes a large number of distinct market participation strategies, and learns which should be used in each context in order to provide the best expected response. Negotiations by means of bilateral contracts are assisted by the Decision Support for Energy Contracts Negotiation (DECON) system, which includes methodologies to analyse competitor players’ negotiation profiles enabling the adaptation of the adopted negotiation strategies and tactics. All methodologies are supported by a context analysis methodology, which allows analysing and identifying different contexts of negotiation, thus enabling a contextual adaptation of the diverse learning processes. The developed decision support methodologies have been tested and validated under realistic simulation scenarios using real data from several electricity market operators. The promising results achieved under realistic negotiation conditions support the thesis that the appropriate analysis and learning from historic data can, in fact, improve players’ outcomes from their participation in electricity markets.
FCT - Fundação para a Ciência e a Tecnologia, através do programa de financiamento QREN – POPH - Tipologia 4.1 – Formação Avançada comparticipado pelo Fundo Social Europeu e por fundos do MCTES.
APA, Harvard, Vancouver, ISO, and other styles
39

Freire, Hélio Alves. "Algoritmos de Optimização Multi-objectivo de Inspiração Natural e Biológica." Master's thesis, 2011. http://hdl.handle.net/10348/2058.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
Os algoritmos estocásticos são muito usados em diversos problemas de optimização. Os algoritmos evolutivos são uma abordagem de pesquisa e optimização baseada numa população, inspirada na teoria evolutiva de Darwin. Uma das correntes que mais se popularizou de entre os algoritmos evolutivos foram os algoritmos genéticos, que serviram de base, ao longo desta dissertação, para a introdução de diversos conceitos e métodos, ligados à optimização, dominância, convergência e diversidade. Outro algoritmo estocástico, este, inspirado no comportamento animal, é o algoritmo de optimização por enxame de partículas. Sendo uma abordagem diferente em relação aos algoritmos evolutivos, adoptou alguns dos métodos usados nos algoritmos evolutivos. Os algoritmos estocásticos e meta-heurísticos, têm mostrado uma aptidão para a resolução de problemas de optimização multi-objectivo. Nesta dissertação é criado um novo algoritmo multi-objectivo de optimização por enxame de partículas, designado MmMOPSO. É apresentada uma análise comparativa deste algoritmo com outros algoritmos de optimização por enxame de partículas, num conjunto de funções de referência. O MmMOPSO é também aplicado na resolução de exemplos práticos de optimização da estrutura de manipuladores robóticos paralelos.
Stochastic algorithms are widely used in various optimization problems. Evolutionary algorithms are an search and optimization population based on approach inspired on Darwin evolutionary theory. One of the streams which turn to be more popular among evolutionary algorithms are the genetic algorithms, which serve as the base along this dissertation to, the introduction of several concepts and methods related to optimization, dominance, convergence and diversity. Another stochastic algorithm, this one inspired in animal behavior, is the particle swarm optimization. As a different approach to evolutionary algorithms, it adopted some methods used in evolutionary algorithms. Stochastic algorithms and meta-heuristics, have shown an aptitude for solving multiobjective optimization problems. A new multi-objective paricle swarm optimization algorithm, ter.med MmMOPSO, is proposed in the dissertation. A comparative analysis of this algorithm with other particle swarm optimization algorithms is presented, for a set of benchmark functions. The MmMOPSO is also applied to solve in practical examples to design parallel robotic manipulators.
APA, Harvard, Vancouver, ISO, and other styles
40

Pinheiro, Olga Maria Neto Dias Constante. "Implementação de técnicas de análise e de previsão de séries temporais a sistemas de radiação solar." Doctoral thesis, 2015. http://hdl.handle.net/10348/5080.

Full text
Abstract:
Tese de Doutoramento em Engenharia Eletrotécnica e de Computadores
O trabalho de doutoramento desenvolvido “Implementação de técnicas de análise e de previsão de séries temporais a sistemas de energia solar ” insere-se nas correntes atualmente emergentes, que apontam para o desenvolvimento de técnicas de previsão mais adequadas à determinação da evolução das cargas térmicas em edifícios e da evolução da irradiação incidente disponível em centrais de produção fotovoltaica, entre outras aplicações. Nesta tese é realizado um estudo comparativo de diversos modelos e algoritmos para previsão do comportamento futuro de séries temporais, analisando-se o desempenho das diversas técnicas implementadas. Objectivamente, serão aplicados e comparados algoritmos evolutivos, redes neuronais, algoritmos baseados em lógica difusa e métodos de regressão linear e não linear de aproximação à previsão de séries temporais para diversos casos de estudo com o objectivo de desenvolver e implementar, uma formulação matemática e/ou computacional, para vários sistemas dinâmicos. Uma vez estabelecida a formulação adequada, irão comparar-se os algoritmos propostos sob os pontos de vista de adequabilidade e robustez das previsões e da facilidade de implementação computacional à resolução do problema de previsão da irradiação solar. Da análise aos resultados obtidos com os vários modelos de previsão da radiação solar desenvolvidos, conclui-se que os diversos modelos possuem desempenhos (RMSE) variáveis com os horizontes de previsão. O modelo fuzzy com informação da radiação extraterrestre mostrou ser o mais adequado para horizontes temporais de previsão mais longos, enquanto que o modelo baseado em algoritmo genético mostrou ser mais adequado para horizontes temporais de previsão mais curtos. Por último, e de modo a ilustrar o potencial de aplicação dos métodos de modelização desenvolvidos em sistemas que utilizam energias renováveis, aplicaram-se os modelos de previsão da radiação solar a um sistema forçado de aquecimento de água com painel solar térmico e termoacumulador. Os resultados obtidos para o sistema de aquecimento solar térmico considerado, em que se incorporou um controlador preditivo que usa o modelo de previsão da radiação solar, demonstraram que é possível reduzir o consumo de energia elétrica do sistema de backup na ordem de 14% sem comprometer o adequado fornecimento de água quente.
The PhD thesis developed “Implementation of analysis techniques and time series forecasting of the solar energy systems” is in line with emerging ideas pointing to the development of more adequate forecasting techniques to determine the evolution of the thermal loads in buildings and the evolution of the radiation incidence available for photovoltaic parks, among other applications. This thesis presents a comparative study of various models and algorithms for the future behavior of time series prediction, thought the analysis of the performance of various techniques implemented. Objectively, it will be applied and compared evolutionary algorithms, neural networks, fuzzy logic based algorithms and methods of linear regression and non-linear approach to time series forecasting for various case studies in order to develop and implement a mathematical formulation and / or computational, for various dynamical systems. Once the proper formulation is established, a comparison will be done between the proposed algorithms in a perspective of suitability and robustness of forecasts and easiness of implementation to solve the problem of prediction of solar irradiation. From the analysis of the results obtained with the numerous solar radiation forecasting developed models of the, it is concluded that the different models have variable (RMSE) performances, depending on the forecast horizon. The fuzzy model with extraterrestrial radiation information proved to be adequate for longer forecast horizons, while the genetic algorithm-based model proved to be more suitable for shorter forecast horizons. Finally, to illustrate the potential of use of the developed modeling methods in systems using renewable energy, the solar radiation forecast models where applied to a water forced heating system, with thermal solar panel and a water heater. The results obtained for the considered thermal solar heating system, in which it was introduced a predictive controller that uses the solar radiation forecasting model, have shown that the power consumption of the backup system can be reduce around 14% without compromising an adequate supply of hot water.
APA, Harvard, Vancouver, ISO, and other styles
41

Magalhães, Lígia Seixedo. "Dendrómetro de baixo custo para a agricultura de precisão." Master's thesis, 2016. http://hdl.handle.net/10348/5848.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
A modernização dos sistemas de rega inteligentes levam a um crescente interesse nos sensores que tentam aferir as necessidades hídricas das plantas. Os dendrómetros são sensores que medem as alterações na variação quer do perímetro, diâmetro ou raio do tronco de uma árvore. Para além da variação do tronco provocada pelo crescimento da árvore é possível medir alterações provocadas pela quantidade de água presente no xilema. Este trabalho apresenta um protótipo de dendrómetro que utiliza 4 extensómetros configurados em ponte de Wheatstone. Complementarmente, foi desenvolvido um sistema de leitura e registo de dados e foi acoplado um sensor de temperatura e humidade relativa DHT22. Os ensaios foram realizados numa oliveira adulta durante os meses de agosto, setembro e outubro. Os resultados permitiram identificar as variações máximas e mínimas do tronco ao longo desse período onde foi possível verificar que com o aumento do teor de água no solo, o perímetro do tronco aumenta em média consecutivamente. Não foi possível detetar o momento de stress hídrico da oliveira devido aos níveis de precipitação elevados que ocorreram durante o período de ensaios. O protótipo desenvolvido mostrou ser útil para a aplicação a sistemas de rega, sendo possível identificar os principais índices utilizados na gestão de sistema de rega inteligentes.
The modernization of smart irrigation systems have led to a growing interest in sensors that measures the hydric needs of plants. The dendrometers are sensors that measure changes in the variations whether they are perimeter, diameter or stem radius of a tree. Besides stem variation produced by the growth of the tree it is possible to measure changes caused by the amount of water present in the xylem. This work presents a dendrometer prototype that uses 4 strain gauges in a Wheatstone bridge configuration. In addition, it was developed a reading and data logger systems and it was coupled to a DHT22 which is a temperature and relative humidity sensor. The tests were carried out in an adult olive tree during the months of August, September and October. The results allowed us to identify the maximum and minimum stem variations during that period of time where it was possible to verify that with the increasing water content in the soil, the perimeter of the stem increases in average consecutively. It was not possible to detect the hydric stress moment of the olive tree due to the high precipitation levels that occurred during the test period. The developed prototype shown to be useful for the application in irrigation systems, being possible to identify the major indexes used in the management of smart irrigation systems. Key-Words: Stem variations, dendrometers, strain gauges, hydric stress, smart irrigation, electronic instrumentation
APA, Harvard, Vancouver, ISO, and other styles
42

Pimenta, António José Gonçalves. "Visão Hiperespectral em Contexto Vitivinícola." Master's thesis, 2010. http://hdl.handle.net/10348/668.

Full text
Abstract:
Dissertação de Mestrado em Engenharia Electrotécnica e de Computadores
Acompanhando a inovação tecnológica, surgem a cada dia, novas formas de análise de elementos biológicos que permitem obter a mais variada informação para diversos fins. A utilização de imagem hiperespectral na produção vitivinícola tem suscitado interesse na comunidade científica. A sua aplicação envolve metodologias cujos resultados se apresentam de uma forma mais objectiva, consistente e económica. É uma técnica que apresenta vantagens face à imagem multiespectral e que permite ainda o desenvolvimento de técnicas de análise ambientalmente sustentável. Nesta dissertação utilizaram-se espectros de reflectância através de imagens hiperespectrais retiradas a 45 amostras de uva da casta Cabernet Sauvignon, que foram posteriormente utilizados como dados numa rede neuronal. O principal objectivo é obter um coeficiente de correlação entre os dados obtidos em laboratório e os resultados da rede neuronal. Ao longo da presente dissertação são descritas diversas temáticas que envolvem a criação de redes neuronais com diferentes algoritmos procurando encontrar aquele que produz o melhor coeficiente de correlação. Assim, este estudo centra-se na aplicação de novas tecnologias de análise da qualidade da uva para a produção do vinho, factor determinante para a qualidade do produto final.
Along with technological innovation, come out every day, new ways to analyze the biological elements that help get more varied information for various purposes. The use of hyperspectral imaging for wine production has sparked interest in the scientific community. Their implementation involves methodologies whose results are presented in a more objective, consistent and economical. This technique has advantages over multispectral image and will also develop techniques for analyzing environmentally sustainable. In this work we used reflectance spectra using hyperspectral images taken from the 45 samples of grapes from Cabernet Sauvignon, which were used as data in a neural network. The main objective is to obtain a correlation coefficient between the data obtained in the laboratory and the results of the neural network. Throughout this paper describes several issues that involve the creation of neural networks with different algorithms trying to find one that produces the best correlation coefficient. This study focuses on the application of new technologies for analyzing the quality of grapes for wine production, major factor in the quality of the final product.
APA, Harvard, Vancouver, ISO, and other styles
43

Fernandes, Miguel Alves. "Plataforma integrada de gestão de redes de sensores sem fios, em aplicações de agricultura de precisão." Doctoral thesis, 2015. http://hdl.handle.net/10348/5342.

Full text
Abstract:
Tese de Doutoramento em Engenharia Electrotécnica e de Computadores
A agricultura de precisão (AP), apoiada num vasto conjunto de tecnologias da informação, das comunicações e da electrónica, almeja contribuir para um incremento no rendimento e na qualidade dos produtos agrícolas, de forma sustentada. Este tipo de práticas agrícolas só são possíveis através do acompanhamento contínuo dos processos envolvidos. Os dados recolhidos no terreno, sobretudo através de plataformas de aquisição de dados (PAD), permitem caracterizar a evolução das culturas e, ao mesmo tempo, fornecer informação valiosa aos sistemas de apoio `a decisão que auxiliam na tomada de decisões na gestão de um terreno agrícola. No entanto, os dados recolhidos de fontes diversas e heterogéneas de dados carecem do necessário suporte capaz de lidar com a variedade de parâmetros microclimatéricos, do solo e das próprias plantas, bem como garantir a interoperabilidade relacionada com os sensores e as próprias PAD. Esta tese apresenta um conjunto de soluções tecnológicas de apoio a práticas de AP. ´E descrita uma plataforma integrada de gestão de redes de sensores sem fios (RSSF) assente no dispositivo Intelligent Precision Agriculture Gateway (iPAGAT) que incorpora, para além de um motor de agregação, um sistema de integração de dados e um gestor de RSSF baseado em IEEE 1451. Este conjunto de normas facilita os processos de identificação e descrição electrónica dos sensores e respetivas PAD por sistemas de alto-nível e normaliza os processos de troca de dados. Com suporte de comunicações sem fios compatível com IEEE 802.15.4/ZigBee, as tarefas de instalação e configuração de uma PAD tornam-se processos simples e automáticos, facilitando a sua integração. Os vários ensaios realizados permitiram concluir que o iPAGAT, enquanto plataforma de gestão de RSSF, constitui um produto tecnológico adequado para o processamento de dados no local e um avanço tecnológico para auxílio das práticas de AP.
Precision agriculture (PA) is supported by a wide range of information, communication and electronic technologies and aims to sustainably increase crop yield and the quality of agricultural products. This agricultural pratices is only possible through the continuous monitoring and management of the involved processes. The data collected in the field, particularly through data acquisition platforms (DAP), can characterize the evolution of crops and, at the same time, feed valuable information to decision support systems (DSS) that assist in decision making in farm management. However, collected data from several and heterogeneous sources lacks of required support capable of handling such variety of micro-climatic, soil and plant parameters, as well as interoperability related to sensors and DAP. This thesis presents a set of technology solutions to support PA practices. It is described an integrated platform for managing wireless sensor networks (WSN) based in the device Intelligent Precision Agriculture Gateway (iPAGAT) that incorporates, besides an aggregation engine, a data integration system and a WSN manager based on the IEEE 1451. Family of standards emerged to simplify the processes of identification and electronic description of sensors and respective DAP at higher level and normalizes the data exchange process. With an IEEE 802.15.4/ZigBee compliant support, installation tasks and configuration of a DAP become simple and automated processes, simplifying its integration. In field evaluation showed that iPAGAT, while WSN management platform, is a suited technology product for field data processing and a technological breakthrough to assist PA practices.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography