Дисертації з теми "Explainable artifical intelligence"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся з топ-39 дисертацій для дослідження на тему "Explainable artifical intelligence".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.
Nilsson, Linus. "Explainable Artificial Intelligence for Reinforcement Learning Agents." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Повний текст джерелаEfter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Vincenzi, Leonardo. "eXplainable Artificial Intelligence User Experience: contesto e stato dell’arte." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Повний текст джерелаPICCHIOTTI, NICOLA. "Explainable Artificial Intelligence: an application to complex genetic diseases." Doctoral thesis, Università degli studi di Pavia, 2021. http://hdl.handle.net/11571/1447637.
Повний текст джерелаABUKMEIL, MOHANAD. "UNSUPERVISED GENERATIVE MODELS FOR DATA ANALYSIS AND EXPLAINABLE ARTIFICIAL INTELLIGENCE." Doctoral thesis, Università degli Studi di Milano, 2022. http://hdl.handle.net/2434/889159.
Повний текст джерелаRouget, Thierry. "Learning explainable concepts in the presence of a qualitative model." Thesis, University of Ottawa (Canada), 1995. http://hdl.handle.net/10393/9762.
Повний текст джерелаGjeka, Mario. "Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Знайти повний текст джерелаAmarasinghe, Kasun. "Explainable Neural Networks based Anomaly Detection for Cyber-Physical Systems." VCU Scholars Compass, 2019. https://scholarscompass.vcu.edu/etd/6091.
Повний текст джерелаPANIGUTTI, Cecilia. "eXplainable AI for trustworthy healthcare applications." Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Повний текст джерелаKeneni, Blen M. Keneni. "Evolving Rule Based Explainable Artificial Intelligence for Decision Support System of Unmanned Aerial Vehicles." University of Toledo / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=toledo1525094091882295.
Повний текст джерелаHammarström, Tobias. "Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection." Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Повний текст джерелаHouzé, Étienne. "Explainable Artificial Intelligence for the Smart Home : Enabling Relevant Dialogue between Users and Autonomous Systems." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-252705.
Повний текст джерелаSmart-home-teknik syftar till att ge användarna bättre kontroll över sina hem till exempel med avseende på temperatur, ljus, säkerhet eller förbrukning av energi. Denna teknik har svårt att övertyga många kunder trots löften om energibesparing och komfort. Tekniken ses som påträngande. En lösning som ökar användarnas välvilja genom att ge relevanta förklaringar men utan att skicka privata data online är önskvärd. I detta examensarbete föreslår vi en arkitektur där ett intelligent lager läggs ovanpå det autonoma systemet. Det intelligenta lagret försöker dels översätta autonoma termer till begrepp som användaren förstår och dels att hitta kausala relationer som förklarar systemets tillstånd och beslut som fattas av systemet.
Pierrard, Régis. "Explainable Classification and Annotation through Relation Learning and Reasoning." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST008.
Повний текст джерелаWith the recent successes of deep learning and the growing interactions between humans and AIs, explainability issues have risen. Indeed, it is difficult to understand the behaviour of deep neural networks and thus such opaque models are not suited for high-stake applications. In this thesis, we propose an approach for performing classification or annotation and providing explanations. It is based on a transparent model, whose reasoning is clear, and on interpretable fuzzy relations that enable to express the vagueness of natural language.Instead of learning on training instances that are annotated with relations, we propose to rely on a set of relations that was set beforehand. We present two heuristics that make the process of evaluating relations faster. Then, the most relevant relations can be extracted using a new fuzzy frequent itemset mining algorithm. These relations enable to build rules, for classification, and constraints, for annotation. Since the strengths of our approach are the transparency of the model and the interpretability of the relations, an explanation in natural language can be generated.We present experiments on images and time series that show the genericity of the approach. In particular, the application to explainable organ annotation was received positively by a set of participants that judges the explanations consistent and convincing
Hedström, Anna. "Explainable Artificial Intelligence : How to Evaluate Explanations of Deep Neural Network Predictions using the Continuity Test." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-281279.
Повний текст джерелаMed ett ökat intresse att använda djupa neurala nätverk i olika delar av samhället, ställs nya krav på dess tolkbarhet. Förnyat forskningsintresse har således infunnit sig för att utveckla förklaringsmodeller som kan redogöra varför ett beslut har tagits av en algoritm. Förklaringsmodellerna har dock visat sig vara långt ifrån felfria och frågan om hur man utvärderar dem har i stort sett förblivit obesvarad. I detta arbete har vi undersökt hur populära förklaringsmodeller evalueras med ett specifikt fokus på en evalueringsteknik som har visat sig vara särskilt problematisk - “kontinuitetstestet”. Testet fångar upp förklaringarnas “sensitivitet” genom att mäta hur en förklaring, i förhållande till modellens prediktion, förändras när dess input modifieras. Även om det kan låta som en rimlig förväntning att förklaringsmetoderna skall uppträda konsekvent i sin inputdomän, så visar vi i bildklassificeringsexperiment på både syntetisk och real data, att det empiriska sambandet mellan hur förklaringar och nätverk svarar på modifierad input är obetydlig. Därmed utmanar vi idén om att förklaringar och modellresultat kan och bör jämföras. Som en andra inriktning i detta arbete påpekar vi också hur och varför det är problematiskt att vanligt förekommande bildmanipuleringstekniker tenderar att producera bilder som ligger långt ifrån den ursprungliga datadistributionen. I strävan efter mer trovärdiga och bättre bildmanipuleringstekniker för kontinuitetstestet, presenterar vi därför ett alternativt tillvägagångssätt som förlitar sig på sampling i det latenta rummet, producerat av en probabilistisk generativ modell. För detta ändamål hoppas vi därför att arbetet som presenteras i denna examensarbete inte bara belyser brister i aktuella utvärderingstekniker, utan också bidrar med idéer om hur man kan förbättra dem.
BITETTO, ALESSANDRO. "The role of Explainable Artificial Intelligence in risk assessment: a study on the economic and epidemiologic impact." Doctoral thesis, Università degli studi di Pavia, 2022. http://hdl.handle.net/11571/1452624.
Повний текст джерелаVerenich, Ilya. "Explainable predictive monitoring of temporal measures of business processes." Thesis, Queensland University of Technology, 2018. https://eprints.qut.edu.au/124037/1/Ilya_Verenich_Thesis.pdf.
Повний текст джерелаBracchi, Luca. "I-eXplainer: applicazione web per spiegazioni interattive." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Повний текст джерелаCosta, Bueno Vicente. "Fuzzy Horn clauses in artificial intelligence: a study of free models, and applications in art painting style categorization." Doctoral thesis, Universitat Autònoma de Barcelona, 2021. http://hdl.handle.net/10803/673374.
Повний текст джерелаLa presente tesis doctoral contribuye al estudio de las cláusulas de Horn en lógicas difusas, así como a su uso en representación difusa del conocimiento aplicada al diseño de un algoritmo de clasificación de pinturas según su estilo artístico. En la primera parte del trabajo nos centramos en algunas nociones relevantes para la programación lógica, como lo son por ejemplo los modelos libres y las estructuras de Herbrand en lógica matemática difusa. Así pues, probamos la existencia de modelos libres en clases universales difusas de Horn y demostramos que toda teoría difusa universal de Horn sin igualdad tiene un modelo de Herbrand. Asimismo, introducimos dos nociones de minimalidad para modelos libres, y demostramos que estas nociones son equivalentes en el caso de las fully named structures. En la segunda parte de la tesis doctoral, utilizamos cláusulas de Horn combinadas con el modelado cualitativo como marco de representación difusa del conocimiento para la categorización de estilos de pintura artística. Finalmente, diseñamos un clasificador de pinturas basado en cláusulas de Horn evaluadas, descriptores cualitativos de colores y explicaciones. Este algoritmo, que llamamos l-SHE, proporciona razones de los resultados obtenidos y obtiene porcentajes competitivos de precisión en la experimentación.
This PhD thesis contributes to the systematic study of Horn clauses of predicate fuzzy logics and their use in knowledge representation for the design of an art painting style classification algorithm. We first focus the study on relevant notions in logic programming, such as free models and Herbrand structures in mathematical fuzzy logic. We show the existence of free models in fuzzy universal Horn classes, and we prove that every equality-free consistent universal Horn fuzzy theory has a Herbrand model. Two notions of minimality of free models are introduced, and we show that these notions are equivalent in the case of fully named structures. Then, we use Horn clauses combined with qualitative modeling as a fuzzy knowledge representation framework for art painting style categorization. Finally, we design a style painting classifier based on evaluated Horn clauses, qualitative color descriptors, and explanations. This algorithm, called l-SHE, provides reasons for the obtained results and obtains percentages of accuracy in the experimentation that are competitive.
Universitat Autònoma de Barcelona. Programa de Doctorat en Ciència Cognitiva i Llenguatge
Varela, Rial Alejandro 1993. "In silico modeling of protein-ligand binding." Doctoral thesis, TDX (Tesis Doctorals en Xarxa), 2022. http://hdl.handle.net/10803/673579.
Повний текст джерелаLa afinidad de un fármaco a su proteína diana es una de las propiedades clave de un fármaco. Actualmente, existen métodos experimentales para medir la afinidad, pero son muy costosos y relativamente lentos. Así, predecir esta propiedad con precisión empleando herramientas de software sería muy beneficioso para el descubrimiento de fármacos. En esta tesis se han desarrollado aplicaciones de software para modelar y predecir el modo de unión de ligando a proteína, para evaluar cómo de factible es tal predicción y para interpretar redes neuronales profundas entrenadas en complejos proteína-ligando.
Palmisano, Enzo Pio. "A First Study of Transferable and Explainable Deep Learning Models for HPC Systems." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20099/.
Повний текст джерелаSabbatini, Federico. "Interpretable Prediction of Galactic Cosmic-Ray Short-Term Variations with Artificial Neural Networks." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/22147/.
Повний текст джерелаMualla, Yazan. "Explaining the Behavior of Remote Robots to Humans : An Agent-based Approach." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA023.
Повний текст джерелаWith the widespread use of Artificial Intelligence (AI) systems, understanding the behavior of intelligent agents and robots is crucial to guarantee smooth human-agent collaboration since it is not straightforward for humans to understand the agent’s state of mind. Recent studies in the goal-driven Explainable AI (XAI) domain have confirmed that explaining the agent’s behavior to humans fosters the latter’s understandability of the agent and increases its acceptability. However, providing overwhelming or unnecessary information may also confuse human users and cause misunderstandings. For these reasons, the parsimony of explanations has been outlined as one of the key features facilitating successful human-agent interaction with a parsimonious explanation defined as the simplest explanation that describes the situation adequately. While the parsimony of explanations is receiving growing attention in the literature, most of the works are carried out only conceptually.This thesis proposes, using a rigorous research methodology, a mechanism for parsimonious XAI that strikes a balance between simplicity and adequacy. In particular, it introduces a context-aware and adaptive process of explanation formulation and proposes a Human-Agent Explainability Architecture (HAExA) allowing to make this process operational for remote robots represented as Belief-Desire-Intention agents. To provide parsimonious explanations, HAExA relies first on generating normal and contrastive explanations and second on updating and filtering them before communicating them to the human.To evaluate the proposed architecture, we design and conduct empirical human-computer interaction studies employing agent-based simulation. The studies rely on well-established XAI metrics to estimate how understood and satisfactory the explanations provided by HAExA are. The results are properly analyzed and validated using parametric and non-parametric statistical testing
Ankaräng, Marcus, and Jakob Kristiansson. "Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
Повний текст джерелаI takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Matz, Filip, and Yuxiang Luo. "Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry." Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Повний текст джерелаUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Leoni, Cristian. "Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels." Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Повний текст джерелаHazarika, Subhashis. "Statistical and Machine Learning Approaches For Visualizing and Analyzing Large-Scale Simulation Data." The Ohio State University, 2019. http://rave.ohiolink.edu/etdc/view?acc_num=osu1574692702479196.
Повний текст джерелаSaluja, Rohit. "Interpreting Multivariate Time Series for an Organization Health Platform." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289465.
Повний текст джерелаMaskininlärningsbaserade system blir snabbt populära eftersom man har insett att maskiner är effektivare än människor när det gäller att utföra vissa uppgifter. Även om maskininlärningsalgoritmer är extremt populära, är de också mycket bokstavliga. Detta har lett till en enorm forskningsökning inom området tolkbarhet i maskininlärning för att säkerställa att maskininlärningsmodeller är tillförlitliga, rättvisa och kan hållas ansvariga för deras beslutsprocess. Dessutom löser problemet i de flesta verkliga problem bara att göra förutsägelser med maskininlärningsalgoritmer bara delvis. Tidsserier är en av de mest populära och viktiga datatyperna på grund av dess dominerande närvaro inom affärsverksamhet, ekonomi och teknik. Trots detta är tolkningsförmågan i tidsserier fortfarande relativt outforskad jämfört med tabell-, text- och bilddata. Med den växande forskningen inom området tolkbarhet inom maskininlärning finns det också ett stort behov av att kunna kvantifiera kvaliteten på förklaringar som produceras efter tolkning av maskininlärningsmodeller. Av denna anledning är utvärdering av tolkbarhet extremt viktig. Utvärderingen av tolkbarhet för modeller som bygger på tidsserier verkar helt outforskad i forskarkretsar. Detta uppsatsarbete fokuserar på att uppnå och utvärdera agnostisk modelltolkbarhet i ett tidsserieprognosproblem. Fokus ligger i att hitta lösningen på ett problem som ett digitalt konsultföretag står inför som användningsfall. Det digitala konsultföretaget vill använda en datadriven metod för att förstå effekten av olika försäljningsrelaterade aktiviteter i företaget på de försäljningsavtal som företaget stänger. Lösningen innebar att inrama problemet som ett tidsserieprognosproblem för att förutsäga försäljningsavtalen och tolka den underliggande prognosmodellen. Tolkningsförmågan uppnåddes med hjälp av två nya tekniker för agnostisk tolkbarhet, lokala tolkbara modellagnostiska förklaringar (LIME) och Shapley additiva förklaringar (SHAP). Förklaringarna som producerats efter att ha uppnått tolkbarhet utvärderades med hjälp av mänsklig utvärdering av tolkbarhet. Resultaten av de mänskliga utvärderingsstudierna visar tydligt att de förklaringar som produceras av LIME och SHAP starkt hjälpte människor att förstå förutsägelserna från maskininlärningsmodellen. De mänskliga utvärderingsstudieresultaten visade också att LIME- och SHAP-förklaringar var nästan lika förståeliga med LIME som presterade bättre men med en mycket liten marginal. Arbetet som utförts under detta projekt kan enkelt utvidgas till alla tidsserieprognoser eller klassificeringsscenarier för att uppnå och utvärdera tolkbarhet. Dessutom kan detta arbete erbjuda en mycket bra ram för att uppnå och utvärdera tolkbarhet i alla maskininlärningsbaserade regressions- eller klassificeringsproblem.
Giuliani, Luca. "Extending the Moving Targets Method for Injecting Constraints in Machine Learning." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23885/.
Повний текст джерелаcruciani, federica. "EXplainable Artificial Intelligence: enabling AI in neurosciences and beyond." Doctoral thesis, 2023. https://hdl.handle.net/11562/1085066.
Повний текст джерелаPereira, Filipe Inácio da Costa. "Explainable artificial intelligence - learning decision sets with sat." Master's thesis, 2018. http://hdl.handle.net/10451/34903.
Повний текст джерелаArtificial Intelligence is a core research topic with key significance in technological growth. With the increase of data, we have more efficient models that in a few seconds will inform us of their prediction on a given input set. The more complex techniques nowadays with better results are Black Box Models. Unfortunately, these can’t provide an explanation behind their prediction, which is a major drawback for us humans. Explainable Artificial Intelligence, whose objective is to associate explanations with decisions made by autonomous agents, breaks this lack of transparency. This can be done by two approaches, either by creating models that are interpretable by themselves or by creating frameworks that justify and interpret any prediction made by any given model. This thesis describes the implementation of two interpretable models (Decision Sets and Decision Trees) based on Logic Reasoners, either SAT (Satisfiability) or SMT (Satisfiability Modulo Theories) solvers. This work was motivated by an in-depth analysis of past work in the area of Explainable Artificial Intelligence, with the purpose of seeking applications of logic in this domain. The Decision Sets approach focuses on the training data, as does any other model, and encoding the variables and constraints as a CNF (Conjuctive Normal Form) formula which can then be solved by a SAT/SMT oracle. This approach focuses on minimizing the number of rules (or Disjunctive Normal Forms) for each binary class representation and avoiding overlap, whether it is training sample or feature-space overlap, while maintaining interpretable explanations and perfect accuracy. The Decision Tree model studied in this work consists in computing a minimum size decision tree, which would represent a 100% accurate classifier given a set of training samples. The model is based on encoding the problem as a CNF formula, which can be tackled with the efficient use of a SAT oracle.
Coke, Ricardo Miguel Branco. "Organization of information in neural networks." Master's thesis, 2021. http://hdl.handle.net/10348/11093.
Повний текст джерелаO mundo está a evoluir e a tecnologia tal como a conhecemos está a ultrapassar barreiras que antes pensávamos não poderem ser quebradas. A Inteligência Artificial tem sido uma das áreas que tem alcançado um nível de sucesso que proporciona a melhor das expectativas em muitas tarefas em todas as áreas de trabalho. No domínio de Machine Learning, as redes neuronais têm sido um dos conceitos que se tem destacado, resultando em precisões extremamente elevadas em problemas provenientes de todos os sectores. No entanto, a falta de interpretabilidade é um dos problemas inerentes que estas redes complexas com capacidade de produzir predições trouxe. Os modelos actuais de redes neuronais são muitas vezes considerados como ”caixas negras” devido à falta de ”explicabilidade” e transparência, uma vez que o conhecimento obtido pela aprendizagem do modelo com os dados fornecidos como entrada, são imprevisíveis e em sistemas complexos, inexplicáveis. A complexidade de uma rede está intrinsecamente ligada a alguns parâmetros como o número de camadas escondidas, função de ativação escolhida, que influencia o quão flexível é a rede na classificação de padrões, podendo fazer as devidas classificações em espaços dimensionais maiores com maior facilidade, com custo mais elevado em recursos, tempo e menos interpretabilidade ao computar o problema. Desde então sempre se tentou arranjar soluções alternativas, modificações à estrutura e método de aprendizagem das redes neuronais de modo a compensar os recursos adicionais necessitados. A falta de compreensão sobre a razão pela qual os modelos chegam a determinadas conclusões prejudica a implementação destes modelos em áreas críticas como medicina de precisão, direito ou finanças, onde o raciocínio para as conclusões apresentadas é extremamente necessário. Este problema levou à criação de um novo subcampo no domínio de Machine Learning onde a Inteligência Artificial explicável é uma prioridade. Esta dissertação apresenta uma revisão da literatura existente e contribuições disponíveis no campo da Inteligência Artificial explicável e no campo de modificações da estrutura das redes neuronais típicas. Baseado na investigação mais recente do Professor Paulo Salgado, que foi providenciada para compreensão e validação, sobre canais complementares de informação em Redes Neuronais e um algoritmo baseado neste modelo complementar, uma primeira contribuição desta dissertação foi formalizar os aspectos teóricos dessa investigação assim como a sua compreensão, seguido da validação do modelo com métricas típicas do domínio de Machine Learning.
The world is evolving and technology as we know its surpassing barriers that we once thought couldn’t be broken. Artificial Intelligence has been one of the areas that has achieved a level of success that delivers the best of expectations in many tasks across the field. In the domain of Machine Learning, Neural Networks have been one of the concepts that have stood out, providing extremely high accuracy when solving problems across all work sectors. However, the lack of interpretability is one of the inherent problems it has brought. The present neural network models are often considered as ”black-boxes” derived from the lack of explainability and transparency, since the knowledge the structure learns from the data provided as input is unpredictable and in complex systems, unexplainable. The neural network complexity is intrinsically associated with some parameters, such as number of hidden layers, activation function, which influence how flexible are the network pattern classifications allowing for easier classifications in higher spatial dimensions at the cost of more resources, time and interpretability when computing the problem. In order to solve the increased computational needs and lack of interpretability, new solutions and structure modifications to the typical networks have been researched and implemented. The lack of understanding on why the models reaches certain conclusions impairs these models to be deployed in critical areas such as precision medicine, law or finances where reasoning for the presented conclusions are needed. This problem led to the creation of a new sub-field in the domain of Machine Learning where explainable artificial intelligence is the priority. This dissertation presents a review of the existing literature and contributions available in the field of XAI and regarding structural modifications to the typical networks. Based on the most recent Professor Paulo Salgado’s investigation, which were provided for study and validation, about complementary information channels on Neural Networks and an algorithm based on this complementary sub model, the comprehension and formalization of the theoretical methods was another contribute of this dissertation followed by the validation of the model with typical Machine Learning performance metrics.
"Towards Building an Intelligent Tutor for Gestural Languages using Concept Level Explainable AI." Doctoral diss., 2020. http://hdl.handle.net/2286/R.I.57347.
Повний текст джерелаDissertation/Thesis
Doctoral Dissertation Engineering 2020
"Explainable AI in Workflow Development and Verification Using Pi-Calculus." Doctoral diss., 2020. http://hdl.handle.net/2286/R.I.55566.
Повний текст джерелаDissertation/Thesis
Doctoral Dissertation Computer Science 2020
Neves, Maria Inês Lourenço das. "Opening the black-box of artificial intelligence predictions on clinical decision support systems." Master's thesis, 2021. http://hdl.handle.net/10362/126699.
Повний текст джерелаAs doenças cardiovasculares são, a nível mundial, a principal causa de morte e o seu tratamento e prevenção baseiam-se na interpretação do electrocardiograma. A interpretação do electrocardiograma, feita por médicos, é intrinsecamente subjectiva e, portanto, sujeita a erros. De modo a apoiar a decisão dos médicos, a inteligência artificial está a ser usada para desenvolver modelos com a capacidade de interpretar extensos conjuntos de dados e fornecer decisões precisas. No entanto, a falta de interpretabilidade da maioria dos modelos de aprendizagem automática é uma das desvantagens do recurso à mesma, principalmente em contexto clínico. Adicionalmente, a maioria dos métodos inteligência artifical explicável assumem independência entre amostras, o que implica a assunção de independência temporal ao lidar com séries temporais. A característica inerente das séries temporais não pode ser ignorada, uma vez que apresenta importância para o processo de tomada de decisão humana. Esta dissertação baseia-se em inteligência artificial explicável para tornar inteligível a classificação de batimentos cardíacos, através da utilização de várias adaptações de métodos agnósticos do estado-da-arte. Para abordar a explicação dos classificadores de séries temporais, propõe-se uma taxonomia preliminar, e o uso da derivada como um complemento para adicionar dependência temporal entre as amostras. Os resultados foram validados para um conjunto extenso de dados públicos, por meio do índice de Jaccard em 1-D, com a comparação das subsequências extraídas de um modelo interpretável e os métodos inteligência artificial explicável utilizados, e a análise de qualidade, para avaliar se a explicação se adequa ao comportamento do modelo. De modo a avaliar modelos com lógicas internas distintas, a validação foi realizada usando, por um lado, um modelo mais transparente e, por outro, um mais opaco, tanto numa situação de classificação binária como numa situação de classificação multiclasse. Os resultados mostram o uso promissor da inclusão da derivada do sinal para introduzir dependência temporal entre as amostras nas explicações fornecidas, para modelos com lógica interna mais simples.
"Foundations of Human-Aware Planning -- A Tale of Three Models." Doctoral diss., 2018. http://hdl.handle.net/2286/R.I.51791.
Повний текст джерелаDissertation/Thesis
Doctoral Dissertation Computer Science 2018
Brito, João Pedro da Cruz. "Deep Adversarial Frameworks for Visually Explainable Periocular Recognition." Master's thesis, 2021. http://hdl.handle.net/10400.6/11850.
Повний текст джерелаPalesi, Luciano Alessandro Ipsaro. "Human Centered Big Data Analytics for Smart Applications." Doctoral thesis, 2022. http://hdl.handle.net/2158/1282883.
Повний текст джерелаRibeiro, Manuel António de Melo Chinopa de Sousa. "Neural and Symbolic AI - mind the gap! Aligning Artificial Neural Networks and Ontologies." Master's thesis, 2020. http://hdl.handle.net/10362/113651.
Повний текст джерелаCiravegna, Gabriele. "On the Two-fold Role of Logic Constraints in Deep Learning." Doctoral thesis, 2022. http://hdl.handle.net/2158/1264916.
Повний текст джерелаOlsson, Anton, and Gustaf Joelsson. "Requirements Analysis For AI Solutions : A Study On How Requirements Analysis Is Executed When Developing AI Solutions." Thesis, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:hb:diva-25542.
Повний текст джерела