Thèses sur le sujet « Algoritmi di apprendimento automatico »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Algoritmi di apprendimento automatico.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 33 meilleures thèses pour votre recherche sur le sujet « Algoritmi di apprendimento automatico ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Tullo, Alessandra. « Apprendimento automatico con metodo kernel ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23200/.

Texte intégral
Résumé :
Il seguente lavoro ha come obbiettivo lo studio dei metodi kernel nell'apprendimento automatico. Partendo dalla definizione di spazi di Hilbert a nucleo riproducente vengono esaminate le funzioni kernel e i metodi kernel. In particolare vengono analizzati il kernel trick e il representer theorem. Infine viene dato un esempio di problema dell'apprendimento automatico supervisionato, il problema di regressione lineare del kernel, risolto attraverso il representer theorem.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Giavoli, Andrea. « Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time : Adattamento di un algoritmo di apprendimento automatico per la caratterizzazione e la ricerca di frequent patterns su macchine automatiche ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9055/.

Texte intégral
Résumé :
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Stefenelli, Marco. « Apprendimento automatico nei giochi di strategia ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7660/.

Texte intégral
Résumé :
Lo scopo di questo elaborato consiste principalmente in una presentazione generale e teorica dei fondamenti dell'Apprendimento Automatico, dei suoi paradigmi principali e dell’applicazione concreta di due di queste tecniche nei giochi di strategia. Nel primo caso di studio è stato descritto il processo che si cela dietro l’addestramento di una rete neurale per giocare a Tris; nel secondo, invece, è stata riporta l’esperienza che mostra come sia possibile addestrare un giocatore di scacchi attraverso le annotazioni di gioco.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ugolini, Matilde. « Metodologie di apprendimento automatico applicate alla generazione di dati 3D ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10415/.

Texte intégral
Résumé :
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Styles APA, Harvard, Vancouver, ISO, etc.
5

SPALLANZANI, MATTEO. « Un framework per l’analisi dei sistemi di apprendimento automatico ». Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200571.

Texte intégral
Résumé :
Il fare predizioni si fonda sulla comprensione degli schemi del nostro ambiente. Possiamo aver accesso alla realtà fisica grazie a strumenti di misura che ci forniscono dati nei quali speriamo di trovare schemi utili. Lo sviluppo delle macchine calcolatrici ha permesso di stoccare grandi insiemi di dati e di processarli ad alta velocità. L’apprendimento automatico studia sistemi capaci di automatizzare l’identificazione di schemi in grandi insiemi di dati utilizzando i computer. L’apprendimento automatico è al cuore della scienza dei dati e dell’intelligenza artificiale, due campi di ricerca che stanno cambiando l’economia e la società in cui viviamo. I sistemi di apprendimento automatico sono solitamente addestrati ed eseguiti su potenti cluster di computer composti da centinaia o migliaia di macchine. Oggigiorno, la miniaturizzazione dei dispositivi di calcolo sta permettendo di utilizzarli su sistemi, alimentati a batteria, posizionati in ambienti diversi. Rispetto ai cluster di computer, questi dispositivi sono molto meno potenti, ma hanno il vantaggio di essere più vicini alla sorgente dei dati. Da un lato, questo estende il numero di applicazioni dei sistemi di apprendimento automatico; dall’altro, le limitazioni fisiche delle macchine calcolatrici richiedono di identificare metriche appropriate per valutare l’idoneità di sistemi di apprendimento automatico differenti in un contesto dato. In particolare, questi sistemi dovrebbero essere valutati basandosi non solo sulle loro proprietà modellistiche e statistiche, ma anche sui loro costi algoritmici e sulla loro idoneità a diverse architetture di calcolatori. In questa tesi, analizziamo le proprietà modellistiche, algoritmiche ed architetturali di diversi sistemi di apprendimento automatico. Presentiamo il metodo fingerprint, un sistema che è stato sviluppato per risolvere un problema di strategia commerciale in cui l’accuratezza statistica è più importante dei vincoli di latenza o di consumo energetico. Dopodiché, analizziamo le reti neurali artificiali e discutiamo le loro proprietà computazionali; descriviamo anche un esempio di applicazione, un modello che abbiamo progettato per identificare le cause oggettive di percezioni soggettive alla guida. Infine, descriviamo ed analizziamo le reti neurali quantizzate, reti neurali artificiali che usano insiemi finiti per i parametri e funzioni di attivazione a scala. Queste limitazioni pongono problemi matematici non banali, ma le reti neurali quantizzate possono essere eseguite in modo estremamente efficiente su acceleratori hardware dedicati, rendendole candidate ideali per utilizzare l’apprendimento automatico su computer edge. In particolare, mostriamo che le reti neurali quantizzate sono equivalenti alle reti neurali artificiali classiche (quantomeno sull’insieme di bersagli rappresentato dalle funzioni continue definite su domini compatti); presentiamo anche un nuovo algoritmo di apprendimento basato sul gradiente, chiamato additive noise annealing, basato sull’effetto regolarizzante del rumore additivo sull’argomento di funzioni discontinue, riportando risultati allo stato dell’arte su benchmark di classificazione d’immagini.
Making predictions is about getting insights into the patterns of our environment. We can access the physical world through media, measuring instruments, which provide us with data in which we hope to find useful patterns. The development of computing machines has allowed storing large data sets and processing them at high speed. Machine learning studies systems which can automate the detection of patterns in large data sets using computers. Machine learning lies at the core of data science and artificial intelligence, two research fields which are changing the economy and the society in which we live. Machine learning systems are usually trained and deployed on powerful computer clusters composed by hundreds or thousands of machines. Nowadays, the miniaturisation of computing devices is allowing deploying them on battery-powered systems embedded into diverse environments. With respect to computer clusters, these devices are far less powerful, but have the advantage of being nearer to the source of the data. On one side, this increases the number of applications of machine learning systems; on the other side, the physical limitations of the computing machines require identifying proper metrics to assess the fitness of different machine learning systems in a given context. In particular, these systems should be evaluated according not only to their modelling and statistical properties, but also to their algorithmic costs and their fitness to different computer architectures. In this thesis, we analyse modelling, algorithmic and architectural properties of different machine learning systems. We present the fingerprint method, a system which was developed to solve a business intelligence problem where statistical accuracy was more important than latency or energy constraints. Then, we analyse artificial neural networks and discuss their appealing computational properties; we also describe an example application, a model we designed to identify the objective causes of subjective driving perceptions. Finally, we describe and analyse quantized neural networks, artificial neural networks which use finite sets for the parameters and step activation functions. These limitations pose challenging mathematical problems, but quantized neural networks can be executed extremely efficiently on dedicated hardware accelerators, making them ideal candidates to deploy machine learning on edge computers. In particular, we show that quantized neural networks are equivalent to classical artificial neural networks (at least on the set of targets represented by continuous functions defined on compact domains); we also present a novel gradient-based learning algorithm for, named additive noise annealing, based on the regularisation effect of additive noise on the argument of discontinuous functions, reporting state-of-the-art results on image classification benchmarks.
Styles APA, Harvard, Vancouver, ISO, etc.
6

TOMEI, MATTEO. « Riconoscimento di azioni nei video tramite tecnologie computazionali, multimediali e di apprendimento automatico ». Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271188.

Texte intégral
Résumé :
I video rappresentano oggi il mezzo più diffuso di condivisione delle informazioni. Con la loro diffusione, sono aumentate anche le esigenze di categorizzazione e di comprensione dei contenuti in modo automatico, sia per scopi di intrattenimento che per scopi professionali. In questa tesi vengono esplorati e progettati algoritmi e soluzioni per il riconoscimento automatico di azioni e per la loro localizzazione spazio-temporale nei video, utilizzando tecnologie multimediali e basate sul deep learning. Il lavoro non si limita alla valutazione quantitativa degli approcci proposti, al solo fine di migliorare le prestazioni su specifici task, ma affronta alcuni problemi che derivano dalla gestione dei contenuti video. Spesso i video coinvolgono persone e comportano problemi relativi alla loro privacy che non sono ancora investigati abbastanza dalla comunità scientifica. Inoltre, data la loro complessità e variabilità, i video rappresentano un tipo di dato difficile da elaborare e che richiede grandi risorse computazionali. Oltre allo scenario applicativo, questa tesi affronta anche problemi relativi alla sensibilità dei dati e alle risorse computazionali. Nella prima parte della tesi viene indagato il riconoscimento simultaneo di più attori e la classificazione delle loro azioni nei video, sfruttando interazioni sia spaziali che temporali tra le persone e gli oggetti circostanti. Viene poi progettata una rete neurale artificiale per l'individuazione di azioni salienti nelle partite di calcio, in collaborazione con Metaliquid SRL. Riguardo la privacy e i dati sensibili, viene proposto un nuovo metodo per mascherare l'identità delle persone nei video preservando la capacità dei modelli di predire le azioni in modo corretto. Infine, dal punto di vista computazionale, viene sviluppato un algoritmo per ridurre le dimensioni e l'utilizzo delle risorse delle reti neurali artificiali per il riconoscimento di azioni, mantenendo le prestazioni invariate. Questi aspetti della rappresentazione dei video vengono esaminati separatamente, rivelandosi generalizzabili in diversi scenari e rendendo più semplice la creazione di modelli di riconoscimento delle azioni efficienti e nel rispetto della privacy degli attori coinvolti. Tutte le alternative e le soluzioni presentate in questo lavoro si basano sul deep learning, che richiede un'enorme quantità di dati per l'apprendimento delle rappresentazioni video.
Video clips represent the most pervasive means of disseminating information nowadays. With their outbreak, needs for automatic categorization and content understanding have also increased, both for entertainment purposes and professional ones. In the context of multimedia and deep learning technologies for video comprehension, we explore and devise video-based algorithms and state-of-the-art solutions to tackle action recognition and fine-grained action localization. Our research is not limited to the quantitative evaluation of the proposed approaches for improving performance on specific tasks. We observe that handling video content usually brings some drawbacks. Videos often involve human actors and could arise privacy issues that are not yet sufficiently investigated by the computer vision community. Moreover, given their complexity and variability, videos are not easy to process and often require large computational resources. In addition to the application scenario, this thesis tackles two main challenges related to automatic video processing, namely privacy issues and computation. In the application part, we investigate the simultaneous detection of multiple actors and the classification of their actions, by exploiting interactions between people and surrounding objects, both in space and time. We also explore a more production-oriented application, in collaboration with Metaliquid SRL and in line with the company’s needs, by devising a deep network for salient action spotting in broadcast soccer matches. Regarding the privacy issue, we propose a novel strategy for masking people’s identities in video clips while preserving the ability of action recognition models to predict correct class labels. Finally, from the computational perspective, we develop an algorithm for reducing the size and resource utilization of existing deep neural networks, while keeping performances. These three aspects of video modeling are investigated separately but have proved to be generalizable, making it easier to build efficient and privacy-preserving action recognition models. All the alternatives and solutions presented in this work build upon deep learning, requiring a huge amount of data for learning video representations.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bartolini, Manuel. « Sviluppo di algoritmi per l'automazione di misure industriali ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3282/.

Texte intégral
Résumé :
Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Nigri, Simone. « Ottimizzatore per configurazione automatica di algoritmi di pattern matching ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Il tema del riconoscimento di oggetti, siano essi microscopici componenti in grandi catene di assemblaggio o segnali grafici posti su pacchi in spedizione, è uno degli argomenti più rilevanti all'interno del vasto mondo racchiuso nel settore interdisciplinare rappresentato da Computer Vision, inerente all'analisi di immagini al fine di estrapolarne informazioni. Nonostante ciò, l'utilizzo e la configurazione di strumenti (o tool) il cui obiettivo è esattamente quello di rilevare particolari modelli noti a priori in diverse immagini, potrebbe essere un compito particolarmente arduo per un utente medio senza preventiva conoscenza in tale ambito. Al fine di aiutare e guidare tale settore di utenza, lo scopo dell'elaborato sviluppato è, quindi, quello di creare un sistema di ottimizzazione automatica del processo di configurazione di strumenti dediti al Pattern Matching, considerando come study-case il setup del componente software Pattern Sort gentilmente messo a disposizione da Datalogic S.p.A.
Styles APA, Harvard, Vancouver, ISO, etc.
9

LETTERI, IVAN. « Strategie di Miglioramento delle Prestazioni per rilevamento del traffico di malware con Modelli di Apprendimento Automatico ». Doctoral thesis, Università degli Studi dell'Aquila, 2020. http://hdl.handle.net/11697/163416.

Texte intégral
Résumé :
Malware (malicious software) is a world wide epidemic that has existed for over than 40 years in various forms. The impact of malware is getting worse and the trend of the 21◦century is to use it to take control of an organized group of machines called botnets. The methodology for malware detection proposed in this dissertation leverages on the useof Network Traffic Data Mining, and Machine Learning algorithms with appropriate feature selection. We defined a complete process for the creation of aneffective and efficient dynamic dataset, which comes updated on a daily bases, to properlytrain Machine Learning (ML) models in combination with an environment for accurate and proactive detection in a monitored network. For identifying complex patterns and traffic features, we adopted Deep Learning malware classification approach following a strategy known as Statistical Flow Analysis that defines the detection standards based on network analysis. The difficulty in detecting malware is that they evolve over time. In this dissertation, we investigate the effectiveness of using the anomalies, detected in the network traffic by security tools to train machine learning supervised models. In particular, in our framework we apply a dynamic system of investigation and a behavioral knowledge base strategy to distinguish malware without erroneously blocking legitimate traffic or increasing false alarms. We used a knowledge base of recent traffic data can be used to predict future traffic patterns and aggregated new synthesized data from log traffic, and we tested different network topologies using Software Defined Networking paradigm to virtualize statistical malware activities.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Teci, Marco. « Implementazione e verifica degli algoritmi per il controllo di esposizione automatico nelle radiografie ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6403/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
11

Cozzetti, Rachele Agnese. « Valutazione dell'apprendimento di un nuovo dispositivo medico : l'iniettore automatico di CO2 Angiodroid ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Il processo di apprendimento nell’ambito delle Scienze della vita richiede formazione, aggiornamento ed esercizio costante. Con il perenne sviluppo di nuove tecnologie biomediche, l’equipe medica è costantemente impegnata nel raggiungimento di nuove competenze, nell’assidua partecipazione a programmi di educazione e di training per raggiungere i cosiddetti outcome clinici. Il seguente elaborato di tesi si basa su una breve esperienza condotta in collaborazione con l’azienda Angiodroid (San Lazzaro di Savena, BO) e l’ospedale “M. Bufalini di Cesena”. L’obiettivo è stato studiare il processo iniziale di apprendimento di un nuovo dispositivo medico: l’iniettore automatico Angiodroid the CO₂ injector, per l’utilizzo di anidride carbonica (CO₂) nella pratica clinica di angiografia. La CO₂ viene utilizzata come mezzo di contrasto, è un gas biocompatibile, anallergico e non nefrotossico rappresenta un’ottima soluzione in angiografia per evitare il danno acuto da mezzo di contrasto con forte impatto renale, causato dall’attuale gold standard: il mezzo di contrasto iodato. In medicina si parla di curva di apprendimento (dall’inglese "learning curve", LC), una rappresentazione grafica che mette in correlazione lo sforzo e i risultati dell’apprendimento di un nuovo task in termini di performance. Si tratta di uno studio preliminare con l’obiettivo di riuscire ad individuare i cosiddetti key performance indicator per la determinazione della LC, sulla base dei dati raccolti durante le procedure endovascolari per risolvere patologie arteriose quali l’aneurisma dell’aorta addominale e le occlusioni dei vasi periferici. La fase iniziale di apprendimento rappresenta lo step più critico, tuttavia è stata fondamentale la figura aziendale dell’Angiodroid specialist per il supporto e il training clinico/tecnico. Saranno necessari studi di approfondimento con l'obiettivo di migliorare le performance cliniche, con il focus centralizzato costantemente sul beneficio del paziente.
Styles APA, Harvard, Vancouver, ISO, etc.
12

HAMMAD, AHMED TAREK. « Tecniche di valutazione degli effetti dei Programmi e delle Politiche Pubbliche. L' approccio di apprendimento automatico causale ». Doctoral thesis, Università Cattolica del Sacro Cuore, 2022. http://hdl.handle.net/10280/110705.

Texte intégral
Résumé :
L'analisi dei meccanismi causali è stata considerata in varie discipline come la sociologia, l’epidemiologia, le scienze politiche, la psicologia e l’economia. Questi approcci permettere di scoprire relazioni e meccanismi causali studiando il ruolo di una variabile di trattamento (come ad esempio una politica pubblica o un programma) su un insieme di variabili risultato di interesse o diverse variabili intermedie sul percorso causale tra il trattamento e le variabili risultato. Questa tesi si concentra innanzitutto sulla revisione e l'esplorazione di strategie alternative per indagare gli effetti causali e gli effetti di mediazione multipli utilizzando algoritmi di apprendimento automatico (Machine Learning) che si sono dimostrati particolarmente adatti per rispondere a domande di ricerca in contesti complessi caratterizzati dalla presenza di relazioni non lineari. In secondo luogo, la tesi fornisce due esempi empirici in cui due algoritmi di Machine Learning, ovvero Generalized Random Foresta e Multiple Additive Regression Trees, vengono utilizzati per tenere conto di importanti variabili di controllo nell'inferenza causale seguendo un approccio “data-driven”.
The analysis of causal mechanisms has been considered in various disciplines such as sociology, epidemiology, political science, psychology and economics. These approaches allow uncovering causal relations and mechanisms by studying the role of a treatment variable (such as a policy or a program) on a set of outcomes of interest or different intermediates variables on the causal path between the treatment and the outcome variables. This thesis first focuses on reviewing and exploring alternative strategies to investigate causal effects and multiple mediation effects using Machine Learning algorithms which have been shown to be particularly suited for assessing research questions in complex settings with non-linear relations. Second, the thesis provides two empirical examples where two Machine Learning algorithms, namely the Generalized Random Forest and Multiple Additive Regression Trees, are used to account for important control variables in causal inference in a data-driven way. By bridging a fundamental gap between causality and advanced data modelling, this work combines state of the art theories and modelling techniques.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Speciale, Giovanni Maria. « Il Ragionamento Logico come Forma di Apprendimento : Sviluppo di Un Framework per ILP ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23786/.

Texte intégral
Résumé :
Questa tesi si focalizza sulla programmazione logica induttiva (ILP) e, in particolare, in una sua ricontestualizzazione all'interno di ecosistemi tecnologici per lo sviluppo di applicativi di intelligenza artificiale (AI) moderni. ILP è un paradigma per l'apprendimento automatico: sulla base di una conoscenza del dominio e una serie di esempi (positivi e negativi) nell'ambito di interesse — rappresentati utilizzando la logica —, un sistema ILP riesce a derivare un programma logico che generalizza tutti gli esempi positivi e nessuno degli esempi negativi. Il suo innesto all'interno di ecosistemi di intelligenza artificiale simbolica può portare allo sviluppo di nuovi scenari applicativi in cui la logica induttiva può diventare il ponte tra mondo simbolico e quello sub-simbolico. In particolare, la tesi ha un duplice obiettivo. In primo luogo, una sistematizzazione dello stato dell’arte al fine di evidenziare gli approcci e le tecniche ILP esistenti ed eventuali tecnologie correlate. In secondo luogo, la progettazione e realizzazione un modulo ILP all'interno di un ecosistema tecnologico per AI simbolica — 2P-Kt — fornendo una prima implementazione fruibile in contesti pervasivi—quali quelli richiesti dalle moderne applicazioni di AI. Detto modulo andrà a supportare i principali algoritmi classici per ILP — Golem, Progol e Metagol — tramite una tecnologia multi-paradigma, consentendo l'utilizzo di tecniche induttive sia come applicazione che come libreria riusabile.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Cappella, Matteo. « Studio e valutazione di tecniche di training per il riconoscimento automatico di attività attraverso dispositivi mobili ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
L'utilizzo degli smartphone è cresciuto rapidamente nel corso dell'ultimo decennio. Questi dispositivi oltre ad avere ottime capacità comunicative, di memoria e di calcolo, sono equipaggiati con numerosi sensori. Quest'ultimi permettono ai ricercatori di raccogliere numerose informazioni riguardanti le persone e il contesto che le circonda. Un aspetto molto importante che è possibile analizzare tramite la raccolta delle informazioni provenienti dai sensori è sicuramente quello del riconoscimento delle modalità di trasporto (Transportation Mode Detection), che consiste, appunto, nell'individuare la classe di mobilità intrapresa da un utente in un determinato momento tramite degli algoritmi di machine learning. In questo elaborato, vengono utilizzate varie tecniche di apprendimento su un dataset contenente cinque differenti classi di trasporto quali stare fermi, camminare, andare in auto, autobus e treno. L'obiettivo che si è cercato di raggiungere è stato quello di verificare la possibilità di riconoscere le modalità di trasporto di un utente di cui non si possiedono informazioni, ovvero un soggetto che non è presente all'interno dell'insieme di dati usati per allenare il modello di predizione. In modo particolare, lo studio si è focalizzato sulla tecnica di apprendimento incrementale attraverso la quale è stato possibile aggiornare il modello con l'aggiunta di nuove informazioni senza perdere la conoscenza acquisita in addestramenti precedenti. Infine, si è indagato sul problema relativo all'etichettatura dei dati. Dato che questa operazione risulta essere molto costosa, nell'elaborato è stata proposta una soluzione basata su tecniche di apprendimento semi-supervisionato che consentono di sfruttare una combinazione di dati etichettati e non.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Alessandrini, Elena. « Analisi e riconoscimento automatico di impronte digitali latenti ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18429/.

Texte intégral
Résumé :
La tesi descrive le tecniche introdotte in letteratura al fine di automatizzare il processo di analisi e confronto di impronte digitali latenti, nonché le loro limitazioni e problematiche. Descrive nello specifico le varie fasi di cui consiste il processo. Vengono inoltre descritte le principali risorse a disposizione dei ricercatori in questo ambito.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Azolini, Flavio. « Modelli di deep learning e principali applicazioni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
Questa breve ricerca racchiude tutte le attuali conoscenze del sottoscritto su quello che in italiano è noto come "apprendimento automatico" (machine learning) e si propone di offrire al lettore, senza pretesa di completezza, una panoramica sul funzionamento delle principali architetture che stanno alla base delle tecnologie di visione artificiale e riconoscimento automatico del discorso. In particolare la trattazione si concentra sull’approccio "connessionista" [Domingos, 2016] al problema dell’apprendimento, che è quello che negli anni più recenti - anche grazie alla discesa dei prezzi dell’hardware ad alto parallelismo come le moderne GPU - ha dato nuova vita alle Reti Neurali, fondando di fatto quel campo noto al grande pubblico come "apprendimento approfondito" (deep learning). In particolare il presente elaborato va ad approfondire due delle principali architetture di reti neurali che costituiscono questa branca di studi: • Le Reti Neurali Convoluzionali (CNNs) • Le Reti Neurali Ricorrenti (RNNs) E’ rilevante sottolineare che esiste uno stretto legame tra questo insieme di metodi e tecniche ad alta interdisciplinarietà e lo studio della Fisica. Il machine learning è al tempo stesso una scienza e una tecnologia e può essere applicato in ogni campo nel quale è richiesto costruire algoritmi, che sono in grado di apprendere da un insieme di dati di input e fare previsioni su questi ultimi. A sua volta la Fisica, attraverso l’applicazione del Metodo Scientifico, si occupa di verificare e misurare i fenomeni naturali al fine di stabilire i principi e le leggi che li governano. Fino ad oggi la raccolta di dati empirici e la verifica delle teorie da vagliare sono state il risultato di un laborioso processo manuale. Il machine learning offre la promessa di automatizzare e velocizzare il processo di verifica ed estrazione di conoscenza dai dati, rappresentando un vero e proprio "doping applicato al metodo scientifico". [Domingos, 2016]
Styles APA, Harvard, Vancouver, ISO, etc.
17

Benincasa, Antonio. « Deep-learning per stima della confidenza di mappe depth ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
La stereo visione è una branca della visione artificiale che mira ad ottenere le informazioni tridimensionali perse durante il processo di acquisizione delle immagini. A tale scopo, viene utilizzata una coppia di camere sincronizzate e poste su una base orizzontale. Le immagini catturare simultaneamente vengono processate per recuperare le informazioni di profondità. Queste informazioni sono rappresentate da una mappa di disparità. Nonostante sono state proposte un notevole numero di strategie per calcolare le informazioni tridimensionali, risultano ancora poco affidabili. Calcolare il grado di affidabilità di questi algoritmi è una fase cruciale e per questo, nel corso degli anni, sono stati proposti diversi benchmark per misurare l'effettiva efficacia degli algoritmi stereo. Questa valutazione viene chiamata misura di confidenza. Le tecniche standard per calcolare le misure di confidenza analizzano, in generale, il cosiddetto volume dei costi che rappresenta il grado di dissimilarità/similarità per ogni assegnamento di disparità per ogni pixel dell'immagine di riferimento per il calcolo della mappa di disparità. Queste tecniche però risultano molto specifiche per problemi noti degli algoritmi stereo e quindi possono risultare migliori in determinate circostanze e decisamente peggiori in altre. Per questo motivo sono state studiate architetture di Machine Learning che calcolano le misure di confidenza molto più efficacemente rispetto alle tecniche standard. In questo lavoro di tesi sono state studiate ed implementate reti convoluzionali profonde per il calcolo della misure di confidenza che non utilizzano il volume dei costi ma le mappe di disparità e,in alcuni casi, una delle due immagini che hanno generato tale mappa. Dopo aver valutato alcune tra le architetture migliori dello stato dell'arte, sono state progettate, implementate e valutate altre reti convoluzionali e confrontate con lo stato dell'arte.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Barbieri, Niccoló. « Trattamento del concetto di clustering a partire dalla definizione di misure di similarità e criteri valutativi ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24266/.

Texte intégral
Résumé :
Con la presente tesi ci si poneva l’obbiettivo di studiare lo stato dell’arte riguardo al tema degli algoritmi di clustering; principalmente su dati non categorizzati. A tal fine sono stati analizzate prima le tematiche riguardanti misure di similarità e criteri valutativi, ponendo esempi sia per dati di tipo numerico che per dati categorizzati; questi risultano essere temi paralleli al più centrale tema proposto, ma restano argomenti fondamentali al fine della comprensione del funzionamento degli algoritmi di clustering. Successivamente è stata portata avanti una disamina sulla tematica principale, ovvero sul tema degli algoritmi veri e propri, trattando in primo luogo le famiglie principali, ossia il clustering gerarchico e la controparte partizionale, per queste distinzioni è stato sfruttato l’articolo1; per poi elencare anche metodi alternativi; spesso più specifici ma non meno importanti; infine è stata inserita una breve rappresentazione di alcuni potenziali utilizzi di questi algoritmi, sia in ambito di ricerca che in ambito aziendale.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Fariselli, Alberto. « Studio e implementazione di un sistema per la profilazione basato sul contesto e sul comportamento dell'utente ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6637/.

Texte intégral
Résumé :
In questa tesi si effettua uno studio sulla capacità degli algoritmi di apprendimento per rinforzo di profilare un utente Web unicamente attraverso l'osservazione del suo comportamento durante la navigazione
Styles APA, Harvard, Vancouver, ISO, etc.
20

Di, Gennaro Pierluigi. « Due approcci alla sentiment polarity classification di tweet per la lingua italiana ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13270/.

Texte intégral
Résumé :
Questo lavoro di tesi si pone l'obiettivo di fornire un'ampia panoramica sull'attuale stato dell'arte della ricerca sulla sentiment analysis mostrando le metodologie, le tecniche e le applicazioni realizzate negli ultimi anni e di presentare le implementazioni concrete (ed i risultati ottenuti) di due diversi sistemi per la sentiment polarity classification di tweet per la lingua italiana. Il primo sistema (FICLIT+CS@Unibo System) utilizza un approccio basato sull'orientamento semantico tramite la realizzazione e l'utilizzo di un lessico annotato e la propagazione della polarità lungo alberi sintattici mentre il secondo utilizza algoritmi stocastico/statistici di machine learning per la creazione di un modello generalizzato per la classificazione del sentimento a partire da un training set annotato.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Lanera, Corrado. « Sviluppo e applicazione di tecniche di apprendimento automatico per l'analisi e la classificazione del testo in ambito clinico. Development and Application of Machine Learning Techniques for Text Analyses and Classification in Clinical Research ». Doctoral thesis, Università degli studi di Padova, 2020. http://hdl.handle.net/11577/3426256.

Texte intégral
Résumé :
The content of Electronic Health Records (EHRs) is hugely heterogeneous, depending on the overall health system structure. Possibly, the most present and underused unstructured type of data included in the EHRs is the free-text. Nowadays, with Machine Learning (ML), we can take advantage of automatic models to encode narratives showing performance comparable to the human ones. In this dissertation, the focus is on the investigation of ML Techniques (MLT) to get insights from free-text in clinical settings. We considered two main groups of free-text involved in clinical research. The first is composed of extensive documents like research papers or study protocols. For this group, we considered 14 Systematic Reviews (SRs), including 7,494 studies from PubMed and a whole snapshot of 233,609 trials from ClinicalTrials.gov. Pediatric EHRs compose the second group, for which we considered two sources of data: one of 6,903,035 visits from the Italian Pedianet database, and the second of 2,723 Spanish discharging notes from pediatric Emergency Departments (EDs) of nine hospitals in Nicaragua. The first contribution reported is an automatic system trained to replicate a search from specialized search engines to clinical registries. The model purposed showed very high classification performances (AUC from 93.4% to 99.9% among the 14 SRs), with the added value of a reduced amount of non-relevant studies extracted (mean of 472 and maximum of 2119 additional records compared to 572 and 2680 of the original manual extraction respectively). A comparative study to explore the effect of changing different MLT or methods to manage class imbalance is reported. A whole investigation on pediatric ED visits collected from nine hospitals in Nicaragua was reported, showing a mean accuracy in the classification of discharge diagnoses of 78.31% showing promising performance of an ML for the automatic classification of ED free-text discharge diagnoses in the Spanish language. A further contribution aimed to improve the accuracy of infectious disease detection at the population level. That is a crucial public health issue that can provide the background information necessary for the implementation of effective control strategies, such as advertising and monitoring the effectiveness of vaccination campaigns. Among the two studies reported of classify cases of Varicella-Zoster Virus and types of otitis, both the primary ML paradigms of shallow and deep models were explored. In both cases the results were highly promising; in the latter, reaching performances comparable to the human ones (Accuracy 96.59% compared with 95.91% achieved by human annotators, and balanced F1 score of 95.47% compared with 93.47%). A further relevant side goal achieved rely on the languages investigated. The international research on the use of MLTs to classify EHRs is focused on English-based datasets mainly. Hence, results on non-English databases, like the Italian Pedianet or the Spanish of ED visits considered in the dissertation are essential to assess general applicability of MLTs at a general linguistic level. Showing performances comparable to the human ones, the dissertation highlights the real possibility to start to incorporate ML systems on daily clinical practice to produce a concrete improvement in the health care processes when free-text comes into account.
Il contenuto delle cartelle cliniche elettroniche (EHR) è estremamente eterogeneo, dipendendo della struttura generale del sistema sanitario. Al loro interno, il testo libero èprobabilmente la tipologia di dati non strutturato più presente e contemporaneamente sottoutilizzato. Al giorno d'oggi, grazie alle tecniche di Machine Learning (MLT), possiamo sfruttare modelli automatici per codificarne il contenuto testuale con prestazioni comparabili a quelle umane. In questa tesi, l'attenzione si concentra sull'investigazione delle MLT per l'ottenimento di informazioni utili non triviali dal testo libero in contesti clinici. Abbiamo considerato due tipi principali di testo libero coinvolti nella ricerca clinica. Il primo è composto da documenti estesi come articoli scientifici o protocolli di studio. Per questo gruppo, abbiamo preso in considerazione 14 revisioni sistematiche (SR), tra cui 7.494 studi di PubMed e un'intera istantanea composta da 233.609 studi clinici da ClinicalTrials.gov. Le cartelle cliniche elettroniche pediatriche compongono il secondo gruppo, per il quale abbiamo considerato due fonti di dati: una di 6.903.035 visite dal database italiano Pedianet e la seconda da 2.723 note di dimissione ospedaliera scritte in spagnolo e provenienti dai dipartimenti di emergenza (DE) pediatrica di nove ospedali in Nicaragua. Il primo contributo riportato è un sistema automatico addestrato per replicare una ricerca dai motori di ricerca specializzati ai registri clinici. Il modello proposto ha mostrato prestazioni di classificazione molto elevate (AUC dal 93,4% al 99,9% tra i 14 SR), con il valore aggiunto di una quantità ridotta di studi non rilevanti estratti (media di 472 e massimo di 2119 record aggiuntivi rispetto a 572 e 2680 dell'estrazione manuale originale rispettivamente). Viene riportato anche uno studio comparativo per esplorare l'effetto dell'utilizzo di differenti MLT e di metodi diversi per gestire gli effetti dello squilibro di numerosità nelle classi. Nella tesi è riportata inoltre un'intera indagine sulle visite pediatriche presso i DE raccolte presso i nove ospedali del Nicaragua. In tale indagine emerge un'accuratezza media nella classificazione delle diagnosi di dimissione coi modelli proposti del 78,31%, mostrando promettenti prestazioni per un sistema ML per la classificazione automatica delle diagnosi di dimissione da testo libero in lingua spagnola. Un ulteriore contributo riportato ha mirato a migliorare l'accuratezza del rilevamento delle malattie infettive a livello di popolazione. Questo è un problema cruciale per la salute pubblica che può fornire le informazioni di base necessarie per l'implementazione di strategie di controllo efficaci, come la notifica e il monitoraggio di efficacia di campagne di vaccinazione. Tra i due studi riportati, sono stati esplorati entrambi i paradigmi primari di ML classici e profondi. In entrambi i casi i risultati sono stati molto promettenti; nel secondo, raggiungendo prestazioni paragonabili a quelle umane (precisione del 96,59% rispetto al 95,91% raggiunta dagli annotatori umani e livello F1 bilanciato del 95,47% rispetto al 93,47%). Un ulteriore obiettivo secondario ma rilevante raggiunto riguarda le lingue indagate. La ricerca internazionale sull'uso delle MLT per classificare gli EHR si concentra principalmente su set di dati testuali in lingua inglese. Pertanto, i risultati su database non inglesi, come il Pedianet italiano o quello spagnolo delle visite ED considerate nella tesi, risultano contributi chiave per valutare l'applicabilità generale delle MLT a livello linguistico generale. Mostrando prestazioni paragonabili a quelle umane, la tesi evidenzia la reale possibilità di iniziare a incorporare i sistemi ML nella pratica clinica quotidiana per produrre un miglioramento concreto nei processi sanitari quando si tiene conto del testo libero.
Styles APA, Harvard, Vancouver, ISO, etc.
22

GENEROSI, ANDREA. « Tecniche di Deep Learning per analizzare e migliorare la Customer Experience in contesti digitali e fisici ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274561.

Texte intégral
Résumé :
La trasformazione digitale che oggi interessa la maggior parte dei settori industriali ha avuto un impatto significativo nell’intero ecosistema del Retail, dalla produzione fino alla vendita e post-vendita di prodotti e servizi. Il presente lavoro di tesi affronta tale cambiamento proponendo una metodologia di gestione del retail basata sul concetto di Customer Experience ed innovativi strumenti fondati su sistemi di intelligenza artificiale, che insieme ed integrati sono atti a potenziare e rendere più efficace tale trasformazione. Un fattore importante del progressivo mutamento del Retail riguarda proprio l’introduzione di tecnologie basate sull’intelligenza artificiale, capaci di raccogliere ed interpretare la gran mole di dati generati dai diversi canali di vendita e contatto con il cliente, per migliorare la conoscenza dei consumatori, sempre più al centro dell’intero ecosistema, predirne comportamenti, attitudini e preferenze e attivare esperienze personalizzate capaci di connetterli con il brand, con la conseguenza di incrementare la fidelizzazione, le vendite ed il tasso di conversione. L’esperienza del cliente di un prodotto, di un servizio o semplicemente dell’ambiente in cui conosce il brand è diventata sempre più centrale in ogni processo di progettazione, produzione, vendita, distribuzione e assistenza che interessa l’ecosistema del retail. Lo studio su come progettare e gestire attraverso nuove tecnologie la Customer Experience attraverso delle azioni puntuali nei diversi punti di contatto tra cliente e brand (touchpoint) è oggi la chiave per molti retailers per raggiungere il successo su un mercato pieno di sfide competitive. In tutti i touchpoint il cliente interagisce con il brand attraverso i sensi primari e sono diversi i modi in cui esso reagisce agli stimoli ricevuti, sia razionalmente che istintivamente ed emotivamente: è in quest’ultimo caso soprattutto che il successo nell’avere una buona CX è fondamentale per garantire la fidelizzazione con il brand. Data la complessità nel riuscire a monitorare tutti i touchpoint, spesso, la progettazione di una corretta CX viene trascurata se non del tutto omessa. Ad oggi alcune delle metodologie più utilizzate per analizzare il livello di gradimento di un’esperienza qualsiasi da parte di un utente/cliente risultano molto macchinose ed esose in termini di tempo e risorse impiegate. In questo contesto nasce la ricerca su cui si focalizza la tesi di dottorato, ossia trovare una tecnologia capace di automatizzare la raccolta dati, interpretarli per conoscere la risposta del cliente ad una serie di stimoli multisensoriali e multimediali ricevuti e attuare una CX adattativa che abiliti una connessione empatica ed un coinvolgimento con il brand. Per ottenere questo scopo la ricerca in questione farà uso di strumenti e tecnologie pervasive e non invasive, al fine di ottenere una grande quantità di dati (Big Data) nella maniera più “autentica” possibile, così da non contaminare i risultati introducendo bias non desiderati: ad oggi questi strumenti che fanno parte sempre più della nostra vita quotidiana sono le telecamere, dalle webcam alle camere integrate negli smartphone. Per poter utilizzare e sfruttare a pieno queste tecnologie subentrano finalmente le discipline della Computer Vision e soprattutto del Deep Learning, che permettono di analizzare flussi video e predirne il contenuto ed il suo significato esattamente come se fosse un essere umano a visionarli.
The digital transformation that today affects most industrial sectors has had a significant impact on the entire retail ecosystem, from the production to the sale and after-sale of products and services. This thesis work addresses this change by proposing a retail management methodology based on the concept of Customer Experience and innovative tools based on artificial intelligence systems, which together and integrated are able to enhance and make this transformation more effective. An important factor in the progressive changes in Retail concerns the introduction of technologies based on artificial intelligence, capable of collecting and interpreting a large amount of data generated by the various sales and customer contact channels, in order to improve the knowledge of the consumers, who are increasingly at the centre of the entire ecosystem, predict their behaviour, attitudes and preferences and activate personalised experiences capable of connecting them with the brand, with the result of increasing loyalty, sales and conversion rates. The customer's experience of a product, service or simply the environment in which they know the brand has become increasingly crucial in every process of design, production, sales, distribution and service that affects the retail ecosystem. The study on how to design and manage through new technologies the Customer Experience through precise actions in the different points of contact between customer and brand (touchpoints) is today the key for many retailers to achieve success in a market full of competitive challenges. In all touchpoints the customer interacts with the brand through the primary senses and there are different ways in which it reacts to the received stimuli, both rationally and emotionally: it is especially in this last case that the success in having a good CX is fundamental to ensure brand loyalty. Given the complexity of being able to monitor all the touchpoints, the design of a correct CX is often neglected if not completely omitted. Today, some of the most widely used methodologies to analyze the acceptance level of any experience by a user/customer, are very cumbersome and costly in terms of time and spent resources. In this context, the research on which this PhD thesis is focused is born, that is to find a technology able to automate data collection, interpret them to know the customer's response to a series of multisensory and multimedia stimuli and implement an adaptive CX that enables an empathic connection and involvement with the brand. To achieve this goal, this research will make use of pervasive and not intrusive tools and technologies, in order to obtain a large amount of data (Big Data) in the most "authentic" possible way, so to not contaminate the results by introducing unwanted bias: today these tools that are increasingly part of our daily life are the cameras, from webcams to integrated smartphone cameras. In order to fully use and exploit these technologies, the disciplines of Computer Vision and especially Deep Learning will help, allowing to analyze video streams and predict their content and meaning, exactly as if a human being were watching them.
Styles APA, Harvard, Vancouver, ISO, etc.
23

FERRARETTI, Denis. « Data Mining for Petroleum Geology ». Doctoral thesis, Università degli studi di Ferrara, 2012. http://hdl.handle.net/11392/2389427.

Texte intégral
Résumé :
In petroleum geology, exploration and production wells are often analysed using image logs, because they provide a visual representation of the borehole surface and they are fundamental to retrieve information on bedding and rocks characteristics. Aim of this Ph.D. work was to define and implement a suite of automatic and semi-automatic tools for interpretation of image logs and large datasets of subsurface data coming from geological exploration. This led to the development of I2AM (Intelligent Image Analysis and Mapping), a semi-automatic system that exploits image processing algorithms and artificial intelligence techniques to analyse and classify borehole images. More in detail, the objectives of the I2AM approach are: (1) to automatically extract rock properties information from all the different types of data recorded/measured in the wells, and visual features from image logs in particular; (2) to identify clusters along the wells that have similar characteristics; (3) to predict class distribution over new wells in the same area. The main benefits of this approach are the ability to manage and use a large amount of subsurface data simultaneously. Moreover, the automatic identification of similar portions of wells by hierarchical clustering saves a lot of time for the geologist (since he analyses only the previously identified clusters). The interpretation time reduces from days to hours and subjectivity errors are avoided. Moreover, chosen clusters are the input for supervised learning methods which learn a classification that can be applied to new wells. Finally, the learned models can also be studied for a cluster characterization, in a descriptive approach.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Longo, Eugenio. « AI e IoT : contesto e stato dell’arte ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Trouver le texte intégral
Résumé :
L’intelligenza artificiale costituisce un ramo dell’informatica che permette di programmare e progettare sistemi in grado di dotare le macchine di caratteristiche considerate tipicamente umane. L’internet delle cose rappresenta una rete di oggetti fisici in grado di connettersi e scambiare dati con altri dispositivi tramite internet. Nonostante L’internet delle cose e l’intelligenza artificiale rappresentino due concetti diversi, riescono ad integrarsi per creare nuove soluzioni con un elevato potenziale. L’utilizzo combinato di queste due tecnologie permette di aumentare il valore di entrambe le soluzioni, in quanto permette il conseguimento di dati e modelli predittivi. In questo elaborato di tesi l’obiettivo è stato quello di analizzare l’evoluzione dell’intelligenza artificiale e dell’innovazione tecnologica nella vita quotidiana. Nello specifico, l’intelligenza artificiale applicata all’internet delle cose ha preso piede nella gestione di grandi realtà come le smart city o smart mobility o nelle piccole realtà come le smart home, mettendo in rete una grande quantità di dati privati. Tuttavia, esistono ancora delle problematiche. Infatti, ad oggi non è stato ancora raggiunto il livello di sicurezza tale da poter utilizzare queste tecnologie in applicazioni più critiche. La sfida più grande nel mondo del lavoro sarà comprendere e saper sfruttare le potenzialità che il nuovo paradigma nell’utilizzo dell’intelligenza artificiale andrà a suggerire.
Styles APA, Harvard, Vancouver, ISO, etc.
25

ALTIERI, ALEX. « Yacht experience, ricerca e sviluppo di soluzioni basate su intelligenza artificiale per il comfort e la sicurezza in alto mare ». Doctoral thesis, Università Politecnica delle Marche, 2021. http://hdl.handle.net/11566/287605.

Texte intégral
Résumé :
La tesi descrive i risultati dell’attività di ricerca e sviluppo di nuove tecnologie basate su tecniche di intelligenza artificiale, capaci di raggiungere un’interazione empatica e una connessione emotiva tra l’uomo e “le macchine” così da migliorare il comfort e la sicurezza a bordo di uno yacht. Tale interazione è ottenuta grazie al riconoscimento di emozioni e comportamenti e alla successiva attivazione di tutti quegli apparati multimediali presenti nell’ambiente a bordo, che si adattano al mood del soggetto all’interno della stanza. Il sistema prototipale sviluppato durante i tre anni di dottorato è oggi in grado di gestire i contenuti multimediali (ad es. brani musicali, video riprodotti nei LED screen) e scenari di luce, basati sull'emozione dell'utente, riconosciute dalle espressioni facciali riprese da una qualsiasi fotocamera installata all’interno dello spazio. Per poter rendere l’interazione adattativa, il sistema sviluppato implementa algoritmi di Deep Learning per riconoscere l’identità degli utenti a bordo (riconoscimento facciale), il grado di attenzione del comandante (Gaze Detection e Drowsiness) e gli oggetti con cui egli interagisce (telefono, auricolari, ecc.). Tali informazioni vengono processate all’interno del sistema per identificare eventuali situazioni di rischio per la sicurezza delle persone presenti a bordo e per controllare l’intero ambiente. L’applicazione di queste tecnologie, in questo settore sempre aperto all’introduzione delle ultime innovazioni a bordo, apre a diverse sfide di ricerca.
The thesis describes the results of the research and development of new technologies based on artificial intelligence techniques, able to achieve an empathic interaction and an emotional connection between man and "the machines" in order to improve comfort and safety on board of yachts. This interaction is achieved through the recognition of emotions and behaviors and the following activation of all those multimedia devices available in the environment on board, which are adapted to the mood of the subject inside the room. The prototype system developed during the three years of PhD is now able to manage multimedia content (e.g. music tracks, videos played on LED screens) and light scenarios, based on the user's emotion, recognized by facial expressions taken from any camera installed inside the space. In order to make the interaction adaptive, the developed system implements Deep Learning algorithms to recognize the identity of the users on board (Facial Recognition), the degree of attention of the commander (Gaze Detection and Drowsiness) and the objects with which he interacts (phone, earphones, etc.). This information is processed within the system to identify any situations of risk to the safety of people on board and to monitor the entire environment. The application of these technologies, in this domain that is always open to the introduction of the latest innovations on board, opens up several research challenges.
Styles APA, Harvard, Vancouver, ISO, etc.
26

PAREJO, MATOS ANTONIO. « Application of Intelligent Techniques for Optimal Management of Weakly Connected Microgrids ». Doctoral thesis, Università degli studi di Genova, 2022. http://hdl.handle.net/11567/1081257.

Texte intégral
Résumé :
La decarbonizzazione e la mitigazione del cambiamento climatico sono diventate una priorità per molti Paesi e governi. Uno dei principali strumenti per realizzare questi obiettivi è la crescita delle fonti di generazione rinnovabili nel sistema elettrico, ma la loro inclusione costituisce una grande sfida per il funzionamento della rete a causa della loro alta variabilità e il loro comportamento stocastico. In questo contesto, la gestione del sistema elettrico e delle microgrid può essere trattata come un problema di ottimizzazione in cui le risorse vengono fatte funzionare con l'obiettivo di minimizzare la funzione di costo. Questa funzione di costo e le restrizioni operative corrispondenti dipendono da ogni situazione specifica, ad esempio, da quali sono i requisiti di consumo di energia, quanto è debole la connessione con la rete elettrica e quanto sono critici i carichi da alimentare nella zona. In questo senso, nonostante la grande varietà di approcci di ottimizzazione, questi hanno in comune l'importanza di contare su un sistema di previsione di alta qualità per prevedere le incertezze della microgrid (o rete) da far funzionare. I principali approcci esistenti per prevedere le incertezze sono la previsione deterministica e stocastica (che in molti casi è anche chiamata probabilistica). Considerando l'importanza dei sistemi di previsione per eseguire l'ottimizzazione delle microgrid e, in generale, delle reti elettriche, questa tesi di dottorato si concentra sulla progettazione di un modello di lavoro di previsione orientato alla microgrid che include una vasta gamma di approcci di previsione, che rende possibile la sua integrazione con altre applicazioni, ad esempio, sistemi di ottimizzazione della gestione dell'energia. Questo modello di lavoro include diversi metodi deterministici e stocastici ed è in grado di gestire l'addestramento e la selezione dei modelli per eseguire la previsione secondo il tipo di rappresentazione dell'incertezza che è richiesto in ogni caso.
The decarbonization and the climate change mitigation have become a priority for many countries and governments. One of the main tools for accomplishing these objectives is the growth of renewable generation sources in the power system, but their inclusion constitutes a great challenge for the network operation due to their high variability and their stochastic behavior. In this context, the management of the power system and microgrids can be treated as optimization problems in which the resources are operated with the aim of minimizing the cost function. This cost function and the corresponding operative restrictions depend on each specific situation, for example, on which are the power consumption requirements, how weak is the connection with the power grid, and how critical are the loads to be fed in the zone. In this sense, despite the large variety of optimization approaches, these have in common the importance of counting on a high-quality forecasting system for predicting the uncertainties of the microgrid (or network) to operate. The main existing approaches for predicting the uncertainties are deterministic and stochastic (which in many cases is also called probabilistic) forecasting. Considering the importance of forecasting systems for performing the optimization of microgrids and, in general, power networks, this doctoral thesis is focused on the design of a microgrid-oriented forecasting framework that includes a wide range of forecasting approaches, which makes possible its integration with other applications, for example, energy management optimization systems. This framework includes several deterministic and stochastic methods and is able to handle the training and selection of the models for performing the forecast according to the type of uncertainty representation that is required in each case.
La descarbonización y la reducción del cambio climático se han convertido en una prioridad para muchos países y gobiernos. Una de las principales herramientas para lograr estos objetivos es aumentar el número de fuentes de generación renovables en el sistema eléctrico, pero su inclusión constituye un gran reto debido a su alta variabilidad y su comportamiento estocástico. En este contexto, la gestión del sistema eléctrico y de las microrredes puede tratarse como problemas de optimización en los que los recursos se operan con el objetivo de minimizar la función de coste. Esta función de coste y las correspondientes restricciones operativas dependen de cada situación concreta, por ejemplo, de cuáles sean las necesidades de consumo de energía, de lo débil que sea la conexión con la red eléctrica y de lo críticas que sean las cargas a alimentar en la zona. En este sentido, a pesar de la gran variedad de enfoques de optimización, éstos tienen en común la importancia de contar con un sistema de predicción de alta calidad para predecir las incertidumbres de la microrred (o red) a optimizar. Los principales enfoques existentes para predecir las incertidumbres son la predicción determinista y la estocástica (que en muchos casos también se denomina probabilística). Teniendo en cuenta la importancia de los sistemas de predicción para realizar la optimización de las microrredes y, en general, de las redes eléctricas, esta tesis doctoral se centra en el diseño de un marco de trabajo para predicción orientado a las microrredes que incluye diversos enfoques para realizar la predicción, lo que hace posible su integración con otras aplicaciones como, por ejemplo, sistemas de optimización de gestión energética. Este marco de trabajo incluye varios métodos deterministas y estocásticos y es capaz de gestionar el entrenamiento y la selección de los modelos para realizar la predicción según el tipo de representación de la incertidumbre que se requiera en cada caso.
Styles APA, Harvard, Vancouver, ISO, etc.
27

CALANNA, PIERPAOLO. « Investigazione di alcuni fenomeni di response bias nei questionari self-report mediante algoritmi di apprendimento automatico ». Doctoral thesis, 2020. http://hdl.handle.net/11573/1348128.

Texte intégral
Résumé :
Nel contesto della valutazione della personalità con scale self-report, il termine faking si riferisce ai tentativi messi in atto dagli individui di alterare le risposte agli item di un test al fine di costruire e comunicare un’immagine di sé non veritiera, funzionale al raggiungimento di scopi personali (che spesso confliggono con il processo misurativo). Le scale Lie sono una delle strategie di rilevazione del faking più diffuse e si basano sull’ipotesi che quest’ultimo possa essere equiparato a un fenomeno lineare/quasi-lineare quantificabile attraverso l’accumulazione “indiziaria” dei suoi effetti sulle risposte specifiche agli item Lie. Il superamento di una soglia di attenzione di natura normativa determina la presa di decisione in merito all’attendibilità delle risposte in generale. Due recenti studi hanno affrontato il problema da una prospettiva diversa. Kuncel e Borneman (2007) e Kuncel e Tellegen (2009) hanno mostrato: (a) che il faking può verificarsi a livello delle singole opzioni likert degli item; (b) e che la sua natura può essere intrinsecamente non lineare. Queste due proprietà si traducono in matrici di risposte caratterizzate da “idiosincrasie” numeriche che possono fungere da marcatori dei comportamenti distorsivi se studiate nella loro individualità, ma che vengono “oscurate” dal meccanismo aggregativo dei punteggi di scala. Con il presente lavoro abbiamo tentato di sviluppare una tecnica innovativa per la rilevazione del faking attraverso l’analisi dei pattern di risposta agli item. Al fine di raggiungere tale scopo, ci siamo posti due domande splorative: (1) è possibile impiegare gli algoritmi di machine learning (ML) per rilevare la presenza di faking? (2) I classificatori ML possono sostituire efficacemente le scale Lie? Per rispondere alle precedenti domande, abbiamo realizzato due studi empirici; nel primo, è stato impiegato il questionario di personalità BFQ2 (Caprara, Barbaranelli, Borgogni & Vecchione, 2007) con un campione di studenti universitari, nel secondo il Psychopathic Personality Inventory - Revised (PPIR; Lilienfeld e Widows, 2005) con un campione di studenti universitari e uno di pazienti psichiatrici. Relativamente al secondo lavoro, la decisione di adottare il PPIR è scaturita dalla constatazione — suffragata dalla letteratura — che gli individui con personalità psicopatica possono esibire condotte distorsive e manipolatorie e dunque gli strumenti self-report atti a misurarne l’organizzazione caratterologica rappresentano un buon “banco di prova” per qualunque tecnica di rilevazione del faking. L’impostazione generale di entrambi i lavori ha previsto le seguenti fasi: (1) manipolazione diretta del faking al fine di ottenere un dataset di profili di personalità sia attendibili che distorti (honest vs fake); (2) implementazione di due o più algoritmi ML in grado di rilevare la presenza di faking o nei punteggi di scala o nei pattern di risposta; (3) comparazione del miglior algoritmo ML (scelto tra quelli implementati al punto precedente) con il classificatore di riferimento (CBC) basato sui punteggi delle scale Lie e relativi cutoff normativi. I risultati delle due indagini empiriche hanno confermato l’efficacia dei classificatori ML: la loro performance nel rilevare i cosiddetti faker si è rivelata superiore a quella conseguibile con le sole scale Lie. Quando le prestazioni sono state valutate in termini di previsioni errate, i classificatori ML si sono rivelati, ancora un volta, migliori delle tecniche basate sulle scale di controllo. Nonostante alcune limitazioni dovute alla manipolazione diretta dei comportamenti distorsivi e ai campioni di partecipanti sbilanciati in termini di età e genere, l’approccio qui proposto consentirebbe di ridurre la lunghezza dei questionari self-report di personalità eliminando gli item delle scale di controllo. Forse anche in modo più interessante, tale approccio potrebbe essere usato per “aggiungere” un meccanismo di rilevazione del faking ai self-report che sono sprovvisti di strategie per la detezione degli stili di risposta distorsivi.
Styles APA, Harvard, Vancouver, ISO, etc.
28

FRATTALE, MASCIOLI Fabio Massimo. « Algoritmi Costruttivi di Apprendimento per Reti Neurali ». Doctoral thesis, 1995. http://hdl.handle.net/11573/630577.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
29

PARISI, Raffaele. « Algoritmi di apprendimento veloci per reti neurali multistrato ». Doctoral thesis, 1995. http://hdl.handle.net/11573/389747.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Lofaro, Danilo, Domenico Conforti et Rosita Guido. « Modelli integrati di analisi di sopravvivenza applicati alla prognosi del trapianto renale ». Thesis, 2013. http://hdl.handle.net/10955/901.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Fiorentini, Nicholas. « Intelligent solutions for supporting decision-making processes in road management : A general framework accounting for environment, road serviceability, and user’s safety ». Doctoral thesis, 2022. http://hdl.handle.net/2158/1279821.

Texte intégral
Résumé :
This Ph.D. dissertation focuses on optimizing automated decision-making processes involving critical aspects of road management tasks. Specifically, the research aims to define and implement specific strategies for supplying support to decision-makers considering two leading elements: road maintenance and road safety. We propose some novel applications based on the integrated use of high-performance Non-Destructive Techniques (NDTs) and Geographical Information Systems (GISs) in order to obtain a “fully sensed” infrastructure, creating a multi-scale database concerning structural, geometrical, functional, social, and environmental characteristics. The environmental aspect is essential since climate change phenomena and extreme natural events are increasingly linked with infrastructure damage and serviceability; nonetheless, current Pavement Management Systems (PMSs) commonly rely solely on road pavement structural characteristics and surface functional performance. The high amount of collected data serves as input for calibrating different data-driven approaches, such as Machine Learning Algorithms (MLAs) and statistical regressions. Considering the aspect of road monitoring and maintenance, such models allow identifying the environmental factors that have the most significant impact on road damage and serviceability, as well as recognizing road sites with critical health conditions that need to be restored. Moreover, the calibrated MLAs enable decision-makers to determine the road maintenance interventions with higher priority. Considering road safety, the calibrated MLAs allow identifying the sites where serious road crashes can be triggered and estimating the crash count in a specified time frame. Moreover, it is possible to recognize infrastructure-related factors that significantly impact crash likelihood. Road authorities may consider the outcomes of the dissertation as a novel approach for drafting appropriate guidelines and defining more objective management programs.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Triggiani, Maurizio. « Integration of machine learning techniques in chemometrics practices ». Doctoral thesis, 2022. http://hdl.handle.net/11589/237998.

Texte intégral
Résumé :
Food safety is a key objective in all the development plans of the European Union. To ensure the quality and the sustainability of the agricultural production (both intensive and extensive) a well-designed analysis strategy is needed. Climate change, precision agriculture, green revolution and industry 4.0 are areas of study that need innovative practices and approaches that aren’t possible without precise and constant process monitoring. The need for product quality assessment during the whole supply chain is paramount and cost reduction is also another constant need. Non targeted Nuclear Magnetic Resonance (NMR) analysis is still a second-choice approach for food analysis and monitoring, one of the problems of this approach is the big amount of information returned. This kind of data needs a new and improved method of handling and analysis. Classical chemometrics practices are not well suited for this new field of study. In this thesis, we approached the problem of food fingerprinting and discrimination by the means of non-targeted NMR spectroscopy combined with modern machine learning algorithms and databases meant for the correct and easy access of data. The introduction of machine learning techniques alongside the clear benefits introduces a new layer of complexity regarding the need for trusted data sources for algorithm training and integrity, if this kind of approach proves is worth in the global market, we’ll need not only to create a good dataset, but we’ll need to be prepared to defend against also more clever attacks like adversarial machine learning attacks. Comparing the machine learning results with the classic chemometric approach we’ll highlight the strengths and the weakness of both approaches, and we’ll use them to prepare the framework needed to tackle the challenges of future agricultural productions.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Francalanci, Lucia. « Proposta di un metodo di valutazione automatica della leggibilità di pagine web in lingua italiana ». Doctoral thesis, 2019. http://hdl.handle.net/2158/1218395.

Texte intégral
Résumé :
Lo scopo di questa ricerca era la costruzione di un metodo per la valutazione della leggibilità dei testi presenti nei siti web in lingua italiana. La prima parte del mio lavoro è rivolta alla ricostruzione dello stato della ricerca sulle formule di leggibilità; tale rassegna critica ha consentito di effettuare un’analisi comparativa dei criteri che hanno portato alla definizione degli indici di leggibilità, al fine di trovare i parametri statistici maggiormente collegati alla difficoltà dei testi e i migliori strumenti per la misurazione di tali variabili. In particolare, ci siamo concentrati sui metodi più recenti di valutazione della leggibilità, che prevedono lo sviluppo di strumenti avanzati basati sull'apprendimento automatico. La seconda parte della tesi è dedicata alla presentazione della metodologia proposta. In base ai risultati emersi dalla ricostruzione dello stato dell’arte delle ricerche sulla misurazione della leggibilità, abbiamo abbandonato il metodo tradizionale a favore dell’approccio della valutazione automatica. Tale approccio prevede la costruzione di un modello che permetta di classificare in modo automatico un insieme di documenti testuali in base al loro livello di leggibilità. Lo sviluppo di un tale metodo di valutazione, oltre ad essere specificamente tarato sulla lingua presente nei siti web, presenta il vantaggio di potersi riadattare in base a nuovi dati di input, come corpora appartenenti ad altre varietà testuali ed eventualmente a nuove classi di riferimento. Tale tipo di strumento presenta, inoltre, numerosi campi di applicazione: potrebbe costituire un supporto alla produzione di testi in tutti gli ambiti cruciali per la comunicazione (istituzionale, sanitario, giornalistico, aziendale, educativo); potrebbe essere incorporato direttamente nei sistemi di recupero delle informazioni per personalizzare le ricerche degli utenti in base ai loro livelli di lettura o alla difficoltà dei testi. Potrebbe, infine, essere impiegato come ausilio per la semplificazione dei testi e, in particolare, nei sistemi di semplificazione automatica.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie