Thèses sur le sujet « Reti Neural Artificiali »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Reti Neural Artificiali.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Reti Neural Artificiali ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

LOCCI, AMEDEO. « Sviluppo di una piattaforma inerziale terrestre assistita da reti neurali artificiali ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2008. http://hdl.handle.net/2108/684.

Texte intégral
Résumé :
Molte delle tecnologie impiegate nei moderni sistemi di ausilio alla navigazione terrestre, risalgono a circa un quarto di secolo. Generalmente, i principali sistemi in uso negli apparati per la navigazione terrestre, risultano essere i Sistemi di Posizionamento Globale (GPS) ed i Sistemi di Navigazione Inerziale (INS). Tali apparati tecnologici, necessitano di componenti fondamentali di qualità più o meno spinta che ne determina costi di mercato progressivamente crescenti, in grado di soddisfare le più diverse applicazioni di navigazione, passando da quella veicolare terrestre, sino a quella aerospaziale, ma includendo anche applicazione di handling o gestione di flotte veicolari. Negli ultimi anni, i sistemi di navigazione hanno visto applicazioni su larga scala, come sistemi di ausilio alla navigazione terrestre, in particolare con l’impiego del sistema GPS. Per ovviare agli inconvenienti che esso presenta, ultimamente si sono sviluppati sistemi integrati low-cost per la navigazione terrestre con applicazioni su larga scala, tra i quali si distingue, per rilevanti aspetti tecnici ed economici, il sistema integrato INS/GPS. Per ovviare alla bassa qualità dei sensori impiegati, si è dovuto ricorrere all’impiego di modelli matematici in grado di correggere le risposte dei sensori. Da qui, negli anni, uno dei maggiori strumenti di utilizzo si è dimostrato essere il filtro di Kalman nel data fusion INS/GPS; nonostante esso presenti diverse limitazioni. La necessità della correzione dell’INS è legata sia all’ottenimento di una risposta più affidabile nei brevi percorsi rispetto al GPS, sia alla generazione di un data base ove vengano raccolte tutta una serie di informazioni tra le caratteristiche cinematiche, geometriche ed ambientali necessarie, qual’ora venisse ad essere assente o di scarsa qualità il segnale GPS. A tale scopo, si cerca di rendere intelligente il sistema di navigazione: Il filtro di Kalman ha fatto scuola negli anni passati ed ha indirizzato la ricerca verso l’impiego di sistemi intelligenti, quali ad esempio la logica fuzzy, gl algoritmi genetici o le reti neurali. Quest’ultime sono in grado di rendere i sistemi integrati INS/GPS dei sistemi intelligenti, cioè capaci di prendere delle decisioni autonome nella correzione dei dati, a fronte di capacità di apprendimento. Ciò che qui si è perseguito è stato l’impiego delle Reti Neurali Artificiali, al fine di sopperire alla sola risposta del sistema INS qualora si verificasse l’outage del GPS. In tali situazioni, a causa delle inevitabili derive causate dagli effetti del random walk dell’INS, si necessita di eseguire una correzione dei dati inerziali, demandata alle Reti Neurali. Si è resa necessaria un’investigazione dei modelli più attinenti con tali tipologia di dati, nonché un tuning delle rete stesse. Quindi è stato sviluppato sia un sistema di memorizzazione dei dati sensibili, basato sull’aggiornamento della memoria della rete, ( i pesi ), sia un sistema di correzione dei dati inerziali. La valutazione è stata eseguita su test case evidenziando, rispetto agli impieghi di correzione con sistemi classici un netto miglioramento di performance. Tali applicazioni, come anche evidenziato in lavori scientifici, possono considerarsi come un metodo per gli sviluppi futuri delle nuove piattaforme integrate per la navigazione terrestre. Inoltre esse sono in grado di fornire informazioni di assetto, necessarie per la guida dei sistemi autonomi. ed i loro bassi costi di mercato, ne consentono l’impiego su vastissima scala, conseguendo vantaggi in ambito di sicurezza stradale e di ricostruzione di eventi accidentali.
Many of the technologies used in the modern systems of aid to terrestrial navigation go back to approximately a quarter of century. Generally, the main systems in use in the equipments for terrestrial Navigation are the Global Positioning Systems (GPS) and the Inertial Navigation Systems (INS). Such technological apparatus, need fundamental components of high or quite almost quality, which cause progressively growing market costs and can satisfy the most various range of applications in the navigation field, from the vehicular terrestrial one to the aerospace application, but also including handling applications or the management of vehicular fleets. In the last few years, the navigation systems have seen applications on a large scale, as the terrestrial navigation aid systems, in particular with the use of the GPS system. In order to avoid the disadvantages that it can cause, integrated low-cost systems for terrestrial navigation have been lately developed with applications on a large scale, among which, for important technical and economic aspects, the integrated INS/GPS system. The need to avoid the low quality of the used sensors led to the application of mathematical models able to correct the sensors’ answers. From here, one of the most used instrument throughout the years has been the Kalman filter, as an optimal linear Gaussian estimator in the data fusion INS/GPS. However, as multi-sensor integration methodology, it has various limits. The INS correction is needed either to get a more reliable answer in the short route compared the GPS-based navigation system, and to generate a data base in which a series of information are collected, among the necessary cinematic, geometric and environmental characteristics, in case the GPS signal is absent or of low quality. For that purpose, the attempt is to make the navigation system intelligent: the Kalman filter has been shown to be in the last years the reference model which has addressed the research to the use of intelligent models, such as for example the fuzzy logic, the genetic algorithms or the neural networks. The latter can make the integrated INS/GPS systems intelligent, or capable to take independent decisions in the data correction, after a learning process. The aim which has been reached is the use of the Artificial Neural Networks (ANN), in order to compensate for the answer of the INS system, in case the GPS outage occurred. In such situations, due to the unavoidable drifts caused by the INS random walk effects, a correction of the inertial data is needed, through the Neural Networks. A research of the models more related to this kind of data has been necessary, as well as a tuning of the networks. Therefore it has been developed either a storage system for the sensitive data, based on the updating of the network memory, (the weights), and a correction system of the inertial data. The evaluation has been carried out on many test cases and it has shown a definite improvement in performance compared to the use of the correction with conventional systems. Such applications, as also emphasized in scientific works, can be considered as a method for the future developments of the new integrated platforms for terrestrial navigation. Moreover, they can supply attitude configuration needed for the control of the autonomous systems and their low market costs allow a large scale applications, and also advantages in the road safety field and the reconstruction of accidental events.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bevini, Giorgia. « Studio di un pilota automatico per aereo basato su Artificial Neural Network ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
La tesi si avvia con una prima analisi sull'autopilota attualmente in dotazione sui velivoli, del quale si vanno a individuare le funzionalità e gli algoritmi di sviluppo, con i relativi limiti. Queste limitazioni possono essere superate attraverso un nuovo approccio progettuale: le reti neurali artificiali. Quest'ultime andranno a modellare un nuovo autopilota, detto intelligente. Si analizza la struttura delle reti neurali e come esse si addestrano per andare a creare un nuovo sistema di controllo del volo. Successivamente si vanno ad osservare i risultati di uno studio basato sull'addestramento di un prototipo di autopilota intelligente, creato attraverso l'impiego di un numero ridotto di neuroni e con un database ristretto.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Baronti, Mattia. « Identificazione e localizzazione del danno in strutture reticolari mediante modi di vibrare e reti neurali artificiali ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Il presente elaborato è finalizzato a determinare un metodo di indagine che consenta l’identificazione e la valutazione di danneggiamenti in strutture reticolari, mediante l’utilizzo di modi di vibrare e reti neurali artificiali. Nell’ambito dell’ingegneria civile, con il termine Structural Health Monitoring, si identificano le metodologie di monitoraggio che permettono l’individuazione di anomalie strutturali, consentendo la valutazione, in modo continuo ed automatizzato, dello stato di salute di un’opera. Metodologie Deep Learning, applicate allo SHM, sono al centro della ricerca scientifica degli ultimi anni, grazie ai progressi tecnologici e all’introduzione di strumenti di calcolo dalle notevoli capacità computazionali, in grado di elaborare grandi quantità di dati. In questo contesto, la metodologia di apprendimento supervisionato proposta si basa sull’utilizzo di una rete neurale convoluzionale (CNN), capace, sulla base di un dataset di informazioni dinamiche relative alle configurazioni di danno previste, di riconoscere e classificare la condizione strutturale di un’opera, identificando, localizzando e quantificando un eventuale danneggiamento. La classificazione della condizione strutturale avviene sulla base del training specifico della rete realizzato su grandi quantità di informazioni generate analiticamente da un modello strutturale. L’elaborazione dei dati di esempio, consente alla rete di identificare automaticamente le caratteristiche di interesse del problema, e di prevedere la condizione strutturale per dati in input non ancora visionati. In questa analisi, il parametro Modal Assurance Criterion (MAC), strumento di confronto tra modi di vibrare, viene utilizzato come indicatore dello stato di salute strutturale. Il problema di identificazione del danno viene valutato, ponendo le basi per ulteriori analisi, mediante l’applicazione del metodo su due casi studio, relativi, rispettivamente, ad un modello piano e ad uno spaziale.
Styles APA, Harvard, Vancouver, ISO, etc.
4

QUARTARARO, MARCO. « Modelli di previsione dei popolamenti ittici nei fiumi : sviluppo e ottimizzazione mediante reti neurali artificiali ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2010. http://hdl.handle.net/2108/1273.

Texte intégral
Résumé :
Negli ultimi venti anni l’uso di metodi basati sull’intelligenza artificiale per la costruzione di modelli in ecologia si è diffuso e sviluppato grazie alla capacità di questi metodi di dar luogo, in base ad opportuni algoritmi di apprendimento e alle informazioni contenute nei dati (quindi empiricamente), a rappresentazioni dei sistemi ecologici che spesso sono più efficaci rispetto a quelle fornite dai metodi tradizionali (basati su indici o sulla statistica multivariata). Lo scopo principale di questo lavoro è stato un esame sperimentale di cinque ipotesi circa altrettante potenziali strategie di ottimizzazione di modelli costituiti da reti neurali artificiali supervisionate (percettroni) che ricostruiscono le relazioni tra componenti abiotiche (descrittori ambientali) e biotiche (presenza di specie all’interno di popolamenti ittici) in ecosistemi fluviali. I temi toccati hanno riguardato la previsione di variabili binarie (presenza/assenza delle specie), le variazioni di performance in funzione della soglia di discretizzazione dell’output, la previsione di specie rare, la previsione di specie singole o di gruppi di specie, la pre-elaborazione dei dati con particolare riferimento al partizionamento richiesto dalla tecnica dell’early stopping. I risultati dimostrano l’interesse pratico e teorico di lavorare con modelli predittivi di questo tipo, sia per l’efficacia dei modelli costruiti, che per la possibilità di suggerire nuove idee alla ricerca ecologica. Al di là dell’analisi delle ipotesi studiate, il lavoro ha prodotto un metodo e uno strumento informatico che possono essere riutilizzati per testare altre strategie di ottimizzazione e per operare con diversi data set.
The use of artificial intelligence methods for ecosystems modeling has had a considerable development in the last 20 years, due to their specific ability, in several conditions and once supported by suitable “learning” algorithms, to build from the data more effective representations of ecological systems than traditional methods (based on indexes or multivariate statistics). The main purpose of this work was an experimental examination of five hypotheses about as many potential strategies for the optimization of supervised artificial neural networks (perceptrons) which reconstruct the relations between the abiotic (environmental variables) and biological components (presence values of the species within fish assemblages) in river ecosystems. The themes we dealt with included the prevision of binary variables (species presence/absence), the variation of the performance as a function of the output discretization threshold, the prevision of rare species, the prevision of single species or group of species, data pre-processing and specifically the partitioning required by the early stopping technique. The results prove the practical and theoretical interest in working with predictive models, for both the effectiveness of the models and the possibility of giving hints to ecological research. Beyond the hypotheses studied here, the work produced a method and a computer tool that can test other optimization strategies and operate with different data set.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Castellazzi, Nicolò. « Analisi di immagini per l'identificazione automatica di anomalie superficiali in ambito industriale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
La ricerca di anomalie nei processi produttivi è una tematica molto attuale, di estremo interesse e di notevole complessità. Lo scopo di questa tesi è stato quello di verificare se, attraverso l'utilizzo di strategie di deep learning, fosse possibile sviluppare una soluzione in grado di distinguere quali fossero i campioni anomali rispetto ai campioni normali esaminando nello specifico immagini ottenute dal processo di lavorazione di superfici metalliche, che presentavano texture poco marcate e variabili. Dopo aver valutato il problema ed aver analizzato le soluzioni presenti in letteratura inerenti al nostro caso d'interesse, abbiamo deciso di basare la nostra soluzione sull'utilizzo degli autoencoder, in combinazione con tecniche di visione artificiale necessarie a identificare ed evidenziare i difetti presenti nei campioni oggetto di studio. Addestrando l'autoencoder a ricostruire solo campioni normali si ottiene che, nella ricostruzione di un campione anomalo, il difetto venga eliminato in quanto non è mai stato visto dalla rete nella fase di addestramento. Uno dei vantaggi delle soluzioni basate su questo tipo di architettura è quindi dovuto al fatto che è necessario conoscere solo i campioni normali e, qualsiasi tipo di anomalia si presenti, potenzialmente anche anomalie mai viste prima, esse non vengano ricostruite dalla rete, risolvendo così il problema dato dall'impossibilità di conoscere a priori tutti i possibili difetti che si possono presentare in fase di produzione. In particolare sono state esplorate varie metodologie e architetture (Convolutional Autoencoders, Variational Autoencoders, Transfer Learning) adottando quella più idonea al tipo di dato in nostro possesso. Attraverso la soluzione sviluppata siamo riusciti ad ottenere buoni risultati sia per quanto riguarda le prestazioni inerenti a data set pubblici, utilizzati come benchmark, sia sul data set privato in nostro possesso, obiettivo primario di questa ricerca.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lavista, Andrea. « Natural language processing : chatbot per gli studenti del Campus di Cesena ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19555/.

Texte intégral
Résumé :
Il natural language processing è un campo di ricerca interdisciplinare che spazia tra informatica, linguistica e intelligenza artificiale, che si pone come obiettivo il trattamento automatico del linguaggio naturale, ovvero l’analisi, la comprensione e l’elaborazione del linguaggio da parte dei calcolatori. Uno dei problemi più interessanti e ancora aperti di questa disciplina è la capacità di dialogo per la quale ricercatori e studiosi stanno ideando e impiegando nuovi approcci, in particolare basati su reti neurali artificiali, raggiungendo risultati sempre migliori. In questa tesi, oltre a dare una panoramica dello stato dell'arte, si espone lo sviluppo di un chatbot in contesto universitario, realizzato con il framework Rasa. Esso è pensato per gli studenti del Campus di Cesena e fornisce informazioni relative alla vita universitaria, principalmente sui corsi di laurea e sui bandi di Ateneo.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ciliegi, Federico. « Topologie non convenzionali per reti di neuroni artificiali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19497/.

Texte intégral
Résumé :
Le reti neurali sono uno strumento informatico che si è progressivamente affermato dalla sua nascita, e si è distinto per le sue grandi potenzialità. Pur non essendo ancora presente una teoria matematica formale che le descriva, esse sono state approfonditamente studiate da ingegneri e informatici, rendendo il loro studio una branca tanto ampia quanto preziosa. In questa tesi presento alcuni modelli di rete neurale e ne illustro le caratteristiche a livello di topologia, elaborazione e addestramento.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Cielo, Michele. « Rilevamento di malattie oculari mediante reti neurali artificiali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19750/.

Texte intégral
Résumé :
Il presente elaborato illustra l'applicazione delle reti neurali artificiali nel rilevamento, a fini di screening, di malattie oculari. Di particolare interesse in questo ambito sono le reti neurali convoluzionali, generalmente usate nel riconoscimento delle immagini, che vengono impiegate per rilevare i sintomi delle malattie oculari fornendo loro foto di occhi. Nell'elaborato verranno analizzate le applicazioni delle reti neurali artificiali nel rilevamento di malattie oculari nell'infanzia, nel rilevamento del glaucoma e nel rilevamento della retinopatia diabetica. La tesi sarà suddivisa in capitoli: nel primo capitolo, saranno analizzati i concetti base dietro al funzionamento di una rete neurale artificiale, partendo dal machine learning, branca dell'intelligenza artificiale a cui appartengono le reti neurali artificiali; nel secondo capitolo saranno esposte le malattie trattate nell'elaborato, spiegando i sintomi che dovranno essere rilevati dalle reti neurali; nel terzo capitolo saranno esposti alcuni esempi di applicazioni delle reti neurali artificiali nel rilevamento delle malattie oculari esposte, di cui saranno analizzate sensibilità e specificità, parametri importanti nello screening.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Boldrin, Stefano <1996&gt. « Reti neurali artificiali per la previsione dell'insolvenza aziendale ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/18258.

Texte intégral
Résumé :
Nella parte iniziale viene fornita una panoramica circa la misurazione del rischio di credito e il contesto normativo di riferimento (Accordi di Basilea). Dopo un'analisi delle tecniche statistiche tradizionali per la stima dell'insolvenza aziendale più note in letteratura, vengono introdotte tecniche alternative basate sul machine learning. L'obiettivo principale dell'elaborato consiste nel valutare la capacità di quest'ultime e, in particolar modo delle Reti neurali artificiali, di sovraperformare rispetto agli strumenti statistici tradizionali. A tale scopo vengono comparate le performance previsive del modello Logit con un Multilayer Perceptron in un dataset contenente circa 400 imprese italiane.
Styles APA, Harvard, Vancouver, ISO, etc.
10

De, Paoli Davide. « Reti neurali artificiali e apprendimenti basati sulla biofisica dei neuroni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22983/.

Texte intégral
Résumé :
Frank Rosenblatt, padre del percettrone, nel 1962 sottolineò che l’ obiettivo ultimo della ricerca nel campo delle reti neurali artificiali doveva essere “indagare le strutture fisiche ed i principi neurodinamici che stanno alla base dell’intelligenza naturale”. A differenza di quel che desiderava Rosenblatt, i metodi maggiormente utilizzati e di conseguenza studiati sono quelli supervisionati, non biologicamente plausibili, ritenuti maggiormente efficaci rispetto alle reti che sfruttano metodi di apprendimento ispirati dalla biofisica dei neuroni. L’ obiettivo della tesi è quello di analizzare due metodi di apprendimento non supervisionati basati su sistemi neuronali biologici: il modello di L.Bienenstock, N.Cooper e W. Mundro del 1982 (BCM) ed il modello di D.Krotov e J.Hopfield del 2019, e comprenderne le reali capacità. La prima parte della tesi rappresenta un’ introduzione al concetto di rete neurale artificiale, al significato di rete multistrato e all’ algoritmo di apprendimento della retro propagazione dell’ errore, tipico delle reti supervisionate. La seconda parte della tesi illustra il funzionamento della BCM e della rete di Hopfield e Krotov. Nei risultati riguardanti la rete del 2019, viene riportato un confronto tra questo modello ed un modello addestrato tramite retro propagazione dell’ errore, con cui riesce a competere nel riconoscimento delle immagini appartenenti a due data set: il MNIST ed il CIFAR-10. Per quanto riguarda la BCM, vengono riportati e discussi i risultati di alcune simulazioni effettuate con la rete modello BCM della libreria Plasticity. Lo scopo delle simulazioni era quello di portare i pesi della rete a memorizzare il maggior numero di pattern differenti possibili, appartenenti al data set MNIST.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Lanzarone, Lorenzo Biagio. « Manutenzione predittiva di macchinari industriali tramite tecniche di intelligenza artificiale : una valutazione sperimentale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22853/.

Texte intégral
Résumé :
Nella società è in corso un processo di evoluzione tecnologica, il quale sviluppa una connessione tra l’ambiente fisico e l’ambiente digitale, per scambiare dati e informazioni. Nella presente tesi si approfondisce, nel contesto dell’Industria 4.0, la tematica della manutenzione predittiva di macchinari industriali tramite tecniche di intelligenza artificiale, per prevedere in anticipo il verificarsi di un imminente guasto, identificandolo prima ancora che si possa verificare. La presente tesi è divisa in due parti complementari, nella prima parte si approfondiscono gli aspetti teorici relativi al contesto e allo stato dell’arte, mentre nella seconda parte gli aspetti pratici e progettuali. In particolare, la prima parte è dedicata a fornire una panoramica sull’Industria 4.0 e su una sua applicazione, rappresentata dalla manutenzione predittiva. Successivamente vengono affrontate le tematiche inerenti l’intelligenza artificiale e la Data Science, tramite le quali è possibile applicare la manutenzione predittiva. Nella seconda parte invece, si propone un progetto pratico, ossia il lavoro da me svolto durante un tirocinio presso la software house Open Data di Funo di Argelato (Bologna). L’obiettivo del progetto è stato la realizzazione di un sistema informatico di manutenzione predittiva di macchinari industriali per lo stampaggio plastico a iniezione, utilizzando tecniche di intelligenza artificiale. Il fine ultimo è l’integrazione di tale sistema all’interno del software Opera MES sviluppato dall’azienda.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Callegarin, Alessandro <1986&gt. « Reti neurali artificiali per il trading finanziario : i principali modelli recenti ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2012. http://hdl.handle.net/10579/2196.

Texte intégral
Résumé :
La tesi si propone di analizzare come i sistemi di intelligenza artificiale possano essere usati per costruire strategie di trading finanziario. Nella trattazione, tramite una literary review dei modelli più recenti, si fa riferimento principalmente alle Reti Neurali Artificiali e ai modelli che ne derivano.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Fabbri, Alessandro. « Reti neurali in ambito finanziario ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19593/.

Texte intégral
Résumé :
In particolare in questo lavoro cercherò di analizzare l’utilizzo di reti neurali in ambito economico-finanziario in quanto alcuni dei temi che si riscontrano in economia ben si prestano ad un’analisi attraverso le reti neurali. In particolare nel primo capitolo di questo elaborato descriverò le origini delle reti neurali e alcuni criteri attraverso i quali oggi si classificano le reti stesse. Nel secondo capitolo mi occuperò invece di approfondire quali sono i passaggi da seguire al fine di costruire una rete neurale concentrandomi sulla risoluzione di problemi legati all’ambito economico-finanziario. Infine, nell’ultimo capitolo, mi dedicherò all’analisi di due articoli nei quali vengono confrontati i risultati ottenuti tramite l’utilizzo di diversi tipi di reti neurali accennando anche ad approcci diversi attraverso algoritmi di machine learning.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Capecchi, Michele <1993&gt. « Reti neurali artificiali per la cosctruzione di un trading system su azioni ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/18566.

Texte intégral
Résumé :
L'elaborato cerca di indagare le potenzialità delle reti neurali artificiali (RNA) in ambito di previsione finanziaria. le RNA sono uno strumento di deep learning impiegato moltissimo negli ultimi anni come soluzione a una vasta gamma di problemi che vanno dalla classificazione al riconoscimento di immagini, dalla creazione di risposte automatiche dei chat bot alla guida automatica di veicoli. La potenza di questi strumenti sta nel fatto di riuscire a dedurre le relazioni non lineari che esistono tra un numero molto grande di variabili e questo è sicurmente molto utile in ambito di previsione finanziaria in cui l'intento principale dell'investitore è quello di costruirsi un'aspettativa circa il comportmento futuro dei prezzi. Come viene suggerito dal nome dello strumento, una RNA prende ispirazione dal funzionamento del cervello umano e in particolare dalla sua capacità di apprendere dal passato e dal contesto che lo cironda. Nella fattispecie del lavoro, le RNA impiegate utilizzeranno i segnali operativi dei principali indicatori di analisi tecnica come variabili di input, cioè come contesto dal quale apprendere per capire le relazioni che ci sono tra prezzi e segnali operativi in modo da fornire una previsione dei segnali operativi futuri e dedurre una strategia di investimento.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Freire, Duarte Vaz. « Forecasting U.S. REIT index prices with artificial neural networks ». Master's thesis, Instituto Superior de Economia e Gestão, 2021. http://hdl.handle.net/10400.5/22765.

Texte intégral
Résumé :
Mestrado Bolonha em Mathematical Finance
Artificial Neural Networks are innovative mathematical models that have re- cently gathered much attention as a new tool for forecasting in economics and finance. These algorithms are characterized by being able to handle vast amounts of data and solve complex problems, without the assumption of linearity often made by traditional models. This thesis investigates the use of this Machine Learning method for forecast- ing Real Estate Investment Trusts (REIT) prices and their movement. In this experiment, we make use of a 20-year data sample related to four U.S. REIT in- dexes and other financial and macroeconomic variables. Three Neural Networks, with di↵erent architectures, were developed and we compare the results to those of traditional econometric approaches. The results show that the Neural Networks were able to outperform traditional forecasting methodologies, by registering significantly lower Root Mean Squared Error (RMSE) and Mean Absolute Error (MAE) values on their predictions. Furthermore, these models also achieved higher levels of directional accuracy, for the majority of the indexes studied.
As Redes Neuronais Artificiais são modelos matemáticos inovadores usados, de forma cada vez mais frequente ao longo dos últimos anos, como ferramenta de previsão no setor económico e financeiro. Estes algoritmos caracterizam-se por ter a capacidade de lidar com grandes quantidades de dados e de resolver problemas complexos, sem a suposição de linearidade muitas vezes feita por modelos tradicionais. A presente tese investiga o uso deste método de Machine Learning na previsão de preços de fundos de investimento imobiliário (REIT). Neste estudo, usamos uma amostra de dados, correspondente a um período de 20 anos, relacionada com quatro índices REIT dos EUA e outras variáveis financeiras e macroeconómicas. Três Redes Neuronais, com arquiteturas diferentes, foram desenvolvidas e foi feita a comparaçaõ entre os resultados deste método e os resultados de modelos econométricos tradicionais. Os resultados mostram que as Redes Neuronais foram capazes de superar os métodos de previsão tradicionais, registando valores substancialmente mais baixos de Erro Quadrático Médio (RMSE) e Erro Médio Absoluto (MAE) nas suas previsões. Adicionalmente, estes modelos também alcançaram níveis mais elevados de precisão direcional, para a maioria dos índices em estudo.
info:eu-repo/semantics/publishedVersion
Styles APA, Harvard, Vancouver, ISO, etc.
16

Mollica, Francesco. « Share Art : Reti neurali convoluzionali in ambito museale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
E' stato affrontato lo studio di un'algoritmo per l'addestramento di reti neurali sul riconoscimento di genere sul supercalcolatore ENEA-CRESCO, al fine di poter essere sfruttato per il progetto Share Art, un programma ENEA. Share Art consiste in un dispositivo che permette, attraverso una telecamera ad infrarossi, di rilevare automaticamente i volti che guardano in direzione della telecamera, acquisendo contestualmente una serie di informazioni relative all’osservazione delle opere d’arte, come ad esempio il tempo di permanenza, la distanza, il percorso compiuto. L'addestramento di una rete neurale su un'architettura diversa dalla nostra, quale è CRESCO, ha previsto una mirata predisposizione dell'ambiente di sviluppo, così da isolare le componenti necessarie utilizzate dall'algoritmo. Procedura fondamentale è stata quindi quella di pacchettizzare in un container il tutto, renderlo accessibile all'applicazione, e poter utilizzare ciò che l'applicazione necessitava per essere eseguita senza i permessi di amministratore di sistema. Verranno mostrati i passi che sono stati seguiti per la creazione dell'ambiente di sviluppo, del container Docker e della predisposizione delle dipendenze necessarie, come ad esempio le librerie Tensorflow e Keras. Alla base del sistema Share Art le telecamere generano un flusso di dati che è l'input dell'analisi che viene eseguita direttamente sul Raspberry per verificare ad esempio il corretto utilizzo della mascherina e il rispetto del distanziamento sociale. I dispositivi Share Art installati presso il museo, generano quindi dati importanti della ricerca in ambito museale. Sarà quindi affrontato il tema della gestione dei dati e del loro trasferimento riformulando un programma che apporti scalabilità ad un sistema già esistente. Si è scelto di utilizzare un protocollo standard dell'IoT, MQTT, il tutto supportato da un linguaggio sviluppato presso l'Università di Bologna, Jolie.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Gianessi, Mattia. « Robotica e intelligenza artificiale applicate alla validazione automotive ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
Questo lavoro rappresenta il resoconto di un tirocinio svolto presso il dipartimento di sviluppo elettronico, team di Integrazione e Validazione, di Automobili Lamborghini durante il quale si è progettato e implementato un sistema autonomo, flessibile e facilmente integrabile con le tecnologie già in uso presso il dipartimento; tale sistema deve essere in grado di riconoscere e interagire con le componenti di input e output HMI (switch, pulsantiere e display touchscreen) delle vetture, permettendo di eseguire e valutare il successo, o il fallimento, di una serie di test case proposti da un utilizzatore esterno. La componente del sistema adibita al riconoscimento di oggetti è costituita da una rete neurale realizzata tramite la libreria software TensorFlow, mentre quella utilizzata per interagire con tali oggetti è un braccio robotico LBR iiwa dotato di un carrello mobile KMR. Il risultato finale ottenuto è stato poi integrato in un framework più ampio che coinvolge altri stakeholders del flusso di sviluppo e validazione prodotto di Automobili Lamborghini S.p.A.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Torchi, Andrea. « Sperimentazioni per "Sentiment Analysis" tramite Reti Neurali Profonde ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
Il lavoro di questa tesi verte sulla progettazione e sulla realizzazione di un software di machine-learning che svolga un compito di Sentiment Analysis, in particolar modo è stato svolto nell'ambito di un progetto commissionato all'azienda presso la quale ho svolto il mio tirocinio. Come fonte di dati da cui iniziare e su cui basare il progetto ho scelto alcuni social networks, per via della grande quantità di dati che offrono. Prima e durante il lavoro di tesi ho studiato i principi del machine-learning ed in particolare delle reti neurali, concetti che furono in seguito applicati nella realizzazione delle reti per lo svolgimento del compito di Sentiment Analysis.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Collet, Tommaso <1994&gt. « Misurazione del Rischio : Analisi e confronto tra Z-Score e Reti Neurali Artificiali ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/16556.

Texte intégral
Résumé :
L'elaborato si pone l'obiettivo di analizzare, sia dal punto di vista quantitativo che qualitativo, due metodologie utilizzate per la valutazione del rischio di credito nelle imprese. Queste due metodologie vengono poi messe a confronto mediante una breve ricerca statistica condotta con R al fine di poter mostrare quale delle due risulti essere più performante in applicazione ad un campione di piccole/medie imprese trevisane.
Styles APA, Harvard, Vancouver, ISO, etc.
20

FODDIS, MARIA LAURA. « Application of artificial neural networks in hydrogeology : identification of unknown pollution sources in contaminated acquifers ». Doctoral thesis, Università degli Studi di Cagliari, 2011. http://hdl.handle.net/11584/266347.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Gualandi, Giacomo. « Analisi di dataset in campo finanziario mediante reti neurali LSTM ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19623/.

Texte intégral
Résumé :
Con il presente elaborato si è esplorato il campo della data analytics. È stato analizzato un dataset relativo all' andamento storico del titolo di borsa di una società, i cui dati sono stati manipolati in modo tale da renderli compatibili per un loro utilizzo in una applicazione di Machine Learning. Si sono approfondite le reti neurali artificiali LSTM e con esse si è creato un modello che permettesse di effettuare delle predizioni sui valori futuri del titolo. Infine sono state valutate le differenze tra i valori predetti e quelli reali assunti dal titolo di borsa.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Di, Luzio Andrea. « Reti Neurali Convoluzionali per il riconoscimento di caratteri ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Trouver le texte intégral
Résumé :
Il problema del riconoscimento ottico di caratteri all’interno delle immagini è ormai studiato da decenni e, nel corso degli anni, sono stati proposti molti algoritmi che mirano a risolvere il problema a vari livelli di “generalità” (cioè con la presenza o meno di vincoli relativi alle caratteristiche dell’immagine da analizzare). Tuttavia, ad oggi, molti tra i software (che si occupano del riconoscimento di caratteri) sviluppati per il robot Nao di Aldebaran Robotics si appoggiano a librerie software di Optical Character Recognition (OCR) già pronte all'uso come, ad esempio, Tesseract. In questa tesi verrà illustrato un approccio alternativo al problema, che mostra come sia stato possibile creare da zero un software che non utilizza librerie di OCR preesistenti ma che, combinando l'utilizzo di alcune Reti Neurali Convoluzionali (addestrate ad hoc) con alcune funzioni basilari per la manipolazione delle immagini di una libreria di Computer Vision largamente utilizzata (quale è OpenCV), è comunque capace di garantire buoni risultati in termini di accuratezza per quanto riguarda la localizzazione del testo all'interno dell'immagine, la successiva segmentazione dello stesso nelle sue componenti più elementari (cioè righe di testo, parole e caratteri), il riconoscimento dei singoli caratteri e, infine, la riaggregazione delle lettere riconosciute in parole.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Negrini, Melissa. « Tatto artificiale : studio ed implementazione di una rete neurale per la localizzazione di impatti ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/17342/.

Texte intégral
Résumé :
Il tatto artificiale è un elaborato che tratta il sistema nervoso artificiale a partire dalla descrizione del sistema nervoso biologico. Nei primi capitoli viene descritto nel particolare il sistema nervoso biologico e di seguito il sistema nervoso artificiale mettendolo in relazione al primo e spiegando come vengono imitate le parti del sistema nervoso biologico da parti meccaniche e informatiche. L’argomento centrale della tesi tratta la classificazione di impatti su una lastra piana a partire da algoritmi implementati in ambiente Matlab. Attraverso l’uso di 4 script si generano dei dati che vengono usati per addestrare la rete neurale che per mezzo di un algoritmo di feed-forward impara la relazione input/output. I test sono stati attuati su una lastra di alluminio quadrata di lato 1m sulla quale sono stati applicati 4 sensori piezoelettrici in grado di restituire l’angolo dell’impatto. Lo studio è stato limitato agli angoli compresi nel perimetro delimitato dai sensori. In particolare, questa area è stata suddivisa in 25 classi geometricamente equivalenti. La rete ottenuta ha raggiunto l’obiettivo di stabilire in quale di quelle 25 aree è avvenuto l’impatto con un errore accettabile.
Styles APA, Harvard, Vancouver, ISO, etc.
24

FALCIONELLI, NICOLA. « From Symbolic Artificial Intelligence to Neural Networks Universality with Event-based Modeling ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274620.

Texte intégral
Résumé :
Rappresentare la conoscenza, modellare il ragionamento umano e comprendere i processi di pensiero sono sempre state parti centrali delle attività intellettuali, fin dai primi tentativi dei filosofi greci. Non è solo un caso che, non appena i computer hanno iniziato a diffondersi, scienziati e matematici straordinari come John McCarthy, Marvin Minsky e Claude Shannon hanno iniziato a creare sistemi Artificialmente Intelligenti con una prospettiva orientata al simbolismo. Anche se questo è stato un percorso parzialmente forzato a causa delle capacità di calcolo molto limitate dell'epoca, ha segnato l'inizio di quella che oggi è conosciuta come Intelligenza Artificiale Classica (o Simbolica), o essenzialmente, un insieme di tecniche per implementare comportamenti "intelligenti" attraverso formalismi logici e di dimostrazione di teoremi. Le tecniche di Intelligenza Artificiale Classica sono infatti processi molto diretti e centrati sull'uomo, che trovano il loro punto di forza nella semplice interpretabilità umana e nella riusabilità della conoscenza. Al contrario, esse soffrono di problemi di computabilità quando sono applicate a compiti del mondo reale, per lo più dovuti all'esplosione combinatoria dello spazio di ricerca (soprattutto quando si ha a che fare con il tempo), e all'indecidibilità. Tuttavia, le sempre maggiori capacità dell'hardware dei computer hanno aperto nuove possibilità di crescita per altri metodi più orientati alla statistica, come le Reti Neurali. Anche se la teoria alla base di questi metodi era nota da tempo, è stato solo negli ultimi anni che sono riusciti a raggiungere progressi significativi, e a superare le tecniche classiche di IA su molti fronti. Al momento, i principali ostacoli di tali tecniche di IA statistica sono rappresentati dall'elevato consumo di energia e dalla mancanza di modi semplici per gli esseri umani di comprendere il processo che ha portato a un particolare risultato. Riassumendo, le tecniche di IA classica e statistica possono essere viste come due facce della stessa medaglia: se un dominio presenta informazioni strutturate, poca incertezza e processi decisionali chiari, allora l'IA classica potrebbe essere lo strumento giusto, o altrimenti, quando le informazioni sono meno strutturate, hanno più incertezza, ambiguità e non è possibile identificare processi decisionali chiari, allora l'IA statistica dovrebbe essere scelta. Lo scopo principale di questa tesi è quindi (i) mostrare le capacità e i limiti delle attuali tecniche di Intelligenza Artificiale (Classica e Statistica) sia in ambiti strutturati che non strutturati, e (ii) dimostrare come la modellazione basata su eventi possa affrontare alcune delle loro criticità, fornendo nuove potenziali connessioni e nuove prospettive.
Representing knowledge, modeling human reasoning, and understanding thought processes have always been central parts of intellectual activities, since the first attempts by greek philosophers. It is not just by chance that, as soon as computers started to spread, remarkable scientists and mathematicians such as John McCarthy, Marvin Minsky and Claude Shannon started creating Artificially Intelligent systems with a symbolic oriented perspective. Even though this has been a partially forced path due to the very limited computing capabilities at the time, it marked the beginning of what is now known as Classical (or Symbolic) Artificial Intelligence, or essentially, a set of techniques for implementing "intelligent" behaviours by means of logic formalisms and theorem proving. Classical AI techniques are indeed very direct and human-centered processes, which find their strenghts on straightforward human interpretability and knowledge reusability. On the contrary, they suffer of computability problems when applied to real world tasks, mostly due to search space combinatorial explosion (especially when reasoning with time), and undecidability. However, the ever-increasing capabilites of computer hardware opened new possibilities for other more statistical-oriented methods to grow, such as Neural Networks. Even if the theory behind these methods was long known, it was only in recent years that they managed to achieve significant breakthroughs, and to surpass Classical AI techniques on many tasks. At the moment, the main hurdles of such statistical AI techniques are represented by the high energy consumption and the lack of easy ways for humans to understand the process that led to a particular result. Summing up, Classical and Statistical AI techniques can be seen as two faces of the same coin: if a domain presents structured information, little uncertainty, and clear decision processes, then Classical AI might be the right tool, or otherwise, when the information is less structured, has more uncertainty, ambiguity and clear decision processes cannot be identified, then Statistical AI should be chosen. The main purpose of this thesis is thus (i) to show capabilities and limits of current (Classical and Statistical) Artificial Intelligence techniques in both structured and unstructured domains, and (ii) to demostrate how event-based modeling can tackle some of their critical issues, providing new potential connections and novel perspectives.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Bonfiglioli, Luca. « Identificazione efficiente di reti neurali sparse basata sulla Lottery Ticket Hypothesis ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
Frankle e Carbin 2018, data una rete densa inizializzata casualmente, mostrano che esistono sottoreti sparse di tale rete che possono ottenere accuratezze superiori alla rete densa e richiedono meno iterazioni di addestramento per raggiungere l’early stop. Tali sottoreti sono indicate con il nome di winning ticket. L’identificazione di questi ultimi richiede tuttavia almeno un addestramento completo del modello denso, il che ne limita l’impiego pratico, se non come tecnica di compressione. In questa tesi, si mira a trovare una variante più efficiente dei metodi di magnitude based pruning proposti in letteratura, valutando diversi metodi euristici e data driven per ottenere winning ticket senza completare l’addestramento della rete densa. Confrontandosi con i risultati di Zhou et al. 2019, si mostra come l’accuratezza all’inizializzazione di un winning ticket non sia predittiva dell’accuratezza finale raggiunta dopo l’addestramento e come, di conseguenza, ottimizzare l’accuratezza al momento di inizializzazione non garantisca altrettanto elevate accuratezze dopo il riaddestramento. Viene inoltre mostrata la presenza di good ticket, ovvero un intero spettro di reti sparse con performance confrontabili, almeno lungo una dimensione, con quelle dei winning ticket, e come sia possibile identificare sottoreti che rientrano in questa categoria anche dopo poche iterazioni di addestramento della rete densa iniziale. L’identificazione di queste reti sparse avviene in modo simile a quanto proposto da You et al. 2020, mediante una predizione del winning ticket effettuata prima del completamento dell’addestramento della rete densa. Viene mostrato che l’utilizzo di euristiche alternative al magnitude based pruning per effettuare queste predizioni consente, con costi computazionali marginalmente superiori, di ottenere predizioni significativamente migliori sulle architetture prese in esame.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Petrocelli, Danilo. « Reti neurali convoluzionali per il riconoscimento facciale sul robot NAO ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
A partite dallo studio dell’attuale sistema di riconoscimento facciale presente sul robot NAO, questo lavoro di tesi si propone di ricercare una soluzione alternativa, basata sul riconoscimento delle caratteristiche facciali che possa essere utilizzata per estendere l’attuale sistema di riconoscimento in uso dal robot. Le soluzioni proposte per il rilevamento e successivo riconoscimento dei volti, nel robot NAO, si basano su delle librerie software pronte all’uso. In particolare il modulo di visione AlFacedetect consente di rilevare un volto ed in seguito riconoscerlo, mentre La fase di apprendimento avviene grazie al modulo Learn Face presente nel software Choregraphe, sviluppato dalla Aldebaran Robotics. Al fine di ricercare soluzioni alternative ai problemi esposti, sarà illustrato il software sviluppato e gli strumenti utilizzati in ciascuna delle fasi sopra indicate, nessuna delle quali utilizza i moduli built-in presenti nel NAO. La fase iniziale è consistita nella realizzazione dei datasets, uno per ogni caratteristica facciale considerata, dai quali si sono ricavati i diversi training set necessari per addestrare le reti neurali convoluzionali a classificare le caratteristiche facciali prese in esame. Per la fase di detection dei volti si sono utilizzati algoritmi noti in letteratura e opportunamente implementati nella libreria di Computer Vision OpenCV, adattati dinamicamente al compito da svolgere, ovvero alla caratteristica facciale da individuare. In questo modo si sono potute sfruttare appieno le potenzialità e l’efficienza delle reti neurali convoluzionali nello svolgere compiti di classificazione, riuscendo a garantire, nella fase di riconoscimento un’elevata precisione, in termini di accuratezza. La fase finale è consistita nel porting di quanto fatto sul robot NAO, in modo da effettuare la predizione di una determinata caratteristica facciale a partire da un’immagine acquisita attraverso la sua videocamera.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Mazzini, Lisa. « Reti neurali ricorrenti per il riconoscimento di gesti con controller LeapMotion ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/17119/.

Texte intégral
Résumé :
In ambito di Human-Computer Interaction è molto interessante sostituire i tradizionali dispositivi di input come mouse, tastiera e strumenti simili, con sistemi di gesture recognition. Un sistema di gesture recognition è infatti in grado di identificare i gesti compiuti dall'utente e interpretarli generando l'evento corrispondente sul proprio ambiente interno. Esso permette dunque di creare una interfaccia decisamente più naturale e intuitiva fra il sistema e l'utente, migliorando la user experience complessiva. Il progetto di tesi ha l'obiettivo di costruire una rete neurale ricorrente che sia in grado di riconoscere i gesti compiuti dall'utente, tramite l'utilizzo del Leap Motion Controller per la lettura del movimento e della posa della mano.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Laudisa, Costanza. « Identificazione di utenti in base a come digitano sullo smartphone tramite reti neurali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19618/.

Texte intégral
Résumé :
Negli ultimi anni i metodi di autenticazione tradizionali sui dispositivi elettronici, come password e token, si sono rivelati obsoleti a causa della capacità sempre più avanzata di malintenzionati di risalire a tali informazioni sfruttando debolezze nei sistemi informatici. I sistemi di riconoscimento biometrico nascono come sostitutivi di questi metodi tradizionali e offrono una soluzione più affidabile in quanto si basano su attributi distintivi e propri di un individuo, che non possono essere rubati, manipolati o condivisi. Ad oggi i sistemi di riconoscimento biometrico su smartphone si limitano alla valutazione di caratteristiche fisiche, come la geometria del viso e l'impronta del dito, ma da anni vengono studiate alternative che sfruttano invece caratteristiche comportamentali come l'apposizione di una firma o il pattern di digitazione su una tastiera. I primi studi sul riconoscimento di utenti basato sulla digitazione utilizzavano le tastiere dei computer, ma ben presto si sono estesi anche agli smartphone sfruttando le Application Programming Interface (API) dei sistemi operativi. I metodi più utilizzati per questo compito finora si sono affidati ad algoritmi come 'Random Forest', 'k-Nearest Neighbor' e 'Support Vector Machine'. Questa tesi studia invece la possibilità di utilizzare reti neurali per l'identificazione di utenti sulla base di dati estratti dai pattern di digitazione ('keystroke dynamics') e dai sensori di movimento dello smartphone, mettendole a confronto con i tradizionali classificatori. I risultati indicano che è possibile ottenere risultati soddisfacenti, se non addirittura migliori, anche con l’utilizzo di reti neurali, ma rimane il fatto che le reti neurali sono computazionalmente più complesse dei classici algoritmi di classificazione, il che potrebbe rappresentare un limite per gli smartphone che hanno potenza computazionale ridotta.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Orlandini, Lucrezia. « Applicazione di reti neurali per l’implementazione di un modello di demand forecasting in ambito fashion ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Ognuno di noi, in modo consapevole o meno, ogni volta che acquista un prodotto, posta un contenuto sui social media, cammina, parla o addirittura dorme, contribuisce alla produzione di 2.5 quintilioni di byte di dati (valore medio giornaliero). Allo stesso tempo però, non siamo solo generatori di dati, ma anche consumatori di essi. La ricerca di pattern e regolarità, attraverso metodi automatizzati di analisi, e il conseguente utilizzo per predire dati futuri non noti, è il campo di applicazione del Machine Learning, ramo dell’intelligenza artificiale. Le tecniche di Machine Learning sono impiegate in numerosi campi, dalla medicina al mondo business. In particolare, in quest’ultimo ambito una strategia efficiente di demand forecasting rappresenta un fattore determinante per il successo di un’azienda, soprattutto in ambito fashion. All’interno dell’elaborato sono stati analizzati i dati relativi alle vendite di un’importante azienda di occhialeria di lusso che opera a livello mondiale. L’obiettivo di questa tesi è l’implementazione, per tale azienda, di un modello di previsione della domanda all’interno del mercato italiano. Il ciclo di vita del progetto è stato articolato in diverse fasi: individuazione del caso d’uso, preparazione e pulizia dei dati, modellazione, valutazione delle performance e sviluppo. La soluzione progettata consiste in un modello di rete neurale artificiale (ANN) che, basandosi sullo storico delle vendite degli anni 2017/2018 e sulle caratteristiche tecniche dei modelli di occhiali, fornisce una previsione della quantità ordinata di un articolo noto o inedito. Sono state testate diverse configurazioni di reti neurali artificiali a profondità, e quindi complessità, crescente e per ogni modello si è poi proceduto all’ottimizzazione degli iperparametri, ovvero alla ricerca dei valori per cui vengono fornite previsioni più accurate.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Rigotti, Laura. « L'Intelligenza Artificiale come contesto per un approccio STEM alla didattica ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16737/.

Texte intégral
Résumé :
La tesi si colloca nell’ambito della ricerca in Didattica della Fisica e, più nello specifico, nel filone di ricerca che riguarda la progettazione e sperimentazione di moduli didattici in linea con le direttive STEM all’interno del progetto Europeo Erasmus + I SEE. Oggetto dell’elaborato è l’analisi di uno specifico modulo I SEE sul tema dell’intelligenza artificiale (IA), progettato dal gruppo di ricerca in didattica della fisica di Bologna e realizzato per la prima volta nel periodo di febbraio-marzo 2018 con un gruppo di 30 studenti, nell’ambito del progetto PLS. Nell’elaborato, dopo un’introduzione alla STEM education e al problema dell’integrazione delle discipline STEM nei curricula didattici, sono descritte le attività che costituiscono il modulo sull’IA. Il cuore del lavoro è un’analisi STEM del modulo, condotta per esplicitare le connessioni tra le diverse discipline e il modo in cui l’interdisciplinarità è stata realizzata. Prendendo come riferimento teorico un articolo di un gruppo di ricercatori australiani, è stata realizzata un’analisi per “big ideas”: sono state individuate cinque tematiche portanti all’interno del modulo – l’intelligenza artificiale, gli approcci all’IA, i paradigmi di programmazione, la complessità e il futuro – e sono state analizzate nella loro evoluzione attraverso le categorie di big ideas individuate dai ricercatori australiani. Lo studio ha evidenziato come alcune big ideas emergessero nel modulo come chiavi trans-disciplinari di lettura della realtà mentre le altre, da concetti che nascevano e si formavano all’interno delle discipline, si trasformavano progressivamente in big ideas, ovvero in strumenti di pensiero tout court. La chiave che ha permesso questa trasformazione è stata la valorizzazione della prospettiva della complessità. In generale, è stato interessante notare come il modulo I SEE sull’IA concretizzasse una didattica di tipo STEM, soddisfacendo gli obiettivi che tale approccio si pone.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Maragno, Alessandro. « Programmazione di Convolutional Neural Networks orientata all'accelerazione su FPGA ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12476/.

Texte intégral
Résumé :
Attualmente la Computer Vision, disciplina che consente di estrarre informazioni a partire da immagini digitali, è uno dei settori informatici più in fermento. Grazie alle recenti conquiste e progressi, tale settore ha raggiunto uno stato di maturità tale da poter essere applicato in svariati ambiti, a partire da quello industriale, fino ad arrivare ad applicazioni più vicine alla vita quotidiana. In particolare, si è raggiunto uno stato dell'arte sempre più solido nel campo del riconoscimento di oggetti (object detection) grazie allo sviluppo delle Convolutional Neural Networks (CNN): sistemi che si basano su un modello matematico, che viene gradualmente raffinato in base all'esperienza stessa del sistema nell'esecuzione di questo task, acquisita mediante tecniche di machine learning. Grazie a ciò, le CNN sono in grado di riconoscere e classificare il contenuto di immagini, dando loro una semantica. Tali sistemi però richiedono una grande capacità computazionale ed un'ingente quantità di memoria, pertanto la loro esecuzione avviene maggiormente su architetture potenti, come le GPU. Nonostante ciò, una delle sfide attualmente più importanti riguarda la classificazione in tempo reale di immagini eseguendo le reti neurali convolutive anche su architetture con disponibilità energetica e capacità computazionali ridotte, quali sono i sistemi embedded. Quindi, nel seguente trattato si propone un'implementazione di CNN riconfigurabile realizzata in linguaggio C. Ciò è risultato in un sistema semplice e modulare che con diverse ottimizzazioni ad-hoc può essere considerato un buon candidato per il porting su architetture embedded riconfigurabili FPGA.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Tontini, Giacomo. « Previsione di agenti inquinanti mediante reti neurali e ottimizzazione degli iperparametri attraverso grid search con Talos ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16832/.

Texte intégral
Résumé :
L'inquinamento ambientale sta diventando sempre di più un problema di notevole priorità. Le grandi metropoli superano quotidianamente le soglie massime imposte dalla legge per i vari inquinanti e le amministrazioni cercano di arginare i danni causati da questi limitando il traffico e vietando l'utilizzo di determinate tipologie di riscaldamento domestico. Grazie all'intelligenza artificiale e ai numerosi dati acquisiti dalla circolazione di biciclette dotate di opportuni sensori è possibile determinare quali aree della città sono meno inquinate, consentendo ai cittadini di scegliere dove passare il proprio tempo libero lontano dallo smog. Le reti neurali necessitano la configurazione di particolari parametri che consentono a queste di offrire i risultati migliori. Non sempre la scelta dei parametri risulta un'operazione semplice ed è per questo che ci si avvale di opportune tecniche di ottimizzazione per determinare quale sia la configurazione migliore.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Iuliano, Luca. « Analisi delle prestazioni di una rete neurale convoluzionale per la super-resolution di un'immagine ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
In questa tesi viene trattato il problema inverso della Super-Resolution di un’immagine singola (SISR), che consiste nel ricostruire un’immagine ad alta risoluzione a partire dalla conoscenza di una sua versione a bassa risoluzione, e vengono analizzate nel dettaglio tecniche di ricostruzione basate sul Deep-Learning. Oggi in molte applicazioni, la risoluzione delle immagini è diventata molto importante. Per esempio, nell’ambito della video-sorveglianza, una risoluzione più elevata nelle telecamere può consentire di vedere molti più dettagli, che potrebbero, ad esempio, facilitare un'indagine; altri settori in cui è utile avere immagini ad alta risoluzione sono l’ambito delle immagini mediche, per permettere chiare diagnosi, l’ambito delle immagini satellitari, l’ambito della microscopia, etc. Sfortunatamente, aumentare la risoluzione a livello di sensore richiede l'acquisto di nuove apparecchiature, il che potrebbe essere finanziariamente proibitivo. Per trovare soluzione a questo problema, sono state studiate in letteratura numerose tecniche per ricostruire immagini a più alta risoluzione, partendo da un’immagine a bassa risoluzione. In questa tesi, viene studiato e testato un metodo di SISR, noto in letteratura, che sfrutta tecniche Deep-Learning per la sua risoluzione. Dopo un’introduzione sull’architettura delle Reti Neurali Artificiali (ANN), si va nel dettaglio di quelle di tipo Convoluzionale (CNN) e si analizza una rete di riferimento della letteratura inerente a questo campo cioè la Rete SRCNN, per arrivare ad approfondire uno strumento più moderno ed efficace che ne supera i limiti, la Very-Deep Super-Resolution Network (VDSR). I risultati di ricostruzione ottenuti utilizzando la rete VDSR vengono confrontati, in termini di accuratezza, con quelli ottenuti mediante la tecnica di interpolazione bicubica, al variare dei fattori di scala.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Saidoun, Nassima. « Il futuro del lavoro e il futuro dell’intelligenza artificiale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
Questa tesi tratta dell’intelligenza artificiale e delle ultime scoperte in questo campo, degli enormi obbiettivi raggiunti fino ad oggi e di quelli che si prefigge e analizza l’impatto che avranno queste nuove scoperte sul lavoro dell’essere umano. Inoltre racconta gli eventi che hanno portato a questo punto e chi ha portato a questo punto. Si parla di reti neurali sia a livello storico che a livello informatico di cos’è e come funziona. Si spiega il Machine Learning e le sue sottocategorie. In fine si parla del lavoro e del mondo del lavoro e delle sue prospettive.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Fabbri, Mirko. « Tecniche di visione artificiale per il conteggio di persone ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
L'elaborato indaga le applicazioni della visione artificiale, più specificatamente vengono esaminate ed applicate tecniche di VA al conteggio di persone (crowd counting) in immagini, e confrontati i risultati ottenuti da diversi metodi. Il capitolo primo presenta una panoramica sulla visione artificiale e sulla sua storia, gli scenari di utilizzo, i punti di forza ed i limiti degli algoritmi proposti. Il capitolo secondo illustra un metodo recente che sfrutta tecniche di machine learning ed una rete neurale per assolvere il compito del conteggio di persone. Il capitolo terzo mostra alcuni strumenti in possesso all'elaborazione di immagini tradizionale ed introduce due metodi basati su tali strumenti. Il capitolo quarto infine prende in esame la condivisione di dati riguardo alle applicazioni di visione artificiale e mette a confronto i metodi basati su elaborazione tradizionale con quello avanzato commentandone i risultati ottenuti.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Zucchi, Lorenzo. « Fenomeni visivi durante movimenti oculari saccadici : studio mediante modello di rete neurale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17918/.

Texte intégral
Résumé :
Il mondo attorno a noi che percepiamo mediante la vista ci appare stabile nonostante le continue variazioni dell’input visivo prodotte dai movimenti oculari saccadici. Questi rapidi movimenti oculari servono per dirigere rapidamente la fovea da un punto all’altro della scena visiva. Secondo molti studi la stabilità visiva è imputabile ad un segnale detto “corollary discharge” (una copia del comando motorio) che informa anticipatamente le aree visive di alto livello (FEF, LIP) di una saccade imminente. La combinazione del segnale di “corollary discharge” con le informazioni visive correnti permetterebbe di ottenere un “remapping” anticipatorio della scena visiva futura (ovvero a saccade avvenuta) già immediatamente prima e durante la saccade, e ciò sarebbe alla base della stabilità visiva. Questo lavoro di tesi, oltre a studiare le teorie sulla stabilità visiva e su come il segnale di corollary discharge influisce su di essa, ha avuto come obbiettivo principale la realizzazione di un modello di rete neurale finalizzato alla simulazione di regioni visive di alto livello in grado di replicare i fenomeni visivi osservati immediatamente prima e durante le saccadi che sono imputabili alla presenza del segnale di “corollary discharge” e che presumibilmente contribuiscono alla stabilità visiva. I risultati delle simulazioni hanno mostrato un buon grado di accordo con i dati sperimentali. Il modello così realizzato può contribuire alla comprensione dei fenomeni visivi dovuti al “corollary discharge”.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Kazazi, Arber. « Riconoscimento e classificazione di beni culturali : un caso di studio per Casa Bufalini ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Trouver le texte intégral
Résumé :
La tesi è strutturata in tre capitoli principali: Stato dell’arte: in questo capitolo si presenta il tema dell’Intelligenza Artificiale, del Machine Learning e del Deep Learning approfondendo il mondo delle Reti Neurali Convoluzionali. Oltre ad un’analisi sulla struttura e l’utilizzo di queste tecnologie, viene spiegato il perché sia corretto un loro impiego per la risoluzione del problema di classificazione e riconoscimento dei monumenti. Un’ultima sezione è dedicata ai lavori correlati mettendo in mostra le potenzialità delle CNN ed i risultati ottenuti in articoli affini al tema dei beni culturali. Progettazione: in questo capitolo vengono descritte le tecnologie e le architetture utilizzate. Nella prima sezione viene descritto e analizzato il dominio del problema, nelle sezioni successive vengono trattate le tecnologie impiegate per lo sviluppo e la risoluzione dei problemi legati alla Rete Neurale Convoluzionale. Un capitolo fondamentale in cui vengono gettate le basi per la vera e propria implementazione dei concetti descritti. Implementazione e testing: in questo capitolo avviene l’implementazione del codice con conseguenti considerazioni da effettuare. Riveste un ruolo chiave in quanto vengono mostrati i risultati ottenuti dalle diverse architetture andando ad individuare e selezionare il modello migliore. In seguito alla valutazione del modello si procede con una fase di testing per verificare il corretto funzionamento della rete. Al termine di questi capitoli che rappresentano il corpo della tesi, è presente un paragrafo conclusivo dedicato alle trattazioni finali con relative considerazioni sul prototipo ottenuto. In aggiunta vengono evidenziati quelli che possono essere gli sviluppi futuri del progetto.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Italia, Simone. « Analisi e implementazione di un sistema di previsione della domanda basato sull'utilizzo dell'intelligenza artificiale : il caso Orogel soc. coop. agricola ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
In un ambiente dove la complessità e la quantità di informazioni sono in continuo aumento è più che mai necessario dotarsi di strumenti che permettano di gestire tale agglomerato di dati estraendo quella conoscenza intrinseca fonte primaria di vantaggio competitivo. Tale premessa viene confermata nell’ambito del Demand Forecasting, il processo di previsione della domanda futura di un prodotto o servizio offerto. Un’attività chiave che impatta su molteplici funzioni e attività aziendali con particolare riguardo alle azioni di pianificazione di breve e lungo periodo in ottica di ottimizzazione delle decisioni aziendali. In questo elaborato verranno definite le dinamiche di sviluppo, implementazione e valutazione di Proteus; un nuovo sistema di previsione della domanda basato sull’utilizzo di una rete neurale in grado di combinare le informazioni specifiche e di contesto relative alla serie storica e selezionare l’algoritmo più opportuno nella previsione di ciascun codice, fra i 9 algoritmi implementati. Uno strumento di supporto che possa definire una base di analisi in grado di estrapolare le informazioni significative nella valutazione del futuro, lasciando uno spazio di confidenza finale in cui siano le persone, consapevoli delle dinamiche reali, a prendere decisioni. Un progetto svoltosi all’interno di Orogel soc. coop. agricola, azienda leader nella produzione e distribuzione di surgelati a livello nazionale e in forte espansione in ambito internazionale. Un contesto fortemente segnato dall'avvento di una pandemia globale senza precedenti che ha generato la necessità di ripensare un sistema già confidente affinché comprendesse l'accaduto. Una sfida basata sulla comprensione della metodologia più opportuna per valutare le variazioni impattanti sul contesto di riferimento.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Barbazza, Sigfrido. « Deep-learning applicato all'identificazione automatica di frutta in immagini ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11526/.

Texte intégral
Résumé :
Analisi delle fasi per la realizzazione di uno strumento di supporto gli agricoltori, dalla creazione di un dataset, all'addestramento e test di una rete neurale artificiale, con obiettivo la localizzazione del prodotto agricolo all'interno delle immagini.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Tomasone, Marco Benito. « Pipeline per il Machine Learning : Analisi dei workflow e framework per l’orchestrazione i casi Recommendation System e Face2Face Traslation ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Al giorno d’oggi tantissimi dei problemi che affrontiamo quotidianamente prevedono l’utilizzo di tecniche di Intelligenza Artificiale. Sono nate sempre più techinchè fino al machine learning è una materia in forte sviluppo, e i modelli, gli algoritmi si espandono a vista d’occhio. Spesso molti dei problemi vengono affrontati e risolti tramite pipeline di modelli di machine learning che sequenzializzati fra loro portano alla soluzione sperata. Nascono sempre più piattaforme come Ai4Eu che si pongono come centro di scambio di modelli, dataset e conoscenza. Nasce quindi l'esigenza di voler automatizzare su queste piattaforme la creazione delle pipeline di ml riutilizzando ove possibile il codice. Questo lavoro di tesi, sfruttando un approccio bottom-up, prevede un’attenta osservazione del workflow del Recommendation System di YouTube. Succesivamente si valutano gli approcci standard in letteratura, individuando due principali classi di Recommendation System in funzione del filtraggio applicato, il Collaborative filtering (classe di appartenenza del Recommendation System di YouTube) o l’Item-Based filtering. Si nota come la parte più importante di questo tipo di applicativi riguardi la gestione dei dati. Seguendo lo stesso metodo operativo viene studiata la pipeline di Face2Face Traslation, analizzando per ogni suo componente l’approccio ai dati e la struttura del modello e confrontando ogni componente con i suoi corrispettivi in letteratura, per valutarne invarianti e versalità mostrando come alcuni modelli si presentino con modelli standard e approcci ai dati diversi, mentre altri presentino approcci standard ai dati ma una grande varietà nei modelli a disposizione. Vengono infine presentati tre framework per l’orchestrazione di pipeline di Machine Learning: MLRun, ZenML e Kale, scelti poichè permettono il deployment e la riusabilità del codice. Si osserva come, escluse piccole differenze, questi tre framework si presentano molto equivalenti fra loro.
Styles APA, Harvard, Vancouver, ISO, etc.
41

BUZZELLI, MARCO. « Automatic Description and Annotation of Complex Scenes ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2019. http://hdl.handle.net/10281/241287.

Texte intégral
Résumé :
La descrizione automatica delle immagini digitali consiste nell'estrarre informazioni che rappresentano in modo significativo gli elementi raffigurati e i loro attributi. Il concetto specifico di "significativo" può essere guidato e determinato dall'applicazione finale: nell'assistere persone ipovedenti, ad esempio, l'utente finale potrebbe voler riconoscere elementi familiari quali edifici e loghi. Nel contesto del supporto dei conducenti per le auto intelligenti, potrebbe essere utile riconoscere altri veicoli e pedoni e distinguere la distanza dall'auto stessa. Una pipeline generale per gli scenari previsti prevede tre passaggi: object proposal, classification, ed attributes extraction. Nel corso di questa tesi sono stati studiati e sviluppati diversi metodi per affrontare ciascuna di queste fasi, e gli stessi sono stati successivamente applicati a domini specifici con l'intento di confrontare le soluzioni prodotte con lavori esistenti in letteratura. Object proposal: una o più sottoregioni contenenti elementi di potenziale interesse vengono estratti a partire dall'immagine di input. In questa tesi, l'object proposal per singoli oggetti è realizzata utilizzando un'architettura neurale ottimizzata in maniera originale, combinando la programmazione genetica per l'ottimizzazione della struttura con la back-propagation per l'ottimizzazione dei parametri. In sovrapposizione sugli step di object proposal e classification, la sementazione sematica è affrontata mediante la definizione di un'architettura neurale originale che presti particolare attenzione all'efficienza computazionale per scenari di high-throughput. Classificazione: le sottoregioni generate dalla fase di object proposal vengono classificate in specifiche classi visive. Il riconoscimento di loghi è riportato come primo caso di studio. È stato raccolto un nuovo set di dati, estendendo di dieci volte lo standard esistente. La combinazione di quest'ultimo con forme sintetiche di data augmentation consente di raggiungere prestazioni allo stato dell'arte. Il riconoscimento di vegetali e frutta è successivamente selezionato come esempio rappresentativo di problemi di classificazione visiva a grana fine. Il problema è affrontato pre-elaborando le immagini tramite algoritmi di object proposal, e sfruttando la struttura gerarchica delle classi coinvolte per raggiungere un'accuratezza di classificazione maggiore. Attribtues extraction: alcune sottoregioni, identificate come appartenenti a classi specifiche, sono associate ad informazioni aggiuntive. Per il compito di stima dell'illuminante, viene proposta una strategia di apprendimento originale, che elimina totalmente la necessità di annotazioni esplicite sugli illuminanti, utilizzando invece annotazioni di classi d'oggetti, che possono essere più facilmente reperite. La stima della distanza è riportata come caso di studio finale. Viene proposta una rappresentazione alternativa dei dati, indipendente dallo specifico dispositivo di acquisizione, che consente l'addestramento di modelli più ricchi per la stima della distanza. Il ruolo dei dati e la sua rappresentazione emerge come tema comune in tutta la tesi. In particolare, il lavoro svolto descrive il percorso compiuto a partire dall'affidamento ad annotazioni manuali, per poi ridurre gradualmente questa dipendenza attraverso rappresentazioni alternative e strategie di apprendimento.
Automatically describing digital images consists in extracting information that meaningfully represents the depicted elements and their attributes. The specific concept of "meaningful" can be determined by the final application: in assistance to visually impaired people, for example, the final user might want to recognize familiar elements such as landmarks and logos. In the context of driver support for smart cars, it could be useful to recognize other vehicles and pedestrians, and to tell their distance from the car itself. A general pipeline for the envisioned scenarios involves three steps: object proposal, classification, and attributes extraction. In this thesis, several methods have been studied and developed for each of these steps, and subsequently applied to specific domains with the intent of comparing the produced solutions with existing works. Object proposal: one or many subregions containing elements of potential interest are extracted from the input image. In this thesis, single-object proposal is achieved using a neural architecture that is optimized in a novel way, combining genetic programming for the structure optimization with back-propagation for parameters tuning. Crossing the gap between object proposal and classification, semantic segmentation is then addressed with the definition of an original neural architecture that pays particular attention to computational efficiency for high-throughput scenarios. Classification: the subregions generated by the object proposal phase are classified into visual classes. Logo recognition is reported as a first case study. A new dataset has been collected, extending tenfolds the existing standard. Its combination with synthetic forms of data augmentation allows to reach state of the art performance. Vegetables and fruits recognition is then chosen as a representative example for fine-grained visual classification problems. The task is addressed by preprocessing images with object proposal algorithms, and by exploiting the hierarchical structure of the depicted classes. Attributes extraction: some subregions, identified as belonging to specific classes, are being associated with extra information. For the task of illuminant estimation, an original learning strategy is proposed, that completely avoids the need for explicitly-annotated illuminant information, relying instead on alternatively-available object-class annotations. Distance estimation is reported as a final case study. An alternative data representation is proposed, which is independent of any specific acquisition device, allowing the training of richer models for distance estimation. The role of data and its representation emerges as a common theme throughout the whole thesis. In particular, the following work describes the path from relying on existing manual annotations, to gradually reducing this dependency through alternative representations and learning strategies.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Galassi, Andrea. « Symbolic versus sub-symbolic approaches : a case study on training Deep Networks to play Nine Men’s Morris game ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12859/.

Texte intégral
Résumé :
Le reti neurali artificiali, grazie alle nuove tecniche di Deep Learning, hanno completamente rivoluzionato il panorama tecnologico degli ultimi anni, dimostrandosi efficaci in svariati compiti di Intelligenza Artificiale e ambiti affini. Sarebbe quindi interessante analizzare in che modo e in quale misura le deep network possano sostituire le IA simboliche. Dopo gli impressionanti risultati ottenuti nel gioco del Go, come caso di studio è stato scelto il gioco del Mulino, un gioco da tavolo largamente diffuso e ampiamente studiato. È stato quindi creato il sistema completamente sub-simbolico Neural Nine Men’s Morris, che sfrutta tre reti neurali per scegliere la mossa migliore. Le reti sono state addestrate su un dataset di più di 1.500.000 coppie (stato del gioco, mossa migliore), creato in base alle scelte di una IA simbolica. Il sistema ha dimostrato di aver imparato le regole del gioco proponendo una mossa valida in più del 99% dei casi di test. Inoltre ha raggiunto un’accuratezza del 39% rispetto al dataset e ha sviluppato una propria strategia di gioco diversa da quella della IA addestratrice, dimostrandosi un giocatore peggiore o migliore a seconda dell’avversario. I risultati ottenuti in questo caso di studio mostrano che, in questo contesto, la chiave del successo nella progettazione di sistemi AI allo stato dell’arte sembra essere un buon bilanciamento tra tecniche simboliche e sub-simboliche, dando più rilevanza a queste ultime, con lo scopo di raggiungere la perfetta integrazione di queste tecnologie.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Cuccovillo, Andrea. « Deep Learning : descrizione e alcune applicazioni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14896/.

Texte intégral
Résumé :
Questa tesi si occupa della descrizione storica e tecnica dello stato dell’arte del problema del Deep Learning e del riconoscimento di immagini. Dopo una fase descrittiva delle metodologie attuali applicate agli algoritmi sono stati presi in esame i modelli Inception V3 e MobileNet. Dopo l’analisi dei modelli sono state fatte simulazioni di riaddestramento sul modello MobileNet tramite la libreria TensorFlow: si è generato prima un modello di rete neurale capace di distinguere cinque categorie di fiori, successivamente un modello capace di distinguere cani e gatti. Questo componente integrato in un applicazione Android, ha permesso l’analisi di un flusso di fotogrammi costante dalla fotocamera di uno smartphone, restituendo un output in tempo reale delle stime rilevate.
Styles APA, Harvard, Vancouver, ISO, etc.
44

CORNELI, ALESSANDRA. « Artificial Intelligence assisted Building Digitization using Mixed Reality ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274488.

Texte intégral
Résumé :
Il Facility Management in edifici complessi richiede una grande quantità di informazioni che possono essere archiviate in un modello funzionale dell’edificio. Un modello funzionale è una rappresentazione strutturata dell'edificio che include informazioni cruciali per funzioni specifiche come la sicurezza, le azioni di ristrutturazione o il funzionamento e la manutenzione. Il rilevamento di questo tipo di dati, come le proprietà tecniche dei componenti dell'edificio, è un processo costoso. Per questo motivo, è necessario uno strumento avanzato il rilievo ingegneristico. Oggi molti studi si concentrano ancora sull'acquisizione della geometria, trascurando il fatto che molte azioni ricorrenti sono condotte su componenti all'interno degli edifici. Molti sistemi proposti sfruttano tecniche di rilevamento altamente accurate, come la scansione laser o la fotogrammetria, ma che richiedono lunghi sforzi di post-elaborazione per interpretare i dati raccolti. Inoltre, queste operazioni non vengono eseguite sul posto, portando a imprecisioni causate da un’interpretazione errata dei dati. In queste circostanze, la possibilità di eseguire la maggior parte delle operazioni in loco renderebbe sicuramente il processo più efficiente e ridurrebbe gli errori. Questa ricerca propone un sistema di digitalizzazione che sfrutta la collaborazione uomo-macchina evitando fasi di post-elaborazione del dato. A questo scopo, vengono sfruttate le potenzialità della Mixed Reality quali la sua capacità di interagire con il mondo reale, creando un ambiente ideale per la collaborazione uomo-macchina. La capacità della Mixed Reality di sovrapporre i dati digitali all'ambiente reale rende possibile il controllo dei dati direttamente in sito. Per il processo di riconoscimento degli oggetti il sistema proposto in questa ricerca si avvale di rete neurale. La rete neurale YOLO (You Only Look Once) è stata scelta per la sua velocità e funzionalità di rilevamento multiplo, ideale per applicazioni in tempo reale. Il sistema è stato sviluppato e le sue prestazioni sono state valutate per il rilevamento di componenti del sistema antincendio. Il primo set di allenamenti è stato testato ed ha raggiunto sempre più dell'85% del fattore F1. Quindi l'intero sistema è stato testato in sito per dimostrare la sua fattibilità in uno scenario del mondo reale.
Facility Management in complex buildings requires a large amount of information that can be stored in a functional building model. A functional building model is a structured representation of the building including information crucial for specific functions such as safety, refurbishment actions or operation and maintenance. Surveying this kind of data, such as technical properties of building components, is a costly process. For this reason, an advanced tool for engineering surveys is needed. Nowadays many studies still focus on capturing geometry, overlooking the fact that many recurring actions are conducted on assets inside buildings. Many systems proposed exploit highly accurate survey techniques, like laser scanning or photogrammetry, but they need long postprocessing efforts to interpret data collected. Moreover, these operations are not pursued on site leading to inaccuracies for the incorrect interpretation of data. Under these circumstances, the possibility of performing the majority of operation on-site would definitely make the process more efficient and it would reduce errors. This research proposes a system for digitization exploiting manmachine intelligence collaboration without post-processing. To this aim, Mixed Reality with its capability of interacting with real world is applied giving an environment for man-machine collaboration. The capability of Mixed Reality of overlapping digital data to the real environment makes possible checking data directly on site. For the object recognition process the system proposed in this research make use of Neural Network. YOLO (You Only Look Once) Neural Networks has been chosen for its speed and multiple detection features, ideal for real-time applications. The system has been developed and its performance evaluated for the detection of fire protection system components. First single Neural Network have been tested reaching always more than 85%of F1 factor. Then the whole embedded system proposed has been tested on site to prove its feasibility in a real-world scenario.
Styles APA, Harvard, Vancouver, ISO, etc.
45

ZINI, SIMONE. « Image Enhancement and Restoration using Machine Learning Techniques ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2022. http://hdl.handle.net/10281/378899.

Texte intégral
Résumé :
Le fotocamere digitali acquisiscono, manipolano e salvano in memoria informazioni elettronicamente tramite un sensore e unitá di calcolo integrate, rendendo la fotografia accessibile agli utenti finali i quali non necessitano di basi di conoscenza di chimica o delle specifiche operazioni meccaniche che erano necessarie per lo sviluppo con la fotografia analogica. Diversi tipi di degradazioni e artefatti possono affliggere le immagini acquisite tramite camere digitali, riducendo la fedeltà percepita delle immagini e rendendo piú difficili operazioni di visione artificiale che possono essere operate sulle immagini acquisite. Tre elementi possono essere identificati come possibili sorgenti di artefatti in un'immagine: il contenuto della scena, le limitazioni hardware della camera e la pipeline di elaborazione dell’immagine, dall’acquisizione al salvataggio in memoria. Alcuni artefatti non sono direttamente trattati all’interno della tipica pipeline di camera, come ad esempio la presenza di nebbia o pioggia che possono ridurre la visibilitá della scena acquisita. Questi artefatti , per essere trattati, necessitano di metodologie ad hoc che sono generalmente applicate come operazioni post-processing. Altri tipi di artefatti sono legati ai processi di elaborazione dell’immagine e all'intera pipeline di camera integrata nelle camere. Questi artefatti includono il rumore proveniente dal sensore, dominanti cromatiche indesiderate, basso contrasto e artefatti di compressione. L’obiettivo di questa tesi è l'identificazione e la progettazione di nuovi e piú robusti moduli di elaborazione e restauro dell’immagine capaci di migliorare la qualitá delle immagini acquisite dalle camere digitali, in particolare in scenari critici quali condizioni climatiche avverse, condizione di bassa illuminazione etc… Gli artefatti identificati sono divisi in due macro gruppi: “artefatti in-camera” e “artefatti esterni” Nel primo gruppo sono stati identificati e trattati quattro argomenti: la rimozione del rumore proveniente dal sensore della camera, il processo di bilanciamento automatico del bianco, il miglioramento automatico del contrasto e la rimozione di artefatti di compressione JPEG. Il processo di progettazione di questi moduli ha tenuto conto di aspetti di efficienza, in termini di calcolo e memoria occupata, in relazione alla possibilità di integrare tali moduli in future configurazioni di pipeline di camera. Il secondo gruppo di artefatti è legato alla presenza di elementi nella scena che possono causare una degradazione in termini di fedeltà dell’immagine e/o usabilità. In particolare il lavoro presentato nella tesi è focalizzato su artefatti provenienti dalla presenza di pioggia nella scena scattata. La tesi, dopo una descrizione della tipica pipeline di elaborazione delle camere digitali, analizza i diversi tipi di artefatti che possono affliggere la qualità di una immagine, e descrive la progettazione delle soluzioni proposte. Tutti gli approcci proposti sono basati su tecniche di apprendimento automatico, come ad esempio Reti Neurali Convoluzionali o procedure di ottimizzazione Bayesiana, e sono stati validati sperimentalmente su dataset standard. I contributi principali di questa tesi possono essere riassunti in tre punti: integrazione di approcci classici di imaging con tecniche di ottimizzazione basate su machine learning, progettazione e sviluppo di nuovi approcci e architetture di deep learning per il restauro e l'elaborazione di immagini e analisi di metodi di image processing basati su deep learning in task di computer vision.
Digital cameras record, manipulate, and store information electronically through sensors and built-in computers, which makes photography more available to final users which do not anymore need to rely on the use of chemicals and knowledge of mechanical procedures to develop their pictures. Different types of degradation and artifacts can affect images acquired using digital cameras, decreasing the perceptual fidelity of images and making harder many image processing and analysis tasks that can be performed on the collected images. Three elements can be identified as possible sources of artifacts in an image: the scene content, the hardware limitations and flaws, and finally the operations performed by the digital camera processing pipeline itself, from acquisition to compression and storing. Some artifacts are not directly treated in the typical camera processing pipeline, such as the presence of haze or rain that can reduce visibility of the scene in the depicted images. These artifacts require the design of ad hoc methods that are usually applied as post-processing on the acquired images. Other types of artifacts are related to the imaging process and to the image processing pipeline implemented on board of digital cameras. These include sensor noise, undesirable color cast, poor contrast and compression artifacts. The objective of this thesis is the identification and design of new and more robust modules for image processing and restoration that can improve the quality of the acquired images, in particular in critical scenarios such as adverse weather conditions, poor light in the scene etc… . The artifacts identified are divided into two main groups: “in camera-generated artifacts" and “external artifacts and problems". In the first group it has been identified and addressed four main issues: sensor camera noise removal, automatic white balancing, automatic contrast enhancement and compression artifacts removal. The design process of the proposed solutions has considered efficiency aspects, due to the possibility of directly integrating them in future camera pipelines. The second group of artifacts are related to the presence of elements in the scene which may cause a degradation in terms of visual fidelity and/or usability of the images. In particular the focus is on artifacts induced by the presence of rain in the scene. The thesis, after a brief review of the digital camera processing pipeline, analyzes the different types of artifacts that can affect image quality, and describes the design of the proposed solutions. All the proposed approaches are based on machine learning techniques, such as Convolutional Neural Networks and Bayesian optimization procedure, and are experimentally validated on standard images datasets. The overall contributions of this thesis can be summarized in three points: integration of classical imaging approaches with machine learning optimization techniques, design of novel deep learning architectures and approaches and analysis and application of deep learning image processing algorithms in other computer vision tasks.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Scarpellini, Alberto. « Metodologie avanzate per l'analisi delle performance di un impianto eolico ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15191/.

Texte intégral
Résumé :
A causa della natura intrinsecamente variabile del vento si rende necessaria, nell’eolico ancor più che in altre tecnologie, un’efficiente strategia di esercizio e manutenzione che permetta al proprietario dell’impianto di massimizzare la produzione di energia elettrica: tenere fermo un aerogeneratore in presenza di vento sufficientemente forte significa infatti sprecare la risorsa primaria. Dopo una prima parte di lavoro dedicata alla definizione delle curve di potenza di riferimento per ogni singola macchina (questo approccio viene spesso utilizzato in quanto la curva di potenza “reale” di una macchina differisce da quella “teorica”) si è passati a un primo studio riguardante una possibile ottimizzazione produttiva. Essenzialmente si è considerata una strategia di wind sector management tale da impedire l’attivazione di un allarme, il quale provoca una brusca fermata di emergenza dell’aerogeneratore. Anche andando a ipotizzare diversi parametri di WSM (basati sulle condizioni del vento) si è scoperto che non conviene introdurre una strategia di questo tipo al fine di diminuire le mancate produzioni: questo è dovuto al fatto che tutti i fermi macchina si sono verificati quando il vento proveniva da una delle direzioni principali dell’impianto. Nel secondo studio è stato valutato un possibile degrado delle performance di normale funzionamento degli aerogeneratori dovuto all’invecchiamento dei componenti di macchina principali. In questo contesto si è riusciti a replicare un approccio di tipo matematico/numerico ormai molto consolidato a livello mondiale basato su una rete neurale artificiale. L’obiettivo del lavoro è quello di allenare una rete neurale artificiale in ambiente MATLAB con i dati di normale funzionamento del primo anno solare successivo all’installazione delle macchine e valutare nel periodo successivo la differenza tra la potenza reale prodotta e quella attesa elaborata dalla rete allenata (questo scarto è definito “residuo di potenza”).
Styles APA, Harvard, Vancouver, ISO, etc.
47

Venturi, Alberto. « Implementazione di un sistema intelligente per la modellazione di processo con un'applicazione alla pressofusione ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Questa tesi di laurea si pone come obbiettivo l’implementazione di un sistema di reti neurali artificiali per ottimizzare la modellazione del processo di colata sotto pressione di alluminio. L’analisi svolta sul particolare realizzato in FAR ha permesso di evidenziare tutti i parametri e le eventuali problematiche che intervengono nel processo, delineando dipendenze e indipendenze dei fattori in gioco; in particolare, utilizzando il software di modellazione di processo ProCast, si è analizzato il solo problema della presenza di microporosità da ritiro in relazione alla variazione della temperatura iniziale del metallo fuso. L'utilizzo di tali informazioni e l'ideazione di descrittori geometrici in grado di semplificare i fenomeni fisici in atto hanno condotto all'allenamento di un sistema intelligente di reti neurali artificiali feed-forward. Successive prove hanno condotto all'ottimizzazione dell'architettura e delle caratteristiche della rete neurale per questo specifico caso di studio.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Lauria, Davide. « Sistema di visione artificiale “chiavi in mano” composto da sistema stereo e rete neurale per applicazioni di guida robot industriali ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22374/.

Texte intégral
Résumé :
Questo elaborato nasce da un progetto propostomi dal team di Specialvideo, una realtà del bolognese che dal 1993 opera nel settore della visione artificiale, che riguarda una commessa affidatagli da un'azienda produttrice di prosciutti. Questo prosciuttificio aveva la necessità di automatizzare il procedimento di "sugnatura" dei prosciutti ("spennellamento" di una salsa speziata sulla carne) durante il processo industriale. Per questo scopo ho articolato il progetto in 3 fasi: calibrazione e impostazione di un sistema stereo di telecamere adibito a identificare la scena tramite immagini, training di una rete neurale con le immagini raccolte per identificare la parte del prosciutto da "sugnare" e infine ricostruzione della scena 3D in modo da poter passare queste informazioni a un robot che sarà addestrato per svolgere l'operazione di "sugnatura".
Styles APA, Harvard, Vancouver, ISO, etc.
49

Tartuferi, Mariano. « Sviluppo dell'eolico offshore nel Mare Adriatico : ricostruzione del campo di vento di mesoscala e uso di reti neurali artificiali per la previsione di producibilità energetica a breve termine ». Doctoral thesis, Università Politecnica delle Marche, 2015. http://hdl.handle.net/11566/242933.

Texte intégral
Résumé :
Il progetto P.O.W.E.R.E.D. (www.powered-ipa.it) ha avuto come principale obiettivo la definizione di linee guida condivise per il futuro sfruttamento energetico del potenziale eolico del Mare Adriatico. Mediante un modello meteorologico di mesoscala dell’intero bacino Adriatico (implementato nel codice numerico PSU/NCAR MM5v3) è stata effettuata un’analisi di hindcasting delle risorse anemometriche dell’area nel periodo 2009-2011, ampliando lo studio anche agli anni 2008 e 2012, sebbene non richiesto dal progetto. Si è così ottenuta una caratterizzazione di medio termine del potenziale anemometrico di tutta l’area, le cui maggiori risorse anemometriche sono concentrate fra Puglia, Montenegro e Albania: è dunque il basso Adriatico la zona più promettente per la futura installazione di wind farm offshore. La validazione del modello fisico utilizzato nelle analisi di hindcasting richiede il confronto con dati anemometrici acquisiti da stazioni di misura di elevata qualità. Non essendo ancora operativo il network P.O.W.E.R.E.D. di torri anemometriche, i risultati numerici sono stati validati con le osservazioni ricavate da alcune stazioni meteorologiche campione, evidenziando un buon grado di accordo con i dati sperimentali. Tramite un’analisi CFD (Computational Fluid Dynamics), è stata poi accertata la fattibilità tecnica dell’utilizzo di una piattaforma offshore esistente come struttura di supporto di una torre anemometrica da installare in mare aperto, come previsto dalle richieste del progetto. Infine, è stato sviluppato un approccio alla previsione di breve termine (24-48 h) della producibilità energetica di un parco eolico. Il metodo proposto, basato sull’integrazione di un modello fisico (MM5v3) e di reti neurali artificiali (ANN: Artificial Neural Network), è stato testato su una wind farm esistente, confermando la capacità di tale sistema di forecasting di ridurre l’errore associato alla stima dell’energia prodotta dall’impianto.
The P.O.W.E.R.E.D. project (www.powered-ipa.it) has been funded aiming to the definition of shared guidelines for the future development of offshore wind energy in the Adriatic Sea. Several activities have been planned in order to achieve such strategic goal. By means of a mesoscale meteorological model of the whole Adriatic basin (implemented in the numerical code PSU/NCAR MM5v3), has been performed the hindcasting analysis of the regional anemometric resources for the period 2009-2011. Further investigations have been completed for 2008 and 2012, beyond the project’s requirements. The obtained results allowed elaborating a middle term characterization of the wind energy potential in the area: the major wind energy resources are all localized between the coasts of Apulia Region, Montenegro and Albania. Thus, the southern portion of the Adriatic basin appears the most promising area for the future installation of offshore wind farms. The validation of the mesoscale meteorological model requires observed wind data, collected by anemometric stations able to perform high quality wind measurements. Numerical results exhibit a good agreement with observations of some sample stations, awaiting the completion of the P.O.W.E.R.E.D. network of anemometric towers. One of these measuring stations should be of offshore type: a CFD (Computational Fluid Dynamics) analysis of an existing marine platform proved the technical feasibility of exploiting such type of structures as supporting system of an offshore anemometric tower. Finally, a short-term (24-48 h) wind power forecasting approach has been developed in order to elaborate accurate predictions of the energy production of a wind farm: key features of such method are in the integrated use of a physical model (MM5v3) and ANNs (Artificial Neural Networks). A test case in an existing wind farm confirmed the ability of the proposed hybrid forecasting system to produce accurate wind energy estimations.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Donati, Gabriele <1970&gt. « Validazione dell'accuratezza di diagnostica di una rete neurale artificiale nella predizione della fibrosi epatica da epatite HCV stadiata con biopsia epatica ecoguidata ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/578/1/donati.pdf.

Texte intégral
Résumé :
Nelle epatopatie croniche l’estensione della fibrosi è il principale determinante della prognosi. Sebbene la biopsia epatica rimanga il gold standard ai fini di una stadiazione, il crescente interesse nei confronti di metodi diagnostici non invasivi di fibrosi ha portato allo sviluppo di diversi modelli predittivi basati su parametri clinicolaboratoristici quali Fibrotest, indice APRI, indice Forns. Gli scopi dello studio sono: di stabilire l’accuratezza di un’analisi con rete neurale artificiale (ANN), tecnica di cui è stata dimostrata l’efficacia predittiva in situazioni biologiche complesse nell’identificare lo stadio di fibrosi, di confrontarne i risultati con quelli ottenuti dal calcolo degli indici APRI e Forns sullo stesso gruppo di pazienti e infine di validarne l’efficacia diagnostica in gruppi esterni.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie