Thèses sur le sujet « Reati artificiali »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Reati artificiali.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Reati artificiali ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Lasagni, Nicola. « Reti neuronali artificiali e composizione musicale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9615/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Cielo, Michele. « Rilevamento di malattie oculari mediante reti neurali artificiali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19750/.

Texte intégral
Résumé :
Il presente elaborato illustra l'applicazione delle reti neurali artificiali nel rilevamento, a fini di screening, di malattie oculari. Di particolare interesse in questo ambito sono le reti neurali convoluzionali, generalmente usate nel riconoscimento delle immagini, che vengono impiegate per rilevare i sintomi delle malattie oculari fornendo loro foto di occhi. Nell'elaborato verranno analizzate le applicazioni delle reti neurali artificiali nel rilevamento di malattie oculari nell'infanzia, nel rilevamento del glaucoma e nel rilevamento della retinopatia diabetica. La tesi sarà suddivisa in capitoli: nel primo capitolo, saranno analizzati i concetti base dietro al funzionamento di una rete neurale artificiale, partendo dal machine learning, branca dell'intelligenza artificiale a cui appartengono le reti neurali artificiali; nel secondo capitolo saranno esposte le malattie trattate nell'elaborato, spiegando i sintomi che dovranno essere rilevati dalle reti neurali; nel terzo capitolo saranno esposti alcuni esempi di applicazioni delle reti neurali artificiali nel rilevamento delle malattie oculari esposte, di cui saranno analizzate sensibilità e specificità, parametri importanti nello screening.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ciliegi, Federico. « Topologie non convenzionali per reti di neuroni artificiali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19497/.

Texte intégral
Résumé :
Le reti neurali sono uno strumento informatico che si è progressivamente affermato dalla sua nascita, e si è distinto per le sue grandi potenzialità. Pur non essendo ancora presente una teoria matematica formale che le descriva, esse sono state approfonditamente studiate da ingegneri e informatici, rendendo il loro studio una branca tanto ampia quanto preziosa. In questa tesi presento alcuni modelli di rete neurale e ne illustro le caratteristiche a livello di topologia, elaborazione e addestramento.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bernardini, Alberto. « Classificazione di brani musicali mediante reti neuronali artificiali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3408/.

Texte intégral
Résumé :
L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Boldrin, Stefano <1996&gt. « Reti neurali artificiali per la previsione dell'insolvenza aziendale ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/18258.

Texte intégral
Résumé :
Nella parte iniziale viene fornita una panoramica circa la misurazione del rischio di credito e il contesto normativo di riferimento (Accordi di Basilea). Dopo un'analisi delle tecniche statistiche tradizionali per la stima dell'insolvenza aziendale più note in letteratura, vengono introdotte tecniche alternative basate sul machine learning. L'obiettivo principale dell'elaborato consiste nel valutare la capacità di quest'ultime e, in particolar modo delle Reti neurali artificiali, di sovraperformare rispetto agli strumenti statistici tradizionali. A tale scopo vengono comparate le performance previsive del modello Logit con un Multilayer Perceptron in un dataset contenente circa 400 imprese italiane.
Styles APA, Harvard, Vancouver, ISO, etc.
6

De, Paoli Davide. « Reti neurali artificiali e apprendimenti basati sulla biofisica dei neuroni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22983/.

Texte intégral
Résumé :
Frank Rosenblatt, padre del percettrone, nel 1962 sottolineò che l’ obiettivo ultimo della ricerca nel campo delle reti neurali artificiali doveva essere “indagare le strutture fisiche ed i principi neurodinamici che stanno alla base dell’intelligenza naturale”. A differenza di quel che desiderava Rosenblatt, i metodi maggiormente utilizzati e di conseguenza studiati sono quelli supervisionati, non biologicamente plausibili, ritenuti maggiormente efficaci rispetto alle reti che sfruttano metodi di apprendimento ispirati dalla biofisica dei neuroni. L’ obiettivo della tesi è quello di analizzare due metodi di apprendimento non supervisionati basati su sistemi neuronali biologici: il modello di L.Bienenstock, N.Cooper e W. Mundro del 1982 (BCM) ed il modello di D.Krotov e J.Hopfield del 2019, e comprenderne le reali capacità. La prima parte della tesi rappresenta un’ introduzione al concetto di rete neurale artificiale, al significato di rete multistrato e all’ algoritmo di apprendimento della retro propagazione dell’ errore, tipico delle reti supervisionate. La seconda parte della tesi illustra il funzionamento della BCM e della rete di Hopfield e Krotov. Nei risultati riguardanti la rete del 2019, viene riportato un confronto tra questo modello ed un modello addestrato tramite retro propagazione dell’ errore, con cui riesce a competere nel riconoscimento delle immagini appartenenti a due data set: il MNIST ed il CIFAR-10. Per quanto riguarda la BCM, vengono riportati e discussi i risultati di alcune simulazioni effettuate con la rete modello BCM della libreria Plasticity. Lo scopo delle simulazioni era quello di portare i pesi della rete a memorizzare il maggior numero di pattern differenti possibili, appartenenti al data set MNIST.
Styles APA, Harvard, Vancouver, ISO, etc.
7

LOCCI, AMEDEO. « Sviluppo di una piattaforma inerziale terrestre assistita da reti neurali artificiali ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2008. http://hdl.handle.net/2108/684.

Texte intégral
Résumé :
Molte delle tecnologie impiegate nei moderni sistemi di ausilio alla navigazione terrestre, risalgono a circa un quarto di secolo. Generalmente, i principali sistemi in uso negli apparati per la navigazione terrestre, risultano essere i Sistemi di Posizionamento Globale (GPS) ed i Sistemi di Navigazione Inerziale (INS). Tali apparati tecnologici, necessitano di componenti fondamentali di qualità più o meno spinta che ne determina costi di mercato progressivamente crescenti, in grado di soddisfare le più diverse applicazioni di navigazione, passando da quella veicolare terrestre, sino a quella aerospaziale, ma includendo anche applicazione di handling o gestione di flotte veicolari. Negli ultimi anni, i sistemi di navigazione hanno visto applicazioni su larga scala, come sistemi di ausilio alla navigazione terrestre, in particolare con l’impiego del sistema GPS. Per ovviare agli inconvenienti che esso presenta, ultimamente si sono sviluppati sistemi integrati low-cost per la navigazione terrestre con applicazioni su larga scala, tra i quali si distingue, per rilevanti aspetti tecnici ed economici, il sistema integrato INS/GPS. Per ovviare alla bassa qualità dei sensori impiegati, si è dovuto ricorrere all’impiego di modelli matematici in grado di correggere le risposte dei sensori. Da qui, negli anni, uno dei maggiori strumenti di utilizzo si è dimostrato essere il filtro di Kalman nel data fusion INS/GPS; nonostante esso presenti diverse limitazioni. La necessità della correzione dell’INS è legata sia all’ottenimento di una risposta più affidabile nei brevi percorsi rispetto al GPS, sia alla generazione di un data base ove vengano raccolte tutta una serie di informazioni tra le caratteristiche cinematiche, geometriche ed ambientali necessarie, qual’ora venisse ad essere assente o di scarsa qualità il segnale GPS. A tale scopo, si cerca di rendere intelligente il sistema di navigazione: Il filtro di Kalman ha fatto scuola negli anni passati ed ha indirizzato la ricerca verso l’impiego di sistemi intelligenti, quali ad esempio la logica fuzzy, gl algoritmi genetici o le reti neurali. Quest’ultime sono in grado di rendere i sistemi integrati INS/GPS dei sistemi intelligenti, cioè capaci di prendere delle decisioni autonome nella correzione dei dati, a fronte di capacità di apprendimento. Ciò che qui si è perseguito è stato l’impiego delle Reti Neurali Artificiali, al fine di sopperire alla sola risposta del sistema INS qualora si verificasse l’outage del GPS. In tali situazioni, a causa delle inevitabili derive causate dagli effetti del random walk dell’INS, si necessita di eseguire una correzione dei dati inerziali, demandata alle Reti Neurali. Si è resa necessaria un’investigazione dei modelli più attinenti con tali tipologia di dati, nonché un tuning delle rete stesse. Quindi è stato sviluppato sia un sistema di memorizzazione dei dati sensibili, basato sull’aggiornamento della memoria della rete, ( i pesi ), sia un sistema di correzione dei dati inerziali. La valutazione è stata eseguita su test case evidenziando, rispetto agli impieghi di correzione con sistemi classici un netto miglioramento di performance. Tali applicazioni, come anche evidenziato in lavori scientifici, possono considerarsi come un metodo per gli sviluppi futuri delle nuove piattaforme integrate per la navigazione terrestre. Inoltre esse sono in grado di fornire informazioni di assetto, necessarie per la guida dei sistemi autonomi. ed i loro bassi costi di mercato, ne consentono l’impiego su vastissima scala, conseguendo vantaggi in ambito di sicurezza stradale e di ricostruzione di eventi accidentali.
Many of the technologies used in the modern systems of aid to terrestrial navigation go back to approximately a quarter of century. Generally, the main systems in use in the equipments for terrestrial Navigation are the Global Positioning Systems (GPS) and the Inertial Navigation Systems (INS). Such technological apparatus, need fundamental components of high or quite almost quality, which cause progressively growing market costs and can satisfy the most various range of applications in the navigation field, from the vehicular terrestrial one to the aerospace application, but also including handling applications or the management of vehicular fleets. In the last few years, the navigation systems have seen applications on a large scale, as the terrestrial navigation aid systems, in particular with the use of the GPS system. In order to avoid the disadvantages that it can cause, integrated low-cost systems for terrestrial navigation have been lately developed with applications on a large scale, among which, for important technical and economic aspects, the integrated INS/GPS system. The need to avoid the low quality of the used sensors led to the application of mathematical models able to correct the sensors’ answers. From here, one of the most used instrument throughout the years has been the Kalman filter, as an optimal linear Gaussian estimator in the data fusion INS/GPS. However, as multi-sensor integration methodology, it has various limits. The INS correction is needed either to get a more reliable answer in the short route compared the GPS-based navigation system, and to generate a data base in which a series of information are collected, among the necessary cinematic, geometric and environmental characteristics, in case the GPS signal is absent or of low quality. For that purpose, the attempt is to make the navigation system intelligent: the Kalman filter has been shown to be in the last years the reference model which has addressed the research to the use of intelligent models, such as for example the fuzzy logic, the genetic algorithms or the neural networks. The latter can make the integrated INS/GPS systems intelligent, or capable to take independent decisions in the data correction, after a learning process. The aim which has been reached is the use of the Artificial Neural Networks (ANN), in order to compensate for the answer of the INS system, in case the GPS outage occurred. In such situations, due to the unavoidable drifts caused by the INS random walk effects, a correction of the inertial data is needed, through the Neural Networks. A research of the models more related to this kind of data has been necessary, as well as a tuning of the networks. Therefore it has been developed either a storage system for the sensitive data, based on the updating of the network memory, (the weights), and a correction system of the inertial data. The evaluation has been carried out on many test cases and it has shown a definite improvement in performance compared to the use of the correction with conventional systems. Such applications, as also emphasized in scientific works, can be considered as a method for the future developments of the new integrated platforms for terrestrial navigation. Moreover, they can supply attitude configuration needed for the control of the autonomous systems and their low market costs allow a large scale applications, and also advantages in the road safety field and the reconstruction of accidental events.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Callegarin, Alessandro <1986&gt. « Reti neurali artificiali per il trading finanziario : i principali modelli recenti ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2012. http://hdl.handle.net/10579/2196.

Texte intégral
Résumé :
La tesi si propone di analizzare come i sistemi di intelligenza artificiale possano essere usati per costruire strategie di trading finanziario. Nella trattazione, tramite una literary review dei modelli più recenti, si fa riferimento principalmente alle Reti Neurali Artificiali e ai modelli che ne derivano.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Castrignano, Paola. « Modularità : Dai sistemi biologici ai sistemi artificiali ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7072/.

Texte intégral
Résumé :
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Capecchi, Michele <1993&gt. « Reti neurali artificiali per la cosctruzione di un trading system su azioni ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/18566.

Texte intégral
Résumé :
L'elaborato cerca di indagare le potenzialità delle reti neurali artificiali (RNA) in ambito di previsione finanziaria. le RNA sono uno strumento di deep learning impiegato moltissimo negli ultimi anni come soluzione a una vasta gamma di problemi che vanno dalla classificazione al riconoscimento di immagini, dalla creazione di risposte automatiche dei chat bot alla guida automatica di veicoli. La potenza di questi strumenti sta nel fatto di riuscire a dedurre le relazioni non lineari che esistono tra un numero molto grande di variabili e questo è sicurmente molto utile in ambito di previsione finanziaria in cui l'intento principale dell'investitore è quello di costruirsi un'aspettativa circa il comportmento futuro dei prezzi. Come viene suggerito dal nome dello strumento, una RNA prende ispirazione dal funzionamento del cervello umano e in particolare dalla sua capacità di apprendere dal passato e dal contesto che lo cironda. Nella fattispecie del lavoro, le RNA impiegate utilizzeranno i segnali operativi dei principali indicatori di analisi tecnica come variabili di input, cioè come contesto dal quale apprendere per capire le relazioni che ci sono tra prezzi e segnali operativi in modo da fornire una previsione dei segnali operativi futuri e dedurre una strategia di investimento.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Gianessi, Mattia. « Robotica e intelligenza artificiale applicate alla validazione automotive ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
Questo lavoro rappresenta il resoconto di un tirocinio svolto presso il dipartimento di sviluppo elettronico, team di Integrazione e Validazione, di Automobili Lamborghini durante il quale si è progettato e implementato un sistema autonomo, flessibile e facilmente integrabile con le tecnologie già in uso presso il dipartimento; tale sistema deve essere in grado di riconoscere e interagire con le componenti di input e output HMI (switch, pulsantiere e display touchscreen) delle vetture, permettendo di eseguire e valutare il successo, o il fallimento, di una serie di test case proposti da un utilizzatore esterno. La componente del sistema adibita al riconoscimento di oggetti è costituita da una rete neurale realizzata tramite la libreria software TensorFlow, mentre quella utilizzata per interagire con tali oggetti è un braccio robotico LBR iiwa dotato di un carrello mobile KMR. Il risultato finale ottenuto è stato poi integrato in un framework più ampio che coinvolge altri stakeholders del flusso di sviluppo e validazione prodotto di Automobili Lamborghini S.p.A.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Collet, Tommaso <1994&gt. « Misurazione del Rischio : Analisi e confronto tra Z-Score e Reti Neurali Artificiali ». Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/16556.

Texte intégral
Résumé :
L'elaborato si pone l'obiettivo di analizzare, sia dal punto di vista quantitativo che qualitativo, due metodologie utilizzate per la valutazione del rischio di credito nelle imprese. Queste due metodologie vengono poi messe a confronto mediante una breve ricerca statistica condotta con R al fine di poter mostrare quale delle due risulti essere più performante in applicazione ad un campione di piccole/medie imprese trevisane.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Bevini, Giorgia. « Studio di un pilota automatico per aereo basato su Artificial Neural Network ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
La tesi si avvia con una prima analisi sull'autopilota attualmente in dotazione sui velivoli, del quale si vanno a individuare le funzionalità e gli algoritmi di sviluppo, con i relativi limiti. Queste limitazioni possono essere superate attraverso un nuovo approccio progettuale: le reti neurali artificiali. Quest'ultime andranno a modellare un nuovo autopilota, detto intelligente. Si analizza la struttura delle reti neurali e come esse si addestrano per andare a creare un nuovo sistema di controllo del volo. Successivamente si vanno ad osservare i risultati di uno studio basato sull'addestramento di un prototipo di autopilota intelligente, creato attraverso l'impiego di un numero ridotto di neuroni e con un database ristretto.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Petreti, Andrea. « Evoluzione artificiale di comportamenti collettivi in gruppi di robot controllati da reti booleane ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23140/.

Texte intégral
Résumé :
Le metriche derivanti dalla teoria dell'informazione vengono sempre più utilizzate per quantificare le proprietà dei sistemi complessi. Nell'ambito della robotica tali metriche risultano uno strumento valido per analizzare e progettare automaticamente software di controllo per robot. Le tecniche di progettazione automatica sono un valida alternativa alle tecniche tradizionali di progettazione, ciò vale particolarmente nel campo della swarm robotics. Le misure di complessità, applicate nel contesto della robotica di sciame, possono essere utilizzate per migliorare il processo evolutivo del software di controllo. Lo scopo di questo lavoro di tesi è quello di comparare e analizzare i risultati forniti dalle metriche di complessità proposte. In particolare, mira a individuare correlazioni tra le metriche proposte e le prestazioni della colonia su quattro compiti differenti. I risultati ottenuti suggeriscono che i valori osservati per le misure di complessità sono correlati alla capacità della colonia di eseguire correttamente un compito.
Styles APA, Harvard, Vancouver, ISO, etc.
15

QUARTARARO, MARCO. « Modelli di previsione dei popolamenti ittici nei fiumi : sviluppo e ottimizzazione mediante reti neurali artificiali ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2010. http://hdl.handle.net/2108/1273.

Texte intégral
Résumé :
Negli ultimi venti anni l’uso di metodi basati sull’intelligenza artificiale per la costruzione di modelli in ecologia si è diffuso e sviluppato grazie alla capacità di questi metodi di dar luogo, in base ad opportuni algoritmi di apprendimento e alle informazioni contenute nei dati (quindi empiricamente), a rappresentazioni dei sistemi ecologici che spesso sono più efficaci rispetto a quelle fornite dai metodi tradizionali (basati su indici o sulla statistica multivariata). Lo scopo principale di questo lavoro è stato un esame sperimentale di cinque ipotesi circa altrettante potenziali strategie di ottimizzazione di modelli costituiti da reti neurali artificiali supervisionate (percettroni) che ricostruiscono le relazioni tra componenti abiotiche (descrittori ambientali) e biotiche (presenza di specie all’interno di popolamenti ittici) in ecosistemi fluviali. I temi toccati hanno riguardato la previsione di variabili binarie (presenza/assenza delle specie), le variazioni di performance in funzione della soglia di discretizzazione dell’output, la previsione di specie rare, la previsione di specie singole o di gruppi di specie, la pre-elaborazione dei dati con particolare riferimento al partizionamento richiesto dalla tecnica dell’early stopping. I risultati dimostrano l’interesse pratico e teorico di lavorare con modelli predittivi di questo tipo, sia per l’efficacia dei modelli costruiti, che per la possibilità di suggerire nuove idee alla ricerca ecologica. Al di là dell’analisi delle ipotesi studiate, il lavoro ha prodotto un metodo e uno strumento informatico che possono essere riutilizzati per testare altre strategie di ottimizzazione e per operare con diversi data set.
The use of artificial intelligence methods for ecosystems modeling has had a considerable development in the last 20 years, due to their specific ability, in several conditions and once supported by suitable “learning” algorithms, to build from the data more effective representations of ecological systems than traditional methods (based on indexes or multivariate statistics). The main purpose of this work was an experimental examination of five hypotheses about as many potential strategies for the optimization of supervised artificial neural networks (perceptrons) which reconstruct the relations between the abiotic (environmental variables) and biological components (presence values of the species within fish assemblages) in river ecosystems. The themes we dealt with included the prevision of binary variables (species presence/absence), the variation of the performance as a function of the output discretization threshold, the prevision of rare species, the prevision of single species or group of species, data pre-processing and specifically the partitioning required by the early stopping technique. The results prove the practical and theoretical interest in working with predictive models, for both the effectiveness of the models and the possibility of giving hints to ecological research. Beyond the hypotheses studied here, the work produced a method and a computer tool that can test other optimization strategies and operate with different data set.
Styles APA, Harvard, Vancouver, ISO, etc.
16

NEBBIONE, GIUSEPPE. « Valutazione della Sicurezza di Reti Informatiche tramite Intelligenza Artificiale : Un Approccio basato su Grafi ». Doctoral thesis, Università degli studi di Pavia, 2021. http://hdl.handle.net/11571/1439934.

Texte intégral
Résumé :
Il numero di minacce informatiche continua ad evolversi con un ritmo sempre più rapido. Queste minacce stanno portando a un numero crescente di incidenti di sicurezza informatica che hanno subito un aumento vertiginoso negli ultimi anni. Per questo motivo, è di fondamentale importanza proteggere adeguatamente le infrastrutture digitali e i servizi informatizzati valutando opportunamente ed efficacemente i potenziali rischi associati alla sicurezza delle reti informatiche. A questo scopo, nel tempo, sono state sviluppate diverse procedure di valutazione pubblicate sotto forma di standard di settore (ad es. ISO27001, OWASP, NIST P-800-42). Sfortunatamente, queste procedure sono lontane dall'essere completamente automatizzate e integrate con le tecnologie moderne basate su intelligenza artificiale. Per colmare questa lacuna, questo lavoro di tesi ha come scopo la progettazione e lo sviluppo di framework metodologico accompagnato da un toolset che basa il suo funzionamento sull'applicazione combinata di intelligenza artificiale e teoria dei grafi. Gli strumenti sviluppati permettono l'implementazione di tecniche di valutazione della sicurezza di reti informatiche sfruttando lo stato dell'arte dell'intelligenza artificiale e della teoria dei grafi. L'approccio seguito avanza lo stato dell'arte corrente migliorando significativamente le metodologie di valutazione della sicurezza di sistemi informatici. In particolare, le tecniche basate su grafi permettono di rivelare proprietà e relazioni non ovvie tra le varie componenti di un'infrastruttura tecnologica. Queste informazioni possono essere elaborate allo scopo di estrarre funzionalità utili per addestrare un classificatore AI che può determinare in modo automatico se l'infrastruttura target è vulnerabile o sicura. Come risultato di questo lavoro, un toolset basato su AI, teoria dei grafi e modellizzazione statistica è stato sviluppato nel dominio di reti informatiche enterprise (ovvero reti di computer complesse basate su directory services). Questo set di strumenti basa il suo funzionamento sul concetto di "shortest path" all'interno di grafi. Questi grafi vengono usati per rappresentare le infrastrutture informatiche in esame ed estrarre informazioni utili ad un classificatore basato su tecniche di apprendimento automatico per determinare i punti critici all'interno di un'infrastruttura e determinarne le eventuali vulnerabilità.
The number of cyber threats continues to evolve at a rapid pace, thus leading to an increasing number of security incidents. Hence, it is of paramount importance to properly secure digital infrastructures and services by assessing the potential security risks. For this purpose, over time, assessment procedures have been developed and published in the form of industry standards (e.g., ISO27001, OWASP, NIST P-800-42). Unfortunately, these procedures are far from being fully automated and integrated with AI technologies. To fill this gap, this thesis work aims at designing and developing a methodological framework and a toolset relying on the combined application of AI and graph-based algorithms. These AI-aware security assessment methodology, techniques and tools advance the state of the art in that they strongly enhance security assessment approaches. More precisely, graph based techniques are able to reveal non-obvious properties and relationships between the various components of a technological infrastructure. This information can be processed in order to extract useful features that, when used to train an AI classifier, allows to determine whether the target infrastructure is vulnerable. As a result of this work, an AI-aware network security assessment toolset has been designed and developed in the domain of enterprise networks (i.e., complex computer networks based on directory services). This toolset relies on graph shortest paths and implements state of the art machine learning and statistical modeling techniques to determine critical points within an infrastructure and automatically detect vulnerabilities.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Mollica, Francesco. « Share Art : Reti neurali convoluzionali in ambito museale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
E' stato affrontato lo studio di un'algoritmo per l'addestramento di reti neurali sul riconoscimento di genere sul supercalcolatore ENEA-CRESCO, al fine di poter essere sfruttato per il progetto Share Art, un programma ENEA. Share Art consiste in un dispositivo che permette, attraverso una telecamera ad infrarossi, di rilevare automaticamente i volti che guardano in direzione della telecamera, acquisendo contestualmente una serie di informazioni relative all’osservazione delle opere d’arte, come ad esempio il tempo di permanenza, la distanza, il percorso compiuto. L'addestramento di una rete neurale su un'architettura diversa dalla nostra, quale è CRESCO, ha previsto una mirata predisposizione dell'ambiente di sviluppo, così da isolare le componenti necessarie utilizzate dall'algoritmo. Procedura fondamentale è stata quindi quella di pacchettizzare in un container il tutto, renderlo accessibile all'applicazione, e poter utilizzare ciò che l'applicazione necessitava per essere eseguita senza i permessi di amministratore di sistema. Verranno mostrati i passi che sono stati seguiti per la creazione dell'ambiente di sviluppo, del container Docker e della predisposizione delle dipendenze necessarie, come ad esempio le librerie Tensorflow e Keras. Alla base del sistema Share Art le telecamere generano un flusso di dati che è l'input dell'analisi che viene eseguita direttamente sul Raspberry per verificare ad esempio il corretto utilizzo della mascherina e il rispetto del distanziamento sociale. I dispositivi Share Art installati presso il museo, generano quindi dati importanti della ricerca in ambito museale. Sarà quindi affrontato il tema della gestione dei dati e del loro trasferimento riformulando un programma che apporti scalabilità ad un sistema già esistente. Si è scelto di utilizzare un protocollo standard dell'IoT, MQTT, il tutto supportato da un linguaggio sviluppato presso l'Università di Bologna, Jolie.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Baronti, Mattia. « Identificazione e localizzazione del danno in strutture reticolari mediante modi di vibrare e reti neurali artificiali ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Il presente elaborato è finalizzato a determinare un metodo di indagine che consenta l’identificazione e la valutazione di danneggiamenti in strutture reticolari, mediante l’utilizzo di modi di vibrare e reti neurali artificiali. Nell’ambito dell’ingegneria civile, con il termine Structural Health Monitoring, si identificano le metodologie di monitoraggio che permettono l’individuazione di anomalie strutturali, consentendo la valutazione, in modo continuo ed automatizzato, dello stato di salute di un’opera. Metodologie Deep Learning, applicate allo SHM, sono al centro della ricerca scientifica degli ultimi anni, grazie ai progressi tecnologici e all’introduzione di strumenti di calcolo dalle notevoli capacità computazionali, in grado di elaborare grandi quantità di dati. In questo contesto, la metodologia di apprendimento supervisionato proposta si basa sull’utilizzo di una rete neurale convoluzionale (CNN), capace, sulla base di un dataset di informazioni dinamiche relative alle configurazioni di danno previste, di riconoscere e classificare la condizione strutturale di un’opera, identificando, localizzando e quantificando un eventuale danneggiamento. La classificazione della condizione strutturale avviene sulla base del training specifico della rete realizzato su grandi quantità di informazioni generate analiticamente da un modello strutturale. L’elaborazione dei dati di esempio, consente alla rete di identificare automaticamente le caratteristiche di interesse del problema, e di prevedere la condizione strutturale per dati in input non ancora visionati. In questa analisi, il parametro Modal Assurance Criterion (MAC), strumento di confronto tra modi di vibrare, viene utilizzato come indicatore dello stato di salute strutturale. Il problema di identificazione del danno viene valutato, ponendo le basi per ulteriori analisi, mediante l’applicazione del metodo su due casi studio, relativi, rispettivamente, ad un modello piano e ad uno spaziale.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Torchi, Andrea. « Sperimentazioni per "Sentiment Analysis" tramite Reti Neurali Profonde ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
Il lavoro di questa tesi verte sulla progettazione e sulla realizzazione di un software di machine-learning che svolga un compito di Sentiment Analysis, in particolar modo è stato svolto nell'ambito di un progetto commissionato all'azienda presso la quale ho svolto il mio tirocinio. Come fonte di dati da cui iniziare e su cui basare il progetto ho scelto alcuni social networks, per via della grande quantità di dati che offrono. Prima e durante il lavoro di tesi ho studiato i principi del machine-learning ed in particolare delle reti neurali, concetti che furono in seguito applicati nella realizzazione delle reti per lo svolgimento del compito di Sentiment Analysis.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Gualandi, Giacomo. « Analisi di dataset in campo finanziario mediante reti neurali LSTM ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19623/.

Texte intégral
Résumé :
Con il presente elaborato si è esplorato il campo della data analytics. È stato analizzato un dataset relativo all' andamento storico del titolo di borsa di una società, i cui dati sono stati manipolati in modo tale da renderli compatibili per un loro utilizzo in una applicazione di Machine Learning. Si sono approfondite le reti neurali artificiali LSTM e con esse si è creato un modello che permettesse di effettuare delle predizioni sui valori futuri del titolo. Infine sono state valutate le differenze tra i valori predetti e quelli reali assunti dal titolo di borsa.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Fabbri, Alessandro. « Reti neurali in ambito finanziario ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19593/.

Texte intégral
Résumé :
In particolare in questo lavoro cercherò di analizzare l’utilizzo di reti neurali in ambito economico-finanziario in quanto alcuni dei temi che si riscontrano in economia ben si prestano ad un’analisi attraverso le reti neurali. In particolare nel primo capitolo di questo elaborato descriverò le origini delle reti neurali e alcuni criteri attraverso i quali oggi si classificano le reti stesse. Nel secondo capitolo mi occuperò invece di approfondire quali sono i passaggi da seguire al fine di costruire una rete neurale concentrandomi sulla risoluzione di problemi legati all’ambito economico-finanziario. Infine, nell’ultimo capitolo, mi dedicherò all’analisi di due articoli nei quali vengono confrontati i risultati ottenuti tramite l’utilizzo di diversi tipi di reti neurali accennando anche ad approcci diversi attraverso algoritmi di machine learning.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Rigotti, Laura. « L'Intelligenza Artificiale come contesto per un approccio STEM alla didattica ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16737/.

Texte intégral
Résumé :
La tesi si colloca nell’ambito della ricerca in Didattica della Fisica e, più nello specifico, nel filone di ricerca che riguarda la progettazione e sperimentazione di moduli didattici in linea con le direttive STEM all’interno del progetto Europeo Erasmus + I SEE. Oggetto dell’elaborato è l’analisi di uno specifico modulo I SEE sul tema dell’intelligenza artificiale (IA), progettato dal gruppo di ricerca in didattica della fisica di Bologna e realizzato per la prima volta nel periodo di febbraio-marzo 2018 con un gruppo di 30 studenti, nell’ambito del progetto PLS. Nell’elaborato, dopo un’introduzione alla STEM education e al problema dell’integrazione delle discipline STEM nei curricula didattici, sono descritte le attività che costituiscono il modulo sull’IA. Il cuore del lavoro è un’analisi STEM del modulo, condotta per esplicitare le connessioni tra le diverse discipline e il modo in cui l’interdisciplinarità è stata realizzata. Prendendo come riferimento teorico un articolo di un gruppo di ricercatori australiani, è stata realizzata un’analisi per “big ideas”: sono state individuate cinque tematiche portanti all’interno del modulo – l’intelligenza artificiale, gli approcci all’IA, i paradigmi di programmazione, la complessità e il futuro – e sono state analizzate nella loro evoluzione attraverso le categorie di big ideas individuate dai ricercatori australiani. Lo studio ha evidenziato come alcune big ideas emergessero nel modulo come chiavi trans-disciplinari di lettura della realtà mentre le altre, da concetti che nascevano e si formavano all’interno delle discipline, si trasformavano progressivamente in big ideas, ovvero in strumenti di pensiero tout court. La chiave che ha permesso questa trasformazione è stata la valorizzazione della prospettiva della complessità. In generale, è stato interessante notare come il modulo I SEE sull’IA concretizzasse una didattica di tipo STEM, soddisfacendo gli obiettivi che tale approccio si pone.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Bonfiglioli, Luca. « Identificazione efficiente di reti neurali sparse basata sulla Lottery Ticket Hypothesis ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
Frankle e Carbin 2018, data una rete densa inizializzata casualmente, mostrano che esistono sottoreti sparse di tale rete che possono ottenere accuratezze superiori alla rete densa e richiedono meno iterazioni di addestramento per raggiungere l’early stop. Tali sottoreti sono indicate con il nome di winning ticket. L’identificazione di questi ultimi richiede tuttavia almeno un addestramento completo del modello denso, il che ne limita l’impiego pratico, se non come tecnica di compressione. In questa tesi, si mira a trovare una variante più efficiente dei metodi di magnitude based pruning proposti in letteratura, valutando diversi metodi euristici e data driven per ottenere winning ticket senza completare l’addestramento della rete densa. Confrontandosi con i risultati di Zhou et al. 2019, si mostra come l’accuratezza all’inizializzazione di un winning ticket non sia predittiva dell’accuratezza finale raggiunta dopo l’addestramento e come, di conseguenza, ottimizzare l’accuratezza al momento di inizializzazione non garantisca altrettanto elevate accuratezze dopo il riaddestramento. Viene inoltre mostrata la presenza di good ticket, ovvero un intero spettro di reti sparse con performance confrontabili, almeno lungo una dimensione, con quelle dei winning ticket, e come sia possibile identificare sottoreti che rientrano in questa categoria anche dopo poche iterazioni di addestramento della rete densa iniziale. L’identificazione di queste reti sparse avviene in modo simile a quanto proposto da You et al. 2020, mediante una predizione del winning ticket effettuata prima del completamento dell’addestramento della rete densa. Viene mostrato che l’utilizzo di euristiche alternative al magnitude based pruning per effettuare queste predizioni consente, con costi computazionali marginalmente superiori, di ottenere predizioni significativamente migliori sulle architetture prese in esame.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Di, Luzio Andrea. « Reti Neurali Convoluzionali per il riconoscimento di caratteri ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Trouver le texte intégral
Résumé :
Il problema del riconoscimento ottico di caratteri all’interno delle immagini è ormai studiato da decenni e, nel corso degli anni, sono stati proposti molti algoritmi che mirano a risolvere il problema a vari livelli di “generalità” (cioè con la presenza o meno di vincoli relativi alle caratteristiche dell’immagine da analizzare). Tuttavia, ad oggi, molti tra i software (che si occupano del riconoscimento di caratteri) sviluppati per il robot Nao di Aldebaran Robotics si appoggiano a librerie software di Optical Character Recognition (OCR) già pronte all'uso come, ad esempio, Tesseract. In questa tesi verrà illustrato un approccio alternativo al problema, che mostra come sia stato possibile creare da zero un software che non utilizza librerie di OCR preesistenti ma che, combinando l'utilizzo di alcune Reti Neurali Convoluzionali (addestrate ad hoc) con alcune funzioni basilari per la manipolazione delle immagini di una libreria di Computer Vision largamente utilizzata (quale è OpenCV), è comunque capace di garantire buoni risultati in termini di accuratezza per quanto riguarda la localizzazione del testo all'interno dell'immagine, la successiva segmentazione dello stesso nelle sue componenti più elementari (cioè righe di testo, parole e caratteri), il riconoscimento dei singoli caratteri e, infine, la riaggregazione delle lettere riconosciute in parole.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Mazzini, Lisa. « Reti neurali ricorrenti per il riconoscimento di gesti con controller LeapMotion ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/17119/.

Texte intégral
Résumé :
In ambito di Human-Computer Interaction è molto interessante sostituire i tradizionali dispositivi di input come mouse, tastiera e strumenti simili, con sistemi di gesture recognition. Un sistema di gesture recognition è infatti in grado di identificare i gesti compiuti dall'utente e interpretarli generando l'evento corrispondente sul proprio ambiente interno. Esso permette dunque di creare una interfaccia decisamente più naturale e intuitiva fra il sistema e l'utente, migliorando la user experience complessiva. Il progetto di tesi ha l'obiettivo di costruire una rete neurale ricorrente che sia in grado di riconoscere i gesti compiuti dall'utente, tramite l'utilizzo del Leap Motion Controller per la lettura del movimento e della posa della mano.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Saidoun, Nassima. « Il futuro del lavoro e il futuro dell’intelligenza artificiale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
Questa tesi tratta dell’intelligenza artificiale e delle ultime scoperte in questo campo, degli enormi obbiettivi raggiunti fino ad oggi e di quelli che si prefigge e analizza l’impatto che avranno queste nuove scoperte sul lavoro dell’essere umano. Inoltre racconta gli eventi che hanno portato a questo punto e chi ha portato a questo punto. Si parla di reti neurali sia a livello storico che a livello informatico di cos’è e come funziona. Si spiega il Machine Learning e le sue sottocategorie. In fine si parla del lavoro e del mondo del lavoro e delle sue prospettive.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Fabbri, Mirko. « Tecniche di visione artificiale per il conteggio di persone ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
L'elaborato indaga le applicazioni della visione artificiale, più specificatamente vengono esaminate ed applicate tecniche di VA al conteggio di persone (crowd counting) in immagini, e confrontati i risultati ottenuti da diversi metodi. Il capitolo primo presenta una panoramica sulla visione artificiale e sulla sua storia, gli scenari di utilizzo, i punti di forza ed i limiti degli algoritmi proposti. Il capitolo secondo illustra un metodo recente che sfrutta tecniche di machine learning ed una rete neurale per assolvere il compito del conteggio di persone. Il capitolo terzo mostra alcuni strumenti in possesso all'elaborazione di immagini tradizionale ed introduce due metodi basati su tali strumenti. Il capitolo quarto infine prende in esame la condivisione di dati riguardo alle applicazioni di visione artificiale e mette a confronto i metodi basati su elaborazione tradizionale con quello avanzato commentandone i risultati ottenuti.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Petrocelli, Danilo. « Reti neurali convoluzionali per il riconoscimento facciale sul robot NAO ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
A partite dallo studio dell’attuale sistema di riconoscimento facciale presente sul robot NAO, questo lavoro di tesi si propone di ricercare una soluzione alternativa, basata sul riconoscimento delle caratteristiche facciali che possa essere utilizzata per estendere l’attuale sistema di riconoscimento in uso dal robot. Le soluzioni proposte per il rilevamento e successivo riconoscimento dei volti, nel robot NAO, si basano su delle librerie software pronte all’uso. In particolare il modulo di visione AlFacedetect consente di rilevare un volto ed in seguito riconoscerlo, mentre La fase di apprendimento avviene grazie al modulo Learn Face presente nel software Choregraphe, sviluppato dalla Aldebaran Robotics. Al fine di ricercare soluzioni alternative ai problemi esposti, sarà illustrato il software sviluppato e gli strumenti utilizzati in ciascuna delle fasi sopra indicate, nessuna delle quali utilizza i moduli built-in presenti nel NAO. La fase iniziale è consistita nella realizzazione dei datasets, uno per ogni caratteristica facciale considerata, dai quali si sono ricavati i diversi training set necessari per addestrare le reti neurali convoluzionali a classificare le caratteristiche facciali prese in esame. Per la fase di detection dei volti si sono utilizzati algoritmi noti in letteratura e opportunamente implementati nella libreria di Computer Vision OpenCV, adattati dinamicamente al compito da svolgere, ovvero alla caratteristica facciale da individuare. In questo modo si sono potute sfruttare appieno le potenzialità e l’efficienza delle reti neurali convoluzionali nello svolgere compiti di classificazione, riuscendo a garantire, nella fase di riconoscimento un’elevata precisione, in termini di accuratezza. La fase finale è consistita nel porting di quanto fatto sul robot NAO, in modo da effettuare la predizione di una determinata caratteristica facciale a partire da un’immagine acquisita attraverso la sua videocamera.
Styles APA, Harvard, Vancouver, ISO, etc.
29

CORNELI, ALESSANDRA. « Artificial Intelligence assisted Building Digitization using Mixed Reality ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274488.

Texte intégral
Résumé :
Il Facility Management in edifici complessi richiede una grande quantità di informazioni che possono essere archiviate in un modello funzionale dell’edificio. Un modello funzionale è una rappresentazione strutturata dell'edificio che include informazioni cruciali per funzioni specifiche come la sicurezza, le azioni di ristrutturazione o il funzionamento e la manutenzione. Il rilevamento di questo tipo di dati, come le proprietà tecniche dei componenti dell'edificio, è un processo costoso. Per questo motivo, è necessario uno strumento avanzato il rilievo ingegneristico. Oggi molti studi si concentrano ancora sull'acquisizione della geometria, trascurando il fatto che molte azioni ricorrenti sono condotte su componenti all'interno degli edifici. Molti sistemi proposti sfruttano tecniche di rilevamento altamente accurate, come la scansione laser o la fotogrammetria, ma che richiedono lunghi sforzi di post-elaborazione per interpretare i dati raccolti. Inoltre, queste operazioni non vengono eseguite sul posto, portando a imprecisioni causate da un’interpretazione errata dei dati. In queste circostanze, la possibilità di eseguire la maggior parte delle operazioni in loco renderebbe sicuramente il processo più efficiente e ridurrebbe gli errori. Questa ricerca propone un sistema di digitalizzazione che sfrutta la collaborazione uomo-macchina evitando fasi di post-elaborazione del dato. A questo scopo, vengono sfruttate le potenzialità della Mixed Reality quali la sua capacità di interagire con il mondo reale, creando un ambiente ideale per la collaborazione uomo-macchina. La capacità della Mixed Reality di sovrapporre i dati digitali all'ambiente reale rende possibile il controllo dei dati direttamente in sito. Per il processo di riconoscimento degli oggetti il sistema proposto in questa ricerca si avvale di rete neurale. La rete neurale YOLO (You Only Look Once) è stata scelta per la sua velocità e funzionalità di rilevamento multiplo, ideale per applicazioni in tempo reale. Il sistema è stato sviluppato e le sue prestazioni sono state valutate per il rilevamento di componenti del sistema antincendio. Il primo set di allenamenti è stato testato ed ha raggiunto sempre più dell'85% del fattore F1. Quindi l'intero sistema è stato testato in sito per dimostrare la sua fattibilità in uno scenario del mondo reale.
Facility Management in complex buildings requires a large amount of information that can be stored in a functional building model. A functional building model is a structured representation of the building including information crucial for specific functions such as safety, refurbishment actions or operation and maintenance. Surveying this kind of data, such as technical properties of building components, is a costly process. For this reason, an advanced tool for engineering surveys is needed. Nowadays many studies still focus on capturing geometry, overlooking the fact that many recurring actions are conducted on assets inside buildings. Many systems proposed exploit highly accurate survey techniques, like laser scanning or photogrammetry, but they need long postprocessing efforts to interpret data collected. Moreover, these operations are not pursued on site leading to inaccuracies for the incorrect interpretation of data. Under these circumstances, the possibility of performing the majority of operation on-site would definitely make the process more efficient and it would reduce errors. This research proposes a system for digitization exploiting manmachine intelligence collaboration without post-processing. To this aim, Mixed Reality with its capability of interacting with real world is applied giving an environment for man-machine collaboration. The capability of Mixed Reality of overlapping digital data to the real environment makes possible checking data directly on site. For the object recognition process the system proposed in this research make use of Neural Network. YOLO (You Only Look Once) Neural Networks has been chosen for its speed and multiple detection features, ideal for real-time applications. The system has been developed and its performance evaluated for the detection of fire protection system components. First single Neural Network have been tested reaching always more than 85%of F1 factor. Then the whole embedded system proposed has been tested on site to prove its feasibility in a real-world scenario.
Styles APA, Harvard, Vancouver, ISO, etc.
30

FALCIONELLI, NICOLA. « From Symbolic Artificial Intelligence to Neural Networks Universality with Event-based Modeling ». Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/274620.

Texte intégral
Résumé :
Rappresentare la conoscenza, modellare il ragionamento umano e comprendere i processi di pensiero sono sempre state parti centrali delle attività intellettuali, fin dai primi tentativi dei filosofi greci. Non è solo un caso che, non appena i computer hanno iniziato a diffondersi, scienziati e matematici straordinari come John McCarthy, Marvin Minsky e Claude Shannon hanno iniziato a creare sistemi Artificialmente Intelligenti con una prospettiva orientata al simbolismo. Anche se questo è stato un percorso parzialmente forzato a causa delle capacità di calcolo molto limitate dell'epoca, ha segnato l'inizio di quella che oggi è conosciuta come Intelligenza Artificiale Classica (o Simbolica), o essenzialmente, un insieme di tecniche per implementare comportamenti "intelligenti" attraverso formalismi logici e di dimostrazione di teoremi. Le tecniche di Intelligenza Artificiale Classica sono infatti processi molto diretti e centrati sull'uomo, che trovano il loro punto di forza nella semplice interpretabilità umana e nella riusabilità della conoscenza. Al contrario, esse soffrono di problemi di computabilità quando sono applicate a compiti del mondo reale, per lo più dovuti all'esplosione combinatoria dello spazio di ricerca (soprattutto quando si ha a che fare con il tempo), e all'indecidibilità. Tuttavia, le sempre maggiori capacità dell'hardware dei computer hanno aperto nuove possibilità di crescita per altri metodi più orientati alla statistica, come le Reti Neurali. Anche se la teoria alla base di questi metodi era nota da tempo, è stato solo negli ultimi anni che sono riusciti a raggiungere progressi significativi, e a superare le tecniche classiche di IA su molti fronti. Al momento, i principali ostacoli di tali tecniche di IA statistica sono rappresentati dall'elevato consumo di energia e dalla mancanza di modi semplici per gli esseri umani di comprendere il processo che ha portato a un particolare risultato. Riassumendo, le tecniche di IA classica e statistica possono essere viste come due facce della stessa medaglia: se un dominio presenta informazioni strutturate, poca incertezza e processi decisionali chiari, allora l'IA classica potrebbe essere lo strumento giusto, o altrimenti, quando le informazioni sono meno strutturate, hanno più incertezza, ambiguità e non è possibile identificare processi decisionali chiari, allora l'IA statistica dovrebbe essere scelta. Lo scopo principale di questa tesi è quindi (i) mostrare le capacità e i limiti delle attuali tecniche di Intelligenza Artificiale (Classica e Statistica) sia in ambiti strutturati che non strutturati, e (ii) dimostrare come la modellazione basata su eventi possa affrontare alcune delle loro criticità, fornendo nuove potenziali connessioni e nuove prospettive.
Representing knowledge, modeling human reasoning, and understanding thought processes have always been central parts of intellectual activities, since the first attempts by greek philosophers. It is not just by chance that, as soon as computers started to spread, remarkable scientists and mathematicians such as John McCarthy, Marvin Minsky and Claude Shannon started creating Artificially Intelligent systems with a symbolic oriented perspective. Even though this has been a partially forced path due to the very limited computing capabilities at the time, it marked the beginning of what is now known as Classical (or Symbolic) Artificial Intelligence, or essentially, a set of techniques for implementing "intelligent" behaviours by means of logic formalisms and theorem proving. Classical AI techniques are indeed very direct and human-centered processes, which find their strenghts on straightforward human interpretability and knowledge reusability. On the contrary, they suffer of computability problems when applied to real world tasks, mostly due to search space combinatorial explosion (especially when reasoning with time), and undecidability. However, the ever-increasing capabilites of computer hardware opened new possibilities for other more statistical-oriented methods to grow, such as Neural Networks. Even if the theory behind these methods was long known, it was only in recent years that they managed to achieve significant breakthroughs, and to surpass Classical AI techniques on many tasks. At the moment, the main hurdles of such statistical AI techniques are represented by the high energy consumption and the lack of easy ways for humans to understand the process that led to a particular result. Summing up, Classical and Statistical AI techniques can be seen as two faces of the same coin: if a domain presents structured information, little uncertainty, and clear decision processes, then Classical AI might be the right tool, or otherwise, when the information is less structured, has more uncertainty, ambiguity and clear decision processes cannot be identified, then Statistical AI should be chosen. The main purpose of this thesis is thus (i) to show capabilities and limits of current (Classical and Statistical) Artificial Intelligence techniques in both structured and unstructured domains, and (ii) to demostrate how event-based modeling can tackle some of their critical issues, providing new potential connections and novel perspectives.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Orlandini, Lucrezia. « Applicazione di reti neurali per l’implementazione di un modello di demand forecasting in ambito fashion ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Ognuno di noi, in modo consapevole o meno, ogni volta che acquista un prodotto, posta un contenuto sui social media, cammina, parla o addirittura dorme, contribuisce alla produzione di 2.5 quintilioni di byte di dati (valore medio giornaliero). Allo stesso tempo però, non siamo solo generatori di dati, ma anche consumatori di essi. La ricerca di pattern e regolarità, attraverso metodi automatizzati di analisi, e il conseguente utilizzo per predire dati futuri non noti, è il campo di applicazione del Machine Learning, ramo dell’intelligenza artificiale. Le tecniche di Machine Learning sono impiegate in numerosi campi, dalla medicina al mondo business. In particolare, in quest’ultimo ambito una strategia efficiente di demand forecasting rappresenta un fattore determinante per il successo di un’azienda, soprattutto in ambito fashion. All’interno dell’elaborato sono stati analizzati i dati relativi alle vendite di un’importante azienda di occhialeria di lusso che opera a livello mondiale. L’obiettivo di questa tesi è l’implementazione, per tale azienda, di un modello di previsione della domanda all’interno del mercato italiano. Il ciclo di vita del progetto è stato articolato in diverse fasi: individuazione del caso d’uso, preparazione e pulizia dei dati, modellazione, valutazione delle performance e sviluppo. La soluzione progettata consiste in un modello di rete neurale artificiale (ANN) che, basandosi sullo storico delle vendite degli anni 2017/2018 e sulle caratteristiche tecniche dei modelli di occhiali, fornisce una previsione della quantità ordinata di un articolo noto o inedito. Sono state testate diverse configurazioni di reti neurali artificiali a profondità, e quindi complessità, crescente e per ogni modello si è poi proceduto all’ottimizzazione degli iperparametri, ovvero alla ricerca dei valori per cui vengono fornite previsioni più accurate.
Styles APA, Harvard, Vancouver, ISO, etc.
32

FODDIS, MARIA LAURA. « Application of artificial neural networks in hydrogeology : identification of unknown pollution sources in contaminated acquifers ». Doctoral thesis, Università degli Studi di Cagliari, 2011. http://hdl.handle.net/11584/266347.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
33

Laudisa, Costanza. « Identificazione di utenti in base a come digitano sullo smartphone tramite reti neurali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19618/.

Texte intégral
Résumé :
Negli ultimi anni i metodi di autenticazione tradizionali sui dispositivi elettronici, come password e token, si sono rivelati obsoleti a causa della capacità sempre più avanzata di malintenzionati di risalire a tali informazioni sfruttando debolezze nei sistemi informatici. I sistemi di riconoscimento biometrico nascono come sostitutivi di questi metodi tradizionali e offrono una soluzione più affidabile in quanto si basano su attributi distintivi e propri di un individuo, che non possono essere rubati, manipolati o condivisi. Ad oggi i sistemi di riconoscimento biometrico su smartphone si limitano alla valutazione di caratteristiche fisiche, come la geometria del viso e l'impronta del dito, ma da anni vengono studiate alternative che sfruttano invece caratteristiche comportamentali come l'apposizione di una firma o il pattern di digitazione su una tastiera. I primi studi sul riconoscimento di utenti basato sulla digitazione utilizzavano le tastiere dei computer, ma ben presto si sono estesi anche agli smartphone sfruttando le Application Programming Interface (API) dei sistemi operativi. I metodi più utilizzati per questo compito finora si sono affidati ad algoritmi come 'Random Forest', 'k-Nearest Neighbor' e 'Support Vector Machine'. Questa tesi studia invece la possibilità di utilizzare reti neurali per l'identificazione di utenti sulla base di dati estratti dai pattern di digitazione ('keystroke dynamics') e dai sensori di movimento dello smartphone, mettendole a confronto con i tradizionali classificatori. I risultati indicano che è possibile ottenere risultati soddisfacenti, se non addirittura migliori, anche con l’utilizzo di reti neurali, ma rimane il fatto che le reti neurali sono computazionalmente più complesse dei classici algoritmi di classificazione, il che potrebbe rappresentare un limite per gli smartphone che hanno potenza computazionale ridotta.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Tontini, Giacomo. « Previsione di agenti inquinanti mediante reti neurali e ottimizzazione degli iperparametri attraverso grid search con Talos ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16832/.

Texte intégral
Résumé :
L'inquinamento ambientale sta diventando sempre di più un problema di notevole priorità. Le grandi metropoli superano quotidianamente le soglie massime imposte dalla legge per i vari inquinanti e le amministrazioni cercano di arginare i danni causati da questi limitando il traffico e vietando l'utilizzo di determinate tipologie di riscaldamento domestico. Grazie all'intelligenza artificiale e ai numerosi dati acquisiti dalla circolazione di biciclette dotate di opportuni sensori è possibile determinare quali aree della città sono meno inquinate, consentendo ai cittadini di scegliere dove passare il proprio tempo libero lontano dallo smog. Le reti neurali necessitano la configurazione di particolari parametri che consentono a queste di offrire i risultati migliori. Non sempre la scelta dei parametri risulta un'operazione semplice ed è per questo che ci si avvale di opportune tecniche di ottimizzazione per determinare quale sia la configurazione migliore.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Barbazza, Sigfrido. « Deep-learning applicato all'identificazione automatica di frutta in immagini ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11526/.

Texte intégral
Résumé :
Analisi delle fasi per la realizzazione di uno strumento di supporto gli agricoltori, dalla creazione di un dataset, all'addestramento e test di una rete neurale artificiale, con obiettivo la localizzazione del prodotto agricolo all'interno delle immagini.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Scarpellini, Alberto. « Metodologie avanzate per l'analisi delle performance di un impianto eolico ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15191/.

Texte intégral
Résumé :
A causa della natura intrinsecamente variabile del vento si rende necessaria, nell’eolico ancor più che in altre tecnologie, un’efficiente strategia di esercizio e manutenzione che permetta al proprietario dell’impianto di massimizzare la produzione di energia elettrica: tenere fermo un aerogeneratore in presenza di vento sufficientemente forte significa infatti sprecare la risorsa primaria. Dopo una prima parte di lavoro dedicata alla definizione delle curve di potenza di riferimento per ogni singola macchina (questo approccio viene spesso utilizzato in quanto la curva di potenza “reale” di una macchina differisce da quella “teorica”) si è passati a un primo studio riguardante una possibile ottimizzazione produttiva. Essenzialmente si è considerata una strategia di wind sector management tale da impedire l’attivazione di un allarme, il quale provoca una brusca fermata di emergenza dell’aerogeneratore. Anche andando a ipotizzare diversi parametri di WSM (basati sulle condizioni del vento) si è scoperto che non conviene introdurre una strategia di questo tipo al fine di diminuire le mancate produzioni: questo è dovuto al fatto che tutti i fermi macchina si sono verificati quando il vento proveniva da una delle direzioni principali dell’impianto. Nel secondo studio è stato valutato un possibile degrado delle performance di normale funzionamento degli aerogeneratori dovuto all’invecchiamento dei componenti di macchina principali. In questo contesto si è riusciti a replicare un approccio di tipo matematico/numerico ormai molto consolidato a livello mondiale basato su una rete neurale artificiale. L’obiettivo del lavoro è quello di allenare una rete neurale artificiale in ambiente MATLAB con i dati di normale funzionamento del primo anno solare successivo all’installazione delle macchine e valutare nel periodo successivo la differenza tra la potenza reale prodotta e quella attesa elaborata dalla rete allenata (questo scarto è definito “residuo di potenza”).
Styles APA, Harvard, Vancouver, ISO, etc.
37

Venturi, Alberto. « Implementazione di un sistema intelligente per la modellazione di processo con un'applicazione alla pressofusione ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Questa tesi di laurea si pone come obbiettivo l’implementazione di un sistema di reti neurali artificiali per ottimizzare la modellazione del processo di colata sotto pressione di alluminio. L’analisi svolta sul particolare realizzato in FAR ha permesso di evidenziare tutti i parametri e le eventuali problematiche che intervengono nel processo, delineando dipendenze e indipendenze dei fattori in gioco; in particolare, utilizzando il software di modellazione di processo ProCast, si è analizzato il solo problema della presenza di microporosità da ritiro in relazione alla variazione della temperatura iniziale del metallo fuso. L'utilizzo di tali informazioni e l'ideazione di descrittori geometrici in grado di semplificare i fenomeni fisici in atto hanno condotto all'allenamento di un sistema intelligente di reti neurali artificiali feed-forward. Successive prove hanno condotto all'ottimizzazione dell'architettura e delle caratteristiche della rete neurale per questo specifico caso di studio.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Tartuferi, Mariano. « Sviluppo dell'eolico offshore nel Mare Adriatico : ricostruzione del campo di vento di mesoscala e uso di reti neurali artificiali per la previsione di producibilità energetica a breve termine ». Doctoral thesis, Università Politecnica delle Marche, 2015. http://hdl.handle.net/11566/242933.

Texte intégral
Résumé :
Il progetto P.O.W.E.R.E.D. (www.powered-ipa.it) ha avuto come principale obiettivo la definizione di linee guida condivise per il futuro sfruttamento energetico del potenziale eolico del Mare Adriatico. Mediante un modello meteorologico di mesoscala dell’intero bacino Adriatico (implementato nel codice numerico PSU/NCAR MM5v3) è stata effettuata un’analisi di hindcasting delle risorse anemometriche dell’area nel periodo 2009-2011, ampliando lo studio anche agli anni 2008 e 2012, sebbene non richiesto dal progetto. Si è così ottenuta una caratterizzazione di medio termine del potenziale anemometrico di tutta l’area, le cui maggiori risorse anemometriche sono concentrate fra Puglia, Montenegro e Albania: è dunque il basso Adriatico la zona più promettente per la futura installazione di wind farm offshore. La validazione del modello fisico utilizzato nelle analisi di hindcasting richiede il confronto con dati anemometrici acquisiti da stazioni di misura di elevata qualità. Non essendo ancora operativo il network P.O.W.E.R.E.D. di torri anemometriche, i risultati numerici sono stati validati con le osservazioni ricavate da alcune stazioni meteorologiche campione, evidenziando un buon grado di accordo con i dati sperimentali. Tramite un’analisi CFD (Computational Fluid Dynamics), è stata poi accertata la fattibilità tecnica dell’utilizzo di una piattaforma offshore esistente come struttura di supporto di una torre anemometrica da installare in mare aperto, come previsto dalle richieste del progetto. Infine, è stato sviluppato un approccio alla previsione di breve termine (24-48 h) della producibilità energetica di un parco eolico. Il metodo proposto, basato sull’integrazione di un modello fisico (MM5v3) e di reti neurali artificiali (ANN: Artificial Neural Network), è stato testato su una wind farm esistente, confermando la capacità di tale sistema di forecasting di ridurre l’errore associato alla stima dell’energia prodotta dall’impianto.
The P.O.W.E.R.E.D. project (www.powered-ipa.it) has been funded aiming to the definition of shared guidelines for the future development of offshore wind energy in the Adriatic Sea. Several activities have been planned in order to achieve such strategic goal. By means of a mesoscale meteorological model of the whole Adriatic basin (implemented in the numerical code PSU/NCAR MM5v3), has been performed the hindcasting analysis of the regional anemometric resources for the period 2009-2011. Further investigations have been completed for 2008 and 2012, beyond the project’s requirements. The obtained results allowed elaborating a middle term characterization of the wind energy potential in the area: the major wind energy resources are all localized between the coasts of Apulia Region, Montenegro and Albania. Thus, the southern portion of the Adriatic basin appears the most promising area for the future installation of offshore wind farms. The validation of the mesoscale meteorological model requires observed wind data, collected by anemometric stations able to perform high quality wind measurements. Numerical results exhibit a good agreement with observations of some sample stations, awaiting the completion of the P.O.W.E.R.E.D. network of anemometric towers. One of these measuring stations should be of offshore type: a CFD (Computational Fluid Dynamics) analysis of an existing marine platform proved the technical feasibility of exploiting such type of structures as supporting system of an offshore anemometric tower. Finally, a short-term (24-48 h) wind power forecasting approach has been developed in order to elaborate accurate predictions of the energy production of a wind farm: key features of such method are in the integrated use of a physical model (MM5v3) and ANNs (Artificial Neural Networks). A test case in an existing wind farm confirmed the ability of the proposed hybrid forecasting system to produce accurate wind energy estimations.
Styles APA, Harvard, Vancouver, ISO, etc.
39

ZINI, SIMONE. « Image Enhancement and Restoration using Machine Learning Techniques ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2022. http://hdl.handle.net/10281/378899.

Texte intégral
Résumé :
Le fotocamere digitali acquisiscono, manipolano e salvano in memoria informazioni elettronicamente tramite un sensore e unitá di calcolo integrate, rendendo la fotografia accessibile agli utenti finali i quali non necessitano di basi di conoscenza di chimica o delle specifiche operazioni meccaniche che erano necessarie per lo sviluppo con la fotografia analogica. Diversi tipi di degradazioni e artefatti possono affliggere le immagini acquisite tramite camere digitali, riducendo la fedeltà percepita delle immagini e rendendo piú difficili operazioni di visione artificiale che possono essere operate sulle immagini acquisite. Tre elementi possono essere identificati come possibili sorgenti di artefatti in un'immagine: il contenuto della scena, le limitazioni hardware della camera e la pipeline di elaborazione dell’immagine, dall’acquisizione al salvataggio in memoria. Alcuni artefatti non sono direttamente trattati all’interno della tipica pipeline di camera, come ad esempio la presenza di nebbia o pioggia che possono ridurre la visibilitá della scena acquisita. Questi artefatti , per essere trattati, necessitano di metodologie ad hoc che sono generalmente applicate come operazioni post-processing. Altri tipi di artefatti sono legati ai processi di elaborazione dell’immagine e all'intera pipeline di camera integrata nelle camere. Questi artefatti includono il rumore proveniente dal sensore, dominanti cromatiche indesiderate, basso contrasto e artefatti di compressione. L’obiettivo di questa tesi è l'identificazione e la progettazione di nuovi e piú robusti moduli di elaborazione e restauro dell’immagine capaci di migliorare la qualitá delle immagini acquisite dalle camere digitali, in particolare in scenari critici quali condizioni climatiche avverse, condizione di bassa illuminazione etc… Gli artefatti identificati sono divisi in due macro gruppi: “artefatti in-camera” e “artefatti esterni” Nel primo gruppo sono stati identificati e trattati quattro argomenti: la rimozione del rumore proveniente dal sensore della camera, il processo di bilanciamento automatico del bianco, il miglioramento automatico del contrasto e la rimozione di artefatti di compressione JPEG. Il processo di progettazione di questi moduli ha tenuto conto di aspetti di efficienza, in termini di calcolo e memoria occupata, in relazione alla possibilità di integrare tali moduli in future configurazioni di pipeline di camera. Il secondo gruppo di artefatti è legato alla presenza di elementi nella scena che possono causare una degradazione in termini di fedeltà dell’immagine e/o usabilità. In particolare il lavoro presentato nella tesi è focalizzato su artefatti provenienti dalla presenza di pioggia nella scena scattata. La tesi, dopo una descrizione della tipica pipeline di elaborazione delle camere digitali, analizza i diversi tipi di artefatti che possono affliggere la qualità di una immagine, e descrive la progettazione delle soluzioni proposte. Tutti gli approcci proposti sono basati su tecniche di apprendimento automatico, come ad esempio Reti Neurali Convoluzionali o procedure di ottimizzazione Bayesiana, e sono stati validati sperimentalmente su dataset standard. I contributi principali di questa tesi possono essere riassunti in tre punti: integrazione di approcci classici di imaging con tecniche di ottimizzazione basate su machine learning, progettazione e sviluppo di nuovi approcci e architetture di deep learning per il restauro e l'elaborazione di immagini e analisi di metodi di image processing basati su deep learning in task di computer vision.
Digital cameras record, manipulate, and store information electronically through sensors and built-in computers, which makes photography more available to final users which do not anymore need to rely on the use of chemicals and knowledge of mechanical procedures to develop their pictures. Different types of degradation and artifacts can affect images acquired using digital cameras, decreasing the perceptual fidelity of images and making harder many image processing and analysis tasks that can be performed on the collected images. Three elements can be identified as possible sources of artifacts in an image: the scene content, the hardware limitations and flaws, and finally the operations performed by the digital camera processing pipeline itself, from acquisition to compression and storing. Some artifacts are not directly treated in the typical camera processing pipeline, such as the presence of haze or rain that can reduce visibility of the scene in the depicted images. These artifacts require the design of ad hoc methods that are usually applied as post-processing on the acquired images. Other types of artifacts are related to the imaging process and to the image processing pipeline implemented on board of digital cameras. These include sensor noise, undesirable color cast, poor contrast and compression artifacts. The objective of this thesis is the identification and design of new and more robust modules for image processing and restoration that can improve the quality of the acquired images, in particular in critical scenarios such as adverse weather conditions, poor light in the scene etc… . The artifacts identified are divided into two main groups: “in camera-generated artifacts" and “external artifacts and problems". In the first group it has been identified and addressed four main issues: sensor camera noise removal, automatic white balancing, automatic contrast enhancement and compression artifacts removal. The design process of the proposed solutions has considered efficiency aspects, due to the possibility of directly integrating them in future camera pipelines. The second group of artifacts are related to the presence of elements in the scene which may cause a degradation in terms of visual fidelity and/or usability of the images. In particular the focus is on artifacts induced by the presence of rain in the scene. The thesis, after a brief review of the digital camera processing pipeline, analyzes the different types of artifacts that can affect image quality, and describes the design of the proposed solutions. All the proposed approaches are based on machine learning techniques, such as Convolutional Neural Networks and Bayesian optimization procedure, and are experimentally validated on standard images datasets. The overall contributions of this thesis can be summarized in three points: integration of classical imaging approaches with machine learning optimization techniques, design of novel deep learning architectures and approaches and analysis and application of deep learning image processing algorithms in other computer vision tasks.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Lavista, Andrea. « Natural language processing : chatbot per gli studenti del Campus di Cesena ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19555/.

Texte intégral
Résumé :
Il natural language processing è un campo di ricerca interdisciplinare che spazia tra informatica, linguistica e intelligenza artificiale, che si pone come obiettivo il trattamento automatico del linguaggio naturale, ovvero l’analisi, la comprensione e l’elaborazione del linguaggio da parte dei calcolatori. Uno dei problemi più interessanti e ancora aperti di questa disciplina è la capacità di dialogo per la quale ricercatori e studiosi stanno ideando e impiegando nuovi approcci, in particolare basati su reti neurali artificiali, raggiungendo risultati sempre migliori. In questa tesi, oltre a dare una panoramica dello stato dell'arte, si espone lo sviluppo di un chatbot in contesto universitario, realizzato con il framework Rasa. Esso è pensato per gli studenti del Campus di Cesena e fornisce informazioni relative alla vita universitaria, principalmente sui corsi di laurea e sui bandi di Ateneo.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Castellazzi, Nicolò. « Analisi di immagini per l'identificazione automatica di anomalie superficiali in ambito industriale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
La ricerca di anomalie nei processi produttivi è una tematica molto attuale, di estremo interesse e di notevole complessità. Lo scopo di questa tesi è stato quello di verificare se, attraverso l'utilizzo di strategie di deep learning, fosse possibile sviluppare una soluzione in grado di distinguere quali fossero i campioni anomali rispetto ai campioni normali esaminando nello specifico immagini ottenute dal processo di lavorazione di superfici metalliche, che presentavano texture poco marcate e variabili. Dopo aver valutato il problema ed aver analizzato le soluzioni presenti in letteratura inerenti al nostro caso d'interesse, abbiamo deciso di basare la nostra soluzione sull'utilizzo degli autoencoder, in combinazione con tecniche di visione artificiale necessarie a identificare ed evidenziare i difetti presenti nei campioni oggetto di studio. Addestrando l'autoencoder a ricostruire solo campioni normali si ottiene che, nella ricostruzione di un campione anomalo, il difetto venga eliminato in quanto non è mai stato visto dalla rete nella fase di addestramento. Uno dei vantaggi delle soluzioni basate su questo tipo di architettura è quindi dovuto al fatto che è necessario conoscere solo i campioni normali e, qualsiasi tipo di anomalia si presenti, potenzialmente anche anomalie mai viste prima, esse non vengano ricostruite dalla rete, risolvendo così il problema dato dall'impossibilità di conoscere a priori tutti i possibili difetti che si possono presentare in fase di produzione. In particolare sono state esplorate varie metodologie e architetture (Convolutional Autoencoders, Variational Autoencoders, Transfer Learning) adottando quella più idonea al tipo di dato in nostro possesso. Attraverso la soluzione sviluppata siamo riusciti ad ottenere buoni risultati sia per quanto riguarda le prestazioni inerenti a data set pubblici, utilizzati come benchmark, sia sul data set privato in nostro possesso, obiettivo primario di questa ricerca.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Kazazi, Arber. « Riconoscimento e classificazione di beni culturali : un caso di studio per Casa Bufalini ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Trouver le texte intégral
Résumé :
La tesi è strutturata in tre capitoli principali: Stato dell’arte: in questo capitolo si presenta il tema dell’Intelligenza Artificiale, del Machine Learning e del Deep Learning approfondendo il mondo delle Reti Neurali Convoluzionali. Oltre ad un’analisi sulla struttura e l’utilizzo di queste tecnologie, viene spiegato il perché sia corretto un loro impiego per la risoluzione del problema di classificazione e riconoscimento dei monumenti. Un’ultima sezione è dedicata ai lavori correlati mettendo in mostra le potenzialità delle CNN ed i risultati ottenuti in articoli affini al tema dei beni culturali. Progettazione: in questo capitolo vengono descritte le tecnologie e le architetture utilizzate. Nella prima sezione viene descritto e analizzato il dominio del problema, nelle sezioni successive vengono trattate le tecnologie impiegate per lo sviluppo e la risoluzione dei problemi legati alla Rete Neurale Convoluzionale. Un capitolo fondamentale in cui vengono gettate le basi per la vera e propria implementazione dei concetti descritti. Implementazione e testing: in questo capitolo avviene l’implementazione del codice con conseguenti considerazioni da effettuare. Riveste un ruolo chiave in quanto vengono mostrati i risultati ottenuti dalle diverse architetture andando ad individuare e selezionare il modello migliore. In seguito alla valutazione del modello si procede con una fase di testing per verificare il corretto funzionamento della rete. Al termine di questi capitoli che rappresentano il corpo della tesi, è presente un paragrafo conclusivo dedicato alle trattazioni finali con relative considerazioni sul prototipo ottenuto. In aggiunta vengono evidenziati quelli che possono essere gli sviluppi futuri del progetto.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Cuccovillo, Andrea. « Deep Learning : descrizione e alcune applicazioni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14896/.

Texte intégral
Résumé :
Questa tesi si occupa della descrizione storica e tecnica dello stato dell’arte del problema del Deep Learning e del riconoscimento di immagini. Dopo una fase descrittiva delle metodologie attuali applicate agli algoritmi sono stati presi in esame i modelli Inception V3 e MobileNet. Dopo l’analisi dei modelli sono state fatte simulazioni di riaddestramento sul modello MobileNet tramite la libreria TensorFlow: si è generato prima un modello di rete neurale capace di distinguere cinque categorie di fiori, successivamente un modello capace di distinguere cani e gatti. Questo componente integrato in un applicazione Android, ha permesso l’analisi di un flusso di fotogrammi costante dalla fotocamera di uno smartphone, restituendo un output in tempo reale delle stime rilevate.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Poggi, Cavalletti Stefano. « Utilizzo di tecniche di Machine Learning per l'analisi di dataset in ambito sanitario ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21743/.

Texte intégral
Résumé :
L’intelligenza artificiale è una disciplina molto vasta che presenta numerosi campi di applicazione. In questo lavoro si vuole mostrare come sia possibile utilizzare alcune tecniche di Machine e Deep Learning per l’analisi di dataset nell'ambito sanitario. In particolare, dopo una prima introduzione all’argomento e ai principali algoritmi di apprendimento, viene analizzato un framework caratterizzato da un approccio orientato all’ingegneria del software che utilizza tecniche di machine learning per migliorare l’efficienza dei sistemi sanitari. Vengono poi descritte le varie fasi di un esperimento svolto che consiste nell’analisi di un dataset e la successiva creazione di un modello di classificazione per la predizione di malattie cardiache nei pazienti, utilizzando le reti neurali artificiali.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Lanzarone, Lorenzo Biagio. « Manutenzione predittiva di macchinari industriali tramite tecniche di intelligenza artificiale : una valutazione sperimentale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/22853/.

Texte intégral
Résumé :
Nella società è in corso un processo di evoluzione tecnologica, il quale sviluppa una connessione tra l’ambiente fisico e l’ambiente digitale, per scambiare dati e informazioni. Nella presente tesi si approfondisce, nel contesto dell’Industria 4.0, la tematica della manutenzione predittiva di macchinari industriali tramite tecniche di intelligenza artificiale, per prevedere in anticipo il verificarsi di un imminente guasto, identificandolo prima ancora che si possa verificare. La presente tesi è divisa in due parti complementari, nella prima parte si approfondiscono gli aspetti teorici relativi al contesto e allo stato dell’arte, mentre nella seconda parte gli aspetti pratici e progettuali. In particolare, la prima parte è dedicata a fornire una panoramica sull’Industria 4.0 e su una sua applicazione, rappresentata dalla manutenzione predittiva. Successivamente vengono affrontate le tematiche inerenti l’intelligenza artificiale e la Data Science, tramite le quali è possibile applicare la manutenzione predittiva. Nella seconda parte invece, si propone un progetto pratico, ossia il lavoro da me svolto durante un tirocinio presso la software house Open Data di Funo di Argelato (Bologna). L’obiettivo del progetto è stato la realizzazione di un sistema informatico di manutenzione predittiva di macchinari industriali per lo stampaggio plastico a iniezione, utilizzando tecniche di intelligenza artificiale. Il fine ultimo è l’integrazione di tale sistema all’interno del software Opera MES sviluppato dall’azienda.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Maragno, Alessandro. « Programmazione di Convolutional Neural Networks orientata all'accelerazione su FPGA ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12476/.

Texte intégral
Résumé :
Attualmente la Computer Vision, disciplina che consente di estrarre informazioni a partire da immagini digitali, è uno dei settori informatici più in fermento. Grazie alle recenti conquiste e progressi, tale settore ha raggiunto uno stato di maturità tale da poter essere applicato in svariati ambiti, a partire da quello industriale, fino ad arrivare ad applicazioni più vicine alla vita quotidiana. In particolare, si è raggiunto uno stato dell'arte sempre più solido nel campo del riconoscimento di oggetti (object detection) grazie allo sviluppo delle Convolutional Neural Networks (CNN): sistemi che si basano su un modello matematico, che viene gradualmente raffinato in base all'esperienza stessa del sistema nell'esecuzione di questo task, acquisita mediante tecniche di machine learning. Grazie a ciò, le CNN sono in grado di riconoscere e classificare il contenuto di immagini, dando loro una semantica. Tali sistemi però richiedono una grande capacità computazionale ed un'ingente quantità di memoria, pertanto la loro esecuzione avviene maggiormente su architetture potenti, come le GPU. Nonostante ciò, una delle sfide attualmente più importanti riguarda la classificazione in tempo reale di immagini eseguendo le reti neurali convolutive anche su architetture con disponibilità energetica e capacità computazionali ridotte, quali sono i sistemi embedded. Quindi, nel seguente trattato si propone un'implementazione di CNN riconfigurabile realizzata in linguaggio C. Ciò è risultato in un sistema semplice e modulare che con diverse ottimizzazioni ad-hoc può essere considerato un buon candidato per il porting su architetture embedded riconfigurabili FPGA.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Italia, Simone. « Analisi e implementazione di un sistema di previsione della domanda basato sull'utilizzo dell'intelligenza artificiale : il caso Orogel soc. coop. agricola ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Trouver le texte intégral
Résumé :
In un ambiente dove la complessità e la quantità di informazioni sono in continuo aumento è più che mai necessario dotarsi di strumenti che permettano di gestire tale agglomerato di dati estraendo quella conoscenza intrinseca fonte primaria di vantaggio competitivo. Tale premessa viene confermata nell’ambito del Demand Forecasting, il processo di previsione della domanda futura di un prodotto o servizio offerto. Un’attività chiave che impatta su molteplici funzioni e attività aziendali con particolare riguardo alle azioni di pianificazione di breve e lungo periodo in ottica di ottimizzazione delle decisioni aziendali. In questo elaborato verranno definite le dinamiche di sviluppo, implementazione e valutazione di Proteus; un nuovo sistema di previsione della domanda basato sull’utilizzo di una rete neurale in grado di combinare le informazioni specifiche e di contesto relative alla serie storica e selezionare l’algoritmo più opportuno nella previsione di ciascun codice, fra i 9 algoritmi implementati. Uno strumento di supporto che possa definire una base di analisi in grado di estrapolare le informazioni significative nella valutazione del futuro, lasciando uno spazio di confidenza finale in cui siano le persone, consapevoli delle dinamiche reali, a prendere decisioni. Un progetto svoltosi all’interno di Orogel soc. coop. agricola, azienda leader nella produzione e distribuzione di surgelati a livello nazionale e in forte espansione in ambito internazionale. Un contesto fortemente segnato dall'avvento di una pandemia globale senza precedenti che ha generato la necessità di ripensare un sistema già confidente affinché comprendesse l'accaduto. Una sfida basata sulla comprensione della metodologia più opportuna per valutare le variazioni impattanti sul contesto di riferimento.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Begnardi, Luca. « Anomaly detection su turbine eoliche tramite deep autoencoder ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21151/.

Texte intégral
Résumé :
Lo scopo della presente tesi è lo sviluppo di un sistema automatico per diagnosticare anomalie nel funzionamento di turbine eoliche. In particolare, a partire da serie temporali di valori di vibrazione rilevati sul riduttore del sistema di imbardata delle turbine, sono state estratte le feature principali nel dominio del tempo e della frequenza. Queste sono poi state processate attraverso modelli di reti neurali artificiali detti autoencoder, che apprendono prima a ridurre il segnale in ingresso alle sue caratteristiche principali e poi, a partire da queste, a ricostruirlo. Per l'implementazione sono state utilizzate due diverse architetture: una basata su livelli convoluzionali e densamente connessi che sfrutta sia le feature temporali, sia quelle di frequenza e una che combina livelli convoluzionali e ricorrenti, a cui è stato aggiunto un meccanismo di attenzione e che considera solamente le feature nel dominio del tempo. Proprio tramite questa seconda architettura si sono registrate le migliori performance. Il segnale ottenuto è stato ulteriormente analizzato per far emergere in modo netto le anomalie nei dati già disponibili e per cercare un criterio per segnalare con tempestività quelle che si presenteranno in futuro, non appena i dati saranno disponibili.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Zucchi, Lorenzo. « Fenomeni visivi durante movimenti oculari saccadici : studio mediante modello di rete neurale ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17918/.

Texte intégral
Résumé :
Il mondo attorno a noi che percepiamo mediante la vista ci appare stabile nonostante le continue variazioni dell’input visivo prodotte dai movimenti oculari saccadici. Questi rapidi movimenti oculari servono per dirigere rapidamente la fovea da un punto all’altro della scena visiva. Secondo molti studi la stabilità visiva è imputabile ad un segnale detto “corollary discharge” (una copia del comando motorio) che informa anticipatamente le aree visive di alto livello (FEF, LIP) di una saccade imminente. La combinazione del segnale di “corollary discharge” con le informazioni visive correnti permetterebbe di ottenere un “remapping” anticipatorio della scena visiva futura (ovvero a saccade avvenuta) già immediatamente prima e durante la saccade, e ciò sarebbe alla base della stabilità visiva. Questo lavoro di tesi, oltre a studiare le teorie sulla stabilità visiva e su come il segnale di corollary discharge influisce su di essa, ha avuto come obbiettivo principale la realizzazione di un modello di rete neurale finalizzato alla simulazione di regioni visive di alto livello in grado di replicare i fenomeni visivi osservati immediatamente prima e durante le saccadi che sono imputabili alla presenza del segnale di “corollary discharge” e che presumibilmente contribuiscono alla stabilità visiva. I risultati delle simulazioni hanno mostrato un buon grado di accordo con i dati sperimentali. Il modello così realizzato può contribuire alla comprensione dei fenomeni visivi dovuti al “corollary discharge”.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Galassi, Andrea. « Symbolic versus sub-symbolic approaches : a case study on training Deep Networks to play Nine Men’s Morris game ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12859/.

Texte intégral
Résumé :
Le reti neurali artificiali, grazie alle nuove tecniche di Deep Learning, hanno completamente rivoluzionato il panorama tecnologico degli ultimi anni, dimostrandosi efficaci in svariati compiti di Intelligenza Artificiale e ambiti affini. Sarebbe quindi interessante analizzare in che modo e in quale misura le deep network possano sostituire le IA simboliche. Dopo gli impressionanti risultati ottenuti nel gioco del Go, come caso di studio è stato scelto il gioco del Mulino, un gioco da tavolo largamente diffuso e ampiamente studiato. È stato quindi creato il sistema completamente sub-simbolico Neural Nine Men’s Morris, che sfrutta tre reti neurali per scegliere la mossa migliore. Le reti sono state addestrate su un dataset di più di 1.500.000 coppie (stato del gioco, mossa migliore), creato in base alle scelte di una IA simbolica. Il sistema ha dimostrato di aver imparato le regole del gioco proponendo una mossa valida in più del 99% dei casi di test. Inoltre ha raggiunto un’accuratezza del 39% rispetto al dataset e ha sviluppato una propria strategia di gioco diversa da quella della IA addestratrice, dimostrandosi un giocatore peggiore o migliore a seconda dell’avversario. I risultati ottenuti in questo caso di studio mostrano che, in questo contesto, la chiave del successo nella progettazione di sistemi AI allo stato dell’arte sembra essere un buon bilanciamento tra tecniche simboliche e sub-simboliche, dando più rilevanza a queste ultime, con lo scopo di raggiungere la perfetta integrazione di queste tecnologie.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie