Dissertations / Theses on the topic 'Elaborazione dei dati'

To see the other types of publications on this topic, follow the link: Elaborazione dei dati.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 dissertations / theses for your research on the topic 'Elaborazione dei dati.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Schipilliti, Luca. "Progetto del software di acquisizione ed elaborazione dei dati di un Sonar multibeam." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21608/.

Full text
Abstract:
L'obiettivo del progetto noto come SUSHI DROP è quello di realizzare un drone sottomarino AUV dotato di MBES con il relativo software di acquisizione ed altre tipologie di sistemi per la caratterizzazione geofisica, biologica e biomarina dell'ambiente subacqueo. In questo contesto il presente lavoro di tesi è volto in particolar modo allo sviluppo del software di acquisizione ed elaborazione dei dati in uscita dal sonar multibeam. Tali dati dovranno essere letti, riorganizzati, interpretati ed elaborati al fine di poter ottenere informazioni utili relative a ciò che si trova sul fondale del mar Adriatico ed alla sua morfologia tramite acquisizioni batimetriche. Inoltre sarà possibile ricavare informazioni su ciò che sta all'interno della colonna d'acqua sottostante il drone tramite acquisizioni Water Column. Questa tesi sarà quindi focalizzata sullo sviluppo del codice che dovrà effettuare tutte queste operazioni, andando a rispettare quelli che sono i vincoli imposti dal tipo di dati che vengono forniti dal dispositivo di acquisizione e le non idealità dello stesso nello svolgimento della propria funzione. Una prima parte di questo elaborato andrà descrivere il processo di lettura ed interpretazione dei dati forniti dal MBES Sonic2020, in modo da avere un modello iniziale su cui poter lavorare per scrivere i primi algoritmi che si occuperanno della correzione dei dati e di una semplice quanto immediata rappresentazione degli stessi. Successivamente si passerà ad una fase di generazione e simulazione di dati fittizi, per poter esser certi della validità di quanto definito in precedenza. Infine verrà descritto il processo seguito per rappresentare in maniera completa i dati ottenuti dalle precedenti elaborazioni, valutando e confrontando le prestazioni di due diversi algoritmi,IDW e Kriging.
APA, Harvard, Vancouver, ISO, and other styles
2

Faedi, Alberto. "Elaborazione di dati da sensori inerziali per monitoraggio strutturale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14247/.

Full text
Abstract:
In questa relazione viene presentata una tecnica di analisi non lineare per il monitoraggio strutturale, denominata RQA, “recurrence quantification analysis”, che permette di rilevare il danno della struttura sotto osservazione attraverso una tecnica grafica e attraverso metriche da essa generate; questa tecnica è implementata in un algoritmo nell'ambiente di lavoro Matlab, e successivamente applicata ad una struttura di test. L'applicazione pratica cerca di ottenere risultati che siano in accordo con quanto detto sul piano teorico, sia per quanto riguarda informazioni di carattere generale sul monitoraggio di salute strutturale, sia per il particolare metodo di analisi applicato.
APA, Harvard, Vancouver, ISO, and other styles
3

Chiarelli, Rosamaria. "Elaborazione ed analisi di dati geomatici per il monitoraggio del territorio costiero in Emilia-Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19783/.

Full text
Abstract:
La tesi analizza nel dettaglio, attraverso dati topo-batimetrici ripetuti nel tempo, quale sia stato il comportamento di alcuni litorali emiliano-romagnoli, valutando anche l’influenza della modalità di gestione del dato a posteriore, nella creazione dei modelli digitali del terreno e nell'uso delle tecniche interpolative. Nello specifico, introduce il problema dell’erosione costiera, descrive le tipologie di opere di difesa da poter adoperare per fronteggiare il fenomeno, esplicita l’importanza del monitoraggio e quindi del sistema di riferimento, e illustra le tecniche di rilievo per il litorale. Inoltre, mostra sia i metodi utilizzati per l’analisi dei dati, che i risultati ottenuti in termini di mappe e grafici, grazie all'utilizzo di specifici software. Le elaborazioni prodotte riguardano la "Macrocella 1" del litorale emiliano-romagnolo, con particolare attenzione alle spiagge di Misano e Riccione che rientrano tra quelle coinvolte dal Progettone 2 nel 2007 e dal Progettone 3 nel 2016, dell'Arpae. L'attività di tesi termina con lo sviluppo di un argomento legato all'ambito della ricerca. Infatti, per la stessa area di indagine, sono state confrontate delle mappe di accumulo-erosione e dei grafici relativi all'andamento dei profili di spiaggia, ottenuti con metodi di post-elaborazione differenti. Quindi è stato valutato come i punti interpolati con un certo tipo di algoritmo, producano risultati diversi sia a livello visivo che di volume stimato, a seconda della densità di punti, della posizione che essi occupano e della densità del grid cercato.
APA, Harvard, Vancouver, ISO, and other styles
4

Matrone, Erika. "Elaborazione dei dati inerenti alla raccolta dei rifiuti della Regione Emilia Romagna finalizzata all'individuazione dei più performanti sistemi di raccolta." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12934/.

Full text
Abstract:
La Legge Regionale 16 del 2015 è il fulcro della seguente tesi. Seguendone i criteri e le definizioni, sono stati definiti i sistemi di raccolta dei 337 Comuni dell'Emilia Romagna, individuandone il più performante dal punto di vista ambientale ed economico. La Legge che mira alla minimizzazione dei rifiuti, stabilisce 4 obiettivi fondamentali: a) scendere sotto il 150 kg di rifiuti non inviati a riciclo; b) diminuire del 20-25% la produzione pro-capite di rifiuti rispetto l'anno di riferimento del 2011; c) raggiungere una percentuale di raccolta differenziate del 73%; d) portare il quantitativo di riciclato al 70%. I dati inerenti la raccolta dei rifiuti sono stati forniti da Arpae e si riferiscono all'anno 2015, i dati economici sono quelli ufficiali forniti dai PEF ed approvati dai Comuni e da Atersir. L'analisi è stata condotta a livello regionale, secondo aree omogenee, per distribuzione demografica, per abitanti residenti ed equivalenti. Individuati i principali sistemi di raccolta (senza raccolta di umido, misto, stradale e porta a porta), ne sono stati analizzati i loro relativi sottosistemi (stradale con calotta e porta a porta con tariffazione puntuale).
APA, Harvard, Vancouver, ISO, and other styles
5

Guidetti, Mattia. "Ricostruzione di flussi veicolari su scala regionale: analisi dei dati disponibili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5957/.

Full text
Abstract:
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
APA, Harvard, Vancouver, ISO, and other styles
6

Fioravanti, Matteo. "Sviluppo di tecniche di elaborazione di dati elettroanatomici per l'analisi dei pattern di attivazione elettrica in fibrillazione atriale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Per quanto risulti chiaro come l'innesco della fibrillazione atriale (principalmente parossistica) sia da attribuire a sorgenti focali collocate prevalentemente in prossimità delle vene polmonari (nel 94% dei casi), risulta tutt'ora estremamente dibattuto quali siano i meccanismi di mantenimento di tale anomalia del ritmo cardiaco. Fra le varie teorie riportate in letteratura, una delle più accreditate risulta essere la teoria dei rotori, secondo la quale il mantenimento della FA sarebbe da attribuire a pattern di rotazione spiraliformi, in grado di persistere, come osservato nel celebre studio CONFIRM, per tempi superiori ai 10 minuti. Il presente lavoro di tesi ha quindi l'obiettivo di dare un contributo alla teoria dei rotori, attraverso la realizzazione di mappe di fase ottenute elaborando segnali endocavitari acquisiti durante procedure di ablazione transcatetere con il sistema di mappaggio elettroanatomico CARTO 3 e l'elettrocatetere diagnostico PentaRay, della Biosense Webster. Dopo aver introdotto la fisiopatologia della fibrillazione atriale, soffermandosi particolarmente sulla teoria dei rotori, nel Capitolo 1, e aver introdotto la procedura di ablazione transcatetere, focalizzandosi sull'ausilio del CARTO 3 come sistema di mappaggio real-time, nel Capitolo 2, è stata infatti presentata l'elaborazione eseguita per poter ottenere dai segnali unipolari intracardiaci prelevati, le mappe di fase dalle quali è stata indagata l'eventuale presenza di rotori in 6 pazienti affetti principalmente da FA persistente (Capitolo 3). In conclusione, nell'ultimo capitolo è stata eseguita un'analisi dei risultati, valutando non solamente l'eventuale presenza di rotori nelle regioni della camera atriale in cui sono stati maggiormente osservati in letteratura, ma soffermandosi anche sulla validità dell'elettrocatetere Pentaray nell'indagare la dinamica alla base dei pattern di rotazione spiraliformi.
APA, Harvard, Vancouver, ISO, and other styles
7

Lo, Piccolo Salvatore. "La digestione anaerobica dei fanghi prodotti dal depuratore di Savignano sul Rubicone: elaborazione dei dati sperimentali di impianto e simulazione del processo tramite il modello ADM1." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Nel presente lavoro di tesi è stata analizzata la digestione anaerobica dei fanghi di depurazione prodotti nell'impianto di Savignano sul Rubicone. Sono state effettuate delle analisi sullo stato di fatto dell'impianto per inquadrare il funzionamento del sistema, poi è stato modellizzato il comportamento della digestione tramite il modello ADM1 implementato in AQUASIM e in fine sono state proposte delle modifiche per ottimizzare le prestazione della digestione anaerobica dell'impianto e sono state simulate le prestazioni dell'impianto in condizioni di progetto.
APA, Harvard, Vancouver, ISO, and other styles
8

Baietta, Alessia. "Preparazione dei dati e generazione delle mappe di TC perfusionale nel cancro al polmone." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9279/.

Full text
Abstract:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
APA, Harvard, Vancouver, ISO, and other styles
9

SPALLANZANI, MATTEO. "Un framework per l’analisi dei sistemi di apprendimento automatico." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200571.

Full text
Abstract:
Il fare predizioni si fonda sulla comprensione degli schemi del nostro ambiente. Possiamo aver accesso alla realtà fisica grazie a strumenti di misura che ci forniscono dati nei quali speriamo di trovare schemi utili. Lo sviluppo delle macchine calcolatrici ha permesso di stoccare grandi insiemi di dati e di processarli ad alta velocità. L’apprendimento automatico studia sistemi capaci di automatizzare l’identificazione di schemi in grandi insiemi di dati utilizzando i computer. L’apprendimento automatico è al cuore della scienza dei dati e dell’intelligenza artificiale, due campi di ricerca che stanno cambiando l’economia e la società in cui viviamo. I sistemi di apprendimento automatico sono solitamente addestrati ed eseguiti su potenti cluster di computer composti da centinaia o migliaia di macchine. Oggigiorno, la miniaturizzazione dei dispositivi di calcolo sta permettendo di utilizzarli su sistemi, alimentati a batteria, posizionati in ambienti diversi. Rispetto ai cluster di computer, questi dispositivi sono molto meno potenti, ma hanno il vantaggio di essere più vicini alla sorgente dei dati. Da un lato, questo estende il numero di applicazioni dei sistemi di apprendimento automatico; dall’altro, le limitazioni fisiche delle macchine calcolatrici richiedono di identificare metriche appropriate per valutare l’idoneità di sistemi di apprendimento automatico differenti in un contesto dato. In particolare, questi sistemi dovrebbero essere valutati basandosi non solo sulle loro proprietà modellistiche e statistiche, ma anche sui loro costi algoritmici e sulla loro idoneità a diverse architetture di calcolatori. In questa tesi, analizziamo le proprietà modellistiche, algoritmiche ed architetturali di diversi sistemi di apprendimento automatico. Presentiamo il metodo fingerprint, un sistema che è stato sviluppato per risolvere un problema di strategia commerciale in cui l’accuratezza statistica è più importante dei vincoli di latenza o di consumo energetico. Dopodiché, analizziamo le reti neurali artificiali e discutiamo le loro proprietà computazionali; descriviamo anche un esempio di applicazione, un modello che abbiamo progettato per identificare le cause oggettive di percezioni soggettive alla guida. Infine, descriviamo ed analizziamo le reti neurali quantizzate, reti neurali artificiali che usano insiemi finiti per i parametri e funzioni di attivazione a scala. Queste limitazioni pongono problemi matematici non banali, ma le reti neurali quantizzate possono essere eseguite in modo estremamente efficiente su acceleratori hardware dedicati, rendendole candidate ideali per utilizzare l’apprendimento automatico su computer edge. In particolare, mostriamo che le reti neurali quantizzate sono equivalenti alle reti neurali artificiali classiche (quantomeno sull’insieme di bersagli rappresentato dalle funzioni continue definite su domini compatti); presentiamo anche un nuovo algoritmo di apprendimento basato sul gradiente, chiamato additive noise annealing, basato sull’effetto regolarizzante del rumore additivo sull’argomento di funzioni discontinue, riportando risultati allo stato dell’arte su benchmark di classificazione d’immagini.
Making predictions is about getting insights into the patterns of our environment. We can access the physical world through media, measuring instruments, which provide us with data in which we hope to find useful patterns. The development of computing machines has allowed storing large data sets and processing them at high speed. Machine learning studies systems which can automate the detection of patterns in large data sets using computers. Machine learning lies at the core of data science and artificial intelligence, two research fields which are changing the economy and the society in which we live. Machine learning systems are usually trained and deployed on powerful computer clusters composed by hundreds or thousands of machines. Nowadays, the miniaturisation of computing devices is allowing deploying them on battery-powered systems embedded into diverse environments. With respect to computer clusters, these devices are far less powerful, but have the advantage of being nearer to the source of the data. On one side, this increases the number of applications of machine learning systems; on the other side, the physical limitations of the computing machines require identifying proper metrics to assess the fitness of different machine learning systems in a given context. In particular, these systems should be evaluated according not only to their modelling and statistical properties, but also to their algorithmic costs and their fitness to different computer architectures. In this thesis, we analyse modelling, algorithmic and architectural properties of different machine learning systems. We present the fingerprint method, a system which was developed to solve a business intelligence problem where statistical accuracy was more important than latency or energy constraints. Then, we analyse artificial neural networks and discuss their appealing computational properties; we also describe an example application, a model we designed to identify the objective causes of subjective driving perceptions. Finally, we describe and analyse quantized neural networks, artificial neural networks which use finite sets for the parameters and step activation functions. These limitations pose challenging mathematical problems, but quantized neural networks can be executed extremely efficiently on dedicated hardware accelerators, making them ideal candidates to deploy machine learning on edge computers. In particular, we show that quantized neural networks are equivalent to classical artificial neural networks (at least on the set of targets represented by continuous functions defined on compact domains); we also present a novel gradient-based learning algorithm for, named additive noise annealing, based on the regularisation effect of additive noise on the argument of discontinuous functions, reporting state-of-the-art results on image classification benchmarks.
APA, Harvard, Vancouver, ISO, and other styles
10

PARMIGGIANI, Nicolò. "Metodi per l’analisi e la gestione dei dati dell’astrofisica gamma in tempo reale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239980.

Full text
Abstract:
Il contesto delle attività svolte per il Ph.D. sono l’analisi e la gestione dei dati per l’astronomia dei raggi gamma, la quale coinvolge l’osservazione dei raggi gamma, la forma più energetica di radiazione elettromagnetica. Dalle osservazioni dei raggi gamma effettuate con telescopi o satelliti, è possibile studiare eventi catastrofici generati da oggetti compatti come nane bianche, stelle di neutroni e buchi neri. Questi eventi sono chiamati transienti di raggi gamma. Per comprendere questi fenomeni, essi devono essere osservati durante la loro evoluzione. Per questa ragione, la velocità è cruciale e vengono sviluppate pipeline automatiche di analisi dei dati per identificare questi transienti e generare allerte scientifiche. L’allerta scientifica è una comunicazione immediata da un osservatorio ad altri osservatori per segnalare che un evento astrofisico interessante sta avvenendo nel cielo. La comunità astrofisica si trova in una nuova era chiamata “multi-messenger astronomy”, nella quale le sorgenti astronomiche sono osservate con strumenti che raccolgono diversi segnali: onde gravitazionali, radiazioni elettromagnetiche e neutrini. In questa multi-messenger era, i progetti astrofisici condividono le loro allerte scientifiche tramite reti di comunicazione. Il coordinamento di diversi progetti tramite le allerte scientifiche è fondamentale per capire la natura di questi fenomeni fisici. Gli osservatori devono gestire queste allerte scientifiche sviluppando software dedicato. Durante il corso del Ph.D. l’attività di ricerca è stata focalizzata sulla missione spaziale AGILE, attualmente in operazione, e sull’osservatorio Cherenkov Telescope Array, in fase di costruzione. Il follow-up di allerte scientifiche esterne ricevute dagli strumenti che identificano Gamma-Ray Bursts (GRB) e Gravitational Waves (GW) è una delle maggiori attività del Team di AGILE. Le generazioni future degli osservatori di raggi gamma come CTA o ASTRI Mini-Array possono trarre vantaggio dalle tecnologie sviluppate per AGILE. Questa ricerca ha l’obiettivo di sviluppare software per l’analisi e la gestione dei dati gamma. Il primo capitolo della tesi descrive la piattaforma web utilizzata dai ricercatori AGILE per preparare il secondo catalogo di sorgenti gamma di AGILE. Le analisi realizzate per questo catalogo sono memorizzate in un database dedicato e la piattaforma web interroga il database. Questo è stato il lavoro preparatorio per capire come gestire i risultati delle analisi di sorgenti gamma (detection e curve di luce) per la fase successiva: lo sviluppo di una pipeline scientifica per gestire in tempo reale le detection e le allerte scientifiche. Nel secondo capitolo viene presentato un framework progettato per facilitare lo sviluppo di pipeline per l’analisi scientifica in tempo reale. Il framework offre un’architettura comune e automatismi che possono essere utilizzati dagli osservatori per sviluppare le loro pipeline. Questo framework è stato usato per sviluppare le pipeline della missione spaziale AGILE e per sviluppare un prototipo per la Science Alert Generation (SAG) dell’osservatorio CTA. Il terzo capitolo descrive un nuovo metodo per identificare i GRB nei dati dello strumento AGILE-GRID utilizzando le Convolutional Neural Network. Con questa tecnologia Deep Learning è possibile migliorare la capacità di detection di AGILE. Questo metodo è anche stato inserito come tool scientifico all’interno della pipeline AGILE. L’ultimo capitolo mostra i risultati scientifici ottenuti con il software sviluppato durante le attività di ricerca del Ph.D. Parte dei risultati sono stati pubblicati su riviste scientifiche. La restante parte è stata inviata alla comunità scientifica tramite The Astronomer’s Telegram o il Gamma-ray Coordination Network.
The context of this Ph.D. is the data analysis and management for gamma-ray astronomy, which involves the observation of gamma-rays, the most energetic form of electromagnetic radiation. From the gamma-ray observations performed by telescopes or satellites, it is possible to study catastrophic events involving compact objects, such as white dwarves, neutron stars, and black holes. These events are called gamma-ray transients. To understand these phenomena, they must be observed during their evolution. For this reason, the speed is crucial, and automated data analysis pipelines are developed to detect gamma-ray transients and generate science alerts during the astrophysical observations or immediately after. A science alert is an immediate communication from one observatory to other observatories that an interesting astrophysical event is occurring in the sky. The astrophysical community is experiencing a new era called "multi-messenger astronomy", where the astronomical sources are observed by different instruments, collecting different signals: gravitational waves, electromagnetic radiation, and neutrinos. In the multi-messenger era, astrophysical projects share science alerts through different communication networks. The coordination of different projects done by sharing science alerts is mandatory to understand the nature of these physical phenomena. Observatories have to manage the follow-up of these external science alerts by developing dedicated software. During this Ph. D., the research activity had the main focus on the AGILE space mission, currently in operation, and on the Cherenkov Telescope Array Observatory (CTA), currently in the construction phase. The follow-up of external science alerts received from Gamma-Ray Bursts (GRB) and Gravitational Waves (GW) detectors is one of the AGILE Team's current major activities. Future generations of gamma-ray observatories like the CTA or the ASTRI Mini-Array can take advantage of the technologies developed for AGILE. This research aims to develop analysis and management software for gamma-ray data to fulfill the context requirements. The first chapter of this thesis describes the web platform used by AGILE researchers to prepare the Second AGILE Catalog of Gamma-ray sources. The analysis performed for this catalog is stored in a dedicated database, and the web platform queries this database. This was preparatory work to understand how to manage detections of gamma-ray sources and light curve for the subsequent phase: the development of a scientific pipeline to manage gamma-ray detection and science alerts in real-time. The second chapter presents a framework designed to facilitate the development of real-time scientific analysis pipelines. The framework provides a common pipeline architecture and automatisms that can be used by observatories to develop their own pipelines. This framework was used to develop the pipelines for the AGILE space mission and to develop a prototype of the scientific pipeline of the Science Alert Generation system of the CTA Observatory. The third chapter describes a new method to detect GRBs in the AGILE-GRID data using the Convolutional Neural Network. With this Deep Learning technology, it is possible to improve the detection capabilities of AGILE. This method was also integrated as a science tool in the AGILE pipelines. The last chapter of the thesis shows the scientific results obtained with the software developed during the Ph.D. research activities. Part of the results was published in refereed journals. The remaining part was sent to the scientific community through The Astronomer's Telegram or the Gamma-ray Coordination Network.
APA, Harvard, Vancouver, ISO, and other styles
11

Merante, Brunella. "Sviluppo e validazione sperimentale di un software di acquisizione ed elaborazione dati provenienti da un sistema di eye tracking per lo studio dei movimenti oculari." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7941/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

ROLLO, FEDERICA. "Verso soluzioni di sostenibilità e sicurezza per una città intelligente." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1271183.

Full text
Abstract:
Una città intelligente è un luogo in cui la tecnologia viene sfruttata per aiutare le amministrazioni pubbliche a prendere decisioni. La tecnologia può contribuire alla gestione di numerosi aspetti della vita quotidiana, offrendo ai cittadini servizi più affidabili e migliorando la qualità della vita. Tuttavia, la tecnologia da sola non è sufficiente per rendere una città intelligente; sono necessari metodi adeguati per analizzare i dati raccolti e gestirli in modo da generare informazioni utili. Alcuni esempi di servizi intelligenti sono le app che permettono di raggiungere una destinazione attraverso il percorso più breve oppure di trovare il parcheggio libero più vicino, o le app che suggeriscono i percorsi migliori per una passeggiata in base alla qualità dell'aria. Questa tesi si concentra su due aspetti delle smart city: sostenibilità e sicurezza. Il primo aspetto riguarda lo studio dell'impatto del traffico sulla qualità dell'aria attraverso lo sviluppo di una rete di sensori di traffico e qualità dell'aria e l'implementazione di una catena di modelli di simulazione. Questo lavoro fa parte del progetto TRAFAIR, cofinanziato dall'Unione Europea, il primo progetto che monitora la qualità dell'aria in tempo reale e fa previsioni su scala urbana in 6 città europee, tra cui Modena. Il progetto ha richiesto la gestione di una grande quantità di dati eterogenei e la loro integrazione su una piattaforma dati complessa e scalabile condivisa da tutti i partner del progetto. La piattaforma è un database PostgreSQL, adatto a gestire dati spazio-temporali, che contiene più di 60 tabelle e 435 GB di dati (solo per Modena). Tutti i processi della pipeline di TRAFAIR, le dashboard e le app sfruttano il database per ottenere i dati di input ed eventualmente memorizzare l'output. I modelli di simulazione, eseguiti su risorse di HPC, utilizzano i dati dei sensori e devono fornire risultati in tempo reale. Pertanto le tecniche di identificazione delle anomalie applicate ai dati dei sensori devono eseguire in tempo reale e in breve tempo. Dopo un attento studio della distribuzione dei dati dei sensori e della correlazione tra le misure, sono state implementate e applicate alcune tecniche di identificazione delle anomalie. Per i dati di traffico è stato sviluppato un nuovo approccio che utilizza un filtro di correlazione flusso-velocità, la decomposizione STL e l'analisi IQR. Per i dati di qualità dell'aria è stato creato un framework innovativo che implementa 3 algoritmi. I risultati degli esperimenti sono stati confrontati con quelli dell'Autoencoder LSTM. L'aspetto relativo alla sicurezza nella città intelligente è legato a un progetto di analisi dei crimini, i processi analitici volti a fornire informazioni tempestive e pertinenti per aiutare la polizia nella riduzione, prevenzione e valutazione del crimine. A causa della mancanza di dati ufficiali, questo progetto sfrutta le notizie pubblicate sui giornali online. L'obiettivo è quello di classificare le notizie in base alla categoria di crimine, geolocalizzare i crimini, identificare la data dell'evento, e individuare alcune caratteristiche. È stata sviluppata un'applicazione per l'analisi delle notizie, l'estrazione di informazioni semantiche attraverso l'uso di tecniche di NLP e la connessione delle entità a risorse Linked Data. La tecnologia dei Word Embedding è stata utilizzata per la categorizzazione del testo, mentre il Question Answering tramite BERT è stato utilizzato per estrarre le 5W+1H. Le notizie che si riferiscono allo stesso evento sono state identificate attraverso la cosine similarity sul testo delle notizie. Infine, è stata implementata un'interfaccia per mostrare su mappa i crimini geolocalizzati e fornire statistiche e rapporti annuali. Questo è l'unico progetto presente in Italia che partendo da notizie online cerca di fornire un'analisi sui crimini e la mette a disposizione attraverso uno strumento di visualizzazione.
A smart city is a place where technology is exploited to help public administrations make decisions. The technology can contribute to the management of multiple aspects of everyday life, offering more reliable services to citizens and improving the quality of life. However, technology alone is not enough to make a smart city; suitable methods are needed to analyze the data collected by technology and manage them in such a way as to generate useful information. Some examples of smart services are the apps that allow to reach a destination through the least busy road route or to find the nearest parking slot, or the apps that suggest better paths for a walk based on air quality. This thesis focuses on two aspects of smart cities: sustainability and safety. The first aspect concerns studying the impact of vehicular traffic on air quality through the development of a network of traffic and air quality sensors, and the implementation of a chain of simulation models. This work is part of the TRAFAIR project, co-financed by the European Union, which is the first project with the scope of monitoring in real-time and predicting air quality on an urban scale in 6 European cities, including Modena. The project required the management of a large amount of heterogeneous data and their integration on a complex and scalable data platform shared by all the partners of the project. The data platform is a PostgreSQL database, suitable for dealing with spatio-temporal data, and contains more than 60 tables and 435 GB of data (only for Modena). All the processes of the TRAFAIR pipeline, the dashboards and the mobile apps exploit the database to get the input data and, eventually, store the output, generating big data streams. The simulation models, executed on HPC resources, use the sensor data and provide results in real-time (as soon as the sensor data are stored in the database). Therefore, the anomaly detection techniques applied to sensor data need to perform in real-time in a short time. After a careful study of the distribution of the sensor data and the correlation among the measurements, several anomaly detection techniques have been implemented and applied to sensor data. A novel approach for traffic data that employs a flow-speed correlation filter, STL decomposition and IQR analysis has been developed. In addition, an innovative framework that implements 3 algorithms for anomaly detection in air quality sensor data has been created. The results of the experiments have been compared to the ones of the LSTM autoencoder, and the performances have been evaluated after the calibration process. The safety aspect in the smart city is related to a crime analysis project, the analytical processes directed at providing timely and pertinent information to assist the police in crime reduction, prevention, and evaluation. Due to the lack of official data to produce the analysis, this project exploits the news articles published in online newspapers. The goal is to categorize the news articles based on the crime category, geolocate the crime events, detect the date of the event, and identify some features (e.g. what has been stolen during the theft). A Java application has been developed for the analysis of news articles, the extraction of semantic information through the use of NLP techniques, and the connection of entities to Linked Data. The emerging technology of Word Embeddings has been employed for the text categorization, while the Question Answering through BERT has been used for extracting the 5W+1H. The news articles referring to the same event have been identified through the application of cosine similarity to the shingles of the news articles' text. Finally, a tool has been developed to show the geolocalized events and provide some statistics and annual reports. This is the only project in Italy that starting from news articles tries to provide analyses on crimes and makes them available through a visualization tool.
APA, Harvard, Vancouver, ISO, and other styles
13

Ciandrini, Giovanni. "Elaborazione del linguaggio naturale nell'IA e tecnologie moderne: Sentiment Analysis come caso di studio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8966/.

Full text
Abstract:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
APA, Harvard, Vancouver, ISO, and other styles
14

PAGANELLI, MATTEO. "Gestione ed Analisi di Big Data: Sfide e Opportunità nell'Integrazione e nell'Estrazione di Conoscenza dai Dati." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239979.

Full text
Abstract:
Nell'era dei Big Data, l'adeguata gestione e consumo dei dati rappresenta una delle attività più sfidanti, a causa di una serie di criticità che si è soliti categorizzare in 5 concetti chiave: volume, velocità, varietà, veridicità e variabilità. In risposta a queste esigenze, negli ultimi anni numerosi algoritmi e tecnologie sono stati proposti, tuttavia rimangono molti problemi aperti e nuove sfide sono emerse. Tra queste, solo per citarne alcune, ci sono la necessità di disporre di dati annotati per l'addestramento di tecniche di machine learning, di interpretare la logica dei sistemi utilizzati, di ridurre l'impatto della loro gestione in produzione (ovvero il cosiddetto debito tecnico o technical debt) e di fornire degli strumenti a supporto dell'interazione uomo-macchina. In questa tesi si approfondiscono in particolare le criticità che affliggono gli ambiti dell'integrazione dati e della moderna gestione (in termini di riadattamento rispetto i nuovi requisiti) dei DBMS relazionali. Il principale problema che affligge l'integrazione di dati riguarda la sua valutazione in contesti reali, la quale richiede tipicamente il costoso coinvolgimento, sia a livello economico che di tempo, di esperti del dominio. In quest'ottica l'impiego di strumenti per il supporto e l'automazione di questa operazione critica, nonché la sua risoluzione in maniera non supervisionata, risulterebbero molto utili. In questo ambito, il mio contributo può essere riassunto nei seguenti punti: 1) la realizzazione di tecniche per la valutazione non supervisionata di processi di integrazione di dati e 2) lo sviluppo di approcci automatici per la configurazione di modelli di matching basati su regole. Per quanto riguarda i DBMS relazionali, essi si sono dimostrati di essere, nell'arco degli ultimi decenni, il cavallo di battaglia di molte aziende, per merito della loro semplicità di governance, sicurezza, verificabilità e dell'elevate performance. Oggigiorno, tuttavia si assiste ad un parziale ripensamento del loro utilizzo rispetto alla progettazione originale. Si tratta per esempio di impiegarli nella risoluzione di compiti più avanzati, quali classificazione, regressione e clustering, tipici dell'ambito del machine learning. L'instaurazione di un rapporto simbiotico tra questi due ambiti di ricerca potrebbe rivelarsi essenziale al fine di risolvere alcune delle criticità sopra elencate. In questo ambito, il mio principale contributo è stato quello di verificare la possibilità di eseguire, durante la messa in produzione di un sistema, predizioni di modelli di machine learning direttamente all'interno del database.
In the Big Data era, the adequate management and consumption of data represents one of the most challenging activities, due to a series of critical issues that are usually categorized into 5 key concepts: volume, velocity, variety, veridicity and variability. In response to these needs, a large number of algorithms and technologies have been proposed in recent years, however many open problems remain and new challenges have emerged. Among these, just to name a few, there is the need to have annotated data for the training of machine learning techniques, to interpret the logic of the systems used, to reduce the impact of their management in production (i.e. the so-called technical debt) and to provide tools to support human-machine interaction. In this thesis, the challenges affecting the areas of data integration and modern management (in terms of readjustment with respect to the new requirements) of relational DBMS are studied in depth. The main problem affecting data integration concerns its evaluation in real contexts, which typically requires the costly and time-demanding involvement of domain experts. In this perspective, the use of tools for the support and automation of this critical task, as well as its unsupervised resolution, would be very useful. In this context, my contribution can be summarized in the following points: 1) the realization of techniques for the unsupervised evaluation of data integration tasks and 2) the development of automatic approaches for the configuration of rules-based matching models. As for relational DBMSs, they have proved to be, over the last few decades, the workhorse of many companies, thanks to their simplicity of governance, security, audibility and high performance. Today, however, we are witnessing a partial rethinking of their use compared to the original design. For example, they are used in solving more advanced tasks, such as classification, regression and clustering, typical of the machine learning field. The establishment of a symbiotic relationship between these two research fields could be essential to solve some of the critical issues listed above. In this context, my main contribution was to verify the possibility of performing in-DBMS inference of machine learning pipeline at serving time.
APA, Harvard, Vancouver, ISO, and other styles
15

FABBRI, MATTEO. "Sfruttare i Dati Sintetici per Migliorare la Comprensione del Comportamento Umano." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239978.

Full text
Abstract:
Le più recenti tecniche di Deep Learning richiedono enormi quantità di dati di addestramento per ottenere prestazioni simili a quelle umane. Soprattutto in Computer Vision, i Dataset sono costosi da creare in quanto richiedono uno sforzo manuale considerevole che non può essere automatizzato. Infatti, l'annotazione manuale è spesso soggetta ad errori, è incoerente per task soggettivi (ad es. age classification) e non è applicabile ad ogni tipo di dato (ad es. video ad elevato frame rate). Per alcuni task, come la pose estimation e il tracking, un'alternativa all'annotazione manuale implica l'utilizzo di sensori indossabili. Tuttavia, questo approccio non è praticabile in alcune circostanze (ad es. in scenari affollati), poiché la necessità di indossare tali sensori limita la sua applicazione ad ambienti controllati. Per superare questi limiti, abbiamo raccolto una serie di dati sintetici sfruttando un videogioco fotorealistico. Grazie all'utilizzo di un simulatore virtuale, le annotazioni sono prive di errori e sempre coerenti dato che non sono coinvolte operazioni manuali. Inoltre, i nostri dati sono adatti per applicazioni in-the-wild in quanto contengono un'elevata varietà di scenari e persone in ambienti non controllati. Tali dati sono conformi alle normative sulla privacy, in quanto nessun essere umano è stato coinvolto nell'acquisizione dei video. Sfruttando questi nuovi dati, sono stati condotti studi approfonditi su una serie di task. In particolare, per la pose estimation 2D e il tracking, abbiamo sviluppato un'architettura Deep che estrae congiuntamente i giunti delle persone e le associa su brevi intervalli temporali. Il nostro modello è in grado di ragionare esplicitamente riguardo a parti del corpo occluse, proponendo soluzioni plausibili di giunti non visibili. Per la pose estimation 3D, invece, abbiamo scelto di utilizzare heatmap volumetriche ad alta risoluzione per modellare le posizioni dei giunti, ideando un metodo di compressione semplice ed efficace per ridurre drasticamente le dimensioni di questa rappresentazione. Per l'attribute classification, abbiamo proposto una soluzione ad un problema comune nell'ambito della videosorveglianza, ovvero l'occlusione delle persone, progettando una rete neurale in grado di generare porzioni di persone occluse con un aspetto plausibile. Da un punto di vista pratico, abbiamo progettato un sistema di edge-AI in grado di valutare in tempo reale il rischio di contagio COVID-19 di un'area monitorata analizzando flussi video. Poiché i dati sintetici potrebbero essere suscettibili al domain-shift, abbiamo approfondito le tecniche di image-translation per head pose estimation, attribute recognition e face landmark localization.
Most recent Deep Learning techniques require large volumes of training data in order to achieve human-like performance. Especially in Computer Vision, datasets are expensive to create because they usually require a considerable manual effort that can not be automated. Indeed, manual annotation is error-prone, inconsistent for subjective tasks (e.g. age classification), and not applicable to particular data (e.g. high frame-rate videos). For some tasks, like pose estimation and tracking, an alternative to manual annotation implies the use of wearable sensors. However, this approach is not feasible under some circumstances (e.g. in crowded scenarios) since the need to wear sensors limits its application to controlled environments. To overcome all the aforementioned limitations, we collected a set of synthetic datasets exploiting a photorealistic videogame. By relying on a virtual simulator, the annotations are error-free and always consistent as there is no manual annotation involved. Moreover, our data is suitable for in-the-wild applications as it contains multiple scenarios and a high variety of people appearances. In addition, our datasets are privacy compliant as no real human was involved in the data acquisition. Leveraging this newly collected data, extensive studies have been conducted on a plethora of tasks. In particular, for 2D pose estimation and tracking, we propose a deep network architecture that jointly extracts people body parts and associates them across short temporal spans. Our model explicitly deals with occluded body parts, by hallucinating plausible solutions of not visible joints. For 3D pose estimation, we propose to use high-resolution volumetric heatmaps to model joint locations, devising a simple and effective compression method to drastically reduce the size of this representation. For attribute classification, we overcome a common problem in surveillance, namely people occlusion, by designing a network capable of hallucinating occluded people with a plausible aspect. From a more practical point of view, we design an edge-AI system capable of evaluating in real-time the COVID-19 contagion risk of a monitored area by analyzing video streams. As synthetic data might suffer domain-shift related problems, we further investigate image translation techniques for the tasks of head pose estimation, attribute recognition and face landmark localization.
APA, Harvard, Vancouver, ISO, and other styles
16

FERRARETTI, Denis. "Data Mining for Petroleum Geology." Doctoral thesis, Università degli studi di Ferrara, 2012. http://hdl.handle.net/11392/2389427.

Full text
Abstract:
In petroleum geology, exploration and production wells are often analysed using image logs, because they provide a visual representation of the borehole surface and they are fundamental to retrieve information on bedding and rocks characteristics. Aim of this Ph.D. work was to define and implement a suite of automatic and semi-automatic tools for interpretation of image logs and large datasets of subsurface data coming from geological exploration. This led to the development of I2AM (Intelligent Image Analysis and Mapping), a semi-automatic system that exploits image processing algorithms and artificial intelligence techniques to analyse and classify borehole images. More in detail, the objectives of the I2AM approach are: (1) to automatically extract rock properties information from all the different types of data recorded/measured in the wells, and visual features from image logs in particular; (2) to identify clusters along the wells that have similar characteristics; (3) to predict class distribution over new wells in the same area. The main benefits of this approach are the ability to manage and use a large amount of subsurface data simultaneously. Moreover, the automatic identification of similar portions of wells by hierarchical clustering saves a lot of time for the geologist (since he analyses only the previously identified clusters). The interpretation time reduces from days to hours and subjectivity errors are avoided. Moreover, chosen clusters are the input for supervised learning methods which learn a classification that can be applied to new wells. Finally, the learned models can also be studied for a cluster characterization, in a descriptive approach.
APA, Harvard, Vancouver, ISO, and other styles
17

VIRGILI, LUCA. "Graphs behind data: A network-based approach to model different scenarios." Doctoral thesis, Università Politecnica delle Marche, 2022. http://hdl.handle.net/11566/295088.

Full text
Abstract:
Al giorno d’oggi, i contesti che possono beneficiare di tecniche di estrazione della conoscenza a partire dai dati grezzi sono aumentati drasticamente. Di conseguenza, la definizione di modelli capaci di rappresentare e gestire dati altamente eterogenei è un argomento di ricerca molto dibattuto in letteratura. In questa tesi, proponiamo una soluzione per affrontare tale problema. In particolare, riteniamo che la teoria dei grafi, e più nello specifico le reti complesse, insieme ai suoi concetti ed approcci, possano rappresentare una valida soluzione. Infatti, noi crediamo che le reti complesse possano costituire un modello unico ed unificante per rappresentare e gestire dati altamente eterogenei. Sulla base di questa premessa, mostriamo come gli stessi concetti ed approcci abbiano la potenzialità di affrontare con successo molti problemi aperti in diversi contesti. ​
Nowadays, the amount and variety of scenarios that can benefit from techniques for extracting and managing knowledge from raw data have dramatically increased. As a result, the search for models capable of ensuring the representation and management of highly heterogeneous data is a hot topic in the data science literature. In this thesis, we aim to propose a solution to address this issue. In particular, we believe that graphs, and more specifically complex networks, as well as the concepts and approaches associated with them, can represent a solution to the problem mentioned above. In fact, we believe that they can be a unique and unifying model to uniformly represent and handle extremely heterogeneous data. Based on this premise, we show how the same concepts and/or approach has the potential to address different open issues in different contexts. ​
APA, Harvard, Vancouver, ISO, and other styles
18

Dashdorj, Zolzaya. "Semantic Enrichment of Mobile Phone Data Records Exploiting Background Knowledge." Doctoral thesis, Università degli studi di Trento, 2015. https://hdl.handle.net/11572/367796.

Full text
Abstract:
Every day, billions of mobile network log data (commonly defined as Call Detailed Records, or CDRs) are generated by cell phones operators. These data provide inspiring insights about human actions and behaviors, which are essentials in the development of context aware appli- cations and services. This potential demand has fostered major research activities in a variety of domains such as social and economic development, urban planning, and health prevention. The major challenge of this thesis is to interpret CDR for human activity recognition, in the light of background knowledge of the CDR data context. Indeed each entry of the CDR is as- sociated with a context, which describes the temporal and spatial location of the user when a particular network data has been generated by his/her mobile devices. Knowing, by leveraging available Web 2.0 data sources, (e.g., Openstreetmap) this research thesis proposes to develop a novel model from combination of logical and statistical reasoning standpoints for enabling human activity inference in qualitative terms. The results aimed at compiling human behavior predictions into sets of classification tasks in the CDRs. Our research results show that Point of Interest (POI)s are a good proxy for predicting the content of human activities in an area. So the model is proven to be effective for predicting the context of human activity, when its total level could be efficiently observed from cell phone data records.
APA, Harvard, Vancouver, ISO, and other styles
19

Dashdorj, Zolzaya. "Semantic Enrichment of Mobile Phone Data Records Exploiting Background Knowledge." Doctoral thesis, University of Trento, 2015. http://eprints-phd.biblio.unitn.it/1612/1/PhD-Thesis.pdf.

Full text
Abstract:
Every day, billions of mobile network log data (commonly defined as Call Detailed Records, or CDRs) are generated by cell phones operators. These data provide inspiring insights about human actions and behaviors, which are essentials in the development of context aware appli- cations and services. This potential demand has fostered major research activities in a variety of domains such as social and economic development, urban planning, and health prevention. The major challenge of this thesis is to interpret CDR for human activity recognition, in the light of background knowledge of the CDR data context. Indeed each entry of the CDR is as- sociated with a context, which describes the temporal and spatial location of the user when a particular network data has been generated by his/her mobile devices. Knowing, by leveraging available Web 2.0 data sources, (e.g., Openstreetmap) this research thesis proposes to develop a novel model from combination of logical and statistical reasoning standpoints for enabling human activity inference in qualitative terms. The results aimed at compiling human behavior predictions into sets of classification tasks in the CDRs. Our research results show that Point of Interest (POI)s are a good proxy for predicting the content of human activities in an area. So the model is proven to be effective for predicting the context of human activity, when its total level could be efficiently observed from cell phone data records.
APA, Harvard, Vancouver, ISO, and other styles
20

Amelio, Alessia, Luigi Palopoli, and Clara Pizzuti. "Pattern extraction from data with application to image processing." Thesis, 2012. http://hdl.handle.net/10955/1171.

Full text
Abstract:
Dottorato di Ricerca in Ingegneria dei Sistemi e Informatica, Ciclo XXV, a.a. 2012
The term Information Extraction refers to the automatic extraction of structured information from data. In such a context, the task of pattern extraction plays a key role, as it allows to identify particular trends and recurring structures of interest to a given user. For this reason, pattern extraction techniques are available in a wide range of applications, such as enterprise applications, personal information management, web oriented and scientific applications. In this thesis, analysis is focused on pattern extraction techniques from images and from political data. Patterns in image processing are defined as features derived from the subdivision of the image in regions or objects and several techniques have been introduced in the literature for extracting these kinds of features. Specifically, image segmentation approaches divide an image in ”uniform” region patterns and both boundary detection and region-clustering based algorithms have been adopted to solve this problem. A drawback of these methods is that the number of clusters must be predetermined. Furthermore, evolutionary techniques have been successfully applied to the problem of image segmentation. However, one of the main problems of such approaches is the determination of the number of regions, that cannot be changed during execution. Consequently, we formalize a new genetic graph-based image segmentation algorithm that, thanks to the new fitness function, a new concept of neighborhood of pixels and the genetic representation, is able to partition images without the need to set a priori the number of segments. On the other hand, some image compression algorithms, recently proposed in literature, extract image patterns for performing compression, such as extensions to 2D of the classical Lempel-Ziv parses, where repeated occurrences of a pattern are substituted by a pointer to that pattern. However, they require a preliminary linearization of the image and a consequent extraction of linear patterns. This could miss some 2D recurrent structures which are present inside the image. We propose here a new technique of image compression which extracts 2D motif patterns from the image in which also some pixels are omitted in order to increase the gain in compression and which uses these patterns to perform compression. About pattern extraction in political science, it consists in detecting voter profiles, ideological positions and political interactions from political data. Some proposed pattern extraction techniques analyze the Finnish Parliament and the United States Senate in order to discover political trends. Specifically, hierarchical clustering has been employed to discover meaningful groups of senators inside the United States Senate. Furthermore, different methods of community detection, based on the concept of modularity, have been used to detect the hierarchical and modular design of the networks of U.S. parliamentarians. In addition, SVD has been applied to analyze the votes of the U.S. House of Representatives. In this thesis, we analyze the Italian Parliament by using different tools coming from Data Mining and Network Analysis with the aim of characterizing the changes occurred inside the Parliament, without any prior knowledge about the ideology or political affiliation of its representatives, but considering only the votes cast by each parliamentarian.
Università della Calabria
APA, Harvard, Vancouver, ISO, and other styles
21

Reale, Maria. "Il procedimento amministrativo informatico." Thesis, 2012. http://eprints.bice.rm.cnr.it/12719/1/Reale_Proc_amm_informatico_def.pdf.

Full text
Abstract:
The present study focuses attention on the legal framework governing the administrative procedure and regulations relating to the digital administration introduced by Digital Administration Code, in particular on the legal recognition of electronic documents and the role played by digitalization, with a view on improvement of services offered to citizens by Public Administration. Innovating Public Administration? You can do it!
APA, Harvard, Vancouver, ISO, and other styles
22

MASSARO, CRESCENZO. "Elaborazione di procedure per la bonifica e gestione dei rifiuti contenenti amianto, anche sulla base di dati analitici ottenuti con tecniche innovative." Doctoral thesis, 2023. https://hdl.handle.net/11573/1666824.

Full text
Abstract:
Il presente progetto di ricerca nato dalla collaborazione tra l’INAIL (Dipartimento innovazioni tecnologiche e sicurezza degli impianti, prodotti e insediamenti antropici) e l’Università “La Sapienza” (Dipartimento Ingegneria chimica materiali ambiente), è stato un lungo lavoro interdisciplinare incentrato sull’elaborazione di procedure per la classificazione e bonifica in sicurezza dei siti contaminati da amianto e per l’idonea gestione dei rifiuti contenenti amianto prodotti da tali attività. In particolare, sono stati affrontati e analizzati i vari aspetti della problematica: dalla mappatura e caratterizzazione dei siti, bonifiche, fino allo smaltimento in discarica dei rifiuti contaminati; valutando in particolar modo, la possibilità di applicare tecnologie innovative per una corretta e sicura classificazione dei rifiuti contenenti amianto, e per ridurre i rischi per i lavoratori coinvolti nelle varie fasi di lavoro legate alla loro manipolazione. In particolare la presente tesi di dottorato è stata divisa in quattro parti sostanziali: i) Analisi e studio delle principali problematiche, stato dell’arte delle bonifiche nei siti da bonificare di interesse Nazionale (Sin) con particolare riferimento ai siti principalmente contaminati da amianto; ii) Studio e messa a punto di una procedura operativa per la gestione dei suoli contaminati da amianto di origine antropica; iii) L’analisi delle principali tecniche di inertizzazione dell’amianto (trattamento termico e biochimico) con messa a punto di specifiche istruzioni operative e misure di sicurezza da adottare in tali impianti; iv) Utilizzo di algoritmi di tipo chemiometrico per operare il riconoscimento dei campioni “contaminati” e “non contaminati” da amianto (crisotilo), in particolare è stato effettuato uno studio preliminare per valutare la risposta spettrale in classificazione su campioni di materiali contenenti amianto mediante spettroscopia puntuale.
APA, Harvard, Vancouver, ISO, and other styles
23

Coppola, Fabrizio. "Le unità di controllo del supercalcolatore A.P.E." Thesis, 1987. http://eprints.bice.rm.cnr.it/3855/1/Coppola-Tesi-Fisica-Pisa-1987.pdf.

Full text
Abstract:
Secondo il modello standard, i protoni, neutroni e gli altri adroni sono costituiti da quark di diversi "sapori" e "colori" e legati dai gluoni, portatori della forza nucleare forte. La teoria che descrive le interazioni forti all'interno degli adroni è la "Cromodinamica Quantistica" (Quantum Chromo Dynamics, QCD) così chiamato dal numero quantico detto "colore" (che è un nome arbitrario che in realtà non ha relazione coi colori dell'ottica classica). I calcoli richiesti dalla QCD in regime non perturbativo sono molto complicati e non possono essere risolti analiticamente, per cui negli anni '80 alcuni gruppi di fisici hanno iniziato a progettare, costruire e programmare dei supercomputer dedicati a calcoli di teorie di gauge (compresa la QCD) su reticolo (cioè su un numero discreto di punti). Tra questi emerge il supercalcolatore APE (Array Processor Experiment) costruito dall'INFN a partire dal 1986. Questa tesi esamina le efficienze delle unità di controllo di APE operative nel 1987, proponendo un loro miglioramento ed ampliamento che successivamente porterà al progetto APE100, che nel 1991 diventerà il calcolatore più potente al mondo (in assoluto e non solo tra quelli dedicati a questo tipo di calcoli), fornendo per le masse degli adroni dei risultati sufficientemente validi e compatibili con la teoria.
APA, Harvard, Vancouver, ISO, and other styles
24

NOBILE, ALESSIA. "I sistemi a scansione 3D per la documentazione metrica e lo studio diagnostico dei Beni Culturali. Dalla scala edilizia alla scala urbana. I casi studio della Basilica dell’Umiltà di Pistoia e delle Torri di San Gimignano." Doctoral thesis, 2013. http://hdl.handle.net/2158/797885.

Full text
Abstract:
L’attività di ricerca si è sviluppata con l’obiettivo di sperimentare i metodi e le tecniche di acquisizione, gestione e rappresentazione tridimensionale mediante l’uso del laser scanner per offrire un valido supporto alla documentazione e alla diagnostica finalizzate alla conservazione del nostro patrimonio culturale costruito. L’ampia diffusione delle tecniche di scansione non ci consente ancora di considerare concluso un tema di ricerca che erroneamente oggi si identifica soprattutto con la fase di “acquisizione dei dati”. Il problema è in realtà posposto alle fasi successive di elaborazione e rappresentazione e sono molti i quesiti a cui si cerca di rispondere in un tentativo di integrazione culturale tra restauro, geomatica ed elettronica: è insieme una sfida e una opportunità dove si tenta di superare le barriere linguistiche, dovute a differenti ambiti culturali, diversi approcci metodologici e vari percorsi formativi. Lo studio è condotto a livello multi-scala: a scala dell’edificio, con la Basilica di Santa Maria dell’Umiltà di Pistoia, nell’ambito della convenzione di ricerca stipulata tra il Laboratorio di Geomatica per i Beni Culturali dell’Università degli Studi di Firenze e la Soprintendenza per il Patrimonio Storico Artistico ed Etnoantropologico per le province di Firenze, Pistoia e Prato, in vista del restauro e del consolidamento dell’importante struttura rinascimentale; a scala urbana, con le Torri di San Gimignano, in occasione del progetto “RIschio Sismico negli Edifici Monumentali (RISEM)” finanziato dalla Regione Toscana e coordinato dal Dipartimento di Ingegneria Civile e Ambientale dell’Università degli Studi di Firenze, per la definizione del rischio sismico. I casi studio analizzati hanno portato alla consapevolezza che, a partire dalla banca dati tridimensionale, sempre aggiornabile e interrogabile, è possibile modulare l’elaborazione in funzione degli obiettivi interdisciplinari condivisi. Si propone, pertanto, un utilizzo nuovo della tecnica di rilievo laser scanning: l’attenzione non si pone specificatamente sugli elementi artistici e architettonici e lo scopo non è solo restituire in modalità tridimensionale un oggetto al fine di effettuare valutazioni qualitative di natura storica e culturale. L’idea è approcciarsi al dato laser con occhio critico nei confronti della struttura stessa e delle geometrie più o meno complesse. L’attenzione si sposta sugli elementi costitutivi e costruttivi, su eventuali testimonianze di fessurazioni e deformazioni critiche per l’effettiva stabilità della struttura. La necessità di disporre di un “modello irrefutabile”, a cui riferire le scelte progettuali, costituisce l’ossatura portante della ricerca. Goal of the research has been to test laser scanning acquisition, management and threedimensional representation methods and techniques to provide a valid documentation and diagnostics support aimed at the preservation of our cultural built heritage. The widespread use of scanning techniques does not allow to consider concluded yet a research topic that today is mistakenly identified especially with the phase of data acquisition. Actually the problem is postponed to the later stages of processing and representation and there are many issues partially solved through an attempt of cultural integration between restoration, geomatics and electronics: it is both a challenge and an opportunity, which carries along an effort to overcome language barriers, due to different cultural backgrounds, methodological approaches and educational paths. The study has been conducted with a multi-scale approach: at the building scale, with focus on the Basilica of Santa Maria dell’Umiltà in Pistoia, within the research agreement signed by the Laboratory of Geomatics for Cultural Heritage of the University of Florence and the Soprintendenza per il Patrimonio Storico Artistico ed Etnoantropologico per le province di Firenze, Pistoia e Prato, in view of the restoration and reinforcement of the relevant Renaissance architecture; at the urban scale, within the project “Seismic Risk in Monumental Buildings (RISEM)” funded by the Region of Tuscany and coordinated by the Department of Civil and Environmental Engineering of the University of Florence, for the seismic risk evaluation related to the San Gimignano towers. The above-mentioned case-studies raised the awareness that, on the basis of the 3D data set, which can be updated and queried at any time, it’s always possible to adjust the processing phase according to the fixed interdisciplinary goals. It is therefore proposed a new use of the laser scanning surveying technique: attention is not specifically given to the artistic and architectural elements and the aim is not only to represent an object in three-dimensions in order to make qualitative assessments on its historical and cultural value. The idea is to read data from laser scanning with the intent to review critically the structure and the more or less complex geometries. Focus is shifted on the constituent and constructive elements, on any evidence of cracks and deformations which may weaken the stability of the structure. The need for an “irrefutable model”, which can be used to orient any restoration plan, globally frames the research.
APA, Harvard, Vancouver, ISO, and other styles
25

Triggiani, Maurizio. "Integration of machine learning techniques in chemometrics practices." Doctoral thesis, 2022. http://hdl.handle.net/11589/237998.

Full text
Abstract:
Food safety is a key objective in all the development plans of the European Union. To ensure the quality and the sustainability of the agricultural production (both intensive and extensive) a well-designed analysis strategy is needed. Climate change, precision agriculture, green revolution and industry 4.0 are areas of study that need innovative practices and approaches that aren’t possible without precise and constant process monitoring. The need for product quality assessment during the whole supply chain is paramount and cost reduction is also another constant need. Non targeted Nuclear Magnetic Resonance (NMR) analysis is still a second-choice approach for food analysis and monitoring, one of the problems of this approach is the big amount of information returned. This kind of data needs a new and improved method of handling and analysis. Classical chemometrics practices are not well suited for this new field of study. In this thesis, we approached the problem of food fingerprinting and discrimination by the means of non-targeted NMR spectroscopy combined with modern machine learning algorithms and databases meant for the correct and easy access of data. The introduction of machine learning techniques alongside the clear benefits introduces a new layer of complexity regarding the need for trusted data sources for algorithm training and integrity, if this kind of approach proves is worth in the global market, we’ll need not only to create a good dataset, but we’ll need to be prepared to defend against also more clever attacks like adversarial machine learning attacks. Comparing the machine learning results with the classic chemometric approach we’ll highlight the strengths and the weakness of both approaches, and we’ll use them to prepare the framework needed to tackle the challenges of future agricultural productions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography