Siga este enlace para ver otros tipos de publicaciones sobre el tema: Analisi di dati multivariata.

Tesis sobre el tema "Analisi di dati multivariata"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Analisi di dati multivariata".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Zappala', Luigi. "Analisi ed implementazione di metodi geomatici per l'elaborazione di dati geopetrologici interoperibilità, geostatistica e classificazione di immagini multispettrali a raggi X". Doctoral thesis, Università di Catania, 2014. http://hdl.handle.net/10761/1570.

Texto completo
Resumen
La presente tesi di dottorato ha avuto come oggetto principale dell attività di ricerca lo studio della geomatica l.s. quale strumento fondamentale utile all archiviazione, trattazione, elaborazione e sviluppo di tecniche di interpolazione ed analisi quantitativa di dati provenienti da diverse fonti di acquisizione in campo geoscientifico. La geomatica, è stata qui intesa quale strumento di sintesi tra, l insieme delle conoscenze derivanti dalle discipline del rilevamento geologico, con quelle discipline geoscientifiche relative all acquisizione e al trattamento di dati alla scala micrometrica (ad es. Petrografia, Geochimica, Petrologia etc ) al fine di sviluppare una serie di protocolli e strumenti atti a collegare in maniera interoperabile (i.e. in grado di far dialogare in modo automatico i sistemi informatici) e completa dati articolati e complessi, comunque riconducibili ad una primitiva geografica, identificata dal punto di campionamento. Su tale base l attività di ricerca, basata su tre fasi distinte, ha consentito di: I. sviluppare un geo-database prototipale contenente tutte le informazioni relative alle analisi dei campioni di roccia alle diverse scale di osservazione, provenienti da diverse fonti strumentali; II. applicare ad un area pilota (il batolite di Squillace-Petrizzi Calabria centro orientale) alcune tecniche di interpolazione in grado di minimizzare i limiti intrinseci di una campionatura in campo geologico (ad es. distribuzione randomica e discontinua dei punti di campionamento), affiancando a queste tecniche lo sviluppo di un nuovo algoritmo atto a realizzare in maniera automatica mappe geo-litologiche su base TAS (Total Alkali Silica); III. sviluppare un insieme di strumenti in parte originali, atti ad analizzare, attraverso tecniche di analisi statistica multivariata, immagini a raggi X di campioni di rocce metamorfiche provenienti dall area di Mammola (zona meridionale del Massiccio delle Serre Calabria) con lo scopo di integrare i dati minero-chimici puntuali con mappe micro-tessiturali di tipo quantitativo ottenute su metapeliti a granato. I risultati ottenuti alla fine del triennio di attività hanno consentito di verificare come la geomatica, intesa nella sua trasversalità più ampia, sia ancora alle fasi iniziali del suo sviluppo, specialmente in alcuni campi geoscientifici. In tale contesto, scopo principale della presente tesi è stato quello di fornire al lettore uno strumento completo e versatile sullo stato dell arte ad oggi dell utilizzo delle tecniche geomatiche in campo geoscientifico, con particolare riferimento all ambito geo-petrologico. A tale obiettivo è stato altresì affiancato quello di testare ed in parte integrare, con nuovi ed opportuni algoritmi, nuove tecniche geomatiche in grado di: gestire, interpolare e trattare dati geo-petrologici a scala variabile da quella dell affioramento a quella della sezione sottile.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

TRUSSONI, FRANCESCA. "I fattori di rischio e protettivi al disagio scolastico in adolescenza: l'analisi multivariata dei dati su uno studio longitudinale". Doctoral thesis, Università degli Studi di Milano-Bicocca, 2010. http://hdl.handle.net/10281/8744.

Texto completo
Resumen
This work explores the evolution of psychological variables that evaluate adolescents’ experience of school aiming to study (and prevent) drop-out. Data from a 3-wave longitudinal panel (N = 235, measured at 12, 15 and 17 years of age) were used to estimate a structural equations model with the same observed variables, scales adapted from another longitudinal study (Borricua Chidren Interview, Bird, 2006), in the three waves as indicators of risk or protection factors with the factors linked over time predicting school experience of the adolescents. A specific questionnaire, S.I.D (Self Inventory in-school drop-out) was constructed to probe the reasons for feeling uneasy at school (covert drop-out). The resulting structural equation model identified 3 scales - self-esteem, coping and social supports- as protective, and 4 scales - association with deviant peers, delinquency behaviour/attitude, and sensations seeking – as risk factors for covert drop-out in S.I.D. The loadings of the observed variables vary over time. The role of relational variables is determinant at 17 years, when peer relationships are obviously relevant, both in term of risk (deviant peers), and in term of protection (social support). Implications for current practice and future research are discussed for understanding the etiology of in-school drop-out and adopting specific prevention strategy to improve the quality of school experience during adolescence.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

LADISLAO, Luigi. "Analisi non-lineare di dati posturografici". Doctoral thesis, Università Politecnica delle Marche, 2006. http://hdl.handle.net/11566/242669.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Gottardo, Marco <1979&gt. "Studio mediante analisi multivariata di approcci innovativi nel trattamento anaerobico di FORSU". Doctoral thesis, Università Ca' Foscari Venezia, 2015. http://hdl.handle.net/10579/8326.

Texto completo
Resumen
Il processo di digestione anaerobica è al momento l’approccio più indicato per il trattamento della frazione organica del rifiuto solido urbano. Tale processo, infatti, permette di generare bassi impatti negativi a carico dell’ambiente, grazie alla maggior facilità nel controllare ed impedire fuoriuscite di inquinanti sia di natura gassosa che liquida, e produrre un vettore energetico che, derivando dal materiale di rifiuto, è di natura rinnovabile. Sebbene tale trattamento è oggetto di studio da diversi anni, attualmente non può dirsi ancora del tutto sviluppato. Ne sono prova gli argomenti affrontati in questo lavoro di tesi, che hanno avuto come oggetto la valorizzazione del processo di digestione inserito in una nuova configurazione di trattamento congiunto anaerobico – aerobico, e la fattibilità e la gestione di processi per la produzione di un biofuel di seconda generazione per motori a combustione interna, noto come BioHythane. Attraverso un approccio analitico di tipo multivariato, necessario dato il numero di variabili utilizzate per lo studio dei processi, è stato possibile analizzarli rilevando diversità e migliorie in funzione delle diverse condizioni operative scelte, individuando pertanto quelle che meglio si adattano allo scopo prefissato.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Checcoli, Andrea. "Analisi di mobillità pedonale mediante dati di telefonia georeferenziati". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14600/.

Texto completo
Resumen
Al fine di organizzare al meglio le città del futuro occorrono nuovi strumenti in grado di analizzare e comprendere il comportamento delle persone nelle aree urbane. In questo elaborato viene illustrata la costruzione di un modello teorico relativo alla mobilità pedonale nella città di Venezia a partire dall'analisi di dati di telefonia mobile, rilevati nella giornata del 26 Febbraio 2017. Vengono in seguito mostrate le differenti fasi necessarie alla realizzazione del modello a partire dall'elaborazione preliminare dei data set a disposizione e focalizzando poi l'attenzione sugli algoritmi di georeferenziazione disponibili in letteratura. Una volta ultimata l'analisi dati, vengono esposti i concetti teorici che stanno alla base del modello realizzato ponendo l'accento sul carattere stocastico del fenomeno osservato si rivolge lo sguardo al risultato ottenuto portando alla luce le verifiche a cui viene sottoposto e le criticità che emergono nell'affrontare questo studio.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Campana, Luca. "Analisi di dati di traiettoria su piattaforma Big Data". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16220/.

Texto completo
Resumen
L’evoluzione delle tecnologie di geolocalizzazione ha portato, in questi ultimi anni, alla generazione di una grande quantità di dati spaziali. Tra questi, risultano particolarmente rilevanti i dati di traiettoria, cioè quei dati spazio-temporali che rappresentano il percorso di un oggetto attraverso lo spazio in funzione del tempo: questi dati sono di fondamentale importanza in molti ambiti applicativi, come quello della sicurezza, del trasporto o dell’ecologia. Lo sviluppo tecnologico sta però radicalmente trasformando i dati spaziali: i volumi, l’eterogeneità e la frequenza con cui arrivano eccedono le capacità delle tecnologie tradizionali. Queste nuove caratteristiche rendono allora necessaria l’adozione di tecnologie innovative. Questa tesi descrive lo studio e lo sviluppo di un’applicazione per l’analisi di dati di traiettoria su piattaforma Big Data. L’applicazione è in grado di estrarre una serie di informazioni, come l’abitazione, il luogo di lavoro o i luoghi frequentati, legate alle persone a cui i dati si riferiscono. Il contributo principale riguarda l’algoritmica per l’attività di clustering dei dati spazio-temporali: l’algoritmo di clustering grid e density-based utilizzato è risultato infatti più efficiente rispetto ai tradizionali algoritmi density-based ma egualmente efficace. Inoltre, l’applicazione dimostra la validità e l’efficienza delle tecnologie Big Data applicate a grandi volumi di dati spaziali.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Cova, Riccardo. "Analisi di dati citofluorimetrici con tecniche di Data Mining". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4774/.

Texto completo
Resumen
Il citofluorimetro è uno strumento impiegato in biologia genetica per analizzare dei campioni cellulari: esso, analizza individualmente le cellule contenute in un campione ed estrae, per ciascuna cellula, una serie di proprietà fisiche, feature, che la descrivono. L’obiettivo di questo lavoro è mettere a punto una metodologia integrata che utilizzi tali informazioni modellando, automatizzando ed estendendo alcune procedure che vengono eseguite oggi manualmente dagli esperti del dominio nell’analisi di alcuni parametri dell’eiaculato. Questo richiede lo sviluppo di tecniche biochimiche per la marcatura delle cellule e tecniche informatiche per analizzare il dato. Il primo passo prevede la realizzazione di un classificatore che, sulla base delle feature delle cellule, classifichi e quindi consenta di isolare le cellule di interesse per un particolare esame. Il secondo prevede l'analisi delle cellule di interesse, estraendo delle feature aggregate che possono essere indicatrici di certe patologie. Il requisito è la generazione di un report esplicativo che illustri, nella maniera più opportuna, le conclusioni raggiunte e che possa fungere da sistema di supporto alle decisioni del medico/biologo.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Minardi, Matteo. "Analisi comparata di tecnologie open-source per l'elaborazione di flussi di dati". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19760/.

Texto completo
Resumen
L'aumento della produzione di dati nel panorama informatico ha segnato da anni la nascita di vere e proprie realtà che basano le loro decisioni su informazioni estrapolate da elaborazioni intelligenti sui “dati'”. Le fonti che producono dati sono sempre di più, aumentano ogni giorno in maniera esponenziale. La quantità di dati prodotta supera di gran lunga le aspettative di qualche anno fa. L'obiettivo ora non è più quello di generare dati precisi e derivanti da dispositivi nuovi. Al giorno d'oggi qualsiasi smartphone possiede centinaia di sensori, ogni dispositivo ha accesso a piattaforme che producono flussi impensabili di dati connessi a informazioni preziose per realtà che hanno a che fare con il settore. Il problema odierno è come elaborare questi dati, come gestire questi flussi infiniti e imprevedibili di dati provenienti da fonti sconosciute e sparse. Una realtà informatica deve essere pronta a questo, una realtà informatica non può permettersi di lasciare indietro l'occasione di ricavare qualcosa da tutto questo. Così come i dati anche questa tesi intraprende un percorso. Il percorso parte affrontando nel primo capitolo i concetti base del panorama informatico che affronta queste tematiche. Il primo capitolo infatti fornisce un background generale sul dato in sé e le sue caratteristiche; prosegue chiarificando dove i dati vengono salvati e in che modalità. Ad un livello più tecnico viene spiegato con quali architetture fisiche e con quali pattern progettuali vengono gestiti ed elaborati questi dati in maniera efficiente. Dopo l'infarinatura generale vengono prese in esame una selezione di tecnologie moderne che manipolano flussi di dati di grandi dimensioni al fine di metterne in chiaro i vantaggi e le caratteristiche. Vengono presentati per ognuna di esse i concetti alla base, le motivazioni e gli obiettivi che rendono tutto ciò indispensabile per la creazione di un sistema complesso di elaborazione di dati.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Bonantini, Andrea. "Analisi di dati e sviluppo di modelli predittivi per sistemi di saldatura". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24664/.

Texto completo
Resumen
Il presente lavoro di tesi ha come obiettivo quello di predire la lunghezza dell'arco elettrico che si forma nel processo di saldatura MIG/MAG, quando un elettrodo fusibile (filo) si porta a una distanza opportuna dal componente che deve essere saldato. In questo caso specifico, la lega di materiale che forma il filo è fatta di Alluminio-Magnesio. In particolare, in questo elaborato sarà presentato l'impatto che avranno alcune grandezze fisiche, come tensione, corrente e velocità di trascinamento del filo che viene fuso, durante il procedimento della saldatura, e come queste influenzeranno la dimensione dell'arco. Più precisamente, sono stati creati dei modelli previsionali capaci di prevedere la lunghezza d'arco sulla base di tali grandezze, secondo due criteri distinti: black-box e knowledge-driven. Nello specifico, il capitolo uno prevede una panoramica sullo stato dell'arte della saldatura MIG/MAG, introducendo concretamente il Gruppo Cebora, le modalità di acquisizione dei dati e il modello fisico con cui al momento si calcola la lunghezza dell'arco elettrico. Il secondo capitolo mostra l'analisi dei dati e spiega le decisioni sperimentali che sono state prese per gestirli e comprenderli al meglio; inoltre, in questo capitolo si capirà l'accuratezza del modello di Cebora, confrontando le sue predizioni con i dati reali. Il terzo capitolo è più operativo e vengono presentate le prime rete neurali costruite, che possiedono un approccio black-box ed alcune manipolazioni sulla corrente. Il quarto capitolo sposta l'attenzione sul ruolo della tensione, e sono realizzate nuove reti con un approccio differente, ovvero knowledge-driven. Il quinto capitolo trae le conclusioni di questo elaborato, esaminando gli aspetti positivi e negativi dei migliori modelli ottenuti.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Bruno, Angela. "Analisi comparativa di soluzioni per la post-elaborazione di dati sperimentali". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10945/.

Texto completo
Resumen
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Lisi, Matteo. "Analisi di dati oceanografici ad alta ed altissima risoluzione". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16096/.

Texto completo
Resumen
Alla luce del concetto di Rapid Environmental Assessment (REA) è stata progettata una campagna di raccolta dati denominata MREA che fin delle prime edizioni (2007) ha visto impiegati mezzi e uomini al fine di effettuare osservazioni in situ. I dati così raccolti permetteranno di elaborare nowcast e successivamente forecast sufficientemente accurate e utili come supporto a varie attività operative in ambito costiero. Tra le applicazioni più importanti in campo civile sono comprese la gestione delle Zone Economiche Esclusive (EEZ), la pianificazione di dragaggi e la gestione di emergenze ambientali come episodi di oil spill o incidenti marittimi. Il lavoro di tesi proposto si occupa dell’elaborazione di una parte dei dati raccolti durante la campagna oceanografia MREA17 che ha interessato la zona di mare antistante il Golfo di La Spezia. Grazie all’ausilio di piattaforme di campionamento come Scanfish e CTD è stato possibile effettuare un monitoraggio su tre diverse scale di risoluzione spaziale passando dall’ordine dei chilometri a quello delle centinaia di metri. In secondo luogo, tramite l’ausilio della tecnica di analisi oggettiva e del software MatLab sono state elaborate delle mappe che descrivono la distribuzione delle variabili termodinamiche temperatura e salinità e di densità al fine di dimostrare che una rete osservativa come quella utilizzata per MREA17 è fondamentale se si vuole studiare l’oceano a livello di mesoscala e sottomesoscala.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Carello, Mattia. "Analisi di un Algoritmo di Inversione per dati di Risonanza Magnetica Nucleare (NMR)". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15181/.

Texto completo
Resumen
La stesura del presente elaborato si è occupata di analizzare la robustezza di un metodo di inversione per dati bidimensionali provenienti da Risonanza Magnetica Nucleare (NMR) chiamato I2DUPEN. L’algoritmo senza alcuna informazione a priori riguardante il rumore, indissolubilmente legato al segnale elettromagnetico, fornisce un’approssimazione della distribuzione dei valori dei tempi di rilassamento longitudinale e trasversale delle popolazioni di spin e l’insieme dei valori dei coefficienti di regolarizzazione del metodo di inversione per mezzo dell’utilizzo di metodi iterativi. Infatti, per costruzione, riuscire ad ottenere questi risultati significa risolvere un problema malposto che necessita di approcci specifici, come ad esempio l’aggiunta di un termine di regolarizzazione. L’algoritmo I2DUPEN utilizza alcuni parametri specifici (β0,βp,βc) per calcolare il termine di regolarizzazione, i cui valori determinano la sua capacità di ottenere affidabili distribuzioni NMR. La sua implementazione numerica richiede l’utilizzo di una serie di algoritmi iterativi. Tali algoritmi sono caratterizzati da parametri specifici, diversi da quelli richiesti dal calcolo della regolarizzazione; si tratta in particolare di tolleranze che controllano le iterazioni. L’obiettivo della presente tesi è stato quello di individuare un set di parametri per gli algoritmi numerici indipendente dai dati processati e dai valori dei parametri di I2DUPEN. Oltre a ricercare questo insieme di parametri, si è investigato sull’eventuale correlazione esistente tra i parametri esaminati e sulla loro distinzione in parametri che dipendono dalla natura del campione e parametri che invece non dipendono dalla sua natura. La sperimentazione numerica è stata realizzata utilizzando il software 2DUpenWin, che realizza l’algoritmo I2DUPEN. In questo modo è stato possibile fornire un insieme di parametri di default, utile per un eventuale sviluppo commerciale del software.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Borelli, Giovanni. "Acquisizione ed analisi di dati utilizzando cloud computing: uno studio di fattibilità". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/1865/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Bergantin, Laura <1994&gt. "Analisi empirica dei dati di SREP delle banche italiane di classe tre". Master's Degree Thesis, Università Ca' Foscari Venezia, 2019. http://hdl.handle.net/10579/15141.

Texto completo
Resumen
L’elaborato si basa su un’analisi empirica dei dati del Processo di Revisione e Valutazione Prudenziale delle banche italiane di classe tre. I primi due capitoli sono di carattere teorico, il primo è un’overview dell’attività bancaria e quali sono i rischi e gli obblighi in termini di requisiti patrimoniali che sono costrette a rispettare, mettendo anche in evidenza come questi si sono sviluppati nel corso del tempo. Il secondo capitolo si concentra invece sulla spiegazione dei cambiamenti che sono avvenuti nell’ambito della vigilanza e le necessità che hanno portato allo sviluppo e alla creazione di questo processo da parte delle autorità di vigilanza, inoltre, vi è una parte descrittiva sia del SREP sia del Processo Interno di Valutazione dell’Adeguatezza Patrimoniale (ICAAP). Sarà posta molta attenzione sulla descrizione di questi due processi in quanto il terzo capitolo si baserà proprio sull’analisi empirica tra ICAAP e SREP per valutare se, e a che livello, vi è coerenza tra i due. L’aspetto interessante dell’analisi empirica, oltre al confronto del livello di patrimonializzazione espresso in termini monetari, sarà vedere come delle stesse grandezze (numero ed esposizione ai rischi, procedure di gestione e livelli di patrimonializzazione, ecc..) possano essere interpretate in modo diverso in base ad un punto di vista interno alla banca (dato dall’ICAAP) ed un punto di vista esterno (dato dal SREP che viene effettuato dalle Autorità di Vigilanza).
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Tagliapietra, Marco. "Aspetti computazionali nell'analisi delle componenti principali". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20692/.

Texto completo
Resumen
Nella seguenti tesi si dimostra come l'analisi delle componenti principali sia un efficiente metodo di analisi dei dati. Esso ha un duplice obbiettivo: la riduzione dei dati e la loro interpretazione. Si analizza la struttura algebrica e quella geometrica delle componenti principali nel dettaglio e infine si porta un esempio in ambito sportivo esplicativo della teoria prima analizzata. Viene anche riportata la parte computazionale relativo all'esempio con la spiegazione dell'algoritmo eig.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Flemma, Vito Giuseppe. "Processi di degassamento di laghi craterici iperacidi: analisi del fenomeno attraverso i dati di prove di laboratorio e confronto con dati empirici". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10141/.

Texto completo
Resumen
Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Salvatori, Riccardo. "Analisi delle strategie di modellazione dei dati su database NoSQL". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23172/.

Texto completo
Resumen
Negli ultimi anni, i sistemi NoSQL si sono rivelati una soluzione efficace alle stringenti esigenze del web e dei sistemi di big data, grazie alle caratteristiche di scalabilità e flessibilità che superano le limitazioni imposte dai classici RDBMS. La crescente popolarità è accompagnata però dalla mancanza di metodologie generali ed efficaci per la modellazione di dati, che permettano di sfruttare al meglio le possibilità offerte dal mondo non relazionale. Infatti, a differenza dei database relazionali, per cui esiste una vasta letteratura sul tema, molte tecniche di progettazione in ambito NoSQL sono proposte sotto forma di linee guida e best practice, per lo più dettate dall'esperienza, che spesso vanno adattate al carico di lavoro e alla specifica implementazione. In questa tesi sono state analizzate le diverse strategie di modellazione in ambito NoSQL, evidenziando il ruolo fondamentale che hanno nel determinare le prestazioni finali del database. L'analisi è stata effettuata utilizzando il benchmark TPC-C, su due popolari database NoSQL: MongoDB e Cassandra. Inoltre, è stato progettato un indicatore che permette di avere un'approssimazione a priori delle prestazioni di una de-normalizzazione. L'indicatore si è dimostrato efficace per i database MongoDB e Cassandra nell'individuare le modellazioni dei dati ottimali per il carico di lavoro previsto.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Ferracin, Andrea. "Acquisizione, ricostruzione ed analisi di dati rotazionali da dispositivo mobile". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6704/.

Texto completo
Resumen
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Michelucci, Fabio. "Approccio spettroscopico mediante guida d'onda e analisi multivariata per la discriminazione della qualità di oli vergini di oliva". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Buscar texto completo
Resumen
La determinazione della qualità dell’olio vergine di oliva e la definizione dell’appartenenza del prodotto ad una specifica categoria merceologica (extra vergine, vergine, lampante) può essere ottenuta mediante la valutazione organolettica effettuando il Panel test. Quest’ ultimo è attuato da un gruppo di assaggiatori esperti (panel), guidati da un capo-panel, e ha l’obiettivo di identificare e quantificare i principali attributi sensoriali (positivi e negativi) stabilendo, sulla base dei risultati, la categoria merceologica di appartenenza del prodotto. Lo scopo di questo lavoro di tesi è stato quello di valutare l’applicabilità di un metodo strumentale che, attraverso un approccio di screening rapido, possa supportare l’analisi sensoriale, fornendo una discriminazione degli oli analizzati in funzione della loro qualità (categoria merceologica). Per tale finalità, un set di 42 oli di oliva vergini provenienti dalla Spagna e dalla Croazia, classificati nelle tre categorie merceologiche sulla base del Panel test, è stato analizzato mediante guida d’onda che ha consentito di esaminare le forme d’onda, sia del guadagno che della fase, nell’intervallo di frequenza 1,6 -2,7 GHz. Dai risultati ottenuti, per diversi intervalli di frequenza gli spettri del guadagno sembrano essere influenzati dalla categoria merceologica. Inoltre, l’analisi delle componenti principali (PCA), condotta a partire da tale informazione spettrale, ha consentito, in linea generale, la discriminazione tra oli extra vergini, vergini e lampanti. Infine, la successiva Hierarchical Cluster Analysis ha permesso di identificare clusters distinti per i campioni lampanti e quelli extra vergini e vergini.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Ebli, Gaia. "Valutazione dell'usabilità delle piattaforme di alto livello di visualizzazione e analisi dei dati". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24785/.

Texto completo
Resumen
Oggigiorno il machine learning è parte integrante della quotidianità, oltre ad essere impiegato anche in molti altri campi come in medicina e in politica. Questa crescente permeazione del machine learning in aree differenti da quella informatica rende necessario modificare l’approccio alla materia per permettere anche a chi non ha una formazione specifica di mettere in campo tecniche di machine learning per riuscire a dare un’interpretazione più completa ai dati a disposizione. Nel corso degli anni sono state percorse strade differenti nel tentativo di rendere il machine learning più accessibile, dalla semplificazione degli algoritmi all’utilizzo di interfacce grafiche interattive. Quest’ultima modalità è attualmente la più apprezzata e più utilizzata, ma non è priva di insidie. In questo volume di tesi vengono esaminate tre piattaforme che utilizzano questa metodologia (Weka, KNIME e Orange) valutandone usabilità e user engagement per rilevare punti di forza e criticità.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Pascuzzo, Riccardo. "Nuovi metodi di analisi di dati epigenetici per la previsione dell'età del paziente". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6950/.

Texto completo
Resumen
Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Bragagni, Cristiano. "Progettazione di uno strumento di analisi dati per sistemi SCADA-ENERGY Management System". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7927/.

Texto completo
Resumen
L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Perrino, Silvia. "Internet of Things collaborativo: progettazione ed analisi di una piattaforma di aggregazione di dati sensoristici". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10887/.

Texto completo
Resumen
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Defendi, Valentina <1974&gt. "Variabiltà climatica: analisi di serie temporali lunghe e di un nuovo set di dati antartici". Doctoral thesis, Università Ca' Foscari Venezia, 2004. http://hdl.handle.net/10579/871.

Texto completo
Resumen
Lo studio del clima attualmente è una delle discipline di maggiore interesse per la comunità scientifica, a causa dei possibili impatti delle attività umane sul clima. Il clima è un sistema molto complesso di componenti interagenti tra loro su un ampio spettro di scale spaziali e temporali diverse. È necessario, quindi, ricorrere ad un approccio scientifico, che consenta di fare inferenze sul comportamento del clima nella sua globalità, sui fenomeni in gioco e sui collegamenti tra scale diverse, riducendo così il grado di complessità del sistema. Lo scopo di questo elaborato nasce proprio dall'importanza delle interazioni tra scale spaziali e temporali diverse sulla modulazione e sul trasferimento dei segnali all'interno del sistema climatico globale. Utilizzando serie temporali sufficientemente lunghe di variabili climatiche, in questo caso di temperatura e di pressione, si può disporre di un numero di osservazioni tali da consentire di ottenere risultati statisticamente affidabili con una buona risoluzione temporale. L'elaborazione statistica dei dati di temperatura e pressione, relativi alle stazioni europee qui considerate, permetterà di analizzare nel dettaglio l'andamento dei due parametri scelti nel contesto delle attuali conoscenze sulle variazioni climatiche a scala regionale e/o globale, di proporre un indice climatico costruito seguendo una metodologia standardizzata e di cercare le possibili interazioni significative con due indici climatici globali, il NAO ed il SOI. L'uso degli indici climatici nell'indagine è vantaggioso, perché si tratta di strumenti in grado di quantificare la variabilità associata a specifici pattern climatici, in questo caso la NAO e l'ENSO, eliminando le fluttuazioni a scala più piccola, che nascondono il segnale. Infine, saranno presentati i risultati di un'indagine recente e preliminare sulla variabilità interannuale associata alla formazione e diffusione delle acque dense nel Mare di Ross (Antartide). Si tratta di un primo passo verso la possibilità futura di quantificare il contributo delle acque dense, costituenti fondamentali delle acque di fondo antartiche, al riciclo delle acque oceaniche profonde e, quindi, alla variabilità climatica dovuta alla circolazione termoalina globale. The study of climate is currently one of the most interesting disciplines for scientists due to the possible impacts of human activities on climate health. The climate is a complex system of interactive components on a wide range of different spatial and temporal scales, thus it is necessary a scientific approach enabling to make inferences about the global climate behaviour, the involved processes and the links among different scales, in order to reduce the system complexity. The aim of this work comes from the importance of the interactions among different spatial and temporal scales on the modulation and transfer of climatic signals inside the global climate system. In this context long time series of climatic variables, in this case temperature and pressure, give statistically reliable results with a good temporal resolution. The statistical treatment of the temperature and pressure data of the European stations here analysed will allow to study in detail the two chosen parameters as regards the present knowledge about the climatic variations on regional and/or global scale, to propose a climatic index based on a standardized methodology and to search for significant interactions with two global climatic indexes, the NAO index and the SOI index. The climatic indexes use is advantageous, because these instruments quantify the variability associated to specific climatic patterns, in this case the NAO and the ENSO, eliminating the lower scale fluctuations hiding the signal. Finally, it will be presented the results of a recent and preliminary investigation on the interannual variability of the dense waters formation and diffusion in the Ross Sea (Antarctica). It is the first step towards the future possibility of quantifying the contribution of dense waters, fundamental constituents of the Antarctic bottom waters, to the deep oceanic waters recycling and so to the climatic variability due to the global thermohaline circulation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Cantalini, Giovanni. "Strutture dinamiche nei dati di telefonia mobile in contesto urbano". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7718/.

Texto completo
Resumen
Lo scopo del presente lavoro e' di stabilire se l'attivita' di una rete telefonica obbedisce a leggi statistiche e verificare se sono presenti delle fluttuazioni rispetto a queste ultime. Nella prima parte vengono illustrati alcuni modelli di Human Dynamics. Nella seconda parte viene descritta l'analisi dei dati soffermandosi su alcuni punti chiave che determinano il significato del risultato finale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Catani, Stefano. "Progettazione e sviluppo del sistema di analisi dati del registro diabetici". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9547/.

Texto completo
Resumen
L'obiettivo di questa tesi è la progettazione e realizzazione di una porzione del sistema informatico relativo al registro di patologia per il diabete. L'attività di progettazione e realizzazione del Registro diabetici è stata svolta prevalentemente durante il tirocinio presso il SITIC e ha compreso fasi di ricerca, analisi e sviluppo di un'applicazione in Qlikview.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Di, Ielsi Luca. "Analisi di serie temporali riguardanti dati energetici mediante architetture neurali profonde". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10504/.

Texto completo
Resumen
Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Rossetti, Alessandra. "Analisi del catalogo Europeo-Mediterraneo degli RCMT: 18 anni di dati". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10848/.

Texto completo
Resumen
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Palmisano, Francesco. "Algorithmic-guardians: analisi dei flussi di dati provenienti da sistemi Android". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19599/.

Texto completo
Resumen
Lo smartphone è diventato negli anni un componente essenziale nella vita dell'essere umano. Tuttavia è un dispositivo considerato come un'arma a doppio taglio. Questo perché le applicazioni utilizzano la connessione ad Internet e possono manipolare in modo anomalo dati sensibili, minandone la confidenzialità. Algorithmic-Guardians è un sistema per l'analisi del traffico dati di uno smartphone, con lo scopo di preservare la confidenzialità dei dati inviati. Vengono identificati flussi di dati, generati dalle varie applicazioni, da cui si deducono eventuali anomalie. Queste poi vengono notificate all'utente, in modo che sia lui stesso a decidere se bloccare o meno quei flussi. In questo modo, l'utente può avere una visione più ampia dell'utilizzo che le applicazioni fanno dell'accesso ad Internet.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Guidetti, Mattia. "Ricostruzione di flussi veicolari su scala regionale: analisi dei dati disponibili". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5957/.

Texto completo
Resumen
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

PAGANELLI, MATTEO. "Gestione ed Analisi di Big Data: Sfide e Opportunità nell'Integrazione e nell'Estrazione di Conoscenza dai Dati". Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239979.

Texto completo
Resumen
Nell'era dei Big Data, l'adeguata gestione e consumo dei dati rappresenta una delle attività più sfidanti, a causa di una serie di criticità che si è soliti categorizzare in 5 concetti chiave: volume, velocità, varietà, veridicità e variabilità. In risposta a queste esigenze, negli ultimi anni numerosi algoritmi e tecnologie sono stati proposti, tuttavia rimangono molti problemi aperti e nuove sfide sono emerse. Tra queste, solo per citarne alcune, ci sono la necessità di disporre di dati annotati per l'addestramento di tecniche di machine learning, di interpretare la logica dei sistemi utilizzati, di ridurre l'impatto della loro gestione in produzione (ovvero il cosiddetto debito tecnico o technical debt) e di fornire degli strumenti a supporto dell'interazione uomo-macchina. In questa tesi si approfondiscono in particolare le criticità che affliggono gli ambiti dell'integrazione dati e della moderna gestione (in termini di riadattamento rispetto i nuovi requisiti) dei DBMS relazionali. Il principale problema che affligge l'integrazione di dati riguarda la sua valutazione in contesti reali, la quale richiede tipicamente il costoso coinvolgimento, sia a livello economico che di tempo, di esperti del dominio. In quest'ottica l'impiego di strumenti per il supporto e l'automazione di questa operazione critica, nonché la sua risoluzione in maniera non supervisionata, risulterebbero molto utili. In questo ambito, il mio contributo può essere riassunto nei seguenti punti: 1) la realizzazione di tecniche per la valutazione non supervisionata di processi di integrazione di dati e 2) lo sviluppo di approcci automatici per la configurazione di modelli di matching basati su regole. Per quanto riguarda i DBMS relazionali, essi si sono dimostrati di essere, nell'arco degli ultimi decenni, il cavallo di battaglia di molte aziende, per merito della loro semplicità di governance, sicurezza, verificabilità e dell'elevate performance. Oggigiorno, tuttavia si assiste ad un parziale ripensamento del loro utilizzo rispetto alla progettazione originale. Si tratta per esempio di impiegarli nella risoluzione di compiti più avanzati, quali classificazione, regressione e clustering, tipici dell'ambito del machine learning. L'instaurazione di un rapporto simbiotico tra questi due ambiti di ricerca potrebbe rivelarsi essenziale al fine di risolvere alcune delle criticità sopra elencate. In questo ambito, il mio principale contributo è stato quello di verificare la possibilità di eseguire, durante la messa in produzione di un sistema, predizioni di modelli di machine learning direttamente all'interno del database.
In the Big Data era, the adequate management and consumption of data represents one of the most challenging activities, due to a series of critical issues that are usually categorized into 5 key concepts: volume, velocity, variety, veridicity and variability. In response to these needs, a large number of algorithms and technologies have been proposed in recent years, however many open problems remain and new challenges have emerged. Among these, just to name a few, there is the need to have annotated data for the training of machine learning techniques, to interpret the logic of the systems used, to reduce the impact of their management in production (i.e. the so-called technical debt) and to provide tools to support human-machine interaction. In this thesis, the challenges affecting the areas of data integration and modern management (in terms of readjustment with respect to the new requirements) of relational DBMS are studied in depth. The main problem affecting data integration concerns its evaluation in real contexts, which typically requires the costly and time-demanding involvement of domain experts. In this perspective, the use of tools for the support and automation of this critical task, as well as its unsupervised resolution, would be very useful. In this context, my contribution can be summarized in the following points: 1) the realization of techniques for the unsupervised evaluation of data integration tasks and 2) the development of automatic approaches for the configuration of rules-based matching models. As for relational DBMSs, they have proved to be, over the last few decades, the workhorse of many companies, thanks to their simplicity of governance, security, audibility and high performance. Today, however, we are witnessing a partial rethinking of their use compared to the original design. For example, they are used in solving more advanced tasks, such as classification, regression and clustering, typical of the machine learning field. The establishment of a symbiotic relationship between these two research fields could be essential to solve some of the critical issues listed above. In this context, my main contribution was to verify the possibility of performing in-DBMS inference of machine learning pipeline at serving time.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Margaria, Matteo. "Analisi di dati satellitari radar e ottici per il monitoraggio di un evento alluvionale". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Buscar texto completo
Resumen
Ogni anno le alluvioni causano la morte di numerose persone, generando anche ingenti perdite economiche in tutto il pianeta. Le tecniche di osservazione della Terra a distanza rappresentano strumenti fondamentali nella gestione di questi fenomeni. Il telerilevamento satellitare permette di identificare le aree alluvionate, e monitorarne lo sviluppo nel tempo e nello spazio, senza entrare in contatto diretto con esse. Il sistema di rilevamento radar, nella sua forma SAR, ed i sistemi di rilevamento satellitare multispettrali rappresentano in particolare i mezzi più efficienti e più rapidi per la raccolta di dati di eventi alluvionali. Il programma Copernicus, gestito dalla Commissione Europea, nasce allo scopo di fornire servizi di monitoraggio di catastrofi naturali e dell'ambiente in generale. Le missioni Sentinel sono state progettate appositamente per gli scopi del programma e ne costituiscono la principale fonte di dati satellitari radar e multispettrali. Immagini SAR acquisite dalla missione Sentinel-1 e immagini multispettrali acquisite dalla missione Sentinel-2 costituiscono la base dell’analisi effettuata in questo elaborato. Il caso di studio è rappresentato da un evento alluvionale occorso nella Repubblica Islamica dell’Iran nel mese di Aprile 2019, causato da precipitazioni eccezionali verificatesi nell’ultima settimana di Marzo. Gli obiettivi prefissati sono in primo luogo l’identificazione delle aree colpite ed il monitoraggio dell’evoluzione dell’evento tramite l’analisi delle immagini SAR della missione Sentinel-1. Una volta definite, le informazioni geo-spaziali vengono impiegate attivamente allo scopo di determinare gli effetti causati nell’area di studio considerata, in termini di centri abitati colpiti e loro localizzazione, e di danno al settore agricolo ed al settore delle infrastrutture.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

De, Luigi Valentino <1981&gt. "Analisi spaziale dei dati entomologici in ambiente GIS: prospettive di utilizzo nell'agricoltura di precisione". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1445/1/VALENTINO.DELUIGI.pdf.

Texto completo
Resumen
Scopo della ricerca è stato definire le dinamiche spazio-temporali degli insetti studiati mediante l’impiego di tecniche geostatistiche. La ricerca è stata condotta su due casi studio, il primo riguardante tre specie di Elateridi di elevata importanza economica su scala aziendale, il secondo inerente al monitoraggio di Diabrotica virgifera virgifera (diabrotica del mais) su scala regionale. Gli scopi specifici dei due casi studio sono stati: Caso studio 1 a) Monitorare l’entità della popolazione di Elateridi su scala aziendale mediante approccio geostatistico. b) Elaborazione di mappe di distribuzione spaziale interfacciabili all’ambiente GIS. c) Individuare i fattori predisponenti l’infestazione. d) Verificare la necessità dell’impiego di mezzi chimici per il controllo delle specie dannose. e) Proporre strategie alternative volte alla riduzione dell’impiego di trattamenti geodisinfestanti. Caso studio 2 a) Studiare la distribuzione spaziale su scala regionale la popolazione del fitofago D. virgifera virgifera. b) Applicare a livello regionale una griglia di monitoraggio efficace per studiarne la diffusione. c) Individuare le aree a rischio e studiare i fattori predisponenti l’infestazione e diffusione. d) Ottimizzare ed economizzare il piano di monitoraggio.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

De, Luigi Valentino <1981&gt. "Analisi spaziale dei dati entomologici in ambiente GIS: prospettive di utilizzo nell'agricoltura di precisione". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1445/.

Texto completo
Resumen
Scopo della ricerca è stato definire le dinamiche spazio-temporali degli insetti studiati mediante l’impiego di tecniche geostatistiche. La ricerca è stata condotta su due casi studio, il primo riguardante tre specie di Elateridi di elevata importanza economica su scala aziendale, il secondo inerente al monitoraggio di Diabrotica virgifera virgifera (diabrotica del mais) su scala regionale. Gli scopi specifici dei due casi studio sono stati: Caso studio 1 a) Monitorare l’entità della popolazione di Elateridi su scala aziendale mediante approccio geostatistico. b) Elaborazione di mappe di distribuzione spaziale interfacciabili all’ambiente GIS. c) Individuare i fattori predisponenti l’infestazione. d) Verificare la necessità dell’impiego di mezzi chimici per il controllo delle specie dannose. e) Proporre strategie alternative volte alla riduzione dell’impiego di trattamenti geodisinfestanti. Caso studio 2 a) Studiare la distribuzione spaziale su scala regionale la popolazione del fitofago D. virgifera virgifera. b) Applicare a livello regionale una griglia di monitoraggio efficace per studiarne la diffusione. c) Individuare le aree a rischio e studiare i fattori predisponenti l’infestazione e diffusione. d) Ottimizzare ed economizzare il piano di monitoraggio.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Casadei, Enrico. "Analisi congiunta di parametri chimici e sensoriali per la valutazione della qualità di oli extravergini di oliva monovarietali". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4521/.

Texto completo
Resumen
Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Cucchi, Stefano. "Analisi di sensibilità del comportamento vibratorio di un caricatore automatico di barre". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Buscar texto completo
Resumen
L’elaborato finale presentato è frutto di un percorso di tirocinio svolto presso IEMCA, divisione del gruppo Bucci Automation SPA, leader mondiale per la produzione di caricatori di barre. Il caricatore di barre è una macchina che viene messa al servizio di un altro macchinario principale (come il tornio) e svolge in maniera completamente automatica le operazioni che altrimenti necessiterebbero dell’intervento umano. L’attività svolta, si inserisce all'interno di un più ampio progetto di collaborazione Bucci-Unibo che ha come obiettivo futuro il re-design di alcuni componenti del caricatore, al fine di renderlo funzionalmente più versatile e adatto ai continui sviluppi tecnologici. Durante l’attività di tirocinio, sono stati eseguiti numerosi test per la misura delle vibrazioni meccaniche che si manifestano in diverse condizioni operative e per differenti configurazioni del caricatore. Dopo una prima fase di apprendimento, l’obiettivo iniziale di questo lavoro era quello di acquisire la necessaria competenza e sensibilità per rendere possibile l'implementazione delle procedure di test e analisi con la dotazione strumentale dell'azienda. Un risultato di valore è stato quello di aver conferito all’azienda uno strumento che potesse essere utilizzato per migliorare e velocizzare l’analisi dei dati al termine di una campagna di acquisizioni. Infatti, date le criticità riscontrate durante le fasi di post-processing da parte del personale aziendale, è stata richiesta la realizzazione di un software che potesse sopperire a tali problematiche. Grazie all’implementazione di tale software, è stato possibile utilizzare con successo la dotazione strumentale dell’azienda per effettuare numerosi test sperimentali e ottenere dei risultati utili in tempi relativamente brevi. Infine, è stato utilizzato un banco prova per simulare il comportamento di barre poste in rotazione a velocità e lunghezze differenti.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Canti, Michael. "Analisi di un Sistema di Stoccaggio. L’attività di Customer Service. Il caso Due Torri S.p.A". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Buscar texto completo
Resumen
Si è analizzato un sistema di stoccaggio rivolgendo l'attenzione all'attività del Customer Service. Dopo il primo periodo di raccolta dati è stato popolato un database che rappresentasse al meglio la realtà osservata. Il database ci ha permesso, attraverso la manipolazione dei dati, di calcolare delle statistiche circa gli eventi più significativi in termini di tempo.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Segat, Giulia <1992&gt. "Analisi statistica di dati testuali: il Prosecco DOC e i Social Media". Master's Degree Thesis, Università Ca' Foscari Venezia, 2018. http://hdl.handle.net/10579/12494.

Texto completo
Resumen
L'era digitale in cui viviamo rende interessante lo studio dei Social Network. I Social Network sono il luogo dove le persone possono condivere i propri pensieri e le proprie esperienze. Si tratta di messaggi pubblicati in rete disponibili a tutti gli utenti. Si può intuire come le persone sono influenzate da ciò che leggono nel web; ad esempio per prendere una decisione in merito a quale posto visitare o dove alloggiare o dove mangiare, si affidano a ciò che leggono nei Social Network.Diventa così interessante capire cosa pensano le persone in merito ad un determinato argomento attraverso lo studio dei Social Network.Si utilizzeranno due metodi di analisi testuale applicati al Social Network Twitter. Si studieranno i tweet relativi al Prosecco DOC, prodotto caratterizzante la regione Veneto e Friuli Venezia Giulia
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Berti, Elisa. "Applicazione del metodo QDanet_PRO alla classificazione di dati omici". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9411/.

Texto completo
Resumen
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Mengoli, Alessandro. "Analisi ed implementazione di un sistema innovativo per il collaudo e monitoraggio di impianti per la produzione di preforme". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Buscar texto completo
Resumen
Il rapido sviluppo tecnologico che sta caratterizzando gli ultimi anni sta avendo un grosso impatto anche in ambito manufatturiero. In questo scenario sta avvenendo la quarta rivoluzione industriale, la cosiddetta Industria 4.0. Con questo termine si intende l'evoluzione dell'industria verso un modello intelligente ed automatizzato, dove gli strumenti di lavoro sono connessi alla rete ed interconnessi tra di loro. L'impatto del processo di digitalizzazione dell'industria è stato notevole e sta trasformando le fabbriche ed il loro modo di lavorare. Questa rivoluzione industriale sta avendo luogo anche presso l'azienda SACMI (Società Anonima Cooperativa Meccanici Imola), ove è stato svolto il presente progetto di tesi. Sacmi è una multinazionale leader nella produzione di macchine automatiche nel settore ceramico e packaging. Attualmente il gruppo Sacmi è costituito da oltre 80 società, occupando più di 4.000 dipendenti ed avendo impianti e aziende di supporto in 28 paesi. In particolare questo lavoro di tesi è stato svolto presso Ricerca&Sviluppo Automazione nella sede centrale di Imola, andando ad analizzare macchinari della divisione Packaging-Beverage. L'azienda ha deciso di raccogliere la sfida dell'Industria 4.0 aggiungendo un alto tasso innovativo ai propri impianti e macchinari. L'obiettivo è quello di raggiungere un vantaggio competitivo investendo ad altissimo livello sull'innovazione tecnologica dei propri prodotti. Due strade su cui sta puntando Sacmi sono delle nuove forme di interazione uomo-macchina e l'aumento del volume di dati affiancati da uno sviluppo di analisi dei dati e di business intelligence. Il progetto di tesi è stato suddiviso in due progetti. In particolare la prima parte consisterà nella progettazione di un supervisore per un impianto industriale per la produzione di preforme. La seconda parte andrà invece a raccogliere ed analizzare i dati dei macchinari presenti nell'impianto di cui sarà realizzato il supervisore.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Di, Lucchio Chiara Pia. "Analisi economica delle linee di trattamento fumi a secco di termovalorizzatori di rifiuti a partire da dati di processo". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Buscar texto completo
Resumen
Nella gestione operativa di un impianto di termovalorizzazione rifiuti, la linea di trattamento fumi rappresenta un aggravio economico rilevante e in tendenziale crescita, specie a seguito dell’introduzione di requisiti di performance sull’abbattimento inquinanti sempre più stringenti. E' di particolare interesse analizzare la sezione di abbattimento degli inquinanti acidi (principalmente HCl e SO2) che prevede dei sistemi a doppio stadio di iniezione reagenti e seguente filtrazione residui. Oltre a garantire elevate efficienze di rimozione dei gas acidi, i sistemi a doppio stadio presentano un elemento di flessibilità rispetto a quelli a singolo stadio: consentono di ripartire l’abbattimento tra i due stadi, combinando l’uso di reagenti diversi. Tali sistemi possono dunque essere molto performanti, se opportunamente regolati, ed in particolare garantiscono, oltre al rispetto dei limiti di emissione, una minimizzazione del consumo di reagenti e dei residui di processo, riducendo sia i costi che gli oneri ambientali corrispondenti. E' stata quindi realizzata un'analisi di tipo “data-driven” basata sulla raccolta dei dati storici di funzionamento di sistemi di trattamento gas acidi a doppio stadio, e la loro rielaborazione statistica ai fini di identificare le condizioni operative e le configurazioni di ripartizione dell’abbattimento tra i due stadi che ne minimizzano i costi.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Iadarola, Barbara. "Fenomeni di diffusione delle notizie in siti di microblogging: modelli di analisi e studio di caso". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/1931/.

Texto completo
Resumen
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Giannini, Simone. "Strumenti statistici per elaborazione dati su sequenziamenti di genoma umano". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12059/.

Texto completo
Resumen
L'analisi del DNA è una delle chiavi per la comprensione della vita e dei suoi funzionamenti. Le tecniche di sequenziamento di nuova generazione NGS permettono una analisi parallela di molte sequenze che hanno reso possibili i sequenziamenti di genomi interi e l'impiego di questi dati in una vasta gamma di studi. In questa tesi verranno descritte le principali tecniche di sequenziamento NGS. Per quanto riguarda il genoma umano si tratteranno alcune tematiche di studio di varianti affrontate dal gruppo 1000Genomes. Nella fase conclusiva si introdurranno definizioni di statistica utili nell'affrontare l'elaborazione dei dati. Inoltre vengono descritti alcuni strumenti che permettono di svolgere questo tipo di analisi.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Ragusa, Gabriele. "Analisi e realizzazione del processo di migrazione di un Data Warehouse". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Buscar texto completo
Resumen
Il progetto di tesi ha previsto la realizzazione del processo di migrazione di un Data Warehouse. Questo si è sviluppato in varie fasi ed ha previsto dei processi iniziali di ETL per l'estrazione, la trasformazione ed il caricamento dei dati, per poi proseguire con processi di modifica dei dati con l'uso di tool specifici e di realizzazione dei report richiesti dal Cliente. Il progetto ha previsto la realizzazione del processo di migrazione per due Data Entity differenti, dove per Data Entity si intende un set di report razionalizzati in base alla similarità delle query e dei filtri.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Hushi, Bajram. "Sviluppo di un modulo di visualizzazione, memorizzazione e analisi dati in real-time con elevato parallelismo". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9257/.

Texto completo
Resumen
Progettazione e implementazione dei moduli di visualizzazione, memorizzazione e analisi di un sistema software di acquisizione dati in real-time da dispositivi prodotti da Elements s.r.l. La tesi mostra tutte le fasi di analisi, progettazione, implementazione e testing dei moduli sviluppati.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Sorge, Alberto. "Analisi di sensibilità di strumentazione GNSS a basso costo ed elaborazione dati mediante software libero GoGPS". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13994/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Canducci, Marco. "Previsioni di borsa mediante analisi di dati testuali: studio ed estensione di un metodo basato su Google Trends". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Buscar texto completo
Resumen
In una società sempre più digitalizzata, molte delle nostre azioni quotidiane lasciano sulla rete una grande quantità di dati, da cui è possibile estrarre conoscenza di grande valore. Secondo recenti studi, dalle informazioni presenti sul Web generate dalle attività degli utenti, è possibile prevedere i movimenti del mercato azionario con un grado di accuratezza interessante. In particolare, si considera l'articolo del 2013 "Quantifying Trading Behaviour in Financial Markets using Google Trends", in cui sono presentati i risultati di 98 simulazioni di trading su dati storici reali dal 2004 al 2011: in ciascuna di esse si compiono operazioni in base all'andamento della quantità di ricerche su Google di un singolo termine correlato alla finanza. Un primo contributo di questa tesi è l'implementazione di un algoritmo di trading parametrizzato che considera l’andamento di tutti i 98 termini contemporaneamente, ponendo quindi il metodo proposto nell'articolo nelle migliori condizioni possibili. In tal modo, sperimentando su dati storici reali della durata quasi quinquennale (gennaio 2012 - settembre 2016) si ottengono rendimenti pari al 644% dell'investimento iniziale, con un'accuratezza sulle decisioni di compravendita del 74%. Un ulteriore contributo è il miglioramento in quantità e qualità dei dati di input per l'algoritmo realizzato sfruttando tecniche di destagionalizzazione, un maggior numero di termini finanziari (185) e differenti variazioni temporali dei volumi di ricerca. Effettuando una nuova simulazione sullo stesso periodo (gennaio 2012 - settembre 2016), il rendimento sul valore iniziale è aumentato al 911%, col 79% delle decisioni accurate.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

De, Troia Alessandro. "Progettazione e realizzazione di un portale e di un sistema di analisi dei dati basato su Google Analytics". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/1456/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Vanetti, Elena. "Analisi dati del satellite Planck per lo studio della radiazione cosmica di fondo". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16955/.

Texto completo
Resumen
L'obiettivo di questo lavoro di tesi è quello di presentare le caratteristiche della radiazione di fondo che ci si aspetta di osservare in base alla descrizione teorica del suo processo di emissione e confrontarle con quanto emerge da un'analisi di alcuni dei prodotti definitivi della missione Planck, pubblicati nel 2018. A tale scopo è stata utilizzata la libreria Healpy, scritta in Python e basata sull'algoritmo per la discretizzazione di funzioni definite su una sfera HEALPix.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Bernabè, Stefania. "Data Breach: definizione, analisi, soluzioni e casistiche riguardanti le violazioni di dati personali". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Buscar texto completo
Resumen
L'elaborato presentato ha l'obiettivo di esporre e definire le violazioni di dati personali (conosciute anche con il termine Data Breach) e la loro gestione sia dal punto di vista normativo, che dal punto di vista informatico, esplicitando soluzioni utili per prevenire tali irregolarità. Inoltre è stato illustrato il Regolamento Europeo in materia di Protezione dei Dati Personali (GDPR), relativo alle persone fisiche con riguardo al trattamento e alla libera circolazione dei dati personali, proseguendo poi con l'esposizione di indicazioni tratte dalle Linee guida sulla notifica delle violazioni di dati personali ai sensi del regolamento (UE) 2016/679 riguardanti le misure e le pratiche da adottare nel caso in cui ci si renda conto di aver subito una violazione, in modo da poter notificare nel più breve tempo possibile l'accaduto per poter attuare misure contenitive adeguate. In chiusura dell'elaborato sono stati riportati due differenti casi di violazioni di dati, nelle modalità più chiare possibili, utilizzando materiale reperito in rete o concesso da tecnici esperti nel settore. Da quest'ultima parte emerge quanto possa essere semplice incombere in un data breach, anche se si dispone di tecniche di protezione di ultima generazione. Nel corso dell'elaborato è stato documentato quando sia importante essere pronti a notificare l'accaduto, per poter applicare prontamente misure tecniche ed organizzative conformi a limitare il danno subito e provvedere ad un pronto intervento di aggiornamento e manutenzione dei sistemi danneggiati.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía