Dissertations / Theses on the topic 'Misure in tempo reale'

To see the other types of publications on this topic, follow the link: Misure in tempo reale.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Misure in tempo reale.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Golinucci, Simone. "Progettazione sistema rilevamento buche stradali in tempo reale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Con questo lavoro si vuole realizzare un sistema di riconoscimento e tracciamento delle buche stradali in tempo reale. Il lavoro si inserisce in un progetto più ampio che ha lo scopo di riconoscere le buche stradali, al fine di permettere al veicolo di attuare contromisure preventive, per supportare al meglio le sollecitazioni causate dalle buche. Per questo progetto si faranno uso di algoritmi di image-processing per riconoscere e tracciare la buca, sfruttando la differenza di contrasto e luminosità tra l’asfalto e la buca stradale. Verrà proposto un algoritmo che sarà valutato mediante un dataset etichettato con una apposita applicazione realizzata per tale scopo. Per valutare le prestazioni dell’algoritmo è stato definito anche un protocollo per descrivere le etichette che sarà implementato sia nella applicazione di etichettamento sia nella applicazione di valutazione dell’algoritmo. Inoltre verrà fatta una discussione sui diversi problemi ancora aperti, come la gestione di ombre e la presenza di veicoli nell'inquadratura, e sulle possibili strategie o specializzazioni per raffinare l'algoritmo e renderlo più preciso e accurato.
APA, Harvard, Vancouver, ISO, and other styles
2

Pipitone, Paride. "Ecografia tridimensionale in tempo reale: caratteristiche, potenzialità e applicazioni cliniche." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23035/.

Full text
Abstract:
L’obiettivo di questa tesi è quello di mettere a confronto l’ecografia RT-3D con tre metodiche per l’acquisizione delle immagini quali TC, ECO2D ,RM e osservare quali tra queste risulti più completa per proprietà tecniche e caratteristiche pratiche principalmente in ambito cardiologico. Si intende inoltre confrontare i risultati ottenuti tramite 2D TEE con quelli ottenuti con RT3D TEE nella valutazione della dimensione dell’auricola atriale sinistra, confrontando secondariamente i dati con quelli ricavati tramite TC a 64 strati adoperata come gold standard e terzo, osservare l’influenza della presenza di fibrillazione atriale sulla variazione di dimensione LAA principalmente tenendo in considerazione la dimensione dell’orifizio dell’auricola.
APA, Harvard, Vancouver, ISO, and other styles
3

MIZZELLA, STEFANO. "Life sharing. Identità e relazione nel web in tempo reale." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2010. http://hdl.handle.net/10281/10312.

Full text
Abstract:
Anagramma del più tradizionale file sharing, life sharing può essere interpretato come metafora evolutiva di una nuova forma di digital storytelling. Lo scambio di file e informazioni si evolve nella condivisione quotidiana di tracce del proprio vissuto. Condividere la propria vita online, come pubblici connessi, significa relazionarsi con altri utenti non attraverso un medium ma all’interno di ambienti conversazionali e spazi relazionali. A questi spazi, e alle dinamiche identitarie e sociali in essi veicolate, è dedicato il mio lavoro di ricerca. Il rapporto sempre più stretto tra web e vita quotidiana ha contribuito a generare un information overloading difficile da gestire, simbolo di un processo evolutivo in cui il life sharing ha un ruolo chiave: la mole vertiginosa di micro-storie personali pubblicate e condivise attimo dopo attimo è alla base di una rivoluzione definibile nei termini di “Real-Time Web”. Il web in tempo reale si basa su un flusso indiscriminato di aggiornamenti personali riguardanti qualsiasi tipo di argomento: pensieri astratti, azioni quotidiane, stati d’animo. Se le piattaforme di social network rappresentano nel web 2.0 gli spazi privilegiati per interagire con altri utenti, lo status updating (l’aggiornamento del proprio stato) si configura come l’azione più dirompente e pervasiva del web in tempo reale. Facebook e Twitter esemplificano un desiderio diffuso di condividere la propria vita, in tempo reale, attraverso brevissimi messaggi di testo. Ma quali sono le motivazioni, personali e sociali, alla base di un simile desiderio, che in alcuni casi si configura come vera e propria necessità? Nel tentativo di rispondere a questa domanda ho deciso di analizzare un campione composto da giovani adulti che, per età e per abitudini di consumo mediale, possono rientrare nella categoria dei cosiddetti “nativi digitali”. Con quest’ultimo termine sempre più spesso vengono definite le nuove generazioni di ragazzi nati e cresciuti in un ambiente digitalizzato e in una cultura in cui il digitale influenza le tradizionali dinamiche di relazione e di apprendimento. Ho scelto di osservare le attività online di studenti universitari italiani che hanno vissuto le prime influenze della cultura digitale in fase adolescenziale e che si apprestano ad entrare nell’età adulta sperimentando, nell’esperienza online, nuove modalità di esprimersi e di relazionarsi con gli altri. Le piattaforme racchiuse sotto il termine social media non sono spazi neutri bensì ambienti fortemente caratterizzati in cui tecnologia e socialità appaiono come forze complementari. L’impatto dei media sociali sui processi di costruzione identitaria e di relazione tra pari ha le sembianze di un cambiamento di paradigma più complesso e radicato di quella che potrebbe sembrare una banale moda adolescenziale. In base a quest’ultimo assunto, le ipotesi principali formulate all’interno della mia analisi possono essere racchiuse entro tre assi teorici distinti. Su ogni asse sono collocate coppie di concetti che rappresentano il continuum teorico di riferimento: a) identità - relazione; b) pubblico - privato; c) reale - virtuale. La presenza all’interno di una piattaforma di social network non è dettata soltanto da una banale curiosità ma, in modo più profondo, risponde alla volontà di soddisfare un preciso bisogno identitario e relazionale. Si è su Facebook e su Twitter per comunicare con altri utenti ma anche per esprimere se stessi, spesso senza tener conto del giudizio altrui. I nativi digitali hanno realmente perso il valore della privacy nelle proprie attività online? Nell’era di Facebook il concetto di privacy non viene meno, ma assume una forma più "liquida" rispetto a quella riscontrabile nelle generazioni più adulte. Comunicare all’interno di una piattaforma di social network non equivale alla perdita totale della privacy e del controllo sulle proprie informazioni. Al contrario, la presenza all’interno dei nuovi spazi conversazionali del web necessita di essere modellata intorno a una diversa concezione della privacy, legata a un diverso modo di intendere il valore, anche a medio e lungo termine, di ciò che viene pubblicato e condiviso. Lo spazio in rete è stato spesso descritto e analizzato come una sorta di dimensione parallela rispetto al più concreto piano del reale. Virtualità e realtà come due piani distinti e antagonisti, dunque. Ma cosa accade quando ciò che viene fatto, o detto, sul web, finisce per avere ripercussioni anche nel piano del reale? Davvero i milioni di giovani utenti che trascorrono sempre più tempo all’interno delle piattaforme di social network credono che il web sia qualcosa di altro e distaccato rispetto alla propria vita quotidiana? Quanto sono reali le loro amicizie online? E quanto, invece, sono virtuali le idee, le opinioni che condividono quotidianamente in rete con i propri contatti? Appare lecito e opportuno parlare non di virtualità contrapposta alla realtà, ma di una nuova forma di “socialità aumentata” nella quale le tracce di vita digitale altro non sono se non appendici di ciò che siamo soliti definire vita “reale”.
APA, Harvard, Vancouver, ISO, and other styles
4

Gamberini, Beatrice. "Misure di accessibilità attiva e passiva di un aeroporto: Teoria e applicazione ad un caso reale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8552/.

Full text
Abstract:
Lo studio svolto mira ad ottenere una comprensione approfondita dell’accessibilità aeroportuale e indaga i meccanismi di interazione tra aeroporti situati nella medesima area, che competono per spartirsi la stessa quota di utenza. Il tentativo è quello di ottenere un quadro completo sulle dinamiche afferenti al sistema aeroportuale bolognese, che permetta di valutarne le potenzialità espansive e gli eventuali limiti di crescita in un mercato parzialmente saturo.
APA, Harvard, Vancouver, ISO, and other styles
5

Facchini, Leonardo. "Misure di tempo di volo di muoni con l'elettronica dell'esperimento FOOT." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19396/.

Full text
Abstract:
L'esperimento FOOT (FragmentatiOn On Target) nasce con lo scopo di misurare la sezione d'urto differenziale per processi di frammentazione nucleare per potere descrivere con precisione l'interazione tra i fasci di ioni impiegati in adroterapia e i tessuti del paziente. Una misura necessaria per calcolare le sezioni d'urto e il tempo di volo dei frammenti. In laboratorio è stato ricreato un setup sperimentale attraverso l'utilizzo di tre scintillatori e del sistema di acquisizione dell'esperimento FOOT. Le particelle rivelate sono muoni di origine cosmica. Il tempo di volo dei muoni è ottenuto tramite un fit delle distribuzioni combinando le misure ottenute a diverse angolazioni. Utilizzando questo apparato è stato possibile effettuare misure di tempo di volo e di flusso di muoni cosmici.
APA, Harvard, Vancouver, ISO, and other styles
6

Caserta, Mario. "Dinamica degli stati eccitati della formaldeide tramite teoria del funzionale-densità dipendente dal tempo in tempo reale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19529/.

Full text
Abstract:
In questo lavoro abbiamo studiato lo stato fondamentale e gli stati eccitati della molecola di formaldeide, che rappresenta il più semplice fra tutti i composti organici contenenti il gruppo carbonile. In particolare abbiamo analizzato l'accoppiamento fra le eccitazioni vibrazionali e le eccitazioni elettroniche. Lo studio è stato realizzato tramite Teoria del Funzionale-Densità (DFT) e Teoria del Funzionale-Densità Dipendente dal Tempo (TDDFT) nei regimi di Risposta Lineare (LR-TDDFT) e di propagazione in Tempo Reale (RT-TDDFT), nell'ambito dell'approssimazione di densità locale (LDA) per il funzionale di scambio e correlazione e dell'approssimazione di campo medio di Ehrenfest per la dinamica semiclassica in tempo reale del sistema accoppiato elettroni-nuclei. Nella prima parte sono state caratterizzate le superfici potenziali dello stato fondamentale e degli stati elettronici eccitati determinate da moti nucleari relativi all'attivazione di un singolo modo normale, nel contesto della dinamica dei nuclei quasi-statica di Born-Oppenheimer. Le superfici potenziali sono state ottenute per lo stato fondamentale tramite DFT e per gli stati eccitati tramite LR-TDDFT. Nella seconda parte del lavoro, tramite un'opportuna scelta di configurazioni iniziali distorte, sono state eseguite delle simulazioni di dinamica molecolare delle eccitazioni elettroniche-nucleari accoppiate. Queste simulazioni sono state svolte nell'ambito della RT-TDDFT/Ehrenfest. Per queste eccitazioni accoppiate sono state analizzate e caratterizzate le oscillazioni nucleari attivate e le configurazioni geometriche molecolari.
APA, Harvard, Vancouver, ISO, and other styles
7

Furini, Michele. "Tecnologie per l’analisi in tempo reale di Big Data: prestazioni a confronto." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
APA, Harvard, Vancouver, ISO, and other styles
8

Balzani, Matteo. "Visualizzazione automatizzata in tempo reale di colture cellulari in incubatore da laboratorio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20098/.

Full text
Abstract:
In questo elaborato viene presentato un dispositivo a basso costo progettato, realizzato e infine testato all’interno di un incubatore, ideato per risolvere il problema della contaminazione che le colture cellulari possono subire durante la manipolazione ispettiva da parte del personale.
APA, Harvard, Vancouver, ISO, and other styles
9

Lazzaretti, Marco. "Sviluppo di un'interfaccia per la visualizzazione 3D in tempo reale dell'attivazione elettrica cardiaca." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13233/.

Full text
Abstract:
Il problema della visualizzazione nell’ingegneria biomedica presenta delle oggettive difficoltà, principalmente per l’assenza di strumenti dedicati alla visualizzazione che accompagnino in modo efficace ed efficiente la ricerca e la simulazione di fenomeni complessi. Lo scopo di questo elaborato è fornire uno strumento di navigazione e visualizzazione in modo fluido dei risultati delle simulazioni numeriche provenienti dalle ricerche in ambito scientifico. Utilizzando MATLAB per convertire i dati provenienti in formato VTK, si è realizzato un progetto in Unity 3D e modellando opportunamente alcuni comportamenti tramite script in C# si è riusciti a raggiungere l’obiettivo di visualizzare una simulazione complessa, in modo fluido, permettendo contemporaneamente la navigabilità della simulazione stessa attraverso semplici controlli da tastiera e mouse e alcuni controlli di base per la gestione degli istanti di simulazione e della velocità con cui la simulazione deve essere visualizzata. Una evoluzione di questo lavoro potrebbe in futuro portare alla creazione di una piattaforma applicativa che, a partire dai dati ottenuti dalla simulazione in fase di ricerca, sia in grado di generare una scena navigabile di qualsiasi modello tridimensionale utilizzato in ambito di ricerca biomedica, fornendo quindi ai ricercatori un efficiente strumento di visualizzazione da affiancare alla simulazione, allo scopo di assistere in fase decisionale sulle terapie da intraprendere per patologie come la FA.
APA, Harvard, Vancouver, ISO, and other styles
10

D’Andreamatteo, Daniele. "Implementazione e sperimentazione di algoritmi per il Routing di veicoli in tempo reale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3589/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

PARMIGGIANI, Nicolò. "Metodi per l’analisi e la gestione dei dati dell’astrofisica gamma in tempo reale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1239980.

Full text
Abstract:
Il contesto delle attività svolte per il Ph.D. sono l’analisi e la gestione dei dati per l’astronomia dei raggi gamma, la quale coinvolge l’osservazione dei raggi gamma, la forma più energetica di radiazione elettromagnetica. Dalle osservazioni dei raggi gamma effettuate con telescopi o satelliti, è possibile studiare eventi catastrofici generati da oggetti compatti come nane bianche, stelle di neutroni e buchi neri. Questi eventi sono chiamati transienti di raggi gamma. Per comprendere questi fenomeni, essi devono essere osservati durante la loro evoluzione. Per questa ragione, la velocità è cruciale e vengono sviluppate pipeline automatiche di analisi dei dati per identificare questi transienti e generare allerte scientifiche. L’allerta scientifica è una comunicazione immediata da un osservatorio ad altri osservatori per segnalare che un evento astrofisico interessante sta avvenendo nel cielo. La comunità astrofisica si trova in una nuova era chiamata “multi-messenger astronomy”, nella quale le sorgenti astronomiche sono osservate con strumenti che raccolgono diversi segnali: onde gravitazionali, radiazioni elettromagnetiche e neutrini. In questa multi-messenger era, i progetti astrofisici condividono le loro allerte scientifiche tramite reti di comunicazione. Il coordinamento di diversi progetti tramite le allerte scientifiche è fondamentale per capire la natura di questi fenomeni fisici. Gli osservatori devono gestire queste allerte scientifiche sviluppando software dedicato. Durante il corso del Ph.D. l’attività di ricerca è stata focalizzata sulla missione spaziale AGILE, attualmente in operazione, e sull’osservatorio Cherenkov Telescope Array, in fase di costruzione. Il follow-up di allerte scientifiche esterne ricevute dagli strumenti che identificano Gamma-Ray Bursts (GRB) e Gravitational Waves (GW) è una delle maggiori attività del Team di AGILE. Le generazioni future degli osservatori di raggi gamma come CTA o ASTRI Mini-Array possono trarre vantaggio dalle tecnologie sviluppate per AGILE. Questa ricerca ha l’obiettivo di sviluppare software per l’analisi e la gestione dei dati gamma. Il primo capitolo della tesi descrive la piattaforma web utilizzata dai ricercatori AGILE per preparare il secondo catalogo di sorgenti gamma di AGILE. Le analisi realizzate per questo catalogo sono memorizzate in un database dedicato e la piattaforma web interroga il database. Questo è stato il lavoro preparatorio per capire come gestire i risultati delle analisi di sorgenti gamma (detection e curve di luce) per la fase successiva: lo sviluppo di una pipeline scientifica per gestire in tempo reale le detection e le allerte scientifiche. Nel secondo capitolo viene presentato un framework progettato per facilitare lo sviluppo di pipeline per l’analisi scientifica in tempo reale. Il framework offre un’architettura comune e automatismi che possono essere utilizzati dagli osservatori per sviluppare le loro pipeline. Questo framework è stato usato per sviluppare le pipeline della missione spaziale AGILE e per sviluppare un prototipo per la Science Alert Generation (SAG) dell’osservatorio CTA. Il terzo capitolo descrive un nuovo metodo per identificare i GRB nei dati dello strumento AGILE-GRID utilizzando le Convolutional Neural Network. Con questa tecnologia Deep Learning è possibile migliorare la capacità di detection di AGILE. Questo metodo è anche stato inserito come tool scientifico all’interno della pipeline AGILE. L’ultimo capitolo mostra i risultati scientifici ottenuti con il software sviluppato durante le attività di ricerca del Ph.D. Parte dei risultati sono stati pubblicati su riviste scientifiche. La restante parte è stata inviata alla comunità scientifica tramite The Astronomer’s Telegram o il Gamma-ray Coordination Network.
The context of this Ph.D. is the data analysis and management for gamma-ray astronomy, which involves the observation of gamma-rays, the most energetic form of electromagnetic radiation. From the gamma-ray observations performed by telescopes or satellites, it is possible to study catastrophic events involving compact objects, such as white dwarves, neutron stars, and black holes. These events are called gamma-ray transients. To understand these phenomena, they must be observed during their evolution. For this reason, the speed is crucial, and automated data analysis pipelines are developed to detect gamma-ray transients and generate science alerts during the astrophysical observations or immediately after. A science alert is an immediate communication from one observatory to other observatories that an interesting astrophysical event is occurring in the sky. The astrophysical community is experiencing a new era called "multi-messenger astronomy", where the astronomical sources are observed by different instruments, collecting different signals: gravitational waves, electromagnetic radiation, and neutrinos. In the multi-messenger era, astrophysical projects share science alerts through different communication networks. The coordination of different projects done by sharing science alerts is mandatory to understand the nature of these physical phenomena. Observatories have to manage the follow-up of these external science alerts by developing dedicated software. During this Ph. D., the research activity had the main focus on the AGILE space mission, currently in operation, and on the Cherenkov Telescope Array Observatory (CTA), currently in the construction phase. The follow-up of external science alerts received from Gamma-Ray Bursts (GRB) and Gravitational Waves (GW) detectors is one of the AGILE Team's current major activities. Future generations of gamma-ray observatories like the CTA or the ASTRI Mini-Array can take advantage of the technologies developed for AGILE. This research aims to develop analysis and management software for gamma-ray data to fulfill the context requirements. The first chapter of this thesis describes the web platform used by AGILE researchers to prepare the Second AGILE Catalog of Gamma-ray sources. The analysis performed for this catalog is stored in a dedicated database, and the web platform queries this database. This was preparatory work to understand how to manage detections of gamma-ray sources and light curve for the subsequent phase: the development of a scientific pipeline to manage gamma-ray detection and science alerts in real-time. The second chapter presents a framework designed to facilitate the development of real-time scientific analysis pipelines. The framework provides a common pipeline architecture and automatisms that can be used by observatories to develop their own pipelines. This framework was used to develop the pipelines for the AGILE space mission and to develop a prototype of the scientific pipeline of the Science Alert Generation system of the CTA Observatory. The third chapter describes a new method to detect GRBs in the AGILE-GRID data using the Convolutional Neural Network. With this Deep Learning technology, it is possible to improve the detection capabilities of AGILE. This method was also integrated as a science tool in the AGILE pipelines. The last chapter of the thesis shows the scientific results obtained with the software developed during the Ph.D. research activities. Part of the results was published in refereed journals. The remaining part was sent to the scientific community through The Astronomer's Telegram or the Gamma-ray Coordination Network.
APA, Harvard, Vancouver, ISO, and other styles
12

Sartini, Simone. "Misure di tempo di volo di muoni cosmici con strumentazione disponibile in laboratorio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17633/.

Full text
Abstract:
La misura del tempo di volo (TOF) delle particelle cariche da sempre gioca un ruolo importante in fisica nucleare e subnucleare, in particolare per l'identificazione di particelle a lunga vita media; l'affinarsi delle tecniche sperimentali e il conseguente miglioramento della precisione delle misure ha portato nuovo interesse alle misure di TOF. In questa tesi è presentata una misura del tempo di volo dei muoni della radiazione cosmica, eseguita con la strumentazione disponibile in laboratorio. L'accento non è posto sulla ricerca del miglior risultato possibile date le tecniche di rivelazione e l'elettronica disponibili oggigiorno, che avrebbe richiesto l'impiego di rivelatori più performanti, quanto piuttosto sull'analisi delle sistematiche legate alla misura stessa, così che quanto appreso abbia validità generale. Le diverse fasi della misura, che comprendono la scelta dei rivelatori, la loro disposizione, il sistema di raccolta dei dati e la loro analisi, si presentano infatti in qualunque esperimento.
APA, Harvard, Vancouver, ISO, and other styles
13

Vignoli, Giovanni. "Previsioni in tempo reale di precipitazioni spazialmente distribuite mediante sensori remoti e modelli dinamici." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20171/.

Full text
Abstract:
Tesi volta a studiare i modelli facenti parte di Rainymotion per previsioni meteo a breve termine (Nowcasting). La prima parte della Tesi riguarda un approfondimento sulle previsioni meteo, la loro affidabilità e gli strumenti utilizzati. In seguito vi è una trattazione più approfondita degli strumenti radar, delle loro applicazioni, dell'equazioni utilizzate per ricavare l'intensità di pioggia dalle misure degli echi radar e dai possibili errori che ne possono derivare. Infine è stato fatto un confronto tra le diverse tipologie di modello (Dense, DenseRotation, Sparse, SparseSD) in occasione di sei eventi intensi del 2019 in Emilia-Romagna: una nevicata di gennaio, un evento di pioggia intenso in aprile, un evento di pioggia e grandine a maggio, un tipico temporale estivo breve ed intenso di giugno, un evento intenso di ottobre e un insieme di eventi di pioggia di novembre che hanno investito la regione per una settimana. Sulla base dei risultati ottenuti, confrontati con i valori di intensità misurati realmente, è stata fatta una valutazioni sulla qualità e accuratezza del modello nel prevedere fenomeni di precipitazione.
APA, Harvard, Vancouver, ISO, and other styles
14

Pantaleoni, Stefano <1978&gt. "Sviluppo di metodologie per l'analisi in tempo reale delle prestazioni di un motore automobilistico." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/98/1/pantaleoni_stefano_tesi_dottorato.pdf.

Full text
Abstract:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
APA, Harvard, Vancouver, ISO, and other styles
15

Pantaleoni, Stefano <1978&gt. "Sviluppo di metodologie per l'analisi in tempo reale delle prestazioni di un motore automobilistico." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/98/.

Full text
Abstract:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
APA, Harvard, Vancouver, ISO, and other styles
16

Valbonetti, Manuel <1983&gt. "Sviluppo di sistemi per l'analisi della combustione in tempo reale per motori endotermici alternativi." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amsdottorato.unibo.it/5696/1/Valbonetti_Tesi_Dottorato_2013.pdf.

Full text
Abstract:
I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.
Modern Internal Combustion Engines are becoming increasingly complex. The introduction of the EURO VI emission control legislation will require a significant reduction of polluting exhaust. The most critical is the reduction of NOx for diesel engines to be added to those already in force with the last legislation. The development of a new engine includes a series of specific tests on the test bench. The growing number of control parameters of the combustion, have a rise as a consequence of the greater mechanical complexity of the engine itself, causes an exponential increase of the tests to be performed to characterize the entire system. The PhD project is to development on board system analysis of combustion in real time where different algorithms, not yet available in modern control units, are implemented. All this with particular attention to the choice of hardware on which to implement the algorithms of analysis. Creating a platform for Rapid Control Prototyping (RCP) that exploits: most of the sensors in series production car, which is able to reduce the time and cost of experimentation on the powertrain. The proposed solution ensures upgradeability, the ability to maintain a maximum level of technology the computing platform, reduced obsolescence and replacement costs. This property results in the need to maintain the compatibility between different generations of hardware and software, making possible the replacement of those components that limit the performance without redesigning the software.
APA, Harvard, Vancouver, ISO, and other styles
17

Valbonetti, Manuel <1983&gt. "Sviluppo di sistemi per l'analisi della combustione in tempo reale per motori endotermici alternativi." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amsdottorato.unibo.it/5696/.

Full text
Abstract:
I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.
Modern Internal Combustion Engines are becoming increasingly complex. The introduction of the EURO VI emission control legislation will require a significant reduction of polluting exhaust. The most critical is the reduction of NOx for diesel engines to be added to those already in force with the last legislation. The development of a new engine includes a series of specific tests on the test bench. The growing number of control parameters of the combustion, have a rise as a consequence of the greater mechanical complexity of the engine itself, causes an exponential increase of the tests to be performed to characterize the entire system. The PhD project is to development on board system analysis of combustion in real time where different algorithms, not yet available in modern control units, are implemented. All this with particular attention to the choice of hardware on which to implement the algorithms of analysis. Creating a platform for Rapid Control Prototyping (RCP) that exploits: most of the sensors in series production car, which is able to reduce the time and cost of experimentation on the powertrain. The proposed solution ensures upgradeability, the ability to maintain a maximum level of technology the computing platform, reduced obsolescence and replacement costs. This property results in the need to maintain the compatibility between different generations of hardware and software, making possible the replacement of those components that limit the performance without redesigning the software.
APA, Harvard, Vancouver, ISO, and other styles
18

Benedetti, Marco. "Un' app mobile interpiattaforma per la geolocalizzazione in tempo reale di membri di un gruppo." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7737/.

Full text
Abstract:
Realizzazione di un'app mobile interpiattaforma tramite phonegap che permette la geolocalizzazione di utenti di un gruppo. Connessione Client-Server attraverso Websocket. Librerie di Socket.IO e mappe di Google Maps.
APA, Harvard, Vancouver, ISO, and other styles
19

Sanzani, David. "Progetto di un circuito di elaborazione dati per l'analisi reologica di singoli oggetti in tempo reale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4039/.

Full text
Abstract:
Questo elaborato propone lo studio di un sistema ed il conseguente sviluppo di un’architettura elettronica versatile, capace di effettuare analisi reologiche in tempo reale su singoli oggetti di varia natura, sfruttando diversi metodi e tecnologie elettroniche a disposizione. Un caso particolare su cui ci si è soffermati per sviluppare il sistema riguarda l’implementazione di tecniche innovative di produzione e selezione dei prodotti agricoli. L'elaborato presenta dunque un sistema elettronico capace di effettuare l’analisi reologica con tecniche acustiche di singoli oggetti. Il sistema è stato progettato e costruito per essere versatile ed adattabile a diverse tipologie di applicazioni, mantenendo costi ridotti per renderlo adatto ad eventuali applicazioni industriali.
APA, Harvard, Vancouver, ISO, and other styles
20

Naldi, Elisa. "Implementazione in FPGA di una rete neurale convolutiva profonda per l'elaborazione in tempo reale di immagini." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16456/.

Full text
Abstract:
Il seguente progetto di tesi tratta l’implementazione e la verifica delle performance di una CNN, rete neurale convolutiva profonda, composta di 7 layer formali (di cui un layer convolutivo CONV e due fully-connected FC), che ha come scopo l’elaborazione di immagini in tempo reale. Dopo una prima introduzione alle neural network, alle sue applicazioni (in particolar modo nel image-processing e nell’Industry 4.0) e alla tecnica di progettazione FPGA, si descrivono dapprima nel dettaglio tutti i diversi blocchi costitutivi della CNN (programmati in VHDL) e successivamente si riportano i risultati della sua sintesi con commenti relativi alle performance ottenute. In particolar modo, nella trattazione della struttura di ChainOfComponents (nome della CNN implementata), vengono descritti i costituenti dei seguenti layer: (1) CONV, composto dai componenti Kernel e Filter; (2) Non linearità, settata su una funzione ReLU; (3) Maxpooling, basata sulla ricerca del massimo (componente Max); (4) 1° FC, che si appoggia su una interconnessione di elementi di calcolo elementari detti neuroni (NetworkOfNeurons); (5) ReLU del 1° FC; (6) 2° FC; (7) ReLU del 2° FC. Per quanto riguarda invece la trattazione delle performance ottenute, questa si basa su una duplice verifica sull’implementato: un controllo della correttezza funzionale basato sugli applicativi ModelSim e Matlab e una compilazione e sintesi eseguita da Quartus Prime 17.1. Si approfondiscono infine possibili miglioramenti e sviluppi di ChainOfComponents e le sue possibili prospettive future.
APA, Harvard, Vancouver, ISO, and other styles
21

Salani, Giulia. "Il respeaking interlinguistico per la sottotitolazione in tempo reale: il software sa.DIT e un contributo sperimentale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12732/.

Full text
Abstract:
Al crocevia fra interpretazione simultanea e sottotitolazione, il respeaking permette di ottenere in tempo reale la trascrizione di un testo orale. Inizialmente intralinguistico, il respeaking è poi comparso nella sua variante interlinguistica, che tuttavia rimane un argomento poco studiato. Il presente elaborato si pone l’obiettivo di gettare luce sul respeaking interlinguistico utilizzato per la sottotitolazione in tempo reale di eventi, evidenziandone le caratteristiche, analizzandone le potenzialità e riflettendo sulle sue affinità con l’interpretazione simultanea. A tale proposito, sono descritti quattro esperimenti di live subtitling tramite respeaking interlinguistico. I primi tre si focalizzano sull’evoluzione dell’accuratezza dei sottotitoli prodotti, mentre l’ultimo mira a raffrontare il lavoro del respeaker e dell’interprete di simultanea. La presente tesi è suddivisa in quattro capitoli. Il primo capitolo consiste in una presentazione generale del respeaking, da cui emerge l’affinità del suo processo con l’interpretazione simultanea e l’affinità del suo prodotto con la sottotitolazione. Nel secondo capitolo segue pertanto il confronto fra respeaking e interpretazione simultanea, mentre la prima parte del terzo capitolo è dedicata alla descrizione dei criteri di sottotitolazione più rilevanti ai fini del live subtitling. Nella seconda parte del terzo capitolo è invece presentato il software sa.DIT, sviluppato presso il DIT e finalizzato a facilitare la revisione dei sottotitoli prodotti in tempo reale dal respeaker. Nel quarto capitolo sono illustrati gli esperimenti, dai quali emerge come, grazie ad una serie di accorgimenti, sia stato possibile ottenere un progressivo miglioramento dell’accuratezza dei sottotitoli. Dal quarto esperimento emergono interessanti differenze fra la produzione del respeaker e quella dell’interprete, che riflettono le tattiche adottate dall’uno e dall’altro, a loro volta determinate dal compito che sono chiamati ad assolvere.
APA, Harvard, Vancouver, ISO, and other styles
22

Turoni, Francesco <1980&gt. "Creazione e sviluppo di un sistema di controllo in tempo reale per un sistema fuel cell." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/897/1/Tesi_Turoni_Francesco.pdf.

Full text
Abstract:
The control of a proton exchange membrane fuel cell system (PEM FC) for domestic heat and power supply requires extensive control measures to handle the complicated process. Highly dynamic and non linear behavior, increase drastically the difficulties to find the optimal design and control strategies. The objective is to design, implement and commission a controller for the entire fuel cell system. The fuel cell process and the control system are engineered simultaneously; therefore there is no access to the process hardware during the control system development. Therefore the method of choice was a model based design approach, following the rapid control prototyping (RCP) methodology. The fuel cell system is simulated using a fuel cell library which allowed thermodynamic calculations. In the course of the development the process model is continuously adapted to the real system. The controller application is designed and developed in parallel and thereby tested and verified against the process model. Furthermore, after the commissioning of the real system, the process model can be also better identified and parameterized utilizing measurement data to perform optimization procedures. The process model and the controller application are implemented in Simulink using Mathworks` Real Time Workshop (RTW) and the xPC development suite for MiL (model-in-theloop) and HiL (hardware-in-the-loop) testing. It is possible to completely develop, verify and validate the controller application without depending on the real fuel cell system, which is not available for testing during the development process. The fuel cell system can be immediately taken into operation after connecting the controller to the process.
APA, Harvard, Vancouver, ISO, and other styles
23

Turoni, Francesco <1980&gt. "Creazione e sviluppo di un sistema di controllo in tempo reale per un sistema fuel cell." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2008. http://amsdottorato.unibo.it/897/.

Full text
Abstract:
The control of a proton exchange membrane fuel cell system (PEM FC) for domestic heat and power supply requires extensive control measures to handle the complicated process. Highly dynamic and non linear behavior, increase drastically the difficulties to find the optimal design and control strategies. The objective is to design, implement and commission a controller for the entire fuel cell system. The fuel cell process and the control system are engineered simultaneously; therefore there is no access to the process hardware during the control system development. Therefore the method of choice was a model based design approach, following the rapid control prototyping (RCP) methodology. The fuel cell system is simulated using a fuel cell library which allowed thermodynamic calculations. In the course of the development the process model is continuously adapted to the real system. The controller application is designed and developed in parallel and thereby tested and verified against the process model. Furthermore, after the commissioning of the real system, the process model can be also better identified and parameterized utilizing measurement data to perform optimization procedures. The process model and the controller application are implemented in Simulink using Mathworks` Real Time Workshop (RTW) and the xPC development suite for MiL (model-in-theloop) and HiL (hardware-in-the-loop) testing. It is possible to completely develop, verify and validate the controller application without depending on the real fuel cell system, which is not available for testing during the development process. The fuel cell system can be immediately taken into operation after connecting the controller to the process.
APA, Harvard, Vancouver, ISO, and other styles
24

Solieri, Luca <1979&gt. "Sviluppo di algoritmi avanzati di analisi e diagnosi combustione in tempo reale per motori endotermici alternativi." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1709/1/solieri_luca_tesi.pdf.

Full text
Abstract:
Increasingly stringent exhaust emission limits and higher fuel economy are the main drivers of the engine development process. As a consequence, the complexity of the propulsion units and its subsystems increase, due to the extensive use of sensors and actuators needed to obtain a precise control over the combustion phase. Since engine calibration process consumes most of the development time, new tools and methodologies are needed to shorten the development time and increase the performance attainable. Real time combustion analysis, based on the in-cylinder pressure signal, can significantly improve the calibration of the engine control strategies and the development of new algorithms, giving instantaneous feedback on the engine behavior. A complete combustion analysis and diagnosis system has been developed, capable of evaluating the most important indicators about the combustion process, such as indicated mean effective pressure, heat release, mass fraction burned and knock indexes. Such a tool is built on top of a flexible, modular and affordable hardware platform, capable of satisfying the requirements needed for accuracy and precision, but also enabling the use directly on-board the vehicle, due to its small form factor.
APA, Harvard, Vancouver, ISO, and other styles
25

Solieri, Luca <1979&gt. "Sviluppo di algoritmi avanzati di analisi e diagnosi combustione in tempo reale per motori endotermici alternativi." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1709/.

Full text
Abstract:
Increasingly stringent exhaust emission limits and higher fuel economy are the main drivers of the engine development process. As a consequence, the complexity of the propulsion units and its subsystems increase, due to the extensive use of sensors and actuators needed to obtain a precise control over the combustion phase. Since engine calibration process consumes most of the development time, new tools and methodologies are needed to shorten the development time and increase the performance attainable. Real time combustion analysis, based on the in-cylinder pressure signal, can significantly improve the calibration of the engine control strategies and the development of new algorithms, giving instantaneous feedback on the engine behavior. A complete combustion analysis and diagnosis system has been developed, capable of evaluating the most important indicators about the combustion process, such as indicated mean effective pressure, heat release, mass fraction burned and knock indexes. Such a tool is built on top of a flexible, modular and affordable hardware platform, capable of satisfying the requirements needed for accuracy and precision, but also enabling the use directly on-board the vehicle, due to its small form factor.
APA, Harvard, Vancouver, ISO, and other styles
26

Ribeiro, Jorge Augusto Moreira. "Chameleon Mixer: mesa controladora de efeitos de vídeo em tempo real." Master's thesis, [do autor], 2010. http://hdl.handle.net/10316/93813.

Full text
Abstract:
O projecto Chameleon Mixer consiste na criação do hardware e do software para uma mesa controladora de efeitos digitais em tempo real. Foi inspirada no camaleão e pretende dar uma visão diferente daquilo que assumimos como real. Recebe informação dos seus sensores e aplica efeitos que vão repercutir-se na imagem final. A mesa de efeitos é controlada pelo utilizador através de potenciómetros ou de sensores digitais, de forma a poder controlar mais fácil e autonomamente os efeitos. O hardware é baseado numa placa de desenvolvimento conhecida como Arduino [1] e que contém o microcontrolador ATmega1280. É utilizado o Processing [2] para a comunicação entre o microcontrolador e o software da Chameleon Mixer. O software é desenvolvido com o OpenFrameworks [3] (C++), onde se faz o processamento de imagem em tempo real e se aplicam os efeitos.
APA, Harvard, Vancouver, ISO, and other styles
27

Serafini, Gloria. "La sottotitolazione interlinguistica in tempo reale: il caso Ericsson Olanda e l'esperimento presso il festival Sedicicorto 2014." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10173/.

Full text
Abstract:
Al giorno d'oggi l'accessibilità all’informazione e ai prodotti audiovisivi è un argomento particolarmente delicato. Spesso, le categorie più svantaggiate, come le persone affette da disabilità sensoriali e gli stranieri, non hanno pieno accesso alla programmazione televisiva o a eventi ricreativi, culturali o formativi (conferenze, workshop, spettacoli), a causa della mancanza di adeguati servizi di supporto linguistico. Tale carenza rappresenta una mancata opportunità d’integrazione e anche una potenziale perdita, in termini di pubblico e di introiti, per le emittenti e gli enti che organizzano programmi ed eventi di interesse generale. Questa tesi intende analizzare le tecniche attraverso le quali oggi viene realizzata la sottotitolazione interlinguistica in tempo reale. Il nostro obiettivo è quello di dimostrare che approfondendo la ricerca scientifica sul respeaking e su altre tecniche meno costose rispetto alla stenotipia, la sottotitolazione interlinguistica in tempo reale non sarebbe più un miraggio. Il primo capitolo fornisce una panoramica sulla sottotitolazione intralinguistica e interlinguistica e sulla sottotitolazione preregistrata, in diretta e in semi-diretta. Nel secondo capitolo presenteremo il caso dell’azienda Ericsson in Olanda, l'unica a fornire sottotitolazione interlinguistica in tempo reale nei Paesi Bassi, tramite una tecnica che combina un interprete simultaneo, uno stenotipista e un "subtitle keyer" (figura che inserisce i sottotitoli al momento opportuno). La squadra lavora su un segnale dal vivo che viene però trasmesso al pubblico olandese con alcuni secondi di ritardo, permettendo di migliorare la qualità dei sottotitoli. Grazie ad una borsa di studio concessa dal Dipartimento d’Interpretazione e Traduzione di Forlì (Università di Bologna), abbiamo potuto intervistare il responsabile dell’unità di traduzione presso Ericsson, dott. Thijs de Korte, e abbiamo avuto modo di assistere in loco alla realizzazione dei sottotitoli interlinguistici in tempo reale. Il terzo capitolo si concentrerà sulla tecnica del respeaking, dagli ambiti d’uso ai requisiti per svolgere questa professione. Ci concentreremo in particolare sulle somiglianze tra respeaker e interprete simultaneo, che ci condurranno all'esperimento descritto nel capitolo 4. Infatti, date le somiglianze riscontrate tra interpretazione simultanea e respeaking e il potenziale in termini di accessibilità offerto dalla sottotitolazione interlinguistica dal vivo, abbiamo fornito un servizio sperimentale di sottotitolazione in diretta dall’italiano verso l’inglese durante la cerimonia di premiazione del Sedicicorto International Film Festival di Forlì. Dopo aver descritto in dettaglio l’esperienza, analizzeremo i giudizi espressi da ospiti stranieri, pubblico italiano e membri dell'associazione "Sedicicorto", al fine di verificare la qualità del servizio e osservarne i benefici. La conclusione della nostra tesi è che sfruttando appieno il potenziale offerto della tecnologia moderna e approfondendo la ricerca sulle tecniche per la sottotitolazione interlinguistica dal vivo, si potrebbero ridurre i costi dei servizi di supporto linguistico a non udenti e stranieri, incoraggiando dunque aziende ed enti a garantire una maggiore accessibilità all’informazione e agli eventi culturali e formativi.
APA, Harvard, Vancouver, ISO, and other styles
28

Ravaglioli, Vittorio <1983&gt. "Sviluppo di metodologie per la Stima in Tempo Reale delle Grandezze Indicate in Motori a Combustione Interna." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4775/1/Ravaglioli_Vittorio_tesi.pdf.

Full text
Abstract:
Modern Internal Combustion Engines are becoming increasingly complex in terms of their control systems and strategies. The growth of the algorithms’ complexity results in a rise of the number of on-board quantities for control purposes. In order to improve combustion efficiency and, simultaneously, limit the amount of pollutant emissions, the on-board evaluation of two quantities in particular has become essential; namely indicated torque produced by the engine and the angular position where 50% of fuel mass injected over an engine cycle is burned (MFB50). The above mentioned quantities can be evaluated through the measurement of in-cylinder pressure. Nonetheless, at the time being, the installation of in-cylinder pressure sensors on vehicles is extremely uncommon mainly because of measurement reliability and costs. This work illustrates a methodological approach for the estimation of indicated torque and MFB50 that is based on the engine speed fluctuation measurement. This methodology is compatible with the typical on-board application restraints. Moreover, it requires no additional costs since speed can be measured using the system already mounted on the vehicle, which is made of a magnetic pick-up faced to a toothed wheel. The estimation algorithm consists of two main parts: first, the evaluation of indicated torque fluctuation based on speed measurement and secondly, the evaluation of the mean value of the indicated torque (over an engine cycle) and MFB50 by using the relationship with the indicated torque harmonic and other engine quantities. The procedure has been successfully applied to an L4 turbocharged Diesel engine mounted on-board a vehicle.
APA, Harvard, Vancouver, ISO, and other styles
29

Ravaglioli, Vittorio <1983&gt. "Sviluppo di metodologie per la Stima in Tempo Reale delle Grandezze Indicate in Motori a Combustione Interna." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4775/.

Full text
Abstract:
Modern Internal Combustion Engines are becoming increasingly complex in terms of their control systems and strategies. The growth of the algorithms’ complexity results in a rise of the number of on-board quantities for control purposes. In order to improve combustion efficiency and, simultaneously, limit the amount of pollutant emissions, the on-board evaluation of two quantities in particular has become essential; namely indicated torque produced by the engine and the angular position where 50% of fuel mass injected over an engine cycle is burned (MFB50). The above mentioned quantities can be evaluated through the measurement of in-cylinder pressure. Nonetheless, at the time being, the installation of in-cylinder pressure sensors on vehicles is extremely uncommon mainly because of measurement reliability and costs. This work illustrates a methodological approach for the estimation of indicated torque and MFB50 that is based on the engine speed fluctuation measurement. This methodology is compatible with the typical on-board application restraints. Moreover, it requires no additional costs since speed can be measured using the system already mounted on the vehicle, which is made of a magnetic pick-up faced to a toothed wheel. The estimation algorithm consists of two main parts: first, the evaluation of indicated torque fluctuation based on speed measurement and secondly, the evaluation of the mean value of the indicated torque (over an engine cycle) and MFB50 by using the relationship with the indicated torque harmonic and other engine quantities. The procedure has been successfully applied to an L4 turbocharged Diesel engine mounted on-board a vehicle.
APA, Harvard, Vancouver, ISO, and other styles
30

Bovicelli, Paolo <1989&gt. "Sviluppo del software di un sistema per l'analisi in tempo reale della combustione di motori endotermici alternativi." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amsdottorato.unibo.it/8120/1/TesiDottorato_Bovicelli.pdf.

Full text
Abstract:
Limiti sempre più stringenti sulle emissioni inquinanti ed una maggiore attenzione ai consumi, all'incremento di prestazioni e alla guidabilità, portano allo sviluppo di algoritmi di controllo motore sempre più complicati. Allo stesso tempo, l'unità di propulsione sta diventando un insieme sempre più variegato di sottosistemi che devono lavorare all'unisono. L'ingegnere calibratore si trova di fronte ad una moltitudine di variabili ed algoritmi che devono essere calibrati e testati e necessita di strumenti che lo aiutino ad analizzare il comportamento del motore fornendo risultati sintetici e facilmente accessibili. Nel seguente lavoro è riportato lo sviluppo di un sistema di analisi della combustione: l'obbiettivo è stato quello di sviluppare un software che fornisca le migliori soluzioni per l'analisi di un motore a combustione interna, in termini di accuratezza dei risultati, varietà di calcoli messi a disposizione, facilità di utilizzo ed integrazione con altri sistemi tramite la condivisione dei risultati calcolati in tempo reale.
Increasing restrictions concerning exhaust emission, higher fuel economy, higher performance and drivability, brings to the development of increasingly complex engine control algorithms. At the same time, the propulsion unit is becoming a more and more complex group of subsystems that have to work in unison. The engine calibration engineer is faced with a multitude of variables and algorithms to be calibrated and tested, and needs instruments helping him to analyse the engine behaviour and optimize his time by providing synthetic results easily collecting the amount of data. The development of the functionalities of a combustion analysis and diagnosis system has been carried out during this work, in order to generate a software that provides the best solutions for engine analysis, in terms of accuracy of data results, variety of solutions offered for the analyses, ease of use and configuration and integration with other systems by real time results sharing.
APA, Harvard, Vancouver, ISO, and other styles
31

Vetrano, Lorenzo. "Il controllo in tempo reale delle pressioni nelle reti di acquedotto ai fini della riduzione delle perdite idriche." Doctoral thesis, Università di Catania, 2012. http://hdl.handle.net/10761/1194.

Full text
Abstract:
Le perdite idriche rappresentano oggi il principale problema da affrontare per una corretta gestione delle reti di acquedotto. Ingenti perdite provocano infatti, nei sistemi acquedottistici, forti squilibri in termini economici, sociali e ambientali. In passato il contenimento delle perdite veniva condotto tramite strategie puntuali, ovvero ricercando e riparando i singoli punti di perdita; tale approccio, sicuramente efficace soprattutto per le perdite ingenti, risulta caratterizzato da costi estremamente elevati. Alle tecniche tradizionali è possibile associare strategie di contenimento delle perdite che consentono di ottenere risultati distribuiti su tutta la rete. Sfruttando la relazione diretta esistente tra le perdite idriche e le pressioni di esercizio nelle reti di acquedotto, è possibile mettere a punto metodologie che consentono di ottenere un notevole risparmio idrico diffuso su tutta la rete, mediante l inserimento, in alcuni tratti, di apposite valvole di riduzione di pressione. Nelle tecniche di contenimento delle pressioni particolare attenzione va posta in merito al posizionamento ed alla regolazione ottimale delle valvole di riduzione della pressione. A tal fine sono stati utilizzati metodi di ottimizzazione, di varia natura, ed è stato mostrato come sia possibile determinare la posizione, ovvero il ramo di inserimento, e la taratura delle valvole di riduzione di pressione, tali da minimizzare le perdite idriche in rete, nel rispetto dei vincoli sulle pressioni minime di esercizio. Tali tecniche di ottimizzazione sono però basate sull ipotesi di conoscenza delle condizioni di erogazione del sistema nel tempo, ovvero della distribuzione spaziale e temporale delle portate ai nodi e delle variazioni dei livelli idrici nei serbatoi, condizione non soddisfatta nei sistemi idrici reali. Al fine di risolvere il problema della regolazione delle valvole di riduzione di pressione, è possibile adottare tecniche di controllo in tempo reale che consentano di settare i dispositivi in maniera continua e automatica, sulla base di sole misure di pressione, garantendo così, al variare delle condizioni di erogazione, il mantenimento dei valori desiderati del carico piezometrico nei nodi di controllo della rete. Le tecniche di controllo in tempo reale (RTC) prevedono l implementazione di soluzioni specifiche, dall alto contenuto tecnologico, in funzione delle caratteristiche del processo che si intende controllare; risulta necessaria, pertanto, una preventiva progettazione dei componenti hardware e software. Tra queste la scelta delle unità logiche di controllo costituisce il principale passo nell implementazione di un sistema di RTC. Le unità logiche proporzionali, grazie alle intrinseche qualità di affidabilità e di semplicità d uso, si prestano bene al controllo delle valvole di riduzione di pressione nelle reti di acquedotto. Per garantire regolazioni efficaci del processo di controllo, è necessaria una preventiva calibrazione delle unità logiche in funzione delle caratteristiche del sistema da controllare. Nella presente lavoro di tesi vengono proposte e testate due strategie di calibrazione che consentono di tarare il parametro dell unità logica proporzionale in funzione delle caratteristiche specifiche dalla rete idrica da controllare. Entrambe le strategie di calibrazione sono state applicate per il controllo di una rete ben nota in letteratura. I risultati hanno mostrato come entrambe le strategie abbiano consentito di calcolare valori del parametro proporzionale tali da restituire regolazioni della valvola estremamente efficaci in termini di raggiungimento e mantenimento della pressione desiderata ai nodi di controllo della rete. Infine viene mostrato il confronto tra i risultati ottenibili da un idro-valvola per la stabilizzazione della pressione di valle e una valvola controllata in tempo reale, mettendo cosi in luce le motivazioni per cui tale seconda ipotesi è da preferire.
APA, Harvard, Vancouver, ISO, and other styles
32

BORGA, GIOVANNI. "City Sensing : sensori e dimensione del tempo reale, città interconnessa e dispositivi mobili. Un nuovo paradigma per la conoscenza." Doctoral thesis, Università IUAV di Venezia, 2011. http://hdl.handle.net/11578/278291.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

MENICHETTI, DARIO. "Verso modelli di simulazione dei flussi passeggeri del trasporto pubblico per la gestione multi-modale della mobilità in tempo reale." Doctoral thesis, Università IUAV di Venezia, 2019. http://hdl.handle.net/11578/282416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

CASOLARO, ANTONIO. "Sviluppo di un sistema wireless a basso consumo energetico per la rilevazione ed il monitoraggio in tempo reale di perdite idriche." Doctoral thesis, Università Politecnica delle Marche, 2014. http://hdl.handle.net/11566/242905.

Full text
Abstract:
Le perdite idriche costituiscono un problema rilevante e costantemente presente in tutte le società avanzate, con costi economici, derivanti dallo spreco della preziosa risorsa. Il lavoro esposto in questa tesi illustra lo sviluppo di un sistema innovativo per la rilevazione e localizzazione di perdite idriche nelle tubazioni, in grado di coniugare precisione diagnostica e funzionalità avanzate quali il monitoraggio continuo ed automatico in tempo reale. Ciò è permesso grazie ad una wireless sensor network progettata ad hoc, in cui tutti i dispostivi implementano funzionalità di risparmio energetico in modo da poter rimanere in funzione fino a diversi anni senza bisogno di manutenzione, garantendo al tempo stesso una rete mesh stabile per la raccolta dati dai sensori e l’inoltro verso server di elaborazione remota. I dispositivi realizzati per l’acquisizione del segnale prodotto dalle perdite nella tubatura campionano tale segnale per mezzo di sensori accelerometrici MEMS. La rilevazione della perdita avviene per mezzo di un indice di probabilità elaborato a partire da livelli equivalenti di rumore calcolati su intervalli temporali di misura consecutivi. La localizzazione della posizione della perdita avviene mediante l’applicazione del metodo della cross-correlazione, di cui è illustrata l’analisi della funzione base (BCC) e quella generalizzata (GCC) con stimatore PHAT. Infine sono stati illustrati i risultati ottenuti in campagne di test: la GCC con PHAT ha meglio eliminato i disturbi provocati da riflessioni e onde stazionarie, e frequency shift dei dispositivi di acquisizione del segnale. Il sistema è stato in grado di limitare l’errore massimo di stima della posizione della perdita intorno a 0,5m. Per l’ottenimento di migliori risultati si consiglia un campionamento a frequenza più elevata (>1kHz) e l’adozione di modelli fisici dettagliati e caratteristici per le tubature su cui avvengano le acquisizioni. Concludendo, il sistema ha dimostrato delle ottime prestazioni sul campo.
Water loss is a major challenge in all advanced societies, with economic costs arising from the waste of the precious resource. The work here presented in this thesis describes the development of an innovative system for detecting and locating leaks in water pipes, able to combine diagnostic accuracy and advanced features such as automatic and continuous monitoring in real time. This is allowed thanks to a wireless sensor network designed ad hoc, in which all devices implement power saving features in order to be able to stay in operation for years without maintenance. Further the wireless system ensures a stable mesh network for the data collection from the sensors, and communication toward remote server for additional computing. The devices designed for the acquisition, sample signals produced by the leakages in the pipeline by using MEMS acceleration sensors. The detection of the loss occurs by using a probability index developed starting from the equivalent levels of noise calculated on time intervals of consecutive measurements. The localization of the position of the loss occurs through the application of the method of cross-correlation, which is shown with an analysis of the base function (BCC ) and the generalized (GCC ) along with PHAT estimator. Finally, the results obtained in test campaigns were presented: the GCC with PHAT has suppressed signal distortion caused by reflections and standing waves, and frequency shift of the signal acquisition devices. The system was able to limit to 0.5m the maximum error in the leakage position estimating process. To obtain the best results, we recommend sampling at a higher frequency ( > 1 kHz ) and the adoption of detailed physical models and characteristic for the pipes on which acquisitions take place. In conclusion, the system has demonstrated excellent performance on the field.
APA, Harvard, Vancouver, ISO, and other styles
35

Malfatti, Laércio. "Análise qualitativa do ciclo real e tempo de combustão em um motor padrão ASTM-CFR operando com mistura de gasolina e etanol hidratado." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/19041.

Full text
Abstract:
A duração da combustão tem implicação direta na determinação do trabalho negativo no ciclo motor. A duração da combustão tem relação inversa com a velocidade de propagação da chama. Assim, quanto maior a velocidade de propagação da chama, menor a duração da combustão. Além disto, a duração da combustão está relacionada com a relação volumétrica de compressão, com a razão de mistura e com o tipo de combustível, entre outros fatores. Neste sentido, quanto maior a velocidade de queima da mistura ar-combustível, menor o trabalho negativo no ciclo. Neste contexto, foram ensaiadas 3 relações de compressão e 3 razões de mistura, para 6 combustíveis de composição conhecida: gasolina comum tipo C, álcool etílico hidratado combustível (AEHC) e AEHC adicionado à gasolina comum tipo C nas proporções de 20%, 40%, 60% e 80%. A variação da pressão no interior da câmara de combustão, para todos os combustíveis, e a posição da centelha de ignição foram determinadas com a utilização da base angular e com variação da relação volumétrica de compressão e da razão de mistura. O diagrama , para fins de cálculo de área, foi traçado por pós-processamento. Os resultados obtidos indicam que a duração da combustão aumenta com o aumento da razão de mistura e diminui com o aumento da relação volumétrica de compressão, para todos os combustíveis ensaiados. Verificou-se que a amplitude da pressão, no interior da câmara de combustão, se comporta inversamente à duração da combustão. Mostrou-se que o aumento da razão de mistura implica na redução do trabalho líquido entregue ao êmbolo ao longo de todo o ciclo do motor. Opostamente ocorre com o aumento da relação volumétrica de compressão, que implica no aumento do trabalho líquido por ciclo. Concluiu-se que o máximo valor para o trabalho líquido ao longo de todo o ciclo foi obtido para a maior relação volumétrica de compressão (8:1) e a menor razão de mistura (λ = 0,9). O combustível que representou este resultado foi o álcool etílico hidratado combustível adicionado à gasolina comum tipo C em 80% (AEHC80). O mínimo valor para o trabalho líquido, ao longo de todo o ciclo foi obtido, para a menor relação volumétrica de compressão (6:1) e a maior razão de mistura dos ensaios (λ = 1,1). O combustível que representou este resultado foi o álcool etílico hidratado combustível (AEHC).
The duration of the combustion is directly implicative on determining the negative work of the motor cycle. The duration of the combustion has an inverse relation with the flame propagation speed. Thus, the higher propagation of the flame, the shorter duration of the combustion. Besides that, the duration of the combustion is related to the relation of compression, to the air/fuel relation and to the type of fuel, among other factors. In this way, the higher burning speed of the air/fuel mixture, the smallest negative work in the cycle. In such a context, there were tried three compression relations and three mixture ratios for six fuels of know compositions: ordinary gasoline C type, combustible hydrated ethyl alcohol and combustible hydrated ethyl alcohol added to ordinary gasoline C type in the proportions of 20%, 40%, 60% and 80%. The pressure variation inside the combustion chamber, for all fuels, and the position of the ignition spark were determined using the angular base and with variation of the compression relation and the mixture ratio. The diagram, for area calculation, was traced by post processing. The obtained results indicate that the combustion duration increases with the rising of the mixture ratio and decreases with the rising of the compression relation, for all the tried combustibles. It was found that the pressure amplitude inside the combustion chamber behaves inversely to the combustion duration behavior. It was shown that the rising of the mixture ratio implies on the reduction of the net work delivered by the piston all through the cycle of the motor. The opposite occurs with the rising of the compression relation, that implies on the increase of the net work by cycle. It was concluded that the maximum value for the net work all through the cycle was obtained for the higher compression relation (8:1) and the least mixture ratio of the tests (λ = 0,9). The combustible that achieved such a result was the combustible hydrated ethyl alcohol added to ordinary gasoline C type in 80%. The least value for the net work all through the cycle was obtained by the least compression relation (6:1) and the highest mixture ratio of the tests (λ = 1,1). The fuel that achieved that result was the combustible hydrated ethyl alcohol.
APA, Harvard, Vancouver, ISO, and other styles
36

Franci, Silvia. "Segmentazione del pavimento di una scena basata sul riconoscimento del pattern." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6559/.

Full text
Abstract:
Nel contesto della tesi è stata sviluppata un'applicazione di Realtà Aumentata per tablet Android nell'ambito dell'interior design. Dopo aver acquisito un'istantanea con la fotocamera del dispositivo di un ambiente interno, è possibile selezionare attraverso un "tocco" sul display il rivestimento (pavimento o parete) di cui si vuole simulare il cambiamento di colore o texture. Una volta individuata ed evidenziata l'area di interesse, in tempo reale è possibile cambiare interattivamente l'aspetto del rivestimento precedentemente selezionato. La tesi si focalizza sulla ricerca di un metodo che consenta di avere una segmentazione accurata della superficie di interesse. L'algoritmo di segmentazione studiato, utilizzato nell'applicazione di Realtà Aumentata, è sviluppato nel contesto della collaborazione tra il Computer Vision Group (CVG), coordinato dal Prof. Alessandro Bevilacqua e Maticad S.r.l., un'azienda che opera nel settore dell'Information Technology, Distributed Applications, Internet e Computer Grafica, presso la quale ho effettuato un periodo di tirocinio. Maticad, oltre a software per pc desktop, sviluppa applicazioni per iOS e in questo contesto, durante il tirocinio, ho sviluppata un'applicazione demo per iOS 7 volta a studiare le prestazioni dei sensori (ottico, inerziali, magnetici), in vista di un futuro porting dell'applicazione su quel sistema operativo.
APA, Harvard, Vancouver, ISO, and other styles
37

Vella, Edoardo <1988&gt. "Motivazioni al consumo di videogiochi e di beni virtuali nel free-to-play: uno studio di casi multipli tra i videogiochi di strategia massivi in tempo reale." Master's Degree Thesis, Università Ca' Foscari Venezia, 2015. http://hdl.handle.net/10579/6637.

Full text
Abstract:
I prodotti videoludici negli ultimi anni sono entrati con prepotenza nelle abitudini di consumo mondiali: sono circa 1,7 miliardi le persone che possono essere definite dei videogiocatori. La forte attenzione a questi prodotti è dovuta anche alle dimensioni che tale mercato ha acquisito all'interno del macrosettore dell'Entertainment: ben 70 miliardi di dollari vengono spesi ogni anno per il consumo di videogiochi, il doppio di quelli spesi per il cinema in sala. Le dimensioni nonché le stime di crescita a doppia cifra hanno attirato l'ingresso nel settore di una moltitudine di imprese, stimolando l'innovazione dei prodotti e dei modelli di business. A trainare la crescita del settore sono i videogiochi per smartphone e tablet, o mobile game, che sfruttano il fatto di essere fruiti mediante dispositivi ormai sempre presenti nella vita dei consumatori. Il presente elaborato si prefigge di indagare le motivazioni al consumo dei mobile game all'interno del modello di business che sta dettando nuove regole nelle abitudini dei consumatori: il free-to-play. Tale modello consiste nel permettere la fruizione a titolo gratuito del videogioco e successivamente prevede la vendita di beni virtuali all'interno del gioco senza però precluderne la fruizione. Con il free-to-play il vero oggetto della vendita diventano i beni virtuali e la presente tesi vuole comprendere come i videogiocatori si rapportano a questi beni e quali siano le ragioni che li inducono a spendere soldi reali per poter consumare oggetti virtuali. È stato quindi condotto uno studio di casi multipli di tre videogiochi di particolare interesse per l'utilizzo che fanno del free-to-play: Clash of Clans, Boom Beach e Hay Day. I metodi di raccolta dei dati sono stati: la netnografia, le interviste, la desk analysis e il questionario online.
APA, Harvard, Vancouver, ISO, and other styles
38

Rossi, Giacomo. "Spettroscopia di assorbimento di raggi X: apparato per misure in condizioni di illuminazione ottica differenziale come primo passo verso una misura risolta in tempo della struttura locale di molecole metallo-organiche." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7571/.

Full text
Abstract:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
APA, Harvard, Vancouver, ISO, and other styles
39

CAMERLINGO, NUNZIO. "Migliorare la gestione dell'ipoglicemia nel diabete di tipo 1 mediante sensori CGM: modelli del comportamento del paziente, ottimizzazione della durata di monitoraggio nei trial clinici e suggerimento in tempo reale di carboidrati preventivi." Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3458744.

Full text
Abstract:
Nella gestione del diabete di tipo 1 (T1D), gli individui sono tenuti a svolgere compiti quotidiani gravosi per compensare l'assenza di insulina endogena e mantenere la loro concentrazione di glucosio nel sangue (BG) all'interno di un range target. Per controllare la glicemia e decidere azioni terapeutiche, gli individui possono avvalersi di sensori di monitoraggio in continua della glicemia (CGM), moderni dispositivi in grado di fornire letture di glicemia quasi in continua. Il rischio di ipoglicemia (BG<70 mg/dL) è però sempre presente, con complicazioni a breve termine molto pericolose ed un impatto negativo sulla qualità della vita. L'enorme mole di dati forniti dal CGM può essere usata per quantificare l'efficacia della terapia mediante i cosiddetti “time-in-ranges”, che esprimono la percentuale di tempo spesa con CGM entro un certo intervallo glicemico. Per esempio, la percentuale di tempo con CGM<70 mg/dL è indicata come “time below range” (TBR). Oggigiorno, la sperimentazione di nuove terapie per il T1D è molto più semplice, grazie a simulatori che mimano efficacemente la fisiologia e le decisioni terapeutiche, consentendo di eseguire studi clinici simulati (ISCT) a costi limitati, senza rischi per i soggetti reali. I suddetti progressi tecnologici hanno permesso di accelerare la ricerca clinica nella gestione del diabete, ma sono ancora presenti questioni che richiedono nuovi sviluppi metodologici nel campo della bioingegneria. L'obiettivo della presente tesi di dottorato è quello di proporre risposte a tre domande specifiche relative alla gestione dell'ipoglicemia: i) Quanto il comportamento subottimo degli individui nel rispettare la terapia impatta sull'ipoglicemia? ii) Per quanto tempo bisogna monitorare i soggetti con CGM per quantificare efficacemente il loro TBR? iii) Come sfruttare i dati CGM per suggerire contromisure appropriate per mitigare l'ipoglicemia? Per rispondere a queste domande, abbiamo fatto ricorso a metodologie legate principalmente allo sviluppo di modelli matematici, all'analisi di serie temporali e alla progettazione di algoritmi di supporto alla decisione. La tesi è organizzata in 5 capitoli. Nel capitolo 1, dopo aver introdotto cause, conseguenze e gestione dell'ipoglicemia, si discute l'importanza di affrontare alcuni problemi aperti. Un approfondimento è dedicato ad un popolare strumento per eseguire ISCT nel T1D, il “T1D patient decision simulator” (T1D-PDS). Nel Capitolo 2, ricorrendo a tecniche di apprendimento automatico, sviluppiamo ed incorporiamo nel T1D-PDS nuovi modelli matematici per descrivere quantità dei carboidrati (CHO) e programmazione dei pasti e dei boli correttivi d’insulina. Il simulatore è poi usato per eseguire un'analisi di sensibilità per valutare l'impatto dei fattori comportamentali sul TBR, ottenendo una classifica dei comportamenti determinanti l'ipoglicemia, da cui si evince che la stima della quantità di CHO dei pasti è cruciale per raggiungere gli obiettivi glicemici stabiliti. Nel capitolo 3, deriviamo un'equazione che lega la durata di monitoraggio CGM alla precisione delle stime TBR e la validiamo in soggetti con caratteristiche eterogenee e diversi sensori. Poi presentiamo un calcolatore web sviluppato per facilitare i professionisti nell'uso di tale formula in diversi scenari clinici. Infine confrontiamo il nostro approccio con un altro metodo di letteratura. Nel capitolo 4, proponiamo un nuovo algoritmo che suggerisce in tempo reale CHO preventivi ad azione rapida, per minimizzare il TBR, sfruttando due misure di rischio per distinguere la severità degli eventi ipoglicemici. La nuova strategia è valutata in-silico mediante confronto con le linee guida standard per l'ipoglicemia ed altri algoritmi di predizione. I risultati mostrano che il nuovo algoritmo è in grado di ridurre il TBR con un numero limitato di azioni preventive. Infine, il capitolo 5 riassume i principali risultati.
In type 1 diabetes (T1D) management, individuals are required to perform burdensome daily tasks to compensate the absence of endogenous insulin, and to maintain their blood glucose (BG) concentration within the target range. To control BG and to tune therapeutic actions, individuals can use continuous glucose monitoring (CGM) sensors, modern devices providing BG readings almost continuously. However, the risk of hypoglycemia (BG<70 mg/dL) is always present, with extremely dangerous short-term complications and a negative impact on quality of life. The huge amount of information provided by CGM can be used to quantify the therapy effectiveness through the computation of the so-called time-in-ranges, expressing the percentage of time with CGM within a certain glycemic range. For example, the percent time with CGM<70 mg/dL is indicated as time below range (TBR). Nowadays, the test of new T1D therapies can be much more easily pursued thanks to simulation tools that effectively capture individual physiology and therapy-related behavior, and allow performing in-silico clinical trials (ISCTs) at limited costs, without risks for real subjects. The above-mentioned technological advances allowed accelerating clinical research in diabetes management, but several questions requiring new methodological developments in the bioengineering domain are still open. The objective of the present PhD thesis is to propose answers to three specific questions related to hypoglycemia management: i) How much individuals' unideal behavior in performing therapeutic tasks impact on hypoglycemia? ii) For how long should patients be monitored with CGM sensors to effectively quantify their TBR? iii) How to exploit the CGM datastream to suggest appropriate countermeasures for mitigating hypoglycemia? To answer these questions, we resorted to methodologies mainly related to the development of mathematical models, the analysis of time-series, and the design of decision support algorithms. The thesis is organized in 5 chapters. In Chapter 1, after introducing causes, consequences, and management of hypoglycemia, the importance of addressing some open issues is discussed. Special attention is paid to a popular tool to perform ISCTs in T1D, the T1D patient decision simulator (T1D-PDS). In Chapter 2, we address the issue of identifying the behavioral determinants of hypoglycemia. First, by resorting to machine learning techniques, we develop and embed in the T1D-PDS new mathematical models meal carbohydrates (CHO) amount and timing, and insulin bolus timing. Then, we use the enhanced simulator to perform a sensitivity analysis to evaluate the impact of behavioral factors on TBR. The resulting ranked list of behavioral determinants of hypoglycemia shows that the estimation of meals’ CHO amount is crucial to achieve the established glycemic goals. In Chapter 3, we address the issue of determining the minimum CGM duration to precisely quantify TBR. We formulate this problem as an estimator convergence problem, and derive a mathematical equation linking the CGM recording length to the precision around TBR estimates. We validate the formula in subjects with heterogeneous characteristics and different sensors. Then, we present an online calculator developed to facilitate practitioners in using our approach in different clinical scenarios. Finally, we compare our approach against another literature method. In Chapter 4, we address the issue of mitigating hypoglycemia using CGM data only. We propose a new real-time algorithm to suggest preventive doses of fast-acting CHO to minimize TBR, based on two risk measures to distinguish the severity of hypoglycemic events. The new strategy is assessed in-silico by comparison against standard guidelines for hypoglycemia and prediction-based algorithms. Results show that the new algorithm is able to reduce TBR with a limited number of preventive actions. Finally, Chapter 5 summarizes the major findings.
APA, Harvard, Vancouver, ISO, and other styles
40

Fiorentini, Juri. "Le tecniche di Real Time Control (RTC) applicate ai sistemi fognari: il caso di studio del bacino sperimentale Fossolo a Bologna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
Nel lavoro di tesi di seguito presentato sono state analizzate e modellate, attraverso il software opensource SWMM 5.1, differenti strategie per il controllo dei deflussi. In particolare sono state analizzate le possibili metodologie di implementazione di un sistema di controllo in tempo reale (RTC) su una rete esistente: il bacino sperimentale "Fossolo" a Bologna. Definiti i criteri per ottimizzare il sistema di RTC, sono state eseguite valutazioni quanti-qualitative su base annuale, utilizzando come dato iniziale la serie pluviometrica storica dell’anno 2016, generando tre scenari differenti: due con diversa intensità di pioggia sull’area oggetto di studio ed una con intensità costante su tutto il bacino. Si è quindi studiato, in modo comparativo, il comportamento di diversi parametri in tre situazioni differenti: rete originale, rete con sistema di RTC e rete con sistema di RTC in combinazione ad un restringimento per regolare la portata nel collettore verso il depuratore. Su uno scenario è stato inoltre condotto un’ulteriore studio, in cui si sono confrontate le soluzioni di RTC con soluzioni alternative, come l’inserimento di una vasca di accumulo posta a monte del ricettore e, in maniera generalizzata, l’utilizzo di tecnologie verdi per aumentare la permeabilità dei sottobacini.
APA, Harvard, Vancouver, ISO, and other styles
41

Valentini, Nicola. "Universi sonoro-visivi e digitali in ambito europeo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/1141/.

Full text
Abstract:
Lo scopo principale di questa dissertazione e quello di investigare il rapporto che si crea tra suono, immagine e sistemi informatico-tecnologici attraverso l'analisi di tre grandi centri europei di ricerca, formazione e produzione, all'avanguardia per quanto riguarda la produzione di opere sonoro-visive multimediali e interattive: Ircam di Parigi, Tempo Reale di Firenze e United Visual Artists di Londra. Saranno analizzati il rapporto tra lo sviluppo delle tecnologie digitali e le sue applicazioni in campo artistico, nonche il modo in cui, nei tre centri citati, viene trattato il suono. Saranno inoltre analizzate quali sperimentazioni sono state effettuate, quali sono in corso d'opera e come vengono utilizzati i risultati di queste ricerche combinando suono e tecnologia per dar vita a quegli universi sonoro-visivi citati nel titolo stesso della tesi.
APA, Harvard, Vancouver, ISO, and other styles
42

Serravalli, Luca. "Tecniche per la separazione live di piani di profondita in un flusso video mediante Kinect e una applicazione nell'intrattenimento digitale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7235/.

Full text
Abstract:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
APA, Harvard, Vancouver, ISO, and other styles
43

Olivastri, Silvio. "Effetti audio digitali lineari per strumenti elettrici a corda." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7495/.

Full text
Abstract:
L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodità di utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.
APA, Harvard, Vancouver, ISO, and other styles
44

PAGANO, ALICE. "Testing quality in interlingual respeaking and other methods of interlingual live subtitling." Doctoral thesis, Università degli studi di Genova, 2022. https://hdl.handle.net/11567/1091438.

Full text
Abstract:
La sottotitolazione in tempo reale (Live Subtitling, LS), trova le sue fondamenta nella sottotitolazione preregistrata per non udenti e ipoudenti per la produzione di sottotitoli per eventi o programmi televisivi dal vivo. La sottotitolazione live comporta il trasferimento da un contenuto orale a uno scritto (traduzione intersemiotica) e può essere effettuata da e verso la stessa lingua (intralinguistica), o da una lingua a un’altra (interlinguistica), fornendo così accessibilità per soggetti non udenti e al tempo stesso garantendo accesso multilingue ai contenuti audiovisivi. La sottotitolazione interlinguistica in tempo reale (d'ora in poi indicata come ILS, Interlingual Live Subtitling) viene attualmente realizzata con diversi metodi: l'attenzione è qui posta sulla tecnica del respeaking interlinguistico, uno dei metodi di sottotitolazione in tempo reale o speech-to-text interpreting (STTI) che ha suscitato negli ultimi anni un crescente interesse, anche nel panorama italiano. Questa tesi di Dottorato intende fornire un quadro della letteratura e della ricerca sul respeaking intralinguistico e interlinguistico fino ad oggi, con particolare enfasi sulla situazione attuale in Italia di questa pratica. L'obiettivo della ricerca è stato quello di esplorare diversi metodi di ILS, mettendone in luce i punti di forza e le debolezze nel tentativo di informare il settore delle potenzialità e dei rischi che possono riflettersi sulla qualità complessiva finale dei sottotitoli attraverso l’utilizzo di diverse tecniche. Per fare ciò, sono stati testati in totale cinque metodi di ILS con diversi gradi di interazione uomo-macchina; ciascun metodo è stato analizzato in termini di qualità, quindi non solo dal punto di vista dell'accuratezza linguistica, ma anche considerando un altro fattore cruciale quale il ritardo nella trasmissione dei sottotitoli stessi. Nello svolgimento della ricerca sono stati condotti due casi di studio con diverse coppie linguistiche: il primo esperimento (dall'inglese all'italiano) ha testato e valutato la qualità di respeaking interlinguistico, interpretazione simultanea insieme a respeaking intralinguistico e, infine, interpretazione simultanea e sistema di riconoscimento automatico del parlato (Automatic Speech Recognition, ASR). Il secondo esperimento (dallo spagnolo all'italiano) ha valutato e confrontato cinque i metodi: i primi tre appena menzionati e altri due in cui la macchina svolgeva la maggior parte se non la totalità del lavoro: respeaking intralinguistico e traduzione automatica (Machine Translation, MT), e ASR con MT. Sono stati offerti due laboratori di respeaking interlinguistico nel Corso magistrale in Traduzione e Interpretazione dell'Università di Genova per preparare gli studenti agli esperimenti, volti a testare diversi moduli di formazione sull'ILS e la loro efficacia sull’apprendimento degli studenti. Durante le fasi di test, agli studenti sono stati assegnati diversi ruoli per ogni metodo, producendo sottotitoli interlinguistici live a partire dallo stesso testo di partenza: un video di un discorso originale completo durante un evento dal vivo. Le trascrizioni ottenute, sotto forma di sottotitoli, sono state analizzate utilizzando il modello NTR (Romero-Fresco & Pöchhacker, 2017) e per ciascun metodo è anche stato calcolato il ritardo. I risultati quantitativi preliminari derivanti dalle analisi NTR e dal calcolo del ritardo sono stati confrontati con altri due casi di studio condotti dall'Università di Vigo (Spagna) e dall'Università del Surrey (Gran Bretagna), sottolineando come i flussi di lavoro più automatizzati o completamente automatizzati siano effettivamente più veloci degli altri, ma al contempo presentino ancora diversi problemi di traduzione e di punteggiatura. Anche se su scala ridotta, la ricerca dimostra anche quanto sia urgente e possa potenzialmente essere facile formare i traduttori e gli interpreti sul respeaking durante il loro percorso accademico, grazie anche al loro spiccato interesse per la materia. Si spera che i risultati ottenuti possano meglio mettere in luce le ripercussioni dell'uso dei diversi metodi a confronto, nonché indurre un'ulteriore riflessione sull'importanza dell'interazione umana con i sistemi automatici di traduzione e di riconoscimento del parlato nel fornire accessibilità di alta qualità per eventi dal vivo. Si spera inoltre che l’interesse degli studenti in questo campo, che era a loro completamente sconosciuto prima di questa ricerca, possa informare sull'urgenza di sensibilizzare gli studenti nel campo della sottotitolazione dal vivo attraverso il respeaking.
Live subtitling (LS) finds its foundations in pre-recorded subtitling for the d/Deaf and hard of hearing (SDH) to produce real-time subtitles for live events and programs. LS implies the transfer from oral into written content (intersemiotic translation) and can be carried out from and to the same language (intralingual), or from one language to another (interlingual) to provide full accessibility for all, therefore combining SDH to the need of guaranteeing multilingual access as well. Interlingual Live Subtitling (from now on referred to as ILS) in real-time is currently being achieved by using different methods: the focus here is placed on interlingual respeaking as one of the currently used methods of LS – also referred to in this work as speech-to-text interpreting (STTI) – which has triggered growing interest also in the Italian industry over the past years. The hereby presented doctoral thesis intends to provide a wider picture of the literature and the research on intralingual and interlingual respeaking to the date, emphasizing the current situation in Italy in this practice. The aim of the research was to explore different ILS methods through their strengths and weaknesses, in an attempt to inform the industry on the impact that both potentialities and risks can have on the final overall quality of the subtitles with the involvement of different techniques in producing ILS. To do so, five ILS workflows requiring human and machine interaction to different extents were tested overall in terms of quality, thus not only from a linguistic accuracy point of view, but also considering another crucial factor such as delay in the broadcast of the subtitles. Two case studies were carried out with different language pairs: a first experiment (English to Italian) tested and assessed quality in interlingual respeaking on one hand, then simultaneous interpreting (SI) combined with intralingual respeaking, and SI and Automatic Speech Recognition (ASR) on the other. A second experiment (Spanish to Italian) evaluated and compared all the five methods: the first three again, and two others more machine-centered: intralingual respeaking combined with machine translation (MT), and ASR with MT. Two workshops in interlingual respeaking were offered at the master’s degree in Translation and Interpreting from the University of Genova to prepare students for the experiments, aimed at testing different training modules on ILS and their effectiveness on students’ learning outcomes. For the final experiments, students were assigned different roles for each tested method and performed different required tasks producing ILS from the same source text: a video of a full original speech at a live event. The obtained outputs were analyzed using the NTR model (Romero-Fresco & Pöchhacker, 2017) and the delay was calculated for each method. Preliminary quantitative results deriving from the NTR analyses and the calculation of delay were compared to other two case studies conducted by the University of Vigo and the University of Surrey, showing that more and fully-automated workflows are, indeed, faster than the others, while they still present several important issues in translation and punctuation. Albeit on a small scale, the research also shows how urgent and potentially easy could be to educate translators and interpreters in respeaking during their training phase, given their keen interest in the subject matter. It is hoped that the results obtained can better shed light on the repercussions of the use of different methods and induce further reflection on the importance of human interaction with automatic machine systems in providing high quality accessibility at live events. It is also hoped that involved students’ interest in this field, which was completely unknown to them prior to this research, can inform on the urgency of raising students’ awareness and competence acquisition in the field of live subtitling through respeaking.
APA, Harvard, Vancouver, ISO, and other styles
45

NOTARANGELO, NICLA MARIA. "A Deep Learning approach for monitoring severe rainfall in urban catchments using consumer cameras. Models development and deployment on a case study in Matera (Italy) Un approccio basato sul Deep Learning per monitorare le piogge intense nei bacini urbani utilizzando fotocamere generiche. Sviluppo e implementazione di modelli su un caso di studio a Matera (Italia)." Doctoral thesis, Università degli studi della Basilicata, 2021. http://hdl.handle.net/11563/147016.

Full text
Abstract:
In the last 50 years, flooding has figured as the most frequent and widespread natural disaster globally. Extreme precipitation events stemming from climate change could alter the hydro-geological regime resulting in increased flood risk. Near real-time precipitation monitoring at local scale is essential for flood risk mitigation in urban and suburban areas, due to their high vulnerability. Presently, most of the rainfall data is obtained from ground‐based measurements or remote sensing that provide limited information in terms of temporal or spatial resolution. Other problems may be due to the high costs. Furthermore, rain gauges are unevenly spread and usually placed away from urban centers. In this context, a big potential is represented by the use of innovative techniques to develop low-cost monitoring systems. Despite the diversity of purposes, methods and epistemological fields, the literature on the visual effects of the rain supports the idea of camera-based rain sensors but tends to be device-specific. The present thesis aims to investigate the use of easily available photographing devices as rain detectors-gauges to develop a dense network of low-cost rainfall sensors to support the traditional methods with an expeditious solution embeddable into smart devices. As opposed to existing works, the study focuses on maximizing the number of image sources (like smartphones, general-purpose surveillance cameras, dashboard cameras, webcams, digital cameras, etc.). This encompasses cases where it is not possible to adjust the camera parameters or obtain shots in timelines or videos. Using a Deep Learning approach, the rainfall characterization can be achieved through the analysis of the perceptual aspects that determine whether and how a photograph represents a rainy condition. The first scenario of interest for the supervised learning was a binary classification; the binary output (presence or absence of rain) allows the detection of the presence of precipitation: the cameras act as rain detectors. Similarly, the second scenario of interest was a multi-class classification; the multi-class output described a range of quasi-instantaneous rainfall intensity: the cameras act as rain estimators. Using Transfer Learning with Convolutional Neural Networks, the developed models were compiled, trained, validated, and tested. The preparation of the classifiers included the preparation of a suitable dataset encompassing unconstrained verisimilar settings: open data, several data owned by National Research Institute for Earth Science and Disaster Prevention - NIED (dashboard cameras in Japan coupled with high precision multi-parameter radar data), and experimental activities conducted in the NIED Large Scale Rainfall Simulator. The outcomes were applied to a real-world scenario, with the experimentation through a pre-existent surveillance camera using 5G connectivity provided by Telecom Italia S.p.A. in the city of Matera (Italy). Analysis unfolded on several levels providing an overview of generic issues relating to the urban flood risk paradigm and specific territorial questions inherent with the case study. These include the context aspects, the important role of rainfall from driving the millennial urban evolution to determining present criticality, and components of a Web prototype for flood risk communication at local scale. The results and the model deployment raise the possibility that low‐cost technologies and local capacities can help to retrieve rainfall information for flood early warning systems based on the identification of a significant meteorological state. The binary model reached accuracy and F1 score values of 85.28% and 0.86 for the test, and 83.35% and 0.82 for the deployment. The multi-class model reached test average accuracy and macro-averaged F1 score values of 77.71% and 0.73 for the 6-way classifier, and 78.05% and 0.81 for the 5-class. The best performances were obtained in heavy rainfall and no-rain conditions, whereas the mispredictions are related to less severe precipitation. The proposed method has limited operational requirements, can be easily and quickly implemented in real use cases, exploiting pre-existent devices with a parsimonious use of economic and computational resources. The classification can be performed on single photographs taken in disparate conditions by commonly used acquisition devices, i.e. by static or moving cameras without adjusted parameters. This approach is especially useful in urban areas where measurement methods such as rain gauges encounter installation difficulties or operational limitations or in contexts where there is no availability of remote sensing data. The system does not suit scenes that are also misleading for human visual perception. The approximations inherent in the output are acknowledged. Additional data may be gathered to address gaps that are apparent and improve the accuracy of the precipitation intensity prediction. Future research might explore the integration with further experiments and crowdsourced data, to promote communication, participation, and dialogue among stakeholders and to increase public awareness, emergency response, and civic engagement through the smart community idea.
Negli ultimi 50 anni, le alluvioni si sono confermate come il disastro naturale più frequente e diffuso a livello globale. Tra gli impatti degli eventi meteorologici estremi, conseguenti ai cambiamenti climatici, rientrano le alterazioni del regime idrogeologico con conseguente incremento del rischio alluvionale. Il monitoraggio delle precipitazioni in tempo quasi reale su scala locale è essenziale per la mitigazione del rischio di alluvione in ambito urbano e periurbano, aree connotate da un'elevata vulnerabilità. Attualmente, la maggior parte dei dati sulle precipitazioni è ottenuta da misurazioni a terra o telerilevamento che forniscono informazioni limitate in termini di risoluzione temporale o spaziale. Ulteriori problemi possono derivare dagli elevati costi. Inoltre i pluviometri sono distribuiti in modo non uniforme e spesso posizionati piuttosto lontano dai centri urbani, comportando criticità e discontinuità nel monitoraggio. In questo contesto, un grande potenziale è rappresentato dall'utilizzo di tecniche innovative per sviluppare sistemi inediti di monitoraggio a basso costo. Nonostante la diversità di scopi, metodi e campi epistemologici, la letteratura sugli effetti visivi della pioggia supporta l'idea di sensori di pioggia basati su telecamera, ma tende ad essere specifica per dispositivo scelto. La presente tesi punta a indagare l'uso di dispositivi fotografici facilmente reperibili come rilevatori-misuratori di pioggia, per sviluppare una fitta rete di sensori a basso costo a supporto dei metodi tradizionali con una soluzione rapida incorporabile in dispositivi intelligenti. A differenza dei lavori esistenti, lo studio si concentra sulla massimizzazione del numero di fonti di immagini (smartphone, telecamere di sorveglianza generiche, telecamere da cruscotto, webcam, telecamere digitali, ecc.). Ciò comprende casi in cui non sia possibile regolare i parametri fotografici o ottenere scatti in timeline o video. Utilizzando un approccio di Deep Learning, la caratterizzazione delle precipitazioni può essere ottenuta attraverso l'analisi degli aspetti percettivi che determinano se e come una fotografia rappresenti una condizione di pioggia. Il primo scenario di interesse per l'apprendimento supervisionato è una classificazione binaria; l'output binario (presenza o assenza di pioggia) consente la rilevazione della presenza di precipitazione: gli apparecchi fotografici fungono da rivelatori di pioggia. Analogamente, il secondo scenario di interesse è una classificazione multi-classe; l'output multi-classe descrive un intervallo di intensità delle precipitazioni quasi istantanee: le fotocamere fungono da misuratori di pioggia. Utilizzando tecniche di Transfer Learning con reti neurali convoluzionali, i modelli sviluppati sono stati compilati, addestrati, convalidati e testati. La preparazione dei classificatori ha incluso la preparazione di un set di dati adeguato con impostazioni verosimili e non vincolate: dati aperti, diversi dati di proprietà del National Research Institute for Earth Science and Disaster Prevention - NIED (telecamere dashboard in Giappone accoppiate con dati radar multiparametrici ad alta precisione) e attività sperimentali condotte nel simulatore di pioggia su larga scala del NIED. I risultati sono stati applicati a uno scenario reale, con la sperimentazione attraverso una telecamera di sorveglianza preesistente che utilizza la connettività 5G fornita da Telecom Italia S.p.A. nella città di Matera (Italia). L'analisi si è svolta su più livelli, fornendo una panoramica sulle questioni relative al paradigma del rischio di alluvione in ambito urbano e questioni territoriali specifiche inerenti al caso di studio. Queste ultime includono diversi aspetti del contesto, l'importante ruolo delle piogge dal guidare l'evoluzione millenaria della morfologia urbana alla determinazione delle criticità attuali, oltre ad alcune componenti di un prototipo Web per la comunicazione del rischio alluvionale su scala locale. I risultati ottenuti e l'implementazione del modello corroborano la possibilità che le tecnologie a basso costo e le capacità locali possano aiutare a caratterizzare la forzante pluviometrica a supporto dei sistemi di allerta precoce basati sull'identificazione di uno stato meteorologico significativo. Il modello binario ha raggiunto un'accuratezza e un F1-score di 85,28% e 0,86 per il set di test e di 83,35% e 0,82 per l'implementazione nel caso di studio. Il modello multi-classe ha raggiunto un'accuratezza media e F1-score medio (macro-average) di 77,71% e 0,73 per il classificatore a 6 vie e 78,05% e 0,81 per quello a 5 classi. Le prestazioni migliori sono state ottenute nelle classi relative a forti precipitazioni e assenza di pioggia, mentre le previsioni errate sono legate a precipitazioni meno estreme. Il metodo proposto richiede requisiti operativi limitati, può essere implementato facilmente e rapidamente in casi d'uso reali, sfruttando dispositivi preesistenti con un uso parsimonioso di risorse economiche e computazionali. La classificazione può essere eseguita su singole fotografie scattate in condizioni disparate da dispositivi di acquisizione di uso comune, ovvero da telecamere statiche o in movimento senza regolazione dei parametri. Questo approccio potrebbe essere particolarmente utile nelle aree urbane in cui i metodi di misurazione come i pluviometri incontrano difficoltà di installazione o limitazioni operative o in contesti in cui non sono disponibili dati di telerilevamento o radar. Il sistema non si adatta a scene che sono fuorvianti anche per la percezione visiva umana. I limiti attuali risiedono nelle approssimazioni intrinseche negli output. Per colmare le lacune evidenti e migliorare l'accuratezza della previsione dell'intensità di precipitazione, sarebbe possibile un'ulteriore raccolta di dati. Sviluppi futuri potrebbero riguardare l'integrazione con ulteriori esperimenti in campo e dati da crowdsourcing, per promuovere comunicazione, partecipazione e dialogo aumentando la resilienza attraverso consapevolezza pubblica e impegno civico in una concezione di comunità smart.
APA, Harvard, Vancouver, ISO, and other styles
46

PANTINI, SARA. "Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Full text
Abstract:
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
APA, Harvard, Vancouver, ISO, and other styles
47

GANDOLFO, GIADA. "Progettazione, sviluppo e validazione di un dispositivo neutronico per la rivelazione in tempo reale di materiale nucleare." Doctoral thesis, 2019. http://hdl.handle.net/11573/1230575.

Full text
Abstract:
Rispetto al periodo della Guerra Fredda, la sicurezza nucleare è oggi considerevolmente più complessa: la tensione per il confronto tra le superpotenze nucleari è stata infatti sostituita da preoccupazioni maggiori riguardo la proliferazione illecita di materiale o armi nucleari, unita alla minaccia del terrorismo che è diventata, in questi ultimi tempi, di particolare interesse a seguito dei terribili eventi a partire dal triste 11 Settembre 2001. La rivelazione e caratterizzazione dei materiali nucleari costituisce un rilevante contributo che la scienza può fornire alla società. Si tratta in particolare di un contributo alla safety e security, alle salvaguardie nucleari, alla non proliferazione e alla rivelazione di traffico illecito di materiali nucleari e sorgenti radioattive. L’obiettivo che ci si è posti nella ricerca qui presentata è quello di progettare, mettere a punto e validare un dispositivo per la rivelazione in tempo reale di materiale nucleare. Le applicazioni del dispositivo qui presentato possono essere le più diverse, dall’analisi di valigie e pacchi sospetti in campo da parte di artificieri, al controllo bagagli da stiva in aeroporti o centri di trasporto nevralgici in genere, ai controlli doganali o di frontiera. Tra le principali tecnologie coinvolte nella misura dei materiali nucleari che includono analisi distruttive (DA, Destructive Analysis) e analisi non distruttive (NDA, Non Destructive Analysis), la capacità di penetrazione dei neutroni nella materia e quindi la possibilità di indagare il campione sospetto in profondità rendono le tecniche neutroniche attive una scelta ottimale ai fini della ricerca. La tecnica su cui si basa il funzionamento del dispositivo presentato è in particolare la Differential Die-Away time Analysis (DDAA), una tecnica attiva di ispezione nucleare sviluppata originariamente per stabilire la presenza di materiale fissile nei fusti di rifiuti radioattivi. Tale tecnica è basata sulla differenza sostanziale tra i tempi di permanenza all’interno del sistema di neutroni veloci di interrogazione, prodotti da un generatore di neutroni, e i neutroni generati da fissione termica per interazione dei neutroni di interrogazione termalizzati e i nuclei di fissile eventualmente presenti. In particolare, il segnale proveniente dai neutroni pronti da fissione termica è registrato quando ormai i neutroni veloci di interrogazione sono in pratica scomparsi. Prima della messa a punto del dispositivo è stata condotta un’analisi di fattibilità mediante simulazioni MCNPX. Gli elementi simulati di cui è costituito il dispositivo sono: • un generatore compatto di neutroni basato sulla reazione di fusione d-t; • dieci contatori proporzionali He-3 alloggiati in due blocchi di polietilene ad alta densità; • una struttura moderante che circonda il campione in analisi realizzata in carta da fotocopie; • un campione contenente circa 2g di U-235. Per confrontare diverse configurazioni simulate è risultata necessaria la definizione di una Figura di Merito (FOM) mediante un criterio matematico basato sull’interpolazione ai minimi quadrati delle curve DDAA. Tale FOM è un parametro quantitativo che caratterizza la qualità della configurazione: maggiore è la FOM, più appropriata all’implementazione sperimentale della DDAA è la geometria analizzata. Dal calcolo della FOM per diverse configurazioni è emerso che le prestazioni ottimali si raggiungono nel caso in cui venga realizzata una geometria a cavità che massimizzi le interazioni dei neutroni, aumentando la popolazione termica e la probabilità di fissione termica sui nuclei di U-235. È stato poi necessario procedere alla caratterizzazione sperimentale del generatore di neutroni e dei rivelatori a He-3. Il generatore di neutroni (MP320 Thermo Electron Corporation) è stato caratterizzato in due fasi: in una prima fase è stato utilizzato un Berthold LB6411, in una seconda fase un rivelatore al diamante. È stato effettuato il confronto del flusso valutato a 50 cm dal target del generatore in diverse posizioni angolari tra i dati forniti dalla casa costruttrice, quelli ottenuti mediante simulazione MCNPX del generatore e quelli ottenuti per elaborazione dei dati sperimentali acquisiti con i due rivelatori. Date le sue capacità spettrometriche, il rivelatore al diamante ha permesso inoltre di valutare l’energia dei neutroni emessi in corrispondenza delle diverse direzioni di emissione. I valori ottenuti sono risultati in accordo con i dati teorici. La caratterizzazione dei 10 contatori proporzionali a He-3 ha permesso di valutare la tensione ottimale di funzionamento. Valutando i conteggi registrati in presenza di una sorgente di neutroni al variare della tensione è stata ricostruita la curva di conteggio. La tensione scelta all’interno del plateau della curva di conteggio conferisce stabilità al sistema di rivelazione rispetto alle possibili oscillazioni del valore stesso della tensione e corrisponde alla situazione in cui i conteggi registrati equivalgono all’area sottesa alla distribuzione differenziale delle altezze d’impulso caratteristica del rivelatore a He-3. Il dispositivo messo a punto è stato infine testato in diverse campagne sperimentali che hanno mostrato come il dispositivo stesso sia in grado di rivelare 2g di U-235 indipendentemente dall’ambiente in cui opera. La rivelazione è avvenuta in circa 2 minuti con una resa del generatore dell’ordine di 10^7 n/s. Il dispositivo presenta dunque le potenzialità di una rivelazione real-time nel caso di resa massima del generatore (10^8 n/s). Successive campagne sperimentali e simulazioni hanno messo in luce i limiti attuali del dispositivo e i possibili futuri campi di studio. In particolare si è evidenziata la necessità di studiare l’influenza dello stato fisico del campione e della matrice in cui è inglobato e di ottimizzare il dispositivo in termini di dimensioni della cavità di indagine e di riduzione delle minime quantità rivelabili.
APA, Harvard, Vancouver, ISO, and other styles
48

ORTENZI, FERNANDO. "Metodologia e strumenti per la misura in tempo reale del comportamento energetico-emissivo dei veicoli." Doctoral thesis, 2008. http://hdl.handle.net/11573/481067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Cocozza, Claudia, Saverio Francini, Gherardo Chirici, Daniele Penna, Matteo Verdone, and Andrea Dani. "TreeTalker: a new device to monitor tree functional traits, from calibration to forest monitoring." Doctoral thesis, 2023. https://hdl.handle.net/2158/1298899.

Full text
Abstract:
Utilizzo dei sensori TreeTalker per la decodifica di variabili ambientali e conseguenti risposte fisiologiche degli alberi. Creazione pacchetto R per pulizia database e controllo funzionalità dei sensori, calibrazione sensore di sapflow, monitoraggio forestale su un pendio. Using TreeTalker sensors for decoding environmental variables and consequent physiological responses of trees. Creating R package for database cleanup and sensor functionality check, sapflow sensor calibration, forest monitoring on a slope.
APA, Harvard, Vancouver, ISO, and other styles
50

Sarno, Giulia. "Trent'anni di ricerca musicale a Firenze: storie e progetti intorno all'archivio di Tempo Reale." Doctoral thesis, 2022. http://hdl.handle.net/2158/1266101.

Full text
Abstract:
La ricerca dottorale di Giulia Sarno è dedicata alla valorizzazione del patrimonio archivistico del centro di ricerca, produzione e didattica musicale Tempo Reale, fondato a Firenze da Luciano Berio nel 1987. La tesi si apre con una Premessa in cui sono esplicitati oggetto, obiettivo generale, afferenza disciplinare e struttura complessiva della tesi; segue una Introduzione in cui è ripercorso lo stato dell’arte e sono chiarite le scelte per quanto concerne la selezione e l’uso delle fonti, le metodologie privilegiate, gli obiettivi specifici e il piano dettagliato dell’elaborato. Questo si dispone in due sedi: una dissertazione che ripercorre in quattro capitoli la storia di Tempo Reale (le vicende istituzionali, gli assetti operativi, le attività svolte); e una sezione digitale in cui prende corpo una strategia di “attivazione” del patrimonio archivistico. La ricerca storica si è sostanziata da un lato in un’indagine capillare applicata al patrimonio documentale inedito conservato presso Tempo Reale e presso altri fondi archivistici, pubblici e privati; dall’altro, nel dialogo con circa quarantacinque testimoni e protagonisti della storia del Centro. Per altro verso, l’implementazione del progetto di attivazione digitale del patrimonio ha permesso di mettere a fuoco le strategie più opportune per la sua valorizzazione e salvaguardia, dando anche avvio a una serie di iniziative concrete.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography