Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Stima dei parametri.

Thèses sur le sujet « Stima dei parametri »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 18 meilleures thèses pour votre recherche sur le sujet « Stima dei parametri ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Fantoni, Maria Elena. « Stima dei parametri di cinematismi ad inerzia variabile ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
Elaborazione di un algoritmo per la stima della curva dell'inerzia e della sua derivata (in caso di inerzia variabile) di un cinematismo a partire dai dati misurati dal controllore relativi a posizione angolare, velocità, accelerazione e corrente. Indagine teorica e sperimentazione su banco di prova con dati reali.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Baratti, Emanuele <1983&gt. « Stima dei parametri di modelli idrologici mediante ottimizzazione dell’utilità ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amsdottorato.unibo.it/6654/1/Tesi_BARATTI.pdf.

Texte intégral
Résumé :
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
In the majority of rainfall-runoff modelling applications, the objective function to be minimised in the parameterisation procedure is based on a measure of the goodness-of-fit that maximized the fit of the simulated data to the overall observed data, taking partially into account the specific model applications. The present dissertation focuses on the development and testing of an objective function based on the expected utility of the rainfall-runoff model. The method is based on the evidence that the performances of a hydrological model closely depend on the purpose of the application. For istance, the simulated data caught have different utility in a water resources management system or in a flood forecasting system. In the proposed method, at each time step, the comparison between simulated and observed data is carried out by using an “ad-hoc” utility function. The calibration is performed by maximizing the overall estimated utility of the simulated data. Different utility functions are tested and the results are compared against those obtained with traditional procedure. The results reveal that an adequate utility function allows an improvement of the model performances in the reproduction of the discharges considered most important to the purpose of the modeling application.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Baratti, Emanuele <1983&gt. « Stima dei parametri di modelli idrologici mediante ottimizzazione dell’utilità ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amsdottorato.unibo.it/6654/.

Texte intégral
Résumé :
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
In the majority of rainfall-runoff modelling applications, the objective function to be minimised in the parameterisation procedure is based on a measure of the goodness-of-fit that maximized the fit of the simulated data to the overall observed data, taking partially into account the specific model applications. The present dissertation focuses on the development and testing of an objective function based on the expected utility of the rainfall-runoff model. The method is based on the evidence that the performances of a hydrological model closely depend on the purpose of the application. For istance, the simulated data caught have different utility in a water resources management system or in a flood forecasting system. In the proposed method, at each time step, the comparison between simulated and observed data is carried out by using an “ad-hoc” utility function. The calibration is performed by maximizing the overall estimated utility of the simulated data. Different utility functions are tested and the results are compared against those obtained with traditional procedure. The results reveal that an adequate utility function allows an improvement of the model performances in the reproduction of the discharges considered most important to the purpose of the modeling application.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Vandi, Alessandro. « Analisi comparativa di strumenti per la stima dei parametri del salto verticale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14333/.

Texte intégral
Résumé :
Il salto è uno dei principali gesti dell’attività sportiva e, tramite l’analisi parametrica della prestazione, è possibile ricavare informazioni importanti sullo stato di salute degli atleti e il loro grado di allenamento. Per compiere un’analisi di questo tipo è necessaria una strumentazione in grado di registrare la prestazione in modo affidabile e ripetibile. Tra gli strumenti in grado di fornire in modo affidabile delle grandezze quantitative relative al salto, ci sono le pedane dinamometriche e la stereofotogrammetria. Tale strumentazione è spesso ingombrante, non trasportabile e limitante il movimento dei soggetti, per cui non è possibile compiere delle misurazioni sul campo nel contesto in cui l’atleta è solito operare. Tuttavia, negli ultimi anni, la diffusione dei i sensori inerziali in questo ambito applicativo, ha consentito di superare i limiti della tradizionale strumentazione da laboratorio. Data le loro grandi potenzialità, risulta di fondamentale importanza validare l’utilizzo di tali sensori nella misura del salto verticale, analizzando quale errore commettono, e se, tale errore, risulta essere accettabile o meno. L’obbiettivo di questo elaborato è stato quello di indagare l’affidabilità dei sensori inerziali attraverso un confronto tra la strumentazione da laboratorio, la cui accuratezza è stata ampiamente dimostrata, e diversi sensori di case produttrici differenti. Sono state analizzate le differenze di ciascuno strumento rispetto ad un gold standard (la stereofogrammetria) nel corso di due sessioni di salto verticale: una di Squat Jump, un’altra di salto verticale effettuando un contro-movimento. Sono stati poi discussi i risultati di ciascuno strumento concludendo che, tramite le analisi compiute, ognuno risulti essere affidabile in quanto le stime delle altezze dei salti non risultano essere significativamente differenti dal gold standard..
Styles APA, Harvard, Vancouver, ISO, etc.
5

Schirru, Fabio. « Stima di parametri di un modello matematico previsionale della cinetica dei soluti in emodialisi ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18709/.

Texte intégral
Résumé :
La dialisi rappresenta la principale terapia per pazienti affetti da insufficienza renale, tuttavia essa non garantisce il ripristino completo della rimozione selettiva dei soluti, ma in alcune occasioni può generare complicazioni sintomatiche. Per far sì che la terapia si adatti al meglio alle caratteristiche del singolo paziente, si può ricorrere all'utilizzo di modelli matematici in silico. Grazie a questi modelli, si possono prevedere gli effetti che la terapia di dialisi avrà sul paziente al fine di evitare che quest'ultimo incorra in squilibri pressori e osmotici potenzialmente dannosi. Lo scopo principale di questa tesi è quello di validare, attraverso la stima dei valori di alcuni parametri, un modello matematico che permetta la simulazione di una seduta dialitica e della sua successiva fase post-dialitica. I valori dei parametri sono stati stimati al fine di ridurre al minimo l’errore tra i dati sperimentali, provenienti da alcuni pazienti sottoposti a terapia dialitica e i risultati ricavati dalla simulazione matematica. Un confronto tra i risultati ottenuti e i dati in vivo rivela che il modello, una volta ricavati i valori finali dei parametri, fornisce una previsione accettabile della cinetica per la maggior parte dei soluti analizzati.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Mazzotti, Giulia. « Validazione di algoritmi per la stima dei parametri spaziali del passo e activity recognition tramite solette smart ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Trouver le texte intégral
Résumé :
L’analisi del cammino riveste un ruolo fondamentale nel monitoraggio di diverse patologie, tra cui la Sclerosi Multipla (SM). La disabilità motoria rappresenta uno dei sintomi più comuni e invalidanti della malattia; per questo motivo, quantificare la compromissione dell’andatura è importante quando si valutano nuovi interventi per il trattamento della SM. Grazie allo sviluppo tecnologico degli ultimi anni, è possibile ottenere misure oggettive dell’andatura dei pazienti tramite l’utilizzo di sensori inerziali indossabili (IMU). Dai dati grezzi ottenuti dalle IMU è possibile estrarre i parametri spazio-temporali del passo, che risultano diversi nei controlli sani rispetto ai pazienti con SM e presentano un peggioramento con l'avanzare della malattia. Un’altra componente importante nel trattamento di diverse condizioni patologiche è il monitoraggio dell’attività quotidiana. Questo permette al medico di monitorare il livello di mobilità del paziente e quindi la sua indipendenza. Infine, il numero di passi giornalieri è un indicatore valido del comportamento di deambulazione nella vita di tutti i giorni. Questa tesi si inserisce in un lavoro di validazione dei parametri del passo misurabili tramite le solette smart di eSteps, start up che si occupa della disabilità motoria in pazienti con SM. Il lavoro ha due obiettivi principali nel contesto iniziale dell’utilizzo della strumentazione su soggetti sani: i) validazione di un algoritmo per l’estrazione di parametri cinematici del cammino quali, lunghezza del passo e velocità; ii) validazione di algoritmi di step detection e di activity recognition. I risultati ottenuti per i parametri spaziali del cammino mostrano un'accuratezza non ancora ottimale ma in linea con altri studi in letteratura. L'algoritmo per il calcolo dei passi giornalieri invece raggiunge un'accuratezza molto elevata (99%). Infine, la rete per il riconoscimento delle attività mostra un'accuratezza del 96% testandola con il dataset pubblico UMAFall.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Montanari, Sara. « Stima dei parametri spazio temporali del cammino a partire da sensori inerziali : Una revisione critica della letteratura ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8107/.

Texte intégral
Résumé :
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Mattiaccia, Francesca. « Stima dei parametri temporali del passo tramite solette smart : validazione utilizzando pedana dinamometrica e OptoGait come gold standard ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Trouver le texte intégral
Résumé :
Le solette intelligenti dell'azienda eSteps sono uno strumento che fornisce la possibilità di acquisire dati oggettivi dalla camminata dei soggetti sani o affetti da sclerosi multipla attraverso due IMU poste sotto la pianta del piede. La Gait Analysis è un ambito molto popolato da soluzioni per il riconoscimento di eventi del cammino e per l'estrazione dei parametri temporali. Dopo una prima introduzione volta a spiegare cosa fosse la Gait Anlysis e come questa sia applicata sia su soggetti sani sia su soggetti affetti da sclerosi multipla, è stato sviluppato un algoritmo con l'obiettivo di verificare quale sia la differenza tra le solette fornite dall'azienda e il gold standard (pedane di forza). Inoltre è stata testata la possibilità di utilizzare l'OptoGait (sistema a fotocellule) come gold standard. I soggetti in esame dovevano eseguire un 2 minute walking test da cui sono stati estratti i dati per l'elaborazione offline. Sono stati estratti i valori temporali di stance, stride e swing e sono stati confrontati con quanto il gold standard misurasse, in più sono stati usati per comprendere se l'Optogait fosse utilizzabile come riferimento. Sono stati messi a disposizione anche dati relativi a soggetti affetti da sclerosi multipla, questi sono stati usati per fare un confronto con i soggetti sani per comprendere se le due popolazioni avessero caratteristiche statistiche diverse o simili per riuscire a differenziarli. Inoltre, è stata fatta una valutazione ecologica per comprendere quanto i dati ottenuti fossero rappresentativi di una camminata quotidiana. Al termine di queste analisi, le solette si sono dimostrate una soluzione affidabile per l'estrazione dei parametri temporali, i dati estratti dai test di 2 minuti sono rappresentativi della camminata quotidiana e i soggetti malati sono statisticamente differenti dai soggetti sani. In più anche l'OptoGait può essere utilizzato come gold standard per le future acquisizioni.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Mularoni, Federico. « Metodi per la stima dei parametri spazio-temporali della corsa basati su un singolo sensore inerziale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Trouver le texte intégral
Résumé :
Questo elaborato ha lo scopo di raccogliere informazioni in letteratura riguardo i metodi per la stima dei parametri spazio-temporali della corsa mediante un singolo sensore inerziale, e in più, di implementare e applicare un algoritmo che ne stimi i parametri temporali. Nella prima parte è stata condotta una revisione sistematica circa gli articoli scientifici che propongono metodi per la stima dei parametri spazio-temporali della corsa tramite un singolo sensore su soggetti adulti e sani. Sono stati analizzati dieci articoli e sono stati presentati e confrontati i principali aspetti metodologici, quali numero dei partecipanti, posizionamento del sensore, presenza di gold standard, principi dell’algoritmo, variabili stimate ecc. Nonostante i risultati dei diversi studi non siano sempre direttamente confrontabili, si può concludere che il posizionamento del sensore sul piede offra una stima più accurata della velocità e del tempo di contatto rispetto agli altri posizionamenti. Nella seconda parte è stato implementato un algoritmo per la stima dei parametri temporali utilizzando un unico sensore posizionato sul dorso del piede. A tale scopo è stato scelto come riferimento lo studio di Lee et al. del 2010. L’algoritmo è stato applicato ai dati sperimentali acquisiti su tre soggetti sani e giovani ed è stata analizzata la performance dei soggetti rispetto alla letteratura.
Styles APA, Harvard, Vancouver, ISO, etc.
10

MANGIAGLI, ALBERTO. « The astrophysics of black hole binaries in the era of gravitational wave astronomy ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2021. http://hdl.handle.net/10281/299791.

Texte intégral
Résumé :
I buchi neri (BHs) sono oggetti variegati ed affascinanti in Natura. Il loro regno si estende dai buchi neri stellari con masse $sim 10-10^2 msun$ fino a BH supermassivi di $10^{9-10} msun$ al centro delle galassie. Mentre i primi sono il lascito dell'evoluzione stellare, i secondi sono il risultato di multipli merger di aloni di dark matter nella cosmologia $Lambda$CDM. Quando due BHs sono abbastanza vicini, formano una binaria (BHBs) ed emettono onde gravitazionali (GWs) che possiamo rilevare con i nostri interferometri. Come i BHs, anche le BHBs possono dividersi in diverse sottopopolazioni, ognuna con le proprie proprietà e caratteristiche: BHBs stellari (SBHBs) si formano dalla co-evoluzione di una binaria di stelle o in ambienti densi, mentre BHBs massicce (MBHBs) sono il risultato di merger di galassie. Le sfide nell'astronomia delle GW sono ancora numerose e richiedono varie conoscenze ed abilità per essere risolte. Per questa ragione, incomincio questa Tesi presentando dei risultati per SBHBs nei primi capitoli e virando verso MBHBs sul finale. Ogni capitolo ha la sua breve introduzione e discussione dei risultati. Nel capitolo 1 introduco alcuni concetti base della Relatività Generale (GR) legati all'emissione delle GWs. Riassumo lo stato corrente dell'astronomia delle GW. Spiego inoltre come GWs da BHBs possono essere modellizzate sotto alcune assunzioni ragionevoli e riporto alcune formule utili a capire i concetti dei paragrafi successivi. Nel capitolo 2 studio il minimo ordine Post-Newtonian (PN) necessario per seguire il segnale di SBHBs in LISA e realizzare una stima dei parametri corretta. Infatti gli SBHBs compiono numerosi cicli in LISA e quindi una descrizione accurata del segnale d'onda è necessaria per evitare bias nella stima dei parametri. Mostro come il fattore che determina il minimo ordine PN è il tempo alla coalescenza e che sistemi più vicini al merger richiedono più contributi PN. Applico questo risultato ad una popolazione di SBHBs in LISA per ottenere delle stime più realistiche, trovando che la maggior parte delle srogenti può essere descritta con correzzioni fino al 2PN, mentre i sistemi che mergono durante il tempo di missione richiedono contributi PN fino al 2.5PN o 3PN. L'argomento del capitolo 3 è un modello per descrivere BHs al di sopra del pair-instability mass gap, cioè BHs con massa $> 120 msun$. Presento un semplice modello e, sotto l'assuzione che la formazione della binaria non cambi oltre il gap, stimo il numero di eventi per i detector attuali, ET e LISA. Inoltre, suggerisco che le binarie non risolte possano formare un background casuale in LISA. Nel capitolo 4, mi muovo verso i MBHBs, osservabili solo dallo spazio con LISA. Introduco i concetti legati alla formazione ed evoluzione di MBHBs e le possibilità dell'astronomia multimessaggera. Descrivo anche come possiamo stimare i parametri della sorgente con il formalismo della Fisher matrix. Nle capitolo 5 presento un lavoro a cui ho contribuito sulla possibilità di osservare un modulazione Doppler in banda X durante l'inspiral di MBHBs. Prima del merger, emissione in banda X può essere prodotto dal gas che accresce sui BHs e il moto orbitale della binaria può imprimere una modulazione al segnale elettromagnetico in fase con il segnale di GWs. Osservare questa modulazione permetterebbe di determinare l'esatta posizione della sorgente nell'area di cielo stimata da LISA. Dalla nostra analisi, stimiamo di poter osservare qualche modulazione durante tutta la missione. Nel capitolo 6 riporto la stime dei parametri per MBHBs in funzione del tempo alla coalescenza. In particolare, mi concentro su posizione in cielo, distanza di luminosità, chirp mass e mass ratio e come i loro errori si riduciono mentre il sistema si avvicina al merger. A beneficio della community, rilascio i dati e delle formule analitiche per descrivere l'evoluzione di questi parametri. Discuto infine le prospettive multimessangere.
Black holes (BHs) are variegated and fascinating objects in Nature. Their realm extends from the stellar BHs with mass $sim 10-10^2 msun$ to the supermassive BHs of $10^{9-10} msun$ that reside in the center of galaxies. While the former are the expected outcome of stellar evolution, the latter are the results of multiple dark matter halo mergers in the standard $Lambda$CDM scenario. When two BHs are close enough, they form a binary BHs (BHBs) and emit gravitational waves (GWs) that we can detect with our inteferometers. Similarly to BHs, also BHBs can be divided into different sub-populations, each with its unique features and characteristics: stellar BHBs (SBHBs) form from the co-evolution of binary stars or in dense region, while massive BHBs (MBHBs) are the result of galaxy mergers. The challenges of GW astronomy are still numerous and require different knowledge and expertise to be solved. For this reason, I start this Thesis presenting result for SBHBs in the initial chapters and moving to MBHBs in the end. Each chapter has its own brief introduction and discussion of the main results and conclusions. In Chapter 1 I introduce some basic General Relativity (GR) concepts related to the emission of GWs. I summarise the current status of GW astronomy. I explain how GWs from BHBs can be easily modeled under some reasonable assumptions and report some formulas useful to understand the concepts of the following chapters. In Chapter 2 I study the minimum Post-Newtonian (PN) order necessary to accurately track SBHBs in LISA and perform an unbiased parameter estimation. SBHBs are expected to spend a large number of cycles in band, therefore an accurate waveform is necessary to avoid biases in the binary parameters. I show that the main factor affecting the PN accuracy is the time to coalescence with systems closer to merger requiring higher PN contributions. I apply the previous result to a realistic population of SBHBs in LISA in order to draw more realistic estimates: I find that most of the sources can be modeled with just 2PN corrections while systems merging during LISA time mission require up to 2.5PN and 3PN contributions. The topic of Chapter 3 is a model to describe SBHBs above the pair-instability mass gap, i.e. BHs with mass $> 120 msun$. I build a simple approach and, under the assumption that the binary formation does not change beyond the mass gap, I estimate the detected rate for current detectors, ET and LISA. Finally I also suggest the possibility that the undetected sources form a new source of stochastic background in LISA. In Chapter 4 I move to MBHBs, detectable only from space by LISA. I provide an introduction on MBHBs formation and evolution and the multimessenger possibilities. I also explain how we estimate source information with the so-called Fisher matrix formalism. In Chapter 5 I present a work I contributed where we explore the possibility to detect a Doppler modulated X-ray emission during the inspiral of MBHBs. In the last stage of merger, X-ray emission is expected as the result of gas accretion on each BHs and the orbital motion of the binary might imprint a Doppler modulation on the electromagnetic (EM) emission in phase with the GW signal. The detection of this modulation would allow to pinpoint the exact source location in the relatively large error area provided by LISA. From our analysis, we estimate few modulation detections over LISA time mission. Finally in Chapter 6 I report the results for the parameter estimation of MBHBs on the fly, i.e. as function of time before coalescence. In particular I focus on sky position, luminosity distance, chirp mass and mass ratio and how their errors decrease as the system approaches merger. For the benefit of the community, I release also the complete set of data and analytical fits to describe the time evolution in the aforementioned parameters. Finally I discuss the multimessenger prospects.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Borghi, Nicola. « Una nuova stima del parametro di Hubble a z ∼ 0.7 attraverso i cronometri cosmici ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21447/.

Texte intégral
Résumé :
In questo lavoro di Tesi, è stata studiata una sonda cosmologica alternativa, i cronometri cosmici, per porre vincoli sul tasso di espansione dell'Universo a partire dai dati della survey LEGA-C. Il metodo dei cronometri cosmici consente di ottenere una misura diretta del parametro di Hubble H(z) studiando l'età differenziale di popolazioni omogenee di galassie, senza bisogno di dover assumere alcun modello cosmologico. Questo metodo viene implementato, per la prima volta in letteratura, attraverso lo studio degli indici spettrali di galassie passive individuali sfruttando l'ottima risoluzione R∼3500 e rapporto segnale-rumore S/N∼20 degli spettri della Data Release 2 della survey LEGA-C. 350 galassie massive e passive sono state estratte dal campione parente incrociando criteri spettro-fotometrici per massimizzarne la purezza. Tramite il metodo degli indici spettrali si estraggono età, metallicità stellare e arricchimento α delle popolazioni stellari di ogni singola galassia del campione. La combinazione di indici utilizzata (HδA, Ca4227, G4300, HγA, HγF, Fe4383, Fe4531, C4668) è stata scelta in seguito a un'analisi estensiva volta a massimizzare la robustezza dei risultati. Si derivano età di galassie comprese tra 2.5 e 5 Gyr, in ottimo accordo con l'età dell'Universo per una cosmologia ΛCDM standard. Inoltre, [Z/H] e [α/Fe] sono in accordo con i valori misurati nell'Universo locale e consistenti con un'evoluzione puramente passiva. Attraverso la relazione età-redshift mediana sono stati esplorati vincoli ai parametri cosmologici, ottenendo, per un universo ΛCDM piatto, una stima indipendente della costante di Hubble, H0=70.0^+28.7_-18.5 km/s/Mpc. Applicando il metodo dei cronometri cosmici, è stata derivata una nuova misura del parametro di Hubble, H(z=0.72) = 96.1 ± 35.1 km/s/Mpc, per la prima volta ottenuta tramite il metodo degli indici di assorbimento. Verifiche svolte con altre combinazioni di indici confermano l'attendibilità di questo risultato.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Zovi, Francesco. « Assessment of heterogeneous hydraulic properties in natural aquifers at the intermediate scale ». Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3423721.

Texte intégral
Résumé :
One of the most relevant issues in groundwater hydrology is the assessment of heterogeneous hydraulic properties of natural aquifers at the intermediate scale. The intermediate scale includes, as a general definition, aquifers characterized by a ratio L/B, L being a linear measure of the horizontal extent, and B the average thickness, between one (local scale) and approximately one thousand (regional scale). In Italy groundwater represents almost eighty percent of drinkable water supply, therefore the control of groundwater pollution as well as an optimal planning of the well production activity are essential steps in groundwater management that are generally developed at the intermediate scale. The assessment of unknown geological properties affecting groundwater dynamics and the quantification of the related uncertainty is thus one of the most relevant issues, known in literature as parameter estimation or inverse modelling. Regional and local scales have been largely studied by the scientific community, although the local scale is typically less exploited than the regional. The intermediate scale, instead, has been the subject of a relatively limited number of publications and is still characterized by relevant open problems, like, for example, the optimal choice of the numerical model to adopt or the definition of a proper parameter estimation approach. Moreover, a limit is often given by the lack of experimental sites available for testing the new research developments. As a result, too often the research is not applied in real-world problems. This thesis is subdivided in four chapters. In Chapter 1 we introduce the multi-scale experimental site of Settolo, an alluvial unconfined aquifer in north-eastern Italy that constitutes, as far as we know, the first multi-scale groundwater test site in our country. The installed instrumentation and the collected data are described, together with a preliminary data interpretation. In Chapter 2 we focus on groundwater modelling at the intermediate-scale. We calibrate a homogeneous 2D groundwater model to reproduce the Settolo field piezometric data and we explore the differences with a 3D model implemented with the same parameters and boundary conditions. We compare again the two models with spatial heterogeneity in the parameters. Because of the very similar performance of the 2D and 3D models we conclude that, in our case, the 2D model is suitable to describe the Settolo aquifer behavior at the intermediate scale; therefore, it can be effectively adopted for inverse modelling approaches and data assimilation. Chapter 3 introduces a novel global optimization algorithm implemented in a geostatistical framework to calibrate groundwater models. The proposed parallel algorithm is tested and validated under various conditions, with both homogeneous and heterogeneous parameter distributions, showing robustness and efficiency in solving the inverse problem, as well as scalability to high performance computing. Finally in Chapter 4 we focus on the geological facies-heterogeneity, not suitable to be described by classic geostatistical approaches like, for example, variogram based models. We approach the inverse problem with a strategy that combines multiple point geostatistics and sequential data assimilation with the ensemble Kalman filter, involving different kind of data, i.e., satellite images, electrical resistivity tomographies and time series of piezometric heads recorded in different locations. This approach is tested for the first time on a real-world case, and its advantages and limits are shown.
La caratterizzazione degli acquiferi naturali a scala intermedia è un problema di fondamentale importanza nell'idrologia sotterranea. Per intermedia si intende una scala compresa fra la scala locale, con dimensioni orizzontali del dominio comparabili con quella verticale, e la scala regionale, dove la dimensione verticale è di più ordini di grandezza inferiore a quelle orizzontali. Gli studi sulla scala intermedia sono estremamente importanti per una gestione corretta e sostenibile della risorsa idropotabile, per il controllo dell'inquinamento e per la protezione dal dissesto idrogeologico. A titolo di esempio, in Italia circa l'ottanta per cento dell'acqua potabile viene estratta dalle falde acquifere. La letteratura scientifica di settore è composta da numerosi studi che trattano il problema su scala regionale, con un minor numero di contributi a scala locale. In ogni caso l'ambito della scala intermedia risulta meno sviluppato: esso è caratterizzato da alcuni problemi aperti, quali, ad esempio, la scelta più adeguata dei modelli numerici da utilizzare e la definizione di metodi di stima dei parametri. Un grande limite, inoltre, è rappresentato dalla scarsità di siti sperimentali su cui testare e validare le teorie e i metodi sviluppati, aspetto che spesso rischia di rendere i risultati della ricerca difficilmente fruibili nelle pratiche applicazioni. Il lavoro presentato in questa tesi è diviso in quattro capitoli. (1) Gestione e caratterizzazione del campo prove multi-scala di Settolo (TV). È stata messa a punto la strumentazione del campo prove di Settolo-Valdobbiadene, in provincia di Treviso, per lo studio delle dinamiche multi scala di flusso e trasporto sotterraneo. Per quanto è noto, a dicembre 2013 esso è l'unico esempio in Italia di campo sperimentale su più scale (locale e intermedia). Un attento monitoraggio di livelli di falda, precipitazione, e condizioni al contorno unito ad analisi geotecniche, idrauliche, geofisiche, chimico-biologiche e topografiche, fornisce un notevole insieme di dati che consentono svariate applicazioni. (2) Confronto tra modelli 2D e 3D su scala intermedia. Un primo utilizzo dei dati del campo sperimentale è consistito nella comparazione dei risultati di due modelli numerici volta a determinare l'adeguatezza di una approssimazione shallow water all'ambito di analisi. Nel confronto sono stati presi in considerazione anche aspetti pratici quali la velocità di calcolo e la facilità di implementazione con specifico riferimento alle caratteristiche del sito in esame. (3) Messa a punto di un nuovo algoritmo di stima dei parametri e dell'incertezza. Un nuovo algoritmo di ottimizzazione globale, applicabile a svariati problemi di ottimizzazione, è stato formulato e validato. Tale metodo è stato applicato con successo nella stima dei parametri idraulici eterogenei dell'acquifero di Settolo, fornendo anche una valutazione spaziale dell'incertezza nella stima. (4) Applicazione a un caso pratico di un metodo di assimilazione dati e multiple point geostatistics. Un approccio di modellazione inversa che combina l'ensemble Kalman filter (EnKF) e le multiple point geostatistics (MPG), è stato applicato al campo sperimentale di Settolo-Valdobbiadene. Combinando dati diversi, quali immagini satellitari, tomografie geoelettriche del suolo, dati piezometrici di falda, precipitazioni e indagini geotecniche, si è cercato di ricostruire la distribuzione spaziale dei paleoalvei ghiaiosi, la cui posizione risulta fondamentale per poter definire con precisione le direzioni preferenziali di flusso e trasporto sotterraneo. Tale analisi, applicata per la prima volta un caso reale, ha messo in luce potenzialità e limiti dell'approccio utilizzato.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Fanfani, Valentina. « Selezione di un campione ottimizzato di "cronometri standard" per la stima del parametro di Hubble ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17900/.

Texte intégral
Résumé :
Il metodo dei cronometri cosmici consente di misurare H(z) attraverso la datazione differenziale delle età delle popolazioni stellari delle galassie "early-type" massive e passive, che assumono il ruolo di “orologi standard” nell'Universo. Questo lavoro di tesi è incentrato sulla selezione di un campione ottimizzato di "orologi standard" a partire dagli spettri della survey spettroscopica ad alta risoluzione LEGA-C, in quanto una buona selezione consente di ridurre e tenere sotto controllo gran parte degli errori sistematici sulle stime di H(z). La prima parte della tesi descrive la selezione delle galassie effettuata a partire dagli spettri della Data Release 2 della survey, tramite l'uso simultaneo di tre criteri diagnostici (fotometrico, spettroscopico e ispezione visuale degli spettri), che ha fornito un campione di 245 "orologi standard" di cui si sono analizzate anche le proprietà fisiche. Nella seconda parte della tesi, l’analisi è stata svolta su un campione di 65 "orologi standard" estratti dalla Data Release 1 della survey, e si è incentrata sullo studio di diagnostici in grado di quantificare il livello di contaminazione residua da parte di una popolazione giovane sottostante la popolazione vecchia dominante che, se non è opportunamente tenuta in considerazione, può inficiare la stima di H(z) fino ad un valore del 20%. Si è quindi analizzata l'emissione ultravioletta nelle SED fotometriche, dimostrandone la trascurabilità. Si è poi applicato il metodo diagnostico spettroscopico basato sul rapporto delle righe del Ca II H/K per la prima volta a dati reali, sia misurandolo come rapporto tra i minimi delle righe, sia formulandone una nuova definizione basata sul rapporto integrale tra le due righe, tramite le misure di due nuovi "pseudo" indici di Lick da noi definiti. Si è quindi quantificata la contaminazione sul campione di "orologi standard" tramite un confronto con andamenti teorici dei rapporti H/K derivati da una libreria di spettri sintetici.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Straccialano, Raffaela. « Simulazioni atomiche di canali ionici del potassio : limiti del Force Field AMBER nelle stime di conduttanza ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19971/.

Texte intégral
Résumé :
Le simulazioni atomiche dei canali ionici del K+ mettono in evidenza una significativa inaccuratezza: i valori di conduttanza del canale stimati sono molto distanti dai valori sperimentali. Per tentare di migliorare le simulazioni e i loro risultati, è necessario modificare il modello di Force Field impiegato. Si è scelto di adottare il modello di Force Field AMBER, uno dei più utilizzati per simulazioni di molecole biologiche in dinamica molecolare, e di agire sui valori dei parametri di Lennard-Jones cercando un set di valori che permetta di minimizzare la distanza tra la conduttanza stimata e la conduttanza sperimentale delle soluzioni saline. L’analisi ha dimostrato che non è possibile riprodurre in modo quantitativo i valori sperimentali di conduttanza di soluzioni saline di Na+ e K+ in simulazioni atomiche basate su un modello di Force Field additivo.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Spilla, Emma. « Caratterizzazione del cammino sulla sabbia per mezzo di sensori inerziali indossabili : confronto tra algoritmi per la stima degli eventi del passo ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Il cammino sulla sabbia riveste un’importanza fondamentale nella salute dell’uomo. Diversi studi hanno dimostrato i benefici del cammino sulla sabbia, sia in soggetti sani che patologici. Tuttavia, manca una caratterizzazione biomeccanica. A tale proposito è importante l’analisi dei parametri temporali, e quindi la necessità di identificare correttamente gli eventi del cammino in questo ambiente. Mentre a secco sono stati implementati tanti algoritmi per la segmentazione del cammino, manca ad oggi una caratterizzazione di questi algoritmi in ambiente marino. Lo scopo di questo è quindi quello di valutare le performance di 17 algoritmi per l’identificazione degli eventi del passo e dei parametri temporali, già implementati per il cammino a secco, in ambiente marino. Tali algoritmi sono stati applicati ai dati inerziali del cammino di 7 soggetti sani che deambulano in tre condizioni diverse, ovvero passerella, sabbia bagnata e sabbia asciutta, acquisiti per mezzo di 5 sensori inerziali posizionati su tronco, caviglie e piedi. Le riprese degli eventi del passo sono state effettuate con una videocamera e utilizzate come Gold Standard per l’identificazione degli eventi del cammino. Per tutte e tre le condizioni, le performance degli algoritmi sono state valutate in termini di sensitività, accuratezza e ripetibilità. I risultati mostrano che tutti gli algoritmi proposti per il cammino a secco possono essere impiegati in ambiente marino. In particolare, gli algoritmi che sfruttano segnali da sensori posizionati sul tronco danno performance peggiori rispetto quelli su caviglia e piede, mentre sono da preferire gli algoritmi che sfruttano la velocità angolare come variabile analizzata rispetto all’accelerazione grezza. L’approccio computazionale ha dato informazioni sulle performance basandosi sul posizionamento e sul filtraggio utilizzato.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Prando, Giulia. « Non-Parametric Bayesian Methods for Linear System Identification ». Doctoral thesis, Università degli studi di Padova, 2017. http://hdl.handle.net/11577/3426195.

Texte intégral
Résumé :
Recent contributions have tackled the linear system identification problem by means of non-parametric Bayesian methods, which are built on largely adopted machine learning techniques, such as Gaussian Process regression and kernel-based regularized regression. Following the Bayesian paradigm, these procedures treat the impulse response of the system to be estimated as the realization of a Gaussian process. Typically, a Gaussian prior accounting for stability and smoothness of the impulse response is postulated, as a function of some parameters (called hyper-parameters in the Bayesian framework). These are generally estimated by maximizing the so-called marginal likelihood, i.e. the likelihood after the impulse response has been marginalized out. Once the hyper-parameters have been fixed in this way, the final estimator is computed as the conditional expected value of the impulse response w.r.t. the posterior distribution, which coincides with the minimum variance estimator. Assuming that the identification data are corrupted by Gaussian noise, the above-mentioned estimator coincides with the solution of a regularized estimation problem, in which the regularization term is the l2 norm of the impulse response, weighted by the inverse of the prior covariance function (a.k.a. kernel in the machine learning literature). Recent works have shown how such Bayesian approaches are able to jointly perform estimation and model selection, thus overcoming one of the main issues affecting parametric identification procedures, that is complexity selection.
While keeping the classical system identification methods (e.g. Prediction Error Methods and subspace algorithms) as a benchmark for numerical comparison, this thesis extends and analyzes some key aspects of the above-mentioned Bayesian procedure. In particular, four main topics are considered. 1. PRIOR DESIGN. Adopting Maximum Entropy arguments, a new type of l2 regularization is derived: the aim is to penalize the rank of the block Hankel matrix built with Markov coefficients, thus controlling the complexity of the identified model, measured by its McMillan degree. By accounting for the coupling between different input-output channels, this new prior results particularly suited when dealing for the identification of MIMO systems
To speed up the computational requirements of the estimation algorithm, a tailored version of the Scaled Gradient Projection algorithm is designed to optimize the marginal likelihood. 2. CHARACTERIZATION OF UNCERTAINTY. The confidence sets returned by the non-parametric Bayesian identification algorithm are analyzed and compared with those returned by parametric Prediction Error Methods. The comparison is carried out in the impulse response space, by deriving “particle” versions (i.e. Monte-Carlo approximations) of the standard confidence sets. 3. ONLINE ESTIMATION. The application of the non-parametric Bayesian system identification techniques is extended to an online setting, in which new data become available as time goes. Specifically, two key modifications of the original “batch” procedure are proposed in order to meet the real-time requirements. In addition, the identification of time-varying systems is tackled by introducing a forgetting factor in the estimation criterion and by treating it as a hyper-parameter. 4. POST PROCESSING: MODEL REDUCTION. Non-parametric Bayesian identification procedures estimate the unknown system in terms of its impulse response coefficients, thus returning a model with high (possibly infinite) McMillan degree. A tailored procedure is proposed to reduce such model to a lower degree one, which appears more suitable for filtering and control applications. Different criteria for the selection of the order of the reduced model are evaluated and compared.
Recentemente, il problema di identificazione di sistemi lineari è stato risolto ricorrendo a metodi Bayesiani non-parametrici, che sfruttano di tecniche di Machine Learning ampiamente utilizzate, come la regressione gaussiana e la regolarizzazione basata su kernels. Seguendo il paradigma Bayesiano, queste procedure richiedono una distribuzione Gaussiana a-priori per la risposta impulsiva. Tale distribuzione viene definita in funzione di alcuni parametri (chiamati iper-parametri nell'ambito Bayesiano), che vengono stimati usando i dati a disposizione. Una volta che gli iper-parametri sono stati fissati, è possibile calcolare lo stimatore a minima varianza come il valore atteso della risposta impulsiva, condizionato rispetto alla distribuzione a posteriori. Assumendo che i dati di identificazione siano corrotti da rumore Gaussiano, tale stimatore coincide con la soluzione di un problema di stima regolarizzato, nel quale il termine di regolarizzazione è la norma l2 della risposta impulsiva, pesata dall'inverso della funzione di covarianza a priori (tale funzione viene anche detta "kernel" nella letteratura di Machine Learning). Recenti lavori hanno dimostrato come questi metodi Bayesiani possano contemporaneamente selezionare un modello ottimale e stimare la quantità sconosciuta. In tal modo sono in grado di superare uno dei principali problemi che affliggono le tecniche di identificazione parametrica, ovvero quella della selezione della complessità di modello. Considerando come benchmark le tecniche classiche di identificazione (ovvero i Metodi a Predizione d'Errore e gli algoritmi Subspace), questa tesi estende ed analizza alcuni aspetti chiave della procedura Bayesiana sopraccitata. In particolare, la tesi si sviluppa su quattro argomenti principali. 1. DESIGN DELLA DISTRIBUZIONE A PRIORI. Sfruttando la teoria delle distribuzioni a Massima Entropia, viene derivato un nuovo tipo di regolarizzazione l2 con l'obiettivo di penalizzare il rango della matrice di Hankel contenente i coefficienti di Markov. In tal modo è possibile controllare la complessità del modello stimato, misurata in termini del grado di McMillan. 2. CARATTERIZZAZIONE DELL'INCERTEZZA. Gli intervalli di confidenza costruiti dall'algoritmo di identificazione Bayesiana non-parametrica vengono analizzati e confrontati con quelli restituiti dai metodi parametrici a Predizione d'Errore. Convertendo quest'ultimi nelle loro approssimazioni campionarie, il confronto viene effettuato nello spazio a cui appartiene la risposta impulsiva. 3. STIMA ON-LINE. L'applicazione delle tecniche Bayesiane non-parametriche per l'identificazione dei sistemi viene estesa ad uno scenario on-line, in cui nuovi dati diventano disponibili ad intervalli di tempo prefissati. Vengono proposte due modifiche chiave della procedura standard off-line in modo da soddisfare i requisiti della stima real-time. Viene anche affrontata l'identificazione di sistemi tempo-varianti tramite l'introduzione, nel criterio di stima, di un fattore di dimenticanza, il quale e' in seguito trattato come un iper-parametro. 4. RIDUZIONE DEL MODELLO STIMATO. Le tecniche di identificazione Bayesiana non-parametrica restituiscono una stima della risposta impulsiva del sistema sconosciuto, ovvero un modello con un alto (verosimilmente infinito) grado di McMillan. Viene quindi proposta un'apposita procedura per ridurre tale modello ad un grado più basso, in modo che risulti più adatto per future applicazioni di controllo e filtraggio. Vengono inoltre confrontati diversi criteri per la selezione dell'ordine del modello ridotto.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Galli, Federico. « Studio di fattibilità, metaprogettazione e analisi del valore con il metodo SMART per il caso di studio dei padiglioni 29-30 della Fiera di Bologna ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13987/.

Texte intégral
Résumé :
La tesi è rivolta alle grandi imprese che si trovano di fronte alla necessità di realizzare un nuovo Organismo Edilizio. Il metodo utilizzato ha come obbiettivo quello di individuare, tra più soluzioni proposte, quella che genera i maggiori benefici per l’azienda. Tale metodo, ideato dal Prof. Green e chiamato Simple MultiAttribute Rating Technique (SMART) si basa su due giornate di workshop e termina con una comparazione multiparametrica delle proposte sviluppate. Nella prima giornata vengono definiti gli obbiettivi che l’Organismo deve soddisfare, decisi in accordo tra gli Stakeholders, oltre alle soluzioni in grado di soddisfarli. Tra i due workshop un progettista svilupperà gli studi di fattibilità per ciascuna soluzione. Nella seconda giornata di workshop, verrà attributo a ciascuno obbiettivo un peso in base alla sua importanza. Le due soluzioni vengono poi valutate sulla base del grado di soddisfazione che ciascuna ipotesi dà per ogni attributo. Moltiplicando ciascun voto per il relativo peso dell’attributo è possibile procedere al calcolo della soddisfazione aggregata di entrambe le soluzioni. Quest’ultimo valore verrà poi rapportato con i costi delle due proposte. La proposta con il punteggio finale maggiore risulta essere quella che genera i maggiori benefici. Si è ipotizzato che il metodo SMART venisse utilizzato dalla Fiera di Bologna, che di fronte alla necessità di dover intervenire sui Pad. 29-30, chieda al progettista al termine del primo workshop, di sviluppare due soluzioni: • restyling dei padiglioni esistenti; • costruzione ex-novo dei padiglioni. Gli studi di fattibilità sono stati redatti seguendo i principi della metaprogettazione ambientale, tecnologica ed economica secondo la norma UNI 10723 1998. La soluzione che al termine del secondo workshop risulta essere la vincente è quella di costruzione ex-novo. Al termine del lavoro sono state fatte delle considerazioni finali sul metodo SMART e sui risultati raggiunti nella tesi.
Styles APA, Harvard, Vancouver, ISO, etc.
18

PANTINI, SARA. « Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Texte intégral
Résumé :
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie