Littérature scientifique sur le sujet « Stima di massima verosimiglianza »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Stima di massima verosimiglianza ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Stima di massima verosimiglianza"

1

Lorenzi, F. « Breve Storia del Metodo Gemellare 2 - Le Attuali Formulazioni del Metodo ». Acta geneticae medicae et gemellologiae : twin research 47, no 1 (janvier 1998) : 57–71. http://dx.doi.org/10.1017/s0001566000000386.

Texte intégral
Résumé :
Il termine LISREL e l'acronimo di LInear Structural RELationship ed è nato inizialmente come nome di un software messo a punto dallo svedese Karl Joreskog e dai suoi collaboratori nei primi anni '70 per stimare, col metodo della massima verosimiglianza, i coefficienti strutturali dei modelli basati su sistemi di equazioni strutturali.Tali modelli, nella elaborazione tramite il LISREL, rappresentano la sistemazione logica, prima ancora che statistica o computeristica, di tecniche di analisi multivariata le cui prime proposte risalgono all'ininzio del secolo; riconducendo ad un unico modello che ne costituisce una geniale sintesi, approcci ed itinerari scientifici fino ad allora distinti e non comunicanti, quali l'analisi fattoriale, i modelli causali e i modelli di misurazione. In particolare rappresentano in questo momento la più completa e sistematica risposta al problema di operazionalizzare in termini di ricerca e di verifica empirica, nel campo delle scienze sociali, la controversa, ma non per questo meno fondamentale, nozione di causalità. Essi sono quindi la reinterpretazione, sistemazione e soprattutto generalizzazione di quelli che negli anni '60 venivano chiamati i modelli causali e che nella prima metà degli anni '70 avevano conosciuto una notevole popolarità fra i sociologi soprattutto attraverso la tecnica della path analysis.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Rossi, Alessandro, Luca Arduini, Stefano De Cataldo et Paolo Stratta. « Subjective response to neuroleptic medication : a validation study of the Italian version of the Drug Attitude Inventory (DAI) ». Epidemiologia e Psichiatria Sociale 10, no 2 (juin 2001) : 107–14. http://dx.doi.org/10.1017/s1121189x00005182.

Texte intégral
Résumé :
RIASSUNTOScopo – Verificare se la versione italiana della Drug Attitude Inventory mantiene le proprietà psicometriche del questionario originate attraverso una validazione di costrutto. Setting – Lo studio è stato condotto su 90 pazienti con diagnosi di Disturbo Schizofrenico (n=72) e Disturbo Schizoaffettivo (n=18) ammessi al ricovero volontario per un episodio indice di riesacerbazione psicotica, d'età compresa tra i 18 ed i 50 anni, in trattamento con farmaci antipsicotici tipici e cognitivamente in grado di comprendere e rispondere alle domande del questionario. Disegno – Sono state impiegate analisi fattoriali esplorative con i metodi d'estrazione alfa fattoriale e della massima verosimiglianza; successivamente è stato utilizzato il metodo di Rotazione Varimax. Risultati – I metodi d'estrazione utilizzati trovavano 7 fattori che spiegavano il 62.5% della varianza. I primi 2 fattori possono essere identificati nel costrutto di “risposta soggettiva al trattamento” ed i fattori da 3 a 7 nel costrutto di “atteggiamento nei confronti della terapia”. Conclusioni – Benché lo studio sia preliminare, la traduzione italiana dello strumento sembra mantenere le proprietà psicometriche della versione originale e può essere utilizzata nella pratica clinica per una valida misurazione deH'atteggiamento del paziente nei confronti del trattamento con farmaci antipsicotici.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Stima di massima verosimiglianza"

1

Roubin, Carola. « Convergenza di grafi aleatori con sequenza di gradi data ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
La tesi discute il risultato sulla convergenza di grafi aleatori con una sequenza di gradi data a un grafo limite, ponendo un vincolo sul grado massimo e grado minimo. Per generare reti dense utilizzeremo il beta-model i cui parametri verranno stimati con il metodo di massima verosimiglianza. Sarà presentato un algoritmo iterativo per il calcolo degli stimatori di massima verosimiglianza che risulteranno essere unici e consistenti. I risultati ottenuti saranno utilizzati per la costruzione della funzione che rispetta le ipotesi del teorema della convergenza.
Styles APA, Harvard, Vancouver, ISO, etc.
2

PENNONI, FULVIA. « Metodi statistici multivariati applicati all'analisi del comportamento dei titolari di carta di credito di tipo revolving ». Bachelor's thesis, Universita' degli studi di Perugia, 2000. http://hdl.handle.net/10281/50024.

Texte intégral
Résumé :
Il presente lavoro di tesi illustra un'applicazione dei modelli grafici per il l’analisi del credit scoring comportamentale o behavioural scoring. Quest'ultimo e' definito come: ‘the systems and models that allow lenders to make better decisions in managing existing clients by forcasting their future performance’, secondo Thomas (1999). La classe di modelli grafici presa in considerazione e’ quella dei modelli garfici a catena. Sono dei modelli statistici multivariati che consetono di modellizzare in modo appropriato le relazioni tra le variabili che descrivono il comporatemento dei titoloari della carta. Dato che sono basati su un'espansione log-lineare della funzione di densità delle variabili consentono di rappresentare anche graficamente associazioni orientate, inerenti sottoinsiemi di variabili. Consentono, inoltre, di individuare la struttura che rappresenti in modo più parsimonioso possibile tali relazioni e modellare simultaneamente più di una variabile risposta. Sono utili quando esiste un ordinamento anche parziale tra le variabili che permette di suddividerle in meramente esogene, gruppi d’intermedie tra loro concatenate e di risposta. Nei modelli grafici la struttura d’indipendenza delle variabili viene rappresentata visivamente attraverso un grafo. Nel grafo le variabili sono rappresentate da nodi legati da archi i quali mostrano le dipendenze in probabilità tra le variabili. La mancanza di un arco implica che due nodi sono indipendenti dati gli altri nodi. Tali modelli risultano particolarmente utili per la teoria che li accomuna con i sistemi esperti, per cui una volta selezionato il modello è possibile interrogare il sistema esperto per modellare la distribuzione di probabilità congiunta e marginale delle variabili. Nel primo capitolo vengono presentati i principali modelli statistici adottati nel credit scoring. Il secondo capitolo prende in considerazione le variabili categoriche. Le informazioni sui titolari di carta di credito sono, infatti, compendiate in tabelle di contingenza. Si introducono le nozioni d’indipendenza tra due variabili e di indipendenza condizionata tra più di due variabili. Si elencano alcune misure d’associazione tra variabili, in particolare, si introducono i rapporti di odds che costituiscono la base per la costruzione dei modelli multivariati utilizzati. Nel terzo capitolo vengono illustrati i modelli log-lineari e logistici che appartengono alla famiglia dei modelli lineari generalizzati. Essendo metodi multivariati consentono di studiare l’associazione tra le variabili considerandole simultaneamente. In particolare viene descritta una speciale parametrizzazione log-lineare che permette di tener conto della scala ordinale con cui sono misurate alcune delle variabili categoriche utilizzate. Questa è anche utile per trovare la migliore categorizzazione delle variabili continue. Si richiamano, inoltre, i risultati relativi alla stima di massima verosimiglianza dei parametri dei modelli, accennando anche agli algoritmi numerici iterativi necessari per la risoluzione delle equazioni di verosimiglianza rispetto ai parametri incogniti. Si fa riferimento al test del rapporto di verosimiglianza per valutare la bontà di adattamento del modello ai dati. Il capitolo quarto introduce alla teoria dei grafi, esponendone i concetti principali ed evidenziando alcune proprietà che consentono la rappresentazione visiva del modello mediante il grafo, mettendone in luce i vantaggi interpretativi. In tale capitolo si accenna anche al problema derivante dalla sparsità della tabella di contingenza, quando le dimensioni sono elevate. Vengono pertanto descritti alcuni metodi adottati per far fronte a tale problema ponendo l’accento sulle definizioni di collassabilità. Il quinto capitolo illustra un’applicazione dei metodi descritti su un campione composto da circa sessantamila titolari di carta di credito revolving, rilasciata da una delle maggiori società finanziarie italiane operanti nel settore. Le variabili prese in esame sono quelle descriventi le caratteristiche socioeconomiche del titolare della carta, desumibili dal modulo che il cliente compila alla richiesta di finanziamento e lo stato del conto del cliente in due periodi successivi. Ogni mese, infatti, i clienti vengono classificati dalla società in: ‘attivi’, ‘inattivi’ o ‘dormienti’ a seconda di come si presenta il saldo del conto. Lo scopo del lavoro è stato quello di ricercare indipendenze condizionate tra le variabili in particolare rispetto alle due variabili obbiettivo e definire il profilo di coloro che utilizzano maggiormente la carta. Le conclusioni riguardanti le analisi effettuate al capitolo quinto sono riportate nell’ultima sezione. L’appendice descrive alcuni dei principali programmi relativi ai software statistici utilizzati per le elaborazioni.
In this thesis work the use of graphical models is proposed to the analysis of credit scoring. In particular the applied application is related to the behavioural scoring which is defined by Thomas (1999) as ‘the systems and models that allow lenders to make better decisions in managing existing clients by forecasting their future performance’. The multivariate statistical models, named chain graph models, proposed for the application allow us to model in a proper way the relation between the variables describing the behaviour of the holders of the credit card. The proposed models are named chain graph models. They are based on a log-linear expansion of the density function of the variables. They allow to: depict oriented association between subset of variables; to detect the structure which accounts for a parsimonious description of the relations between variables; to model simultaneously more than one response variable. They are useful in particular when there is a partial ordering between variables such that they can be divided into exogenous, intermediate and responses. In the graphical models the independence structure is represented by a graph. The variables are represented by nodes, joint by edges showing the dependence in probability among variables. The missing edge means that two nodes are independent given the other nodes. Such class of models is very useful for the theory which combines them with the expert systems. In fact, once the model has been selected, it is possible to link it to the expert system to model the joint and marginal probability of the variables. The first chapter introduces the most used statistical models for the credit scoring analysis. The second chapter introduces the categorical variables. The information related to the credit card holder are stored in a contingency table. It illustrates also the notion of independence between two variables and conditional independence among more than two variables. The odds ratio is introduced as a measure of association between two variables. It is the base of the model formulation. The third chapter introduces the log-linear and logistic models belonging to the family of generalized linear models. They are multivariate methods allowing to study the association between variables considering them simultaneously. A log-linear parameterization is described in details. Its advantage is also that it allow us to take into account of the ordinal scale on which the categorical variables are measured. This is also useful to find the better categorization of the continuous variables. The results related to the maximum likelihood estimation of the model parameters are mentioned as well as the numerical iterative algorithm which are used to solve the likelihood equations with respect to the unknown parameters. The score test is illustrated to evaluate the goodness of fit of the model to the data. Chapter 4 introduces some main concepts of the graph theory in connection with their properties which allow us to depict the model through the graph, showing the interpretative advantages. The sparsity of the contingency table is also mentioned, when there are many cells. The collapsibility conditions are considered as well. Finally, Chapter 5 illustrates the application of the proposed methodology on a sample composed by 70000 revolving credit card holders. The data are released by a one of biggest Italian financial society working in this sector. The variables are the socioeconomic characteristics of the credit card holder, taken form the form filled by the customer when asking for the credit. Every months the society refines the classification of the customers in active, inactive or asleep according to the balance. The application of the proposed method was devoted to find the existing conditional independences between variables related to the two responses which are the balance of the account at two subsequent dates and therefore to define the profiles of most frequently users of the revolving credit card. The chapter ends with some conclusive remarks. The appendix of the chapter reports the code of the used statistical softwares.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Zennaro, Davide. « Clock Synchronization in Wireless Sensor Networks : Statistical and Algorithmic Analysis ». Doctoral thesis, Università degli studi di Padova, 2012. http://hdl.handle.net/11577/3422165.

Texte intégral
Résumé :
In the past few years, the impressive growth of applications performing tasks in a distributed fashion has been enabled by the availability of tiny, inexpensive devices which, in turn, has been made possible by the recent micro-electromechanical technology advancements. Sparsely disposing small intelligent appliances throughout a specific area is something that the community has become used to. Low cost and low power sensing devices equipped with telecommunication hardware are attractive for use in an infrastructure-less network in which the absence of a central node stands out, making robustness be one of the strengths of this kind of networks. Environmental monitoring and military surveillance are just a few examples of the number of applications suitable for sensor networks; in fact, home automation and several health services also can be implemented given that a distributed network of sensors exists. Sensors need to keep track of a common time scale. This is fundamental for prolonging the network lifetime, making channel access schemes work properly, for example, or for allowing precise duty cycling among the nodes. Clock synchronization is also basic if the goal of a running application is to track moving objects in the battlefield or, more generally, to perform distributed processing of the sensed data. Since the local notion of time in a sensor is based on a low quality local oscillator, it turns out that even small changes in the environmental conditions, like temperature and pressure, lead to modification in the oscillation frequency of the quartz crystals, thus producing time discrepancies among different sensor nodes as time goes by. This thesis tackles the problem of clock synchronization in sensor networks, both from a perspective of clock parameters estimation and from an algorithmic point of view, to pursue the final goal of making nodes agree on a common time scale, all across the network. In the first part of the thesis, the so-called two-way message exchange between two nodes is thoroughly analyzed. After recalling existing results on clock parameters estimation exploiting data collected via this message exchange process on the wireless channel, an innovative mathematical framework is introduced, which encompasses several common assumptions for the random delays present in the collected data, in a more general treatment. Based on this new framework, a factor graph-based clock offset estimator for wireless sensor networks is proposed and evaluated. Comparison of the variance of the estimation error with classical bounds available in the literature shows that the new estimator has extremely good performance, therefore it can be considered outstanding among Bayesian clock offset estimators. The focus of the second part of the thesis is on the design of distributed consensus algorithms in wireless sensor networks, especially for observations averaging purposes. In fact, an innovative fast consensus algorithm is proposed and evaluated, based on the alternating direction multipliers method, which is a distributed method used to solve minimization problems in an iterative fashion. The new consensus algorithm is compared with the state-of-the-art of fast consensus, showing an excellent convergence rate and an outstanding noise resilience. The proposed algorithm is then applied to solve a network-wide clock synchronization issue, assuming both clock skew and offset for the nodes in the network, showing a relevant performance improvement with respect to previously proposed consensus-based synchronization schemes. Finally, the Appendix contains a work whose topic falls out of the main stream of this thesis: in uplink cellular networks, based on the knowledge of channel statistics, surrounding base stations are carefully and iteratively chosen in order to provide the mobile terminal a certain quality of service in terms of the maximum allowed outage probability, with the aim of minimizing the overall backhaul network usage.
Negli ultimi anni abbiamo assistito alla continua comparsa di applicazioni distribuite, la cui implementabilita' risulta consentita dalla possibilita' di avere a disposizione sensori piccoli ed economici. I recenti progressi tecnologici nel settore micro-elettronico-meccanico hanno infatti consentito una miniaturizzazione dei nodi sensore. La comunita' scientifica si e' oramai abituata alla possibilita', con una spesa minima, di collocare piccoli dispositivi intelligenti lungo un'area specifica. Sensori economici e a basso consumo, una volta muniti dell'hardware necessario per le telecomunicazioni, risultano ideali per l'utilizzo in reti senza infrastruttura, uno scenario in cui spicca l'assenza di un nodo centrale e la robustezza diviene quindi una proprieta' fondamentale. Monitoraggio ambientale e sorveglianza militare sono solamente un paio di esempi di applicazioni adatte a reti di sensori, cosi' come la domotica e l'ambito sanitario risultano scenari in cui l'uso di una rete distribuita di sensori puo' rivelarsi, in effetti, utile e vantaggiosa. I sensori necessitano di una base temporale comune. Questo bisogno risulta fondamentale al fine di prolungare il tempo di vita di una rete, ottimizzando schemi di accesso deterministico al mezzo, ad esempio, oppure schedulando i periodi di attivita' dei nodi in maniera precisa. La sincronizzazione risulta fondamentale anche in applicazioni legate alla localizzazione, o piu' genericamente, per permettere l'elaborazione distribuita di dati raccolti dai sensori stessi. Dal momento che la nozione di tempo locale in un sensore e' fornita da un oscillatore di bassa qualita', anche minime perturbazioni delle condizioni ambientali (come temperatura e pressione) si riflettono in modifiche nella frequenza di oscillazione del cristallo di quarzo, producendo discrepanze nel comportamento tra oscillatori in diversi sensori, che diventano non trascurabili man mano che il tempo scorre. Questa tesi affronta il problema della sincronizzazione di clock in reti di sensori, sia da una prospettiva di stima dei parametri di clock, sia da un punto di vista algoritmico lungo tutta la rete, con l'obiettivo finale di permettere ai nodi interessati di trovare una concordanza su una scala temporale comune. Nella prima parte di questa tesi viene analizzato il processo di scambio di informazioni tra due nodi chiamato two-way message exchange. Dopo aver richiamato la letteratura esistente sulla stima dei parametri del clock utilizzando questo protocollo di scambio dati attravero il canale wireless, viene introdotto un nuovo framework matematico per permettere un'assunzione piu' generale riguardo i ritardi casuali presenti nei dati raccolti. Basandosi su questo framework, viene proposto e studiato un nuovo stimatore del clock offset basato sulla teoria dei factor graphs. Dal confronto della varianza dell'errore di stima con classici limiti inferiori presenti in letteratura risulta che il nuovo stimatore proposto permette degli ottimi risultati, per cui puo' a pieno titolo essere considerato meritevole di menzione nella teoria della stima Bayesiana applicata al clock offset. La seconda parte della tesi riguarda invece la progettazione di algoritmi di consensus distribuiti per reti di sensori wireless, in special modo per operazioni di averaging svolte in maniera distribuita. Viene proposto e valutato un nuovo algoritmo di consensus velocizzato basato su alternating direction multipliers method, un metodo distribuito per risolvere problemi di minimizzazione in modo iterativo. Il nuovo algoritmo di consensus viene confrontato con lo stato dell'arte del consensus velocizzato, mostrando un'eccellente velocita' di convergenza e una resistenza al rumore migliore rispetto agli altri algoritmi presenti in letteratura. Lo schema proposto viene poi applicato al problema della sincronizzazione di clock in reti di sensori wireless, assumendo presenza di clock skew e clock offset tra i vari oscillatori della rete. L'algoritmo di sincronizzazione risultante consente un rilevante miglioramento delle prestazioni rispetto a schemi di sincronizzazione basati su consensus proposti in precedenza. Infine, nell'Appendice viene descritto un lavoro il cui argomento si discosta da quello principale della tesi: in reti cellulari in uplink, in base alla statistica del canale le stazioni base cooperanti vengono selezionate tramite l'utilizzo di tecniche iterative con l'obiettivo di garantire al terminale mobile una certa qualita' del servizio in termini di probabilta' di disservizio massima permessa e allo stesso tempo di minimizzare l'utilizzo della rete di backhaul.
Styles APA, Harvard, Vancouver, ISO, etc.
4

PANTINI, SARA. « Analysis and modelling of leachate and gas generation at landfill sites focused on mechanically-biologically treated waste ». Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203393.

Texte intégral
Résumé :
Despite significant efforts have been directed toward reducing waste generation and encouraging alternative waste management strategies, landfills still remain the main option for Municipal Solid Waste (MSW) disposal in many countries. Hence, landfills and related impacts on the surroundings are still current issues throughout the world. Actually, the major concerns are related to the potential emissions of leachate and landfill gas into the environment, that pose a threat to public health, surface and groundwater pollution, soil contamination and global warming effects. To ensure environmental protection and enhance landfill sustainability, modern sanitary landfills are equipped with several engineered systems with different functions. For instance, the installation of containment systems, such as bottom liner and multi-layers capping systems, is aimed at reducing leachate seepage and water infiltration into the landfill body as well as gas migration, while eventually mitigating methane emissions through the placement of active oxidation layers (biocovers). Leachate collection and removal systems are designed to minimize water head forming on the bottom section of the landfill and consequent seepages through the liner system. Finally, gas extraction and utilization systems, allow to recover energy from landfill gas while reducing explosion and fire risks associated with methane accumulation, even though much depends on gas collection efficiency achieved in the field (range: 60-90% Spokas et al., 2006; Huitric and Kong, 2006). Hence, impacts on the surrounding environment caused by the polluting substances released from the deposited waste through liquid and gas emissions can be potentially mitigated by a proper design of technical barriers and collection/extraction systems at the landfill site. Nevertheless, the long-term performance of containment systems to limit the landfill emissions is highly uncertain and is strongly dependent on site-specific conditions such as climate, vegetative covers, containment systems, leachate quality and applied stress. Furthermore, the design and operation of leachate collection and treatment systems, of landfill gas extraction and utilization projects, as well as the assessment of appropriate methane reduction strategies (biocovers), require reliable emission forecasts for the assessment of system feasibility and to ensure environmental compliance. To this end, landfill simulation models can represent an useful supporting tool for a better design of leachate/gas collection and treatment systems and can provide valuable information for the evaluation of best options for containment systems depending on their performances under the site-specific conditions. The capability in predicting future emissions levels at a landfill site can also be improved by combining simulation models with field observations at full-scale landfills and/or with experimental studies resembling landfill conditions. Indeed, this kind of data may allow to identify the main parameters and processes governing leachate and gas generation and can provide useful information for model refinement. In view of such need, the present research study was initially addressed to develop a new landfill screening model that, based on simplified mathematical and empirical equations, provides quantitative estimation of leachate and gas production over time, taking into account for site-specific conditions, waste properties and main landfill characteristics and processes. In order to evaluate the applicability of the developed model and the accuracy of emissions forecast, several simulations on four full-scale landfills, currently in operative management stage, were carried out. The results of these case studies showed a good correspondence of leachate estimations with monthly trend observed in the field and revealed that the reliability of model predictions is strongly influenced by the quality of input data. In particular, the initial waste moisture content and the waste compression index, which are usually data not available from a standard characterisation, were identified as the key unknown parameters affecting leachate production. Furthermore, the applicability of the model to closed landfills was evaluated by simulating different alternative capping systems and by comparing the results with those returned by the Hydrological Evaluation of Landfill Performance (HELP), which is the most worldwide used model for comparative analysis of composite liner systems. Despite the simplified approach of the developed model, simulated values of infiltration and leakage rates through the analysed cover systems were in line with those of HELP. However, it should be highlighted that the developed model provides an assessment of leachate and biogas production only from a quantitative point of view. The leachate and biogas composition was indeed not included in the forecast model, as strongly linked to the type of waste that makes the prediction in a screening phase poorly representative of what could be expected in the field. Hence, for a qualitative analysis of leachate and gas emissions over time, a laboratory methodology including different type of lab-scale tests was applied to a particular waste material. Specifically, the research was focused on mechanically biologically treated (MBT) wastes which, after the introduction of the European Landfill Directive 1999/31/EC (European Commission, 1999) that imposes member states to dispose of in landfills only wastes that have been preliminary subjected to treatment, are becoming the main flow waste landfilled in new Italian facilities. However, due to the relatively recent introduction of the MBT plants within the waste management system, very few data on leachate and gas emissions from MBT waste in landfills are available and, hence, the current knowledge mainly results from laboratory studies. Nevertheless, the assessment of the leaching characteristics of MBT materials and the evaluation of how the environmental conditions may affect the heavy metals mobility are still poorly investigated in literature. To gain deeper insight on the fundamental mechanisms governing the constituents release from MBT wastes, several leaching experiments were performed on MBT samples collected from an Italian MBT plant and the experimental results were modelled to obtain information on the long-term leachate emissions. Namely, a combination of experimental leaching tests were performed on fully-characterized MBT waste samples and the effect of different parameters, mainly pH and liquid to solid ratio (L/S,) on the compounds release was investigated by combining pH static-batch test, pH dependent tests and dynamic up-flow column percolation experiments. The obtained results showed that, even though MBT wastes were characterized by relatively high heavy metals content, only a limited amount was actually soluble and thus bioavailable. Furthermore, the information provided by the different tests highlighted the existence of a strong linear correlation between the release pattern of dissolved organic carbon (DOC) and several metals (Co, Cr, Cu, Ni, V, Zn), suggesting that complexation to DOC is the leaching controlling mechanism of these elements. Thus, combining the results of batch and up-flow column percolation tests, partition coefficients between DOC and metals concentration were derived. These data, coupled with a simplified screening model for DOC release, allowed to get a very good prediction of metal release during the experiments and may provide useful indications for the evaluation of long-term emissions from this type of waste in a landfill disposal scenario. In order to complete the study on the MBT waste environmental behaviour, gas emissions from MBT waste were examined by performing different anaerobic tests. The main purpose of this study was to evaluate the potential gas generation capacity of wastes and to assess possible implications on gas generation resulting from the different environmental conditions expected in the field. To this end, anaerobic batch tests were performed at a wide range of water contents (26-43 %w/w up to 75 %w/w on wet weight) and temperatures (from 20-25 °C up to 55 °C) in order to simulate different landfill management options (dry tomb or bioreactor landfills). In nearly all test conditions, a quite long lag-phase was observed (several months) due to the inhibition effects resulting from high concentrations of volatile fatty acids (VFAs) and ammonia that highlighted a poor stability degree of the analysed material. Furthermore, experimental results showed that the initial waste water content is the key factor limiting the anaerobic biological process. Indeed, when the waste moisture was lower than 32 %w/w the methanogenic microbial activity was completely inhibited. Overall, the obtained results indicated that the operative conditions drastically affect the gas generation from MBT waste, in terms of both gas yield and generation rate. This suggests that particular caution should be paid when using the results of lab-scale tests for the evaluation of long-term behaviour expected in the field, where the boundary conditions change continuously and vary significantly depending on the climate, the landfill operative management strategies in place (e.g. leachate recirculation, waste disposal methods), the hydraulic characteristics of buried waste, the presence and type of temporary and final cover systems.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie