To see the other types of publications on this topic, follow the link: High dI.

Dissertations / Theses on the topic 'High dI'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'High dI.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gambato, Francesco. "Utilizzo di tecnologie avanzate per applicazioni di "high speed cooking"." Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3424635.

Full text
Abstract:
The microwave (MW) technology has become crucial in "high speed cooking" equipment. This new generation of cooker is still being refined and still finding its place in today's kitchens, but it is clear that these new high speed ovens can cook a wide variety of products and cook them faster than anything previously on the market. In ordinary cooking, heat is applied to the outside of food and it gradually penetrates to the inside. In MW cooking, the heat is generated within the food. Thus, a shorter heating time and a higher efficiency are some of the benefits of this technology. MW cooking is rapid, but non-uniform. MW heating is non-uniform mainly because of the inherently uneven distribution of the electromagnetic (EM) field inside the oven cavity. As the energy penetrates a lossy material, it is absorbed and less of it remains to penetrate further. Thus, energy absorption is non-uniform. Moreover, the energy absorption process is strongly affected by shape, size, dielectric properties of materials, position of the workload, as well as by the cavity geometry and dimensions. MW heating systems must provide uniform heating to obtain high quality products and avoid the so-called hot spots and cold spots. Traditionally, the temperature uniformity is accomplished by moving parts within the applicator, using mode stirrers, employing turntable or a combination of these techniques. Unfortunately, these techniques are not applicable within all type of resonant cavities. Other techniques which do not involve moving parts are: the pulsing MW energy or the phase shifting for different sources of MW energy. The phase shift technique and its effects on the EM field distribution and heating of a workload is discussed in the Thesis. The study of MW power sources has increased popularity among researchers in the field of cooking systems. In the last few years the innovative high frequency power solid state devices has gained much attention in place of magnetron due to their higher performances. In particular, a more careful control of the cooking process, which guarantees a more uniform heating of the foodstuff, can be achieved by using the solid state devices. This result can be reached, for instance, by using a properly phase shift for different sources of MW energy and it is discussed in the Thesis. Another solution, that is examined, involves the use of slots in the waveguide wall, which radiate EM energy from the waveguide. Since a multi slotted waveguide can be considered as an antenna array, a proper design of the slotted waveguide antennas, which feed the launch box and the MW applicator, is proposed in order to attain a more uniform temperature distribution without the need of moving parts. The effectiveness of the aforementioned technical solutions has been verified by means of numerical simulations on a test case model of practical interest, named "panini grill". The use of MW technology ensures a sandwich is heated through without a cold centre while reducing cooking time significantly. In the 3D numerical model two physical phenomena, i.e. EM wave propagation and heat transport, are coupled together by the thermal effects of MW energy deposition and the temperature-dependent material parameters. The coupled problem is solved by means of a FEA commercial software (COMSOL). In order to achieve the design parameters for the slotted waveguide feeding system and the phase shifting, which guarantee the more uniform hating, an optimization problem has been solved. More specifically, a metamodels-based optimization method has been set up. The metamodels can significantly reduce the problem complexity and simulation time. The optimization procedure has been characterized by pre-processing, programming, and post-processing coupling COMSOL Multiphysics and Matlab software.
Nella progettazione di sistemi di cottura "high speed cooking" l"utilizzo della tecnologia a microonde si rivela essenziale. A differenza dei metodi tradizionali di riscaldamento in cui il calore fluisce dall"ambiente esterno verso l'interno, nel riscaldamento a microonde il campo elettromagnetico (EM) permette la generazione del calore all"interno del cibo stesso. Alcuni vantaggi di questo metodo sono i tempi di riscaldamento molto brevi e il rendimento elevato. Per contro, il riscaldamento a microonde è intrinsecamente non uniforme: la distribuzione del campo EM all'interno di una camera di cottura è disomogenea, altresì, l'onda EM che attraversa un workload cede energia e via via si attenua, determinando un assorbimento di energia non uniforme da parte del carico. Lo scenario si complica ulteriormente in relazione a geometria e dimensioni della cavità nonchè alla geometria, dimensioni, posizione e proprietà dielettriche del carico di cottura. Per migliorare l'uniformità del riscaldamento vengono adottate tecniche che favoriscono il rimescolamento del campo EM durante il processo, come ad esempio il piatto rotante e gli agitatori di campo (stirrers). Non sempre la tipologia del sistema di cottura permette l'utilizzo di parti meccaniche in movimento per l'agitazione del campo e quindi la mitigazione di hot spot e cold spot. In alcuni casi vengono utilizzate tecniche senza parti mobili quali: l'accensione intermittente di sorgenti a microonde di potenza o lo sfasamento tra le sorgenti. Quest'ultima tecnica, ed in particolare i suoi effetti sulla distribuzione del campo EM e sul riscaldamento del carico di cottura sono stati affrontati in questa tesi di dottorato. Lo studio delle sorgenti a microonde di potenza è diventato sempre più importante tra i ricercatori che si occupano di sistemi di cottura. Negli anni recenti, i dispositivi a stato solido, caratterizzati da prestazioni sempre più elevate, hanno trovato impiego in molte aree di applicazioni prima riservate ai magnetron. In particolare, l'utilizzo di generatori a stato solido consente un controllo della cottura più accurato garantendo un riscaldamento uniforme del cibo, per esempio agendo sullo sfasamento tra le diverse sorgenti a microonde. Una ulteriore tecnica, oggetto di indagine in questa tesi, per migliorare le prestazioni di cottura del cibo si giova dell'utilizzo di opportune aperture di accoppiamento tra le guide d'onda e la camera di lancio, ovvero antenne a fessura utilizzate per realizzare una schiera di antenne in una guida d'onda. L'efficacia delle tecniche proposte per migliorare l'obiettivo del riscaldamento uniforme è stata verificata tramite simulazione numerica di un prototipo d'interesse pratico: un sistema di cottura detto "panini grill" che grazie all'utilizzo della tecnologia a microonde permette di riscaldare un sandwich anche all'interno e ridurre significativamente i tempi di cottura. Il corrispondente modello multifisico 3D è stato realizzato mediante il software commerciale COMSOL Multiphysics che sfrutta il metodo degli elementi finiti per le simulazioni. In relazione agli accorgimenti impiegati, il problema di determinare quali siano i valori delle loro grandezze peculiari (e.g. sfasamento tra le sorgenti a microonde, layout schiera di antenne) che assicurano una cottura uniforme, è stato affrontato come un problema di ottimizzazione. In particolare, il metodo di ottimizzazione utilizzato si basa sulla costruzione di metamodelli al fine di ridurre la complessità ed il tempo complessivo di simulazione del modello numerico multifisico. Il processo di ottimizzazione ha coinvolto fasi di pre-elaborazione, programmazione e postelaborazione attraverso l'accoppiamento tra COMSOL e il software di calcolo scientifico Matlab
APA, Harvard, Vancouver, ISO, and other styles
2

Sandrin, Enrico. "Pratiche di high involvement in contesti di mass customization: Una prospettiva contingente configurazionale." Doctoral thesis, Università degli studi di Padova, 2016. http://hdl.handle.net/11577/3427244.

Full text
Abstract:
Mass customization (MC), meant as providing customized products and services without considerable trade-offs in cost, delivery and quality, continues to arouse widespread interest among both practitioners and academic researchers. Based on the degree of product customization that a firm aims to provide to its customers, different types of MC strategy are distinguished in literature, and the choice of the degree of product customization is widely recognized as a key strategic decision in the pursuit of MC. Besides MC, another increasingly important challenge for today’s companies is to leverage the full potential of their human resources. A viable approach to achieving this goal is high-involvement, which is characterized by a set of internally coherent human-resource-management (HRM) practices that support the participation of lower-level employees in the business as a whole. Even though the importance of designing specific HRM systems for MC has long been recognized in literature, no studies have examined the impact of high involvement on MC capability from the contingent configurational perspective that is advocated by the literature of strategic HRM. To narrow this research gap, the present dissertation develops, tests and finds empirical support for the following two hypotheses: that the adoption of the coherent set of HRM practices that characterize high involvement improves MC capability (configurational perspective) and that the effectiveness of this configuration of practices in enhancing MC capability is influenced by the company's strategic decision on the degree of product customization to be provided to customers (contingency perspective). In light of the moderating effect that this strategic choice is found to have on the relationship between high involvement and MC capability, the final part of the dissertation empirically examines the impacts of a number of environmental factors on this decision and identifies the dynamism of customer demands as a key factor that pushes firms to increase the degree of product customization they provide to their customers.
La mass customization (MC), ossia fornire prodotti e servizi personalizzati senza considerevoli trade-off in termini di costi, tempi e qualità, continua a suscitare vasto interesse sia a livello pratico che accademico. In base al grado di personalizzazione di prodotto che un’azienda intende offrire ai propri clienti, in letteratura si distinguono diversi tipi di strategia di MC e la scelta del grado di personalizzazione di prodotto è ampiamente riconosciuta essere una decisione chiave nel perseguimento della MC. Accanto alla MC, un’altra sfida sempre più importante per le aziende oggi è quella di sfruttare appieno le potenzialità delle proprie risorse umane. Un modo per centrare questo obiettivo è rappresentato dall’high involvement, definito come un insieme coerente di pratiche di gestione delle risorse umane (HRM) che favoriscono la partecipazione al business nel suo complesso anche dei dipendenti ai livelli più bassi della gerarchia. Benché l'importanza di progettare sistemi di HRM specifici per la MC sia stata da lungo tempo riconosciuta in letteratura, nessuno studio ha esaminato l'impatto dell’high involvement sulla capacità di MC secondo la prospettiva contingente configurazionale sostenuta dalla letteratura di gestione strategica delle risorse umane. Per contribuire a colmare questa lacuna, la presente tesi sviluppa e testa, trovando supporto empirico per ciascuna di esse, le seguenti due ipotesi: che l’adozione dell’insieme coerente di pratiche di HRM che caratterizzano l’high involvement rafforzi la capacità di MC di un’azienda (prospettiva configurazionale) e che l’efficacia di questa configurazione di pratiche ai fini del miglioramento della capacità di MC sia influenzata dalla scelta strategica dell’azienda sul grado di personalizzazione di prodotto (prospettiva contingente). Alla luce dell’effetto di moderazione che questa scelta emerge avere sulla relazione fra high involvement e capacità di MC, la parte finale della tesi indaga empiricamente l’impatto di alcuni fattori ambientali su tale scelta, identificando nel dinamismo della domanda un fattore chiave che spinge l’azienda ad aumentare il grado di personalizzazione di prodotto.
APA, Harvard, Vancouver, ISO, and other styles
3

Riscica, Fabio. "Online characterization of high - frequency percussive ventilator." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4654.

Full text
Abstract:
2009/2010
The thesis describes the study on the characterization of the percussive ventilator; the activities have been carried out in cooperation with the “D.A.I. di Medicina Perioperatoria, Terapia Intensiva ed Emergenza - UCO di Anestesia, Rianimazione e Terapia Antalgica dell'Azienda Mista Universitaria - Ospedaliera di Trieste”. The first chapter describes the physiology of the respiratory system and the classical models presented in literature, the second chapter illustrates the main modes of mechanical ventilation, particularly in the percussive ventilation. The third chapter describes the classical laboratory equipment for the measurement of breathing. The fourth chapter examines the state of the art of methods and instruments for the analysis of respiratory parameters. The fifth chapter discusses the instruments for measuring respiratory parameters, developed in the biomedical laboratory of the DEEI of University of Trieste. The sixth chapter contains a detailed study on the characterization of the percussive ventilator: the model, the method for estimating parameters, the system tests and the results. Particularly, the ability to monitor respiratory parameters by using the instrument developed avoids the volutrauma (alveolar-capillary permeability increase owing to excessive distension of the lung) during controlled ventilation. The instrument also allows to accurately estimate the lung elastance, determining factor of the volume distribution in the used model. At the conclusion of the work, the seventh chapter summarizes the results from the study of the volumes distribution in the two-compartment model of the lung conditioned to percussive ventilation.
XXIII Ciclo
1965
APA, Harvard, Vancouver, ISO, and other styles
4

Di, Francesco Francesco. "Metodi innovativi per la riduzione delle emissioni di ossidi di azoto negli impianti di combustione: la tecnologia SCR High Dust e il caso del Termoutilizzatore di Brescia." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/893/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

RICCI, ADRIANA. "Gestione della complessità hardware nella metodologia di progettazione ad alto livello di sistemi multicore." Doctoral thesis, Università Politecnica delle Marche, 2019. http://hdl.handle.net/11566/263528.

Full text
Abstract:
Negli ultimi decenni, lo sviluppo della tecnologia di progettazione dei sistemi elettronici, affiancata dall'Electronic Design Automation (EDA), ha permesso la realizzazione di sistemi elettronici con complessità e performance crescenti. Inoltre, in questi ultimi anni è possibile integrare un sistema elettronico complesso, equivalente a milioni di transistor, in un singolo chip di silicio: System-on-a-Chip (SoC). Il design di un SoC complesso non può essere gestito tramite i metodi tradizionali di progettazione ma necessita di metodologie di modellazione efficienti a livello di sistema e tool di sintesi ad alto livello (High Level Synthesis - HLS) affidabili, che generano un’architettura RTL ottimizzata a partire da specifiche funzionali ad alto livello. Le ultime versioni di strumenti HLS hanno compiuto progressi significativi tali da poter pensare di inserire la metodologia HLS nel flusso di progettazione. L’utilizzo di HLS permette di gestire sistemi complessi, pur garantendo alte performance, portando al complessivo aumento di produttività. La ricerca proposta presenta progetti complessi come casi di studio sia per la modellazione sia per la sintesi ad alto livello, incluso il confronto delle soluzioni HLS rispetto al design sviluppato mediante metodologia di progettazione tradizionale. Sono state implementate diverse soluzioni con gradi di complessità crescenti, allo scopo di verificare i limiti della metodologia di progettazione a livello di sistema. Infine, è stato implementato su FPGA un sistema funzionante che prevede l’integrazione di componenti progettati mediante metodologie diverse. Parte della ricerca è stata effettuata in collaborazione con Korg Italy, con sede a Osimo (AN), che ha fornito know-how e consulenza per quanto riguarda il campo applicativo della sintesi digitale di segnali musicali.
In recent decades, the development of electronic systems design technology, supported by Electronic Design Automation (EDA), has allowed the creation of electronic systems with increasing complexity and performance. Moreover, in recent years it is possible to integrate a complex electronic system, equivalent to millions of transistors, into a single silicon chip: System-on-a-Chip (SoC). The design of a complex SoC can’t be managed by traditional design methods but requires system-level efficient modeling methodologies and high-level synthesis tools (High Level Synthesis - HLS) that generate an optimized RTL architecture from high-level functional specifications. The latest versions of HLS tools have made significant advances that make it possible to consider including the HLS methodology in the design flow. The use of HLS allows the management of complex systems, while ensuring high performance, leading to the increase in productivity. The research presents complex projects as case studies for both modeling and high-level synthesis, including comparison of HLS solutions with respect to design using traditional methodology. Several solutions have implemented with increasing degrees of complexity, to verify the limits of the system-level design methodology. Finally, a functioning system has been implemented on FPGA which provides for the integration of components designed using different methods. Part of the research was carried out in collaboration with Korg Italy, based in Osimo (AN), which provided know-how and advice regarding the field of application of digital synthesis of musical signals.
APA, Harvard, Vancouver, ISO, and other styles
6

Paggi, Giulia. "Sviluppo di un algoritmo di trigger per la ricerca di particelle esotiche a lunga vita media a High Luminosity LHC con il rivelatore di muoni di CMS." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21605/.

Full text
Abstract:
In questa tesi si è sviluppato un nuovo algoritmo di trigger per la selezione di particelle esotiche, che fa uso delle DT di CMS, nel contesto dell'upgrade di rivelatore e sistema di trigger, in preparazione per HL-LHC. Si fa uso dell'algoritmo Analytical Method (AM) che genera i segmenti di trigger nelle camere DT, con una risoluzione temporale di alcuni ns, migliorando quasi di un ordine di grandezza le prestazioni rispetto al sistema attuale. Questo permette di aumentare l'accettanza di selezione per HSCP, che attraversano il rivelatore con una velocità significativamente minore di quella della luce. È stato sviluppato un algoritmo in grado di stimare, tramite un fit a due parametri, sia il valore di β = v/c di una particella, sia il tempo della collisione a cui è stata prodotta. Per migliorare ulteriormente i risultati ottenuti, è stato sviluppato un metodo di correzione della misura di tempo nelle camere, considerando il tempo necessario a propagare il segnale attraverso il filo anodico fino all'elettronica di Front End. In questo modo è migliorata la risoluzione temporale dei segmenti di trigger e di conseguenza la stima sia del valore di β sia del tempo al momento della collisione. Per migliorare la stima di β, si è vincolato il parametro temporale al valore nominale del bunch crossing ed è stato eseguito di nuovo il fit con un solo parametro libero. Combinando il prompt muon trigger e l'algoritmo proposto per HSCP, applicando a quest’ultimo un taglio in β ≤ 0.7 in modo da minimizzarne la sovrapposizione, si riesce a ottenere un'efficienza pari o maggiore del ≈ 90% fino a β ≈ 0.35. Per il campione usato si misura un incremento di accettanza che va dal 67.4% al 93.4%. Infine, con un campione di muoni, si è studiata la frequenza con cui vengono associati ad un BX precedente a quello corretto. Il risultato è il 4% del campione: buono, ma da ridurre migliorando ulteriormente l'algoritmo.
APA, Harvard, Vancouver, ISO, and other styles
7

Varela, Corredor Felipe <1988&gt. "Membrane Contactors for High Temperature Applications." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7561/1/Thesis_Felipe_Varela-Corredor.pdf.

Full text
Abstract:
It is going to be evaluated the availability of the MC process, particularly the Sweeping Gas Membrane Distillation (SGMD), to perform the regeneration of ammonium dihydrogen phosphate (ADP) from diammonium phosphate (DAP) and the study of the main parameters to perform the scale up of the process to an industrial level. Making focus on the selection and characterization of suitable membranes for the process and the design-development of SGMD pilot plant and test for the evaluation of the operative parameters. The main requirement for the MC technology application is bank on suitable membranes for the process. This must act as a barrier for one of the phases on contact and should enable the mass transport of volatile components. For operative reasons is preferable to hold back the aqueous phase, making the use of hydrophobic membranes imperative. The hydrophobic membrane character of the membranes is a critical argument for the MC process and is one of the main drawback for the massive application of this technology. Many studies to evaluate the hydrophobic character have been performed and continues to be a trend topic on the MC scenario. However few studies have been done to evaluate the variation of the hydrophobicity with the temperature and none of them to evaluate the effect of temperature above the normal water boiling point.
APA, Harvard, Vancouver, ISO, and other styles
8

Varela, Corredor Felipe <1988&gt. "Membrane Contactors for High Temperature Applications." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7561/.

Full text
Abstract:
It is going to be evaluated the availability of the MC process, particularly the Sweeping Gas Membrane Distillation (SGMD), to perform the regeneration of ammonium dihydrogen phosphate (ADP) from diammonium phosphate (DAP) and the study of the main parameters to perform the scale up of the process to an industrial level. Making focus on the selection and characterization of suitable membranes for the process and the design-development of SGMD pilot plant and test for the evaluation of the operative parameters. The main requirement for the MC technology application is bank on suitable membranes for the process. This must act as a barrier for one of the phases on contact and should enable the mass transport of volatile components. For operative reasons is preferable to hold back the aqueous phase, making the use of hydrophobic membranes imperative. The hydrophobic membrane character of the membranes is a critical argument for the MC process and is one of the main drawback for the massive application of this technology. Many studies to evaluate the hydrophobic character have been performed and continues to be a trend topic on the MC scenario. However few studies have been done to evaluate the variation of the hydrophobicity with the temperature and none of them to evaluate the effect of temperature above the normal water boiling point.
APA, Harvard, Vancouver, ISO, and other styles
9

Renzi, Alessandro. "Sviluppo di un modulo VHDL per interfacciamento Ethernet-FPGA in applicazioni di high throughput screening." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4042/.

Full text
Abstract:
In molti settori della ricerca in campo biologico e biomedico si fa ricorso a tecniche di High Throughput Screening (HTS), tra cui studio dei canali ionici. In questo campo si studia la conduzione di ioni attraverso una membrana cellulare durante fenomeni che durano solo alcuni millisecondi. Allo scopo sono solitamente usati sensori e convertitori A/D ad elevata velocità insieme ad opportune interfacce di comunicazione, ad elevato bit-rate e latenza ridotta. In questa tesi viene descritta l'implementazione di un modulo VHDL per la trasmissione di dati digitali provenienti da un sistema HTS attraverso un controller di rete integrato dotato di un'interfaccia di tipo Ethernet, individuando le possibili ottimizzazioni specifiche per l'applicazione di interesse.
APA, Harvard, Vancouver, ISO, and other styles
10

Rasenti, Matteo. "Algoritmi per la scoperta di outlier in sistemi di calcolo ad altissime prestazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6797/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Gava, Alessandra. "Utilità della tecnica denaturing high performance liquid chromatography per la diagnosi di deficit di mevalonato chinasi nelle febbri periodiche di sospetta natura autoinfiammatoria." Doctoral thesis, Università degli studi di Padova, 2009. http://hdl.handle.net/11577/3426441.

Full text
Abstract:
Mevalonate Kinase Deficiency (MKD) is a rare autosomic recessive autoinflammatory disorder characterized by recurrent fever and musculoskeletal manifestations. MKD is due to mutations in the gene for mevalonate kinase (MK), located on chromosome 12q24, which cause variable degrees of enzyme deficiency. Although genetic investigation became essential for the diagnosis, especially in patient with normal IgD values in serum, the analysis of the sequence of the whole coding region is expensive: determination of mutations by sequencing can be made more efficient using techniques of pre-screening able to identify the mutated exon. OBJECTIVES: In this study we have developed a genetic investigation using Denaturing High Performance Liquid Chromatography (DHPLC), a pre-screening technique which is able to identify polymorphisms of the gene mvk in patients with autoinflammatory syndrome suspicion. METHODS: Starting from January 2007 we evaluated 10 healthy controls and 19 patients (mean age 33 years, range 13 – 61 years) affected by recurrent fevers and other clinical manifestations usually found in autoinflammatory syndromes and not correlated with infections or autoimmune disease. IgD level was measured in all patients. Molecular testing was performed in DNA extracted from peripheral blood lymphocytes by standard methods. The 10 coding exons (from 2 to 11) of the mvk gene were analysed by means of denaturing high-performance liquid chromatography (DHPLC) using the Wave® Fragment Analysis system (Transgenomic). Primers for PCR amplifications, amplicon lengths and PCR conditions were designed in our laboratory. Melting temperature (Tm) were calculated with Navigator Software 1.7.0 (Transgenomic). Sequences of the same amplified fragments were determined by means of an automatic sequencer ABI PRISM 3130 Genetic Analyzer (APPLIED BIOSYSTEMS). RESULTS: IgD level was normal in 14 patients. Healthy controls did not show any alteration of the DHPLC-profiles and of the DNA sequences. Twelve patients had at least one altered DHPLC-profile and these data have been confirmed by sequencing. In particular we detected the mutations S52N (patient 2-13-15), S135S (pt 13-16), D170D, c.632-18A>G(pt 4-5-6-10-12-17-19), c.78+61A>G (pt 6-11-19), c.885+24G>A (pt 6-19) already described in literature and in the database INFEVERS (http://fmf.igh.cnrs.fr/infevers). The screening with DHPLC has allowed us to get the results in shorter time (10 hours/patient) and with lower cost (40 euro / patient) in comparison to direct sequencing (time: 25 hours / patient and cost: 150 euro / patient). CONCLUSION: High serum levels of IgD do not represent an essential marker for diagnosis of MKD, as already reported in literature. DHPLC is a rapid low cost technique in order to screen mutations in patients with MKD suspicion. Nevertheless, being an indirect tecnique, DHPLC is able to show a polymorphism in the DNA sequence but it is not able to identify the position, and this still remains a limiting factor for the use of the DHPLC as an exclusive technique for genetic analysis. Twelve patients of our cohort carried at the same time D170D and c.632-18A>G: such event suggests that these SNPs could be in linkage disequilibrium and that such mutations could induce a diminution in the activity of the MK predisposing therefore to the MKD.
SCOPO DEL LAVORO La Mevalonate Kinase Deficency (MKD), già nota come sindrome da Iper IgD (HIDS), è una rara malattia autoinfiammatoria di tipo autosomico recessivo caratterizzata da febbre ricorrente e disturbi muscoloscheletrici. La MKD è dovuta a mutazioni del gene mvk, mappato sul cromosoma 12q24, il quale codifica per l’enzima mevalonato chinasi (MK); polimorfismi nel gene mvk sono la causa di un’alterata attività enzimatica di MK. L’individuazione della mutazione genica della mevalonato chinasi ha reso l’indagine genetica indispensabile per la diagnosi, soprattutto in pazienti con valori sierici di IgD normali, tuttavia il sequenziamento dell’intera regione codificante è costoso e la determinazione di mutazioni può essere resa più efficiente utilizzando tecniche di pre-screening in grado di identificare l’esone mutato. In questo studio è stata effettuata un’indagine genetica utilizzando l’analisi in DHPLC come tecnica di pre-screening per identificare le alterazioni nella regione codificante del gene mvk in pazienti con sospetta sindrome autoinfiammatoria. MATERIALI E METODI: A partire da gennaio 2007 sono stati presi in esame 19 pazienti (età media 33 anni, range 13 – 61 anni) seguiti presso la Cattedra e UOC di Reumatologia dell’Università di Padova per febbri ricorrenti non imputabili ad infezioni o a malattie autoimmuni e compatibili con sospetta MKD e 10 controlli sani. In ogni paziente è stato effettuato il dosaggio delle IgD nel siero. L’analisi del DNA, estratto da linfociti del sangue periferico, è stata effettuata mediante un protocollo di amplificazione per frammenti di 210-250 bp messo a punto da noi stessi, utilizzando primers specifici per le sequenze dei 10 esoni codificanti del gene mvk. I prodotti di amplificazione sono stati analizzati mediante DHPLC utilizzando il sistema Wave® Fragment Analysis (Transgenomic, Omaha, NE, USA). Le temperature di melting (Tm) sono state calcolate con Navigator Software 1.7.0 (Transgenomic). Le sequenze degli stessi frammenti amplificati sono state determinate mediante l’uso di un sequenziatore automatico ABI PRISM 3130 Genetic Analyzer (APPLIED BIOSYSTEMS, USA). RISULTATI: I valori sierici di IgD erano normali (<100 mg/L) in 14/19 pazienti. Nessun campione di controllo presentava alterazioni dei profili DHPLC e delle sequenze. Dodici dei 19 pazienti esaminati presentavano almeno un profilo di DHPLC alterato e i dati sono stati confermati con il sequenziamento. Sono state evidenziate le mutazioni S52N (paziente 2-13-15), D170D e c.632-18A>G (paziente 4-5-6-10-12-17-19), S135S (pz 13-16) c.78+61A>G (pz 6-11-19), c.885+24G>A (pz 6-19) già descritte in letteratura e nel database INFEVERS (http://fmf.igh.cnrs.fr/infevers). Lo screening con DHPLC ha permesso di ottenere i risultati in minor tempo (10 ore / paziente) e con costi inferiori (40 euro / paziente) rispetto alla tecnica di sequenziamento diretto (tempo: 25 ore / paziente , costi: 150 euro / paziente). CONCLUSIONI: Un elevato livello sierico di IgD non rappresenta più un marker per fare diagnosi di MKD, come già riportato in letteratura. La DHPLC è una tecnica capace di effettuare uno screening rapido e a basso costo nell’analisi di mutazioni in pazienti con sospetta sindrome autoinfiammatoria legata al gene mvk. Tuttavia, essendo una tecnica di analisi indiretta, è necessario considerare che la DHPLC aumenta l’efficienza dell’analisi ma non la sua sensibilità in quanto è in grado di evidenziare un polimorfismo di sequenza ma non la sua posizione. Sette pazienti della nostra coorte sono risultati portatori delle varianti alleliche D170D e c.632-18A>G; tale evento suggerisce che questi SNP potrebbero essere in linkage disequilibrium e che tali mutazioni potrebbero indurre una diminuzione nell’attività della MK predisponendo quindi alla MKD.
APA, Harvard, Vancouver, ISO, and other styles
12

Carletti, Jacopo. "Modello sperimentale di sintesi tra fluidodinamica computazionale e tecniche di Machine Learning." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
Il progetto di tesi propone un metodo di sintesi tra le principali tecniche di Machine Learning e la fluidodinamica computazionale. Vengono considerate le applicazioni attuali e lo stato dell'arte dell'apprendimento automatico in un contesto di calcolo parallelo come presupposti per poter analizzare un caso d'uso specifico: l'esecuzione di simulazioni fluidodinamiche nell'ambito di sviluppo di una vettura di Formula 1. I vincoli del regolamento e la gestione dei costi impongono un utilizzo efficiente delle risorse di calcolo disponibili, per questo motivo il progetto sperimenta l'uso di molteplici tecniche di Machine Learning, al fine di creare un nuovo flusso di gestione delle simulazioni. L'obiettivo consiste nell'integrare apprendimento automatico e CFD per apprendere pattern, individuare informazioni utili in fase di esecuzione di nuove simulazioni, migliorare la gestione dei costi e la qualità del modello.
APA, Harvard, Vancouver, ISO, and other styles
13

Stipcich, Goran. "High-order methods for computational fluid dynamics." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7764.

Full text
Abstract:
2010/2011
In the past two decades, the growing interest in the study of fluid flows involving discontinuities, such as shocks or high gradients, where a quadratic-convergent method may not provide a satisfactory solution, gave a notable impulse to the employment of high-order techniques. The present dissertation comprises the analysis and numerical testing of two high-order methods. The first one, belonging to the discontinuous finite-element class, is the discontinuous control-volume/finite-element method (DCVFEM) for the advection/ diffusion equation. The second method refers to the high-order finite-difference class, and is the mixed weighted non-oscillatory scheme (MWCS) for the solution of the compressible Euler equations. The methods are described from a formal point of view, a Fourier analysis is used to assess the dispersion and dissipation errors, and numerical simulations are conducted to confirm the theoretical results.
XXIV Ciclo
1980
APA, Harvard, Vancouver, ISO, and other styles
14

Berto, Andrea <1992&gt. "Il caso OSRAM: analisi del processo di sviluppo High Power." Master's Degree Thesis, Università Ca' Foscari Venezia, 2017. http://hdl.handle.net/10579/11564.

Full text
Abstract:
L'elaborato finale presenta inizialmente una panoramica generale di quelli che sono i metodi utilizzati dalle imprese per sviluppare un nuovo prodotto. Successivamente è stata svolta un'analisi dettagliata del processo di sviluppo di una famiglia di nuovi prodotti (High Power), inseriti sul mercato dall'impresa OSRAM (multinazionale nel campo illuminotecnico).
APA, Harvard, Vancouver, ISO, and other styles
15

Moretti, Elena. "Upper Limits on High Energy emissions from GRB." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3721.

Full text
Abstract:
2008/2009
The intense and unpredictable flashes of gamma rays in the energy band (10 keV – 1 MeV), called Gamma-Ray Bursts (GRB), were discovered in the late 60's. Since then several experiments were dedicated to detect and understand these phenomena. Up to now, we do not have yet a complete explanation for the GRB progenitors and their emission mechanism. In the first phase, the so-called prompt phase, lasting from few ms to tens of seconds, these bursts emit mainly in the band from hard-X to soft gamma. In a longer second phase, called afterglow, the GRB emission ranges from the radio frequencies to the X-ray band. The hard gamma band (>50 MeV), both in the prompt and in the afterglow phase, was poorly explored until the gamma-ray experiment EGRET flown on the Compton Gamma-ray Observatory (CGRO). Nevertheless EGRET detected only 5 GRBs in the band >200 MeV in 7 years of operation. Nowadays 2 gamma-ray experiments AGILE and Fermi/LAT are currently in operation. The number of detected burst with emitted energy >50 MeV is already more than duplicated by these two missions. The two experiments are based on the same high energy gamma-ray detection technique so these two experiments are similar: their core is made of a silicon tracker with tungsten conversion layers, surrounded by a plastic scintillator to veto cosmic-ray particles events. Below the tracker, a calorimeter provides the measure of the energy of the produced pairs. The main differences between the experiments are the larger effective area of the Fermi/LAT (~10 times larger) and its deeper calorimeter. On board of the satellites that host LAT and AGILE there are other 2 experiments respectively: the Fermi/GBM dedicated to the GRB science in the 8 keV-40 MeV band and the SuperAGILE that is a X-ray detector operational in the 18-60 keV band. Fermi/GBM, SuperAGILE and the Mini Calorimeter in the AGILE mission can independently trigger on a burst event respectively in the energy band (8 keV – 40 MeV), (18-60 keV) and (0.3-100 MeV). Their FoV is quite different however, ranging from 2 sr for SuperAGILE to almost 4 sr for MiniCalorimeter and 6 sr for FermiGBM. If the burst, triggered by these instruments or by other missions, is in the field of view of one of the two gamma-ray detectors a high energy signal is searched. In the AGILE pipeline the GRB signal is searched in the burst prompt time interval. During this time interval both background and signal are supposed to follow a Poisson distribution and the signal to be non-negative. The background average rate is computed before the burst trigger, in the same signal extraction region (15deg from the GRB position), with the same analysis cuts and in a time interval at least 10 times longer than the signal duration. Instead in the Fermi/LAT pipeline a map of the test statistic variable is computed. The test statistic distribution indicates how much the data differ from the background model used. In this thesis the non-detection cases are considered: a methodology for the computation of the upper limit on the signal is proposed. This method is based on the Bayesian statistics and was elaborated from Helene in 1984 (Helene, O. 1984, Nuclear Instruments and Methods 228, 120), it considers a Poisson fluctuation of the known background mean and of the estimated signal in the region of interest. The applications of this upper limit computing method to the AGILE and the Fermi/LAT data are also showed deriving upper limit on GRB flux. The AGILE energy coverage is smaller but starts from lower energy with respect the actual Fermi/LAT energy band. In the AGILE energy range above 30 MeV and till 2 GeV, the estimated GRB flux upper limits range between 1x10-3 and 1x10-2 ph s-1cm-2. Instead the Fermi/LAT flux upper limit is roughly 5x10-5 ph s-1cm-2 in the energy range from 100 MeV to 100 GeV. The studies of the upper limits help to understand the GRB emission mechanisms: most of these bursts are not detected in the highest energy band even if the extrapolation of their spectra from the low energy band predicts a detectable flux from those two instruments. On the other case there are some GRBs with low energy spectra predicting a non detectable H.E. flux but with high energy photons clearly detected. These photons indicate the existence of a new component above 100 MeV in the GRB photon spectrum extending up to the GeV region. This thesis gives a new contribution on the computation of the upper limits on the GRB flux in both the gamma-ray experiments operating nowadays. The thesis will concentrate in particular on the study of the upper limits in the interesting cases, when a high energy signal is predicted but not detected, giving some interesting hints on the GRB source physics.
1982
APA, Harvard, Vancouver, ISO, and other styles
16

Fantini, Sara. "Uso della tecnica di HRM (High Resolution Melt) PCR per la caratterizzazione della flora microbica dominante di alcuni prodotti alimentari." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Le metodiche di PCR tradizionali di caratterizzazione microbica nel settore alimentare sono generalmente laboriose e richiedono tempo da parte dell’operatore. In questo lavoro di tesi sono stati messi a punto dei protocolli di qPCR HRM per la caratterizzazione dei consorzi microbici dei batteri totali, della famiglia Lactobacillaceae e dei lieviti in differenti matrici alimentari. Lo scopo è quello di far risaltare la capacità diagnostica della tecnica high resolution melt (HRM) a partire dal DNA estratto direttamente dagli alimenti, sfruttando la capacità della tecnica di riconoscere piccole variazioni di temperature di fusione degli ampliconi basandosi su differenze di poche paia di nucleotidi. Sono state analizzate 3 differenti matrici alimentari: dei prodotti da forno fermentati con tecnica sourdough ottenuti da differenti farine; del latte vaccino crudo e trattato; degli integratori proteici vegetali. Il DNA microbico è stato estratto con tre differenti kit commerciali di estrazione per ognuno dei tre ecosistemi alimentari da saggiare. Con la tecnica qPCR è stato possibile quantificare i tre differenti gruppi microbici nei campioni saggiati, anche per quei campioni con una bassa carica microbica o con un DNA di purezza ridotta. Tuttavia con la metodologia HRM non sono stati ottenuti risultati soddisfacenti per tutti i campioni. Non è stato possibile caratterizzare alcuni campioni per certi target microbici, per la loro ridotta abbondanza. Inoltre il DNA di bassa qualità, dovuto al forte contenuto proteico della matrice di alcuni campioni ha inciso sulle reazioni HRM risultando in curve di melt frastagliate e non processabili. In conclusione, per un’efficace analisi di HRM sono fondamentali un target di reference di peso simile a quello del DNA dei campioni da saggiare e un DNA di ottima qualità con valori di rapporto λ 230/260 compresi tra 1.6 e 2.
APA, Harvard, Vancouver, ISO, and other styles
17

Piccirilli, Federica. "High pressure studies of amyloid proteins." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7435.

Full text
Abstract:
2010/2011
In questa tesi viene presentato lo studio di due proteine amiloidi, l'insulina e l' -sinucleina , condotto attraverso l'utilizzo della spettroscopia infrarossa a trasformata di Fourier in alta pressione. Con il nome di brille amiloidi ci si riferisce ad aggregati proteici altamente ordinati che si vengono a depositare in diversi organi o tessuti durante lo sviluppo di molte importanti patologie, le amiloidosi. Tra queste, vista la crescente di usione nelle popolazioni occidentali, vale la pena citare il morbo di Parkinson, e il morbo di Alzheimer. Le conoscenze relative alla termodinamica degli aggregati amiloidi e alle cinetiche di aggregazione sono ancora limitate. Ci o che maggiormente complica la ricerca di strategie atte ad inibire la reazione e la sostanziale irreversibilit a del processo di aggregazione. Le brille amiloidi dimostrano infatti una sorprendente stabilit a termodinamica. L'introduzione di tecniche di alta pressione nello studio dei sistemi biologici ha negli ultimi anni evidenziato le potenzialit a e l'utilit a della bio sica delle alte pressioni in particolare nello studio degli stati conformazionali delle proteine . Attraverso una variazione di pressione, si possono infatti gestire le distanze intra- e inter-molecolari in modo controllato. Dal presente studio emerge che l'applicazione dell'alta pressione e in grado di indurre la rottura degli aggregati amiloidi con un'e cienza che dipende dallo stato di maturazione della brilla (nel caso dell'insulina) e dalla speci ca mutazione genetica (nel caso della sinucleina). E' stato inoltre individuata una sequenzialit a nel processo di dissociazione indotto, che sembra ri ettere la pre-esistente gerarchia di strutture della catena peptidica. Attraverso l'applicazione dell'alta pressione e stato dunque possibile stabilizzare stati intermedi di brillazione. Quest'ultimo rappresenta il punto di forza della bio sica in alta pressione, che permette di popolare e quindi caratterizzare stati energeticamente instabili a pressione ambiente, fornendo dunque nuove linee di ricerca da seguire per la comprensione delle amiloidosi.
In this thesis is presented the investigation of the infrared properties at high pressures of two amyloidogenic proteins: insulin and -synuclein. Amyloid brils are highly ordered protein aggregates occurring during the development of many serious diseases, like Alzheimer's and Parkinson's diseases. Despite a major e ort both from the biological and biophysical communities, very little is known about the thermodynamics of the aggregated protein state and the kinetic mechanisms of its formation. Fibrillation is an irreversible process and a key challenge is the development of therapeutical strategies able to inhibit or reverse the formation of amyloids. Hydrostatic pressure has proven to be a powerful tool for the study of biological systems. Contrary to temperature - whose e ects show both on volume and thermal energy simultaneously - pressure leads to a controlled change of inter- and intramolecular distances, and enables to determine the stability of a protein structure. From the present study, it comes out that high pressure is able to induce the disaggregation of brils with an e cacy which depends on the maturation stage (insulin) and on speci c point mutations (synuclein). Our results show how high pressure disaggregation occurs following a sequential mechanism that re ects the protein's structure hierarchy. Pressure allows to address intermediate states, which are probably occurring along the aggregation reaction pathway, thus providing a new clue to the understanding of amyloidosis.
XXIV Ciclo
1979
APA, Harvard, Vancouver, ISO, and other styles
18

Cneazovici, Fabian. "Effetti di ambienti di Realtà Virtuale sulla variabilità della frequenza cardiaca." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16578/.

Full text
Abstract:
La variabilità della frequenza cardiaca (Heart Rate Variability, HRV) indica una fisiologica irregolarità degli intervalli battito-battito, e riflette l’attività del sistema nervoso autonomo. L’HRV si misura a partire dal tacogramma (la serie temporale degli intervalli battito-battito) ed è tipicamente analizzata nel dominio delle frequenze, con particolare interesse a due bande: 0.04-0.15 Hz (Low-Frequency, LF) e 0.15 – 0.4 Hz (High-Frequency, HF). È noto che stati emotivi ed attentivi modificano le oscillazioni in queste bande. Il presente lavoro ha riguardato lo studio della HRV di soggetti immersi in ambienti di realtà virtuale con l’obiettivo di investigare quali effetti tale immersione possa avere sulla distribuzione della potenza nelle bande LF e HF, e verificare la presenza di una possibile relazione tra le variazioni di tali parametri e il livello di gradimento/attenzione/coinvolgimento indotto dall’ambiente virtuale. Per lo studio della HRV sono stati utilizzati: i) il software ARTiiFACT, che mette a disposizione strumenti per estrarre dal segnale elettrocardiografico il tacogramma e per calcolarne la densità spettrale di potenza (e quindi la potenza nelle bande LF ed HF); ii) l’ambiente Matlab per rappresentare graficamente i risultati dell’analisi spettrale della HRV e per l’esecuzione di test statistici. I risultati hanno messo in evidenza una tendenza, anche se non significativa, del rapporto tra la potenza in banda LF e in banda HF ad aumentare quando il soggetto si immerge nella realtà virtuale. Inoltre, tale rapporto tende ad essere maggiore, seppur non significativamente, quando il soggetto si trova immerso nell’ambiente virtuale per il quale ha dimostrato una preferenza rispetto al valore riscontrato nell’altro ambiente.
APA, Harvard, Vancouver, ISO, and other styles
19

MORO, TATIANA. "Dalla molecola al bilanciere: analisi degli effetti di una metodica di allenamento high intensity interval resistance training (HIIRT)." Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3423938.

Full text
Abstract:
In the last years it has been well demonstrated that Resistance Training is a good stimulus to hypertrophy, but also as a strategy against cardiovascular and metabolic diseases. But RT is composed by numerous variables that make difficult to understand the real effects of this kind of training. For this reason, the main aim of this dissertation was to study a specific method of RT, in which “intensity” is defined as the ratio between the load (%1RM) and the rest between the sets. Nowadays the lack of time is one of the major barrier to practise regular physical activity; so, it is important to find an exercise methodology that could be efficient and, at the same time, not too much long. HIIRT technique (High Intensity Interval Resistance Training) consist in 2 sets of 6 repetition to exhaustion at 80% 1RM, 20” rest, how many reps the subjects are able o perform with the same load, 20” rest and another set. The aim of this research was to understand the effects of HIIRT technique on the health and wellness of people, starting from cellular analysis to muscular performance responses. The research program was divided in four phases. In the first experimental part we aimed to study the acute signalling response on three different kind of exercise: Traditional Resistance Training (TRT), High Intensity Resistance Training (HIIRT) e High Intensity Training (HIT). The first two training represent a different intensity of RT, while the last one, is an aerobic training. 16 subjects participated at the study. Biopsies from the vastus lateralis were taken one week before training sessions (pre), immediately after, 6 hours after and 24 hours after training. Blood pressure and heart rate responses were also monitored during exercise. No significant differences were found at any time points in ribosomial protein of S6 and 4EBP1, while HIIRT seems to increase Akt activation and TRT ERK 1/2 signalling. TRT showed a similar oxidation pathway activation (AMPK, ACC and PCG-1) to HIT; whilst HIIRT technique seems to have only some effects close to the end of exercise. No differences were found between RT groups in blood pressure and heart rate responses. In the second experimental we considered the effects of the same RT protocols during 8 weeks of training in 20 young subjects. We assessed blood and hormonal parameters, body composition, strength, VO2max and resting energy expenditure before and after the training period. HIIRT technique improved maximal strength and muscle’s endurance but didn’t affect body composition or resting metabolism. In the third experimental phase we studied HIIRT technique on the elderly. 35 old subjects took part to the study, and 23 of those, finished the program. The experimental design was 6 months long: in the first 4 months all subjects performed the same progressive RT protocol, then they were divided in TRT and HIIRT groups. We evaluated strength, body composition and blood parameters. At the end of the experiment no difference in strength improvement were found; the muscle mass showed no significant improvement in both group; anabolic hormonal blood concentration (IGF-1; GH; testosterone) decreased in both training groups while lipoprotein values appeared to improve more in HIIRT than in TRT. Finally, we compared HIIRT technique with another high intensity method called pyramidal (PYR) on muscle damage indexes in 6 bodybuilders. We assessed Creatin Kinase (CK), Total Cholesterol (CHOL TOT), Blood Lactate (LAT) and “delayed onset muscle soreness” (DOMS) after a single bout of training. Blood samples were collected at baseline, after 2 and 48 hours after training. No differences were found in CK value, while CHOL TOT significantly decreased only in HIIRT; blood lactate and DOMS were higher in PYR compared to HIIRT. These data seems to indicate that HIIRT induce greater muscle damage with less soreness perception. In conclusion, HIIRT technique might be a good solution to improve muscular strength because it is effective and it is well accepted by subjects. Anyway, it seems bee too much intense for elderly and, without a controlled diet, it could not be a good solution to improve body composition.
Negli ultimi anni sta sempre di più affermando il concetto che l’allenamento contro resistenza, o Resistance Training (RT), sia un ottimo stimolo anabolico, e che la sua pratica costante possa migliorare la composizione corporea, contrastare i rischi di patologie cardiovascolari o metaboliche. Tuttavia, la struttura del RT è molto complessa e prevede l’interazione di numerose variabili che rendono disomogenei i protocolli utilizzati in letteratura per descrivere gli effetti di questa metodica di allenamento. Per questo motivo, l’argomento su cui fa perno questa ricerca, è lo studio di una specifica metodica di RT, in cui l’intensità è stata definita come il rapporto tra il carico sollevato (%1RM) e la durata del recupero tra le serie dell’esercizio. In considerazione della frenesia che contraddistingue la vita nella società odierna, uno dei principali ostacoli alla pratica continua di esercizio fisico è la mancanza di tempo: a tale scopo sarebbe importante trovare metodiche di allenamento che possano essere efficaci e al contempo avere una breve durata. La metodica HIIRT (High Intensity Interval Resistance Training) consiste nell’eseguire 6 ripetizioni ad esaurimento con un carico pari a circa l’80% di 1RM, 20” di pausa, per poi richiedere nuovamente al soggetto di effettuare il massimo numero di ripetizioni che è in grado di sostenere con il medesimo carico, altri 20” di pausa e ancora una serie. Lo scopo di questa ricerca è comprendere gli effetti della metodica HIIRT sulla salute ed il benessere dei soggetti mediante un’analisi a 360°, che comprenda sia lo studio degli adattamenti cellulari che le risposte in termini di performance muscolare. A tale scopo il progetto di ricerca è stato suddiviso in quattro fasi. In una prima parte sperimentale abbiamo confrontato l’effetto in acuto sul signalling muscolare di tre differenti protocolli di allenamento: Resistance Training Tradizionale (TRT), High Intensity Resistance Training (HIIRT) e High Intensity Training (HIT). Le prime due tipologie rappresentano due differenti intensità di allenamento con sovraccarichi, la terza proposta è invece un esercizio di tipo aerobico. Per il progetto ho reclutato 16 soggetti i quali sono stati assegnati random ai tre differenti protocolli. Le biopsie muscolari mediante ago sottile, sono state effettuate una settimana prima di ogni allenamento, immediatamente dopo la seduta, a 6h e 24h di distanza. I soggetti sono stati inoltre monitorati durante l’allenamento per valutare la risposta pressoria e cardiaca ai differenti protocolli di RT. L’analisi del signalling ha evidenziato una preferenziale attivazione di Akt in HIIRT, mentre il gruppo TRT sembra attivare maggiormente ERK1/2, invece le proteine ribosomiali 4EBP1 e S6 hanno subito la medesima influenza. TRT e HIT attivano in modo similare le vie di ossidazione mitocondriale (AMPK, ACC e PCG-1), mentre HIIRT sembra avere solo un effetto limitato alle prime ore successive all’allenamento. Nessuna differenza significativa è stata evidenziata per la risposta pressoria o cardiaca tra le due tipologie di RT. Nella seconda fase sperimentale abbiamo considerato gli effetti degli stessi protocolli di RT effettuati per un periodo di 8 settimane. Abbiamo reclutato 20 soggetti di età compresa da 20 e 30 anni. Prima e dopo il periodo di allenamento sono state effettuate le analisi ematochimiche ed ormonali, DEXA, test di forza, VO2max, e metabolismo basale. Il protocollo HIIRT ha migliorato la forza e la resistenza muscolare ma non la composizione corporea dei soggetti ,né è riuscito ad aumentare il metabolismo basale. La terza fase sperimentale prevedeva lo studio della metodica HIIRT su una popolazione di anziani sedentari. Per il progetto ho reclutato 35 anziani di età superiore ai 60 anni, di cui 23 hanno concluso lo studio. La sperimentazione ha avuto una durata complessiva di 6 mesi. I soggetti hanno iniziato un medesimo protocollo di RT a carichi progressivi per 4 mesi e, dopo una valutazione dei risultati raggiunti, sono stati assegnati random ai due differenti protocolli (HIIRT e TRT). È stato valutato l’effetto dell’allenamento sull’espressione di forza, sulla composizione corporea e su alcuni parametri ematochimici ed ormonali. Al termine dell’esperimento abbiamo potuto confermare quanto sta già emergendo dalla letteratura, ovvero che protocolli troppo intensi di allenamento non sono la metodica più efficace in una popolazione anziana. Nello specifico abbiamo rilevato un miglioramento di forza paragonabile al protocollo a bassa intensità; non si sono apprezzate differenze di massa muscolare dall’analisi della composizione corporea mediante BIA; il profilo ormonale ha mostrato una diminuzione in entrambi i gruppi della concentrazione basale degli ormoni anabolici (IGF-1; GH; testosterone) mentre, le lipoproteine ematiche hanno risposto in maniera positiva all’allenamento HIIRT. Infine, abbiamo confrontato la metodica HIIRT ed un’altra metodica ad alta intensità, chiamata piramidale (PYR) su indici di danno muscolare. Per questo studio sono stati reclutati 6 soggetti con esperienza nel mondo del body building. La procedura sperimentale prevedeva l’analisi degli indici di danno muscolare quali Creatin Kinase (CK), Colesterolo totale (CHOL TOT) e Acido Lattico (LAT) in seguito ad una singola seduta dei due protocolli allenanti. I campioni ematici sono stati raccolti a riposo, immediatamente dopo l’esercizio, e a distanza di 2 e 48 ore. Le due tipologie di allenamento somministrate non sembrano influenzare in modo significativo i valori di CK, mentre vi è una diminuzione significativa del CHOL TOT (indice di danno muscolare) con la metodica HIIRT rispetto alla metodica PYR; vi è stato un maggior aumento del lattato con metodica PYR rispetto a quella HIIRT. La percezione della dolenzia muscolare è stata maggiore dopo PYR. Questi dati, sembrano dimostrare che, in atleti esperti, la metodica HIIRT induce un maggior danno muscolare ma una minor sensazione di fatica rispetto al PYR. In conclusione, la metodica HIIRT è una buona soluzione per aumentare la forza muscolare, ed è ben tollerata dai praticanti. Tuttavia è troppo intensa per soggetti anziani, e non efficace nel migliorare la composizione corporea se non accompagnata, probabilmente, da una dieta controllata.
APA, Harvard, Vancouver, ISO, and other styles
20

PIENNE, CYRIL. "Etude d'un calorimetre electromagnetique pour hades (high acceptance di-electron spectrometer)." Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF21851.

Full text
Abstract:
Ce memoire s'inscrit dans le cadre des collisions d'ions lourds relativistes ou les dielectrons sont choisis comme sonde de la matiere dense et chaude formee. Le dispositif experimental en cours de construction, le spectrometre hades (high acceptance di electron spectrometer), permettra d'etudier la desintegration des mesons vecteurs ,, en paires e#+e#- dans le milieu excite. L'objectif est de montrer que la restauration attendue de la symetrie chirale lors de telles collisions se manifeste par une modification des proprietes des particules, et des mesons vecteurs en particulier. De plus le programme hades s'interesse aux facteurs de forme electromagnetiques qui interviennent dans les processus de production de dileptons, test du modele de la dominance vectorielle (vdm). Dans le cas du , sa desintegration dalitz est tres mal comprise, et l'utilisation d'un calorimetre performant permettrait de soulever le voile sur ce mystere. Il pourrait d'autre part servir a la caracterisation des electrons et positrons. Nos travaux ont porte sur l'etude de deux materiaux pour ce calorimetre : le verre au plomb et le tungstate de plomb. Dans le premier cas seules des simulations ont ete effectuees et ont abouti aux conclusions suivantes : - resolution energetique : #e/e=3. 89/e+5. 2 (%) - resolution spatiale : #x#,#y=0. 14/e+0. 73 (cm) - possibilite de separation e/h,e/. - etude precise du facteur de forme du via sa desintegration dalitz. L'etude du tungstate de plomb a d'abord debute par des controles de qualite et d'homogeneite des cristaux afin de s'assurer que l'on utilisait des cristaux de proprietes similaires. Les experiences effectuees aupres du microtron mami a mayence (allemagne) avec des electrons d'energie 180, 450, et 855 mev ont permis de determiner les performances de ce materiau, jamais faites a ce jour en dessous de 500 mev. Nous avons obtenu : - resolution energetique : #e/e=2. 45/e+97 (%) - resolution spatiale : #x#,#y0. 3 cm - resolution temporelle : 141 ps a 855 mev pour t=20c
APA, Harvard, Vancouver, ISO, and other styles
21

Marra, Matteo. "Sviluppo di un modulo di acquisizione dati ad elevato throughput da amplificatori per elettrofisiologia." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8860/.

Full text
Abstract:
Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.
APA, Harvard, Vancouver, ISO, and other styles
22

Borghesi, Andrea <1988&gt. "Power-Aware Job Dispatching in High Performance Computing Systems." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amsdottorato.unibo.it/7982/1/master.pdf.

Full text
Abstract:
This works deals with the power-aware job dispatching problem in supercomputers; broadly speaking the dispatching consists of assigning finite capacity resources to a set of activities, with a special concern toward power and energy efficient solutions. We introduce novel optimization approaches to address its multiple aspects. The proposed techniques have a broad application range but are aimed at applications in the field of High Performance Computing (HPC) systems. Devising a power-aware HPC job dispatcher is a complex, where contrasting goals must be satisfied. Furthermore, the online nature of the problem request that solutions must be computed in real time respecting stringent limits. This aspect historically discouraged the usage of exact methods and favouring instead the adoption of heuristic techniques. The application of optimization approaches to the dispatching task is still an unexplored area of research and can drastically improve the performance of HPC systems. In this work we tackle the job dispatching problem on a real HPC machine, the Eurora supercomputer hosted at the Cineca research center, Bologna. We propose a Constraint Programming (CP) model that outperforms the dispatching software currently in use. An essential element to take power-aware decisions during the job dispatching phase is the possibility to estimate jobs power consumptions before their execution. To this end, we applied Machine Learning techniques to create a prediction model that was trained and tested on the Euora supercomputer, showing a great prediction accuracy. Then we finally develop a power-aware solution, considering the same target machine, and we devise different approaches to solve the dispatching problem while curtailing the power consumption of the whole system under a given threshold. We proposed a heuristic technique and a CP/heuristic hybrid method, both able to solve practical size instances and outperform the current state-of-the-art techniques.
APA, Harvard, Vancouver, ISO, and other styles
23

AUDASSO, EMILIO. "Simulation of High Temperature Fuel Cells for Carbon Capture." Doctoral thesis, Università degli studi di Genova, 2021. http://hdl.handle.net/11567/1038604.

Full text
Abstract:
The aim of this doctoral thesis is to develop and apply a kinetic model for the simulation of High Temperature Fuel Cells for energy conversion and Carbon Capture applications. In particular, the work will focus on the analysis and the modeling of a newly discovered mechanism in Molten Carbonate Fuel Cells that sees the net migration of H2O from the cathode to the anode side in competition with the usually encountered migration of CO2. This mechanism was never reported in the literature and was named "dual-anion mechanism" to underline the parallel migration of carbonate and hydroxide ions. It is important because it can greatly affect the cell’s performance in terms of both energy conversion and CO2 sequestration. The work was performed in collaboration with ExxonMobil that first observed this phenomenon during a campaign to test the use of molten carbonate fuel cells as Carbon Capture devices. The work was also done in partnership with FuelCell Energy, who through an agreement with ExxonMobil obtained all of the experimental data of this phenomenon. The analysis of the mechanism and the development of a model to simulate cells working at such conditions were conducted in a series of different steps. To start, based on experimental data, the mechanism was studied as a function of the reactant gases to understand the main dependences of the occurring phenomena. Consequently, as more data became available, additional dependences to improve the knowledge of the mechanism and the modeling were studied. In particular, the work was focused on the analysis of the effects that the diffusion resistance has on the extent on which one anionic path evolves over the other. Successively, the operating temperature and the carbonate/hydroxide equilibrium were studied and included in the model. The analysis of the experimental data also allowed to observe the effects that the gas atmosphere can have on the cell ohmic resistance as it was determined that the electrolyte melt can change based on equilibria between melt and gas phase. The developed kinetic formulation was implemented into the SIMFC code, a home-made Fortran program realized by the group PERT of the University of Genoa for the simulation of High Temperature Fuel Cells (Molten Carbonate and Solid Oxide). In this way, the model was successfully tested by simulating the experimental data. Additionally, a formulation to consider the direct internal steam reforming of CH4 on the performance of cells was also included into the SIMFC code. The formulation considers the reaction locally with dependence on catalyst loading. As such, it allows the study of the effect of catalyst distribution and degradation. This part of the thesis was developed on Solid Oxide Fuel Cells instead of Molten Carbonate. This choice was dictated by the fact that I spent a period of 8 months during the first year of the Ph.D. program at the Korea Institute of Science and Technology studying solid oxide fuel cells materials, specifically focused on the use of perovskite (a possible solid oxide fuel cells anode material) as catalysts for the CH4 reforming reaction which will be presented. The overall model developed and implemented into the SIMFC code was demonstrated to be very promising in simulating High Temperature Fuel Cells performance under a great range of operating conditions.
APA, Harvard, Vancouver, ISO, and other styles
24

Censoni, Rita. "Sintesi di polialchilmetacrilati ad alto peso molecolare." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24390/.

Full text
Abstract:
Gli Ultra High Molecular Weight Polymers (UHMWPs) presentano proprietà uniche che ne permettono l’utilizzo per applicazioni che i polimeri tradizionali non possono svolgere. In questo contesto è stata studiata la possibilità di sintetizzare polialchilmetacrilati a peso molecolare elevato mediante polimerizzazione in emulsione. In particolare, è stato valutato l’effetto della quantità di iniziatore e di tensioattivo impiegati sul peso molecolare medio del materiale finale.
APA, Harvard, Vancouver, ISO, and other styles
25

BONACCI, MIKI. "Automatizzazione di un'accurata descrizione delle funzioni di risposta nei sistemi a bassa dimensionalità tramite teoria delle perturbazioni dei sistemi a molti corpi." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1289906.

Full text
Abstract:
Nella scienza dei materiali, la combinazione di simulazioni teoriche con tecniche High-throughput(HT) sta guadagnando maggiore attenzione, in quanto può accelerare la ricerca e la scoperta di nuovi materiali con le proprietà desiderate. Nell'ultimo decennio, i metodi HT sono stati applicati principalmente alla density functional theory (DFT) con grande successo. Tuttavia, la DFT manca di accuratezza quando si tratta di eccitazioni e spettroscopie, come ad esempio nella previsione delle proprietà delle quasiparticelle (esperimenti ARPES) o degli spettri di assorbimento ed electron energy loss(EELS), dove è necessaria una descrizione accurata degli effetti eccitonici. In questa tesi vogliamo combinare la potenza dello screening HT con l'accuratezza della many-body-perturbation-theory (MBPT) per studiare le proprietà elettroniche e ottiche di sistemi a bassa dimensionalità. In particolare, adottiamo l'approssimazione GW per studiare la struttura elettronica delle bande, e l'equazione di Bethe-Salpeter per calcolare gli spettri ottici. La prima parte del lavoro è stata dedicata allo sviluppo di una serie di workflow per eseguire studi di convergenza automatizzati dei principali parametri computazionali che entrano nei calcoli MBPT. Essendo i test di convergenza in MBPT di fondamentale importanza per ottenere risultati significativi, rappresentando anche la parte che richiede più tempo umano nei calcoli GW/BSE, questo passaggio è stato essenziale nello sforzo di unire MBPT con gli schemi HT. I workflow sopra menzionati sono stati prima validati su sistemi ben noti come hBN o TiO2, e poi applicati per studiare gli effetti eccitonici in C3N, un sistema 2D recentemente realizzato. Il C3N è un semiconduttore a gap indiretto 2D emergente con interessanti proprietà meccaniche, termiche ed elettroniche. In questa tesi abbiamo eseguito una descrizione completa delle proprietà elettroniche e dielettriche di C3N, concentrandoci sulla struttura a bande eccitonica. Come per altri materiali 2D, troviamo una dispersione eccitonica lineare non analitica prossima a q=0, che però mostra una convessità verso il basso legata alla natura indiretta del band gap. Successivamente, questi workflow sono stati utilizzati per studiare l'accuratezza della Godby-Needs plasmon-pole approximation (GN-PPA) implementata nel codice Yambo sul set GW100, un set di 100 molecole utilizzate per confrontare i principali codici MBPT mediante G0W0. Per tutte le molecole abbiamo calcolato il potenziale di ionizzazione (IP) e l'affinità elettronica (EA) e confrontato i risultati con gli altri codici MBPT con i dati GW100 disponibili. I risultati di questo studio ci hanno permesso di concludere che lo schema GN-PPA supera altre approssimazioni comunemente usate, come il modello Hybertsen-Louie, e fornisce risultati in un accordo ragionevole con implementazione più sofisticate del GW come full-frequency e contour-deformation. Recentemente, il gruppo EPFL-THEOS (Lausanne, CH), guidato dal Prof. Nicola Marzari, ha eseguito una HT computational exfoliation di composti 3D sperimentalmente conosciuti, scoprendo più di 1800 materiali 2D esfoliabili. La parte finale di questa tesi è dedicata allo studio delle proprietà elettroniche e ottiche di un sottoinsieme di questi sistemi, al fine di identificare possibilmente materiali candidati che possano realizzare la tanto ricercata fase di isolante eccitonico (EI). La fase EI è una fase correlata della materia, proposta più di 50 anni fa da L. Keldysh, W. Kohn, in cui lo stato fondamentale di un sistema, al di sotto di una temperatura critica, è formato da un condensato di eccitoni di Bose. Per fare previsioni sulle possibili instabilità eccitoniche nello stato fondamentale, sono indispensabili una stima molto accurata del band gap elettronico e delle energie di legame eccitoniche, e workflow per automatizzare calcoli MBPT costituiscono uno strumento estremamente efficace per questa ricerca.
In materials science, the combination of theoretical simulations with high-throughput (HT) techniques is gaining larger attention, as it can speed up the search and discovery of novel materials expressing desired properties. In the last decade, HT methods have been mostly applied to density functional theory (DFT) demonstrating great success. Nevertheless, DFT lacks of predictive accuracy when dealing with excitations and spectroscopies, as for instance in the prediction of quasiparticle properties (ARPES experiments), or absorption and electron energy loss spectra (EELS) where an accurate description of the excitonic effects is needed. In this Thesis we want to combine the power of HT screening with the accuracy of many-body perturbation theory (MBPT) to study the electronic and optical properties of low-dimensional systems. In particular, we adopt the GW approximation to study the electronic band structure and the Bethe-Salpeter equation to compute optical spectra. The first part of the work has been devoted to developing a set of workflows to perform automated convergence studies of the main computational parameters entering in MBPT calculations. Being convergence tests in MBPT of paramount importance to obtain meaningful results, also representing the most human time-consuming part of a GW/BSE calculation, this step has been essential in the effort of joining MBPT with HT schemes. The above mentioned workflow was first validated on well-known systems like hBN or TiO2, and then applied to study excitonic effects in C3N, a recently synthesized 2D system. Monolayer C3N is an emerging 2D indirect gap semiconductor with interesting mechanical, thermal, and electronic properties. In this thesis we have performed a complete description of C3N electronic and dielectric properties, focusing on the momentum-resolved excitonic band structure. As for other 2D materials, we find a linear non-analytic excitonic dispersion close to q=0, which however shows a downward convexity related to the indirect nature of the band gap. Next, these workflows were used to study the accuracy of the Godby-Needs plasmon-pole approximation (GN-PPA) implemented in the Yambo code on the GW100 set, a set of 100 molecules used to benchmark the main MBPT codes by means of G0W0 approximation. For all the molecules we computed converged ionization potential (IP) and electron affinity (EA), and compared the results with the other MBPT codes with available GW100 data. The results of this study allowed us to conclude that the GN-PPA scheme outperforms other commonly used approximations such as the Hybertsen-Louie plasmon pole model, and provides results in a reasonable agreement with more sophisticated implementation of GW as the full-frequency and contour deformation methods. Recently, the EPFL-THEOS (Lausanne, CH) group, led by Prof. Nicola Marzari, performed a HT computational exfoliation of experimentally known 3D compounds, discovering more than 1800 exfoliable layered materials. The final part of this Thesis is dedicated to the investigation of the electronic and optical properties of a subset of these recently discovered 2D systems, in order to possibly identify candidate materials that can realize the long sought excitonic insulator (EI) phase.The EI phase is a correlated phase of matter, proposed more than 50 years ago by L. Keldysh, W. Kohn, in which the ground state of a system, below a critical temperature, is formed by a Bose condensate of excitons. To make prediction on the possibile excitonic instabilities in the ground state, very accurate estimation of the electronic band gap and excitonic binding energies are indispensable and workflows capable of making automatic calculations based on MBPT constitute an extremely effective tool for this research.
APA, Harvard, Vancouver, ISO, and other styles
26

Hushi, Bajram. "Sviluppo di un modulo di visualizzazione, memorizzazione e analisi dati in real-time con elevato parallelismo." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9257/.

Full text
Abstract:
Progettazione e implementazione dei moduli di visualizzazione, memorizzazione e analisi di un sistema software di acquisizione dati in real-time da dispositivi prodotti da Elements s.r.l. La tesi mostra tutte le fasi di analisi, progettazione, implementazione e testing dei moduli sviluppati.
APA, Harvard, Vancouver, ISO, and other styles
27

Nigro, Michele. "Progettazione di un cluster sul cloud con il framework HPC." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20316/.

Full text
Abstract:
Nell'ambito del calcolo distribuito, Microsoft HPC Pack offre un importante strumento per la gestione delle risorse computazionali in maniera efficiente orchestrando lo scheduling delle unità di lavoro all’interno dell’infrastruttura. HPC supporta nativamente l’integrazione sul cloud di Microsoft Azure tramite strategie di networking e virtualizzazione ben definite. Dopo una breve presentazione di Prometeia, presso cui il progetto ha avuto luogo, sono presentate nel dettaglio le tecnologie Microsoft utilizzate nel percorso. Segue una presentazione del progetto, che si compone di due passi: il primo consiste nella realizzazione dell’infrastruttura applicativa e HPC sul cloud Azure tramite template automatizzato (realizzazione di macchine virtuali, rete virtuale, installazione dei servizi e di HPC); il secondo passo è la realizzazione di un’applicazione che consenta, in base alle esigenze dell’utente, di creare ed eliminare risorse di calcolo dall’infrastruttura tramite comandi appositamente implementati. Questa soluzione apporta vantaggi di tempo ed economici sia rispetto agli scenari on-premise, in quanto non è più richiesto l’acquisto, la manutenzione e l’aggiornamento di server fisici, sia rispetto a soluzioni cloud più statiche, in cui la presenza di risorse di calcolo inattive per lunghi periodi di tempo producono costi molto più elevati. La parte finale dell’elaborato si concentra sull’analisi dei vantaggi economici che la soluzione presentata apporta, mostrando nel dettaglio le differenze tra i costi delle varie soluzioni offerte da Azure.
APA, Harvard, Vancouver, ISO, and other styles
28

BORTOLINI, CRISTIAN. "Caratterizzazione della diversità microbica in fave di cacao fermentate." Doctoral thesis, Università Cattolica del Sacro Cuore, 2017. http://hdl.handle.net/10280/19074.

Full text
Abstract:
La qualità delle fave di cacao disponibili in commercio, che rappresentano la principale materia prima per la produzione di cioccolato, dipende da diversi fattori inclusi: il tipo di piantagione, le pratiche agricole ed il processo di post raccolta. Tra queste; fermentazione ed essicazzione sono generalmente considerate le più rilevanti, dal momento in cui, durante queste fasi, vengono formati e fissati i precursori degli aromi del cacao. Inoltre, esse rappresentano un step cruciale durante il quale possono verificarsi contaminazioni da parte dei funghi filamentosi. La fermentazione è caratterizzata da una successione ben definita di lieviti, batteri lattici e batteri acetici, a tal fine, lo scopo del presente lavoro di tesi è stato quello di esplorare e descrivere in modo completo le comunità batteriche e fungine coinvolte nella fermentazione delle fave di cacao e valutare se l’origine geografica ed il metodo di fermentazione potessero influenzare la loro composizione. Per ottenere tali risultati il gene 16s rRNA è stato usato come marker per descrivere la comunità batterica totale mediante High Throughput Sequencing (HTS), dimostrando come tale approccio abbia la capacità di evidenziare la totalità delle comunità batteriche a livello di specie. In un secondo approccio l’Internal Transcribed Spacer 1 (ITS1) ed il dominio D1/D2 della sub unità maggiore dell’RNA ribosomiale (26s rRNA) sono stati selezionati per descrivere la popolazione fungina. I risultati hanno evidenziato come le due regioni abbiano la capacità di descrivere la composizione generale delle popolazioni, sebbene il dominio D1/D2 sia stato in grado di analizzare più nel dettaglio la composizione. Infine gli stessi campioni sottoposti all’analisi mediante HTS sono stati analizzati mediante SPME-GC-MS per evidenziare i principali composti aromatici formatisi durante il processo di post raccolta. Complessivamente i risultati indicano chiaramente che l’approccio mediante HTS ha le potenzialità per fornire una dettagliata visione d’insieme delle comunità batteriche e fungine presenti durante le fasi di post raccolta delle fave di cacao, inoltre le analisi statistiche hanno evidenziato come l’ITS1 ed i composti volatili possano essere utilizzati per la tracciabilità geografica.
The quality of commercial cocoa beans, the principal raw material for chocolate production, depends on several factors including type of plantations, the agricultural practices and the post-harvest processing. Among these, fermentation and drying are generally considered the most relevant, since during these phases cocoa flavors precursors are formed and fixed. Furthermore, they represent crucial steps during which filamentous fungi contamination might occur. Fermentation is characterized by a well-defined succession of yeasts, lactic acid bacteria and acetic acid bacteria, so that, the aim of the described studies was to explore total bacterial and fungal communities involved in cocoa bean fermentation and to evaluate if geographical origin and fermentation method might affect their composition. To achieve these results, 16s rRNA gene was used as marker to assess the total bacterial community by using High Throughput Sequencing (HTS), indicating that this approach has the ability to provide a comprehensive view of the cocoa bean microbiota at the species level. In a second approach, Internal Transcribed Spacer 1 (ITS1) and the D1/D2 domain of the Large subunit (LSU) of the nuclear ribosomal RNA (26S rRNA) were screened to assess the total fungal community. Results revealed the ability of these two genomic regions to describe reliably the general composition, even if D1/D2domain was able to go deeper into the fungal composition resulting in a higher resolution. In the last approach the same samples subjected to HTS investigation were analyzed through SPME-GC-MS in order to underline the principal key-aroma compounds formed during the post-harvest processing. Overall, results point out clearly that HTS approach has the ability to provide a comprehensive view of the total bacterial and fungal communities, and statistical analyses have shown how analyses of ITS1 sequences and volatile compounds might be useful for the geographical traceability of the processed cocoa beans samples.
APA, Harvard, Vancouver, ISO, and other styles
29

BORTOLINI, CRISTIAN. "Caratterizzazione della diversità microbica in fave di cacao fermentate." Doctoral thesis, Università Cattolica del Sacro Cuore, 2017. http://hdl.handle.net/10280/19074.

Full text
Abstract:
La qualità delle fave di cacao disponibili in commercio, che rappresentano la principale materia prima per la produzione di cioccolato, dipende da diversi fattori inclusi: il tipo di piantagione, le pratiche agricole ed il processo di post raccolta. Tra queste; fermentazione ed essicazzione sono generalmente considerate le più rilevanti, dal momento in cui, durante queste fasi, vengono formati e fissati i precursori degli aromi del cacao. Inoltre, esse rappresentano un step cruciale durante il quale possono verificarsi contaminazioni da parte dei funghi filamentosi. La fermentazione è caratterizzata da una successione ben definita di lieviti, batteri lattici e batteri acetici, a tal fine, lo scopo del presente lavoro di tesi è stato quello di esplorare e descrivere in modo completo le comunità batteriche e fungine coinvolte nella fermentazione delle fave di cacao e valutare se l’origine geografica ed il metodo di fermentazione potessero influenzare la loro composizione. Per ottenere tali risultati il gene 16s rRNA è stato usato come marker per descrivere la comunità batterica totale mediante High Throughput Sequencing (HTS), dimostrando come tale approccio abbia la capacità di evidenziare la totalità delle comunità batteriche a livello di specie. In un secondo approccio l’Internal Transcribed Spacer 1 (ITS1) ed il dominio D1/D2 della sub unità maggiore dell’RNA ribosomiale (26s rRNA) sono stati selezionati per descrivere la popolazione fungina. I risultati hanno evidenziato come le due regioni abbiano la capacità di descrivere la composizione generale delle popolazioni, sebbene il dominio D1/D2 sia stato in grado di analizzare più nel dettaglio la composizione. Infine gli stessi campioni sottoposti all’analisi mediante HTS sono stati analizzati mediante SPME-GC-MS per evidenziare i principali composti aromatici formatisi durante il processo di post raccolta. Complessivamente i risultati indicano chiaramente che l’approccio mediante HTS ha le potenzialità per fornire una dettagliata visione d’insieme delle comunità batteriche e fungine presenti durante le fasi di post raccolta delle fave di cacao, inoltre le analisi statistiche hanno evidenziato come l’ITS1 ed i composti volatili possano essere utilizzati per la tracciabilità geografica.
The quality of commercial cocoa beans, the principal raw material for chocolate production, depends on several factors including type of plantations, the agricultural practices and the post-harvest processing. Among these, fermentation and drying are generally considered the most relevant, since during these phases cocoa flavors precursors are formed and fixed. Furthermore, they represent crucial steps during which filamentous fungi contamination might occur. Fermentation is characterized by a well-defined succession of yeasts, lactic acid bacteria and acetic acid bacteria, so that, the aim of the described studies was to explore total bacterial and fungal communities involved in cocoa bean fermentation and to evaluate if geographical origin and fermentation method might affect their composition. To achieve these results, 16s rRNA gene was used as marker to assess the total bacterial community by using High Throughput Sequencing (HTS), indicating that this approach has the ability to provide a comprehensive view of the cocoa bean microbiota at the species level. In a second approach, Internal Transcribed Spacer 1 (ITS1) and the D1/D2 domain of the Large subunit (LSU) of the nuclear ribosomal RNA (26S rRNA) were screened to assess the total fungal community. Results revealed the ability of these two genomic regions to describe reliably the general composition, even if D1/D2domain was able to go deeper into the fungal composition resulting in a higher resolution. In the last approach the same samples subjected to HTS investigation were analyzed through SPME-GC-MS in order to underline the principal key-aroma compounds formed during the post-harvest processing. Overall, results point out clearly that HTS approach has the ability to provide a comprehensive view of the total bacterial and fungal communities, and statistical analyses have shown how analyses of ITS1 sequences and volatile compounds might be useful for the geographical traceability of the processed cocoa beans samples.
APA, Harvard, Vancouver, ISO, and other styles
30

Bellomo, Alessandra <1992&gt. "Hannibal Lecter nell'era della convergenza: da fenomeno di genere a narrazione high concept." Master's Degree Thesis, Università Ca' Foscari Venezia, 2016. http://hdl.handle.net/10579/8728.

Full text
Abstract:
Il personaggio di Hannibal Lecter nasce nell'ambito di un romanzo di genere. Nel tempo, si è evoluto attraverso le successive trasposizioni cinematografiche e,recentemente, con la produzione di una serie tv, nell'elemento centrale di un franchise. Da fenomeno singolo, si è arrivati alla creazione di un universo diegetico e multimediale.
APA, Harvard, Vancouver, ISO, and other styles
31

LEOGRANDE, MARCO. "High Speed and Flexible Network Processing." Doctoral thesis, Politecnico di Torino, 2014. http://hdl.handle.net/11583/2542314.

Full text
Abstract:
Packet filter technologies are facing new issues every day, as we had to re-engineer our computer networks in order to accommodate many new use cases. For instance, low-level network protocols are growing in number: new solutions, arising in particular for the purpose of network virtualization (e.g., 802QinQ, VXLAN), are rapidly transforming the Ethernet frames. The middle layers of the protocol stack are facing a similar metamorphosis: examples include the widespread adoption of Virtual Private Networks, or the necessity to transport IPv6 traffic over IPv4 networks. Packet filters are dramatically affected by those changes, as they become more complicated: it is important to be able to capture all the traffic we are interested in (e.g., web traffic), independently from the actual encapsulation used at lower layers. For this reason, the scientific research should embrace these new issues by proposing improvements over the traditional technologies, with the goal of maintaining the standards of efficiency of flexibility that we are used to. This dissertation addresses two specific issues: 1. How to preserve packet filter flexibility when specifying packet matching rules. We need a solution that allows a finer specification of matching rules, but that is also independent (if desired) on the specific encapsulation used at lower levels; moreover, the solution should support protocol definitions specified at run-time. Part I addresses the problem and describes in detail the proposed solution: NetPFL, a declarative language targeted to data-plane packet processing. 2. How to achieve efficiency when representing and combining multiple packet filters, even in case of bizarre and unusual network encapsulations. Part II outlines the issue and proposes two solutions: pFSA (described in Chapter 2) and its extension, xpFSA (delineated in Chapter 3).
APA, Harvard, Vancouver, ISO, and other styles
32

STRAZZERI, ELISABETTA. "Energy calibration and ultra-high energy cosmic ray spectrum at the Southern Pierre Auger Observatory." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2008. http://hdl.handle.net/2108/411.

Full text
Abstract:
Viene presentato un metodo empirico per stimare lo spettro dei raggi cosmici con angoli di zenith delle direzioni di arrivo ζ < 60° e energie E > 3 EeV. Sono stati utilizzati dati rivelati dall' Osservatorio Pierre Auger Sud, da Gennaio 2004 fino alla fine di Agosto 2007. L' Osservatorio Auger è un rivelatore ibrido che osserva le particelle degli sciami atmosferici, tramite 1600 rivelatori di particelle disposti al suolo secondo uno schema geometrico (Rivelatore di Superficie), e la luce di fluorescenza associata, tramite 24 telescopi ottici (Rivelatore di Fluorescenza) che guardano dall' alto il Rivelatore di Superficie. La curva di attenuazione, che permette la conversione dalla " dimensione dello sciame" Sζ(1000) al "parametro dipendente dall' energia" S38°, è ottenuta, insieme con la calibrazione in energia del Rivelatore di Superficie, da misure calorimetriche del Rivelatore di Fuorescenza, indipendentemente da qualsiasi modello, con la conseguente conversione del segnale S38° all'energia primaria E, utilizzando eventi golden di alta qualità. Una relazione lineare tra logE and logS38° descrive gli eventi golden, con energie maggiori di 3 EeV. Specificatamente, per ogni segnale ricostruito Sζ(1000), l' energia primaria E è ricavata alla relazione , x â ¡ (cosζ)2 â (cos38°)2 Lo spettro d' energia è ottenuto dai dati del Rivelatore di Superficie, dato che la sua accettanza assoluta, per E > 3 EeV, non dipende dall' energia e il suo valore è puramente geometrico. L' esposizione " pulita" del Rivelatore di Superficie corrispondente all'intervallo di tempo che è stato utilizzato nella misura dello spettro, eliminando i " cattivi" periodi, è stata 7000 (km2 yr sr) con un'accuratezza del 1%. Per assicurare dati di qualità eccellente, i periodi affetti da fulmini e problemi di hardware sono stati eliminate. I risultati mostrano una evidente soppressione di eventi con E > 50 EeV, che suggerisce lâ 'effetto del taglio GZK. A partire da 3 EeV fino a 125 EeV, lo spettro d'energia può essere descritto da una " legge di potenza" con " indice spettrale variabile" dato da Ð (E) = 2.77 + 0.23 ε â ¡ Le incertezze statistica e sistematica nella scala d' energia sono dell' ordine del 6% e 22%, rispettivamente. Il flusso integrato d' energia per steradiante è (1.22 ± 0.06sta ± 0.27sys) (kmâ 2 yrâ 1) sopra 3 EeV e (15.13 ± 0.79sta ± 3.31sys) (kmâ 2 secoloâ 1) sopra 10 EeV.
An empirical method to estimate the spectrum of cosmic rays with zenith angles of arrival direction ζ < 60° and energies E > 3 EeV is presented. The recorded data at the Southern Pierre Auger Observatory from January 2004 up to the end of August 2007 have been used. The Auger Observatory is a hybrid detector, which observes the air shower particles at a ground array of 1600 particle detectors (the Surface Detector) and the associated fluorescence light at 24 optical telescopes (the Fluorescence Detector) that overlook the surface array. To extract the attenuation curve, which allows the conversion from the shower size Sζ(1000) to the energy parameter S38°, and to obtain the model-independent energy calibration of the SD from FD calorimetric measurements, which follows the conversion from the signal S38° to the primary energy E, high quality golden events are used. An exact linear relation between logE and logS38° describes the golden data with energies above 3 EeV. Specifically, for any reconstructed signal Sζ(1000), the primary energy E is determined from the relation , x â ¡ (cosζ)2 â (cos38°)2 The energy spectrum is obtained from SD data, since the SD absolute acceptance for E > 3 EeV does not depend on energy and its calculation is purely geometrical. The â cleanâ SD exposure for the time interval, which has been used in the measure of the spectrum, rejecting the â badâ periods is 7000 (km2 yr sr) with an accuracy of 1%. To ensure an excellent data quality, the periods that have been affected by lightning and hardware difficulties are removed. The observed results show an evident suppression of the events above 50 EeV, which suggests a GZK cut-off scenario. From 3 EeV up to 125 EeV the energy spectrum can be described by a power-law form with a â variable spectral indexâ given by Ð (E) = 2.77 + 0.23 ε â ¡ The statistical and systematic uncertainties in the energy scale are of the order of 6% and 22%, respectively. The integrated CR energy flux per steradian (derived from SD data using showers with ζ < 60°) is (1.22 ± 0.06sta ± 0.27sys) (kmâ 2 yrâ 1) above 3 EeV, and (15.13 ± 0.79sta ± 3.31sys) (kmâ 2 centuryâ 1) above 10 EeV.
APA, Harvard, Vancouver, ISO, and other styles
33

Poggi, Giovanni. "Implementazione CUDA su GPU di un algoritmo sort-based per la distribuzione efficiente di dati in simulazioni distribuite." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24988/.

Full text
Abstract:
L'obiettivo di questa tesi è quello di elaborare, descrivere ed analizzare un algoritmo che risolva un problema di sort matching all'interno di una simulazione, utilizzando una GPU su architettura CUDA. Dopo questa breve introduzione, nel secondo capitolo si svolgerà un'introduzione rispetto all'argomento principale, con cenni al Data Distribution Management. Si introdurrà l'High Level Architecture, di cui si da una definizione e quindi una descrizione di massima, dando particolare attenzione alla sua struttura. Si prosegue con l'analisi dettagliata del servizio di DDM, la sua funzione e i principi chiave a cui deve attenersi. Nel terzo capitolo si effettua l'introduzione al matching, spiegando nel dettaglio di cosa si occupa questa operazione e le differenze sostanziali tra extent, region, update e subscription. Dopo un breve cenno al routing space si presentano alcuni degli algoritmi più diffusi ed impiegati nello svolgimento operativo dei servizi di DDM. Ponendo forte accento sugli algoritmi Brute-Force Parallel, Grid-Based Parallel e l'algoritmo preso in esame, il Sort-Based Parallel, aggiungendo qualche cenno sulla parallelizzazione con CUDA. Il quarto capitolo è dedicato all'ottimizzazione dell'algoritmo sort-based utilizzando l'architettura CUDA. Dopo una breve introduzione alla GPU e CUDA, si presentano tutte le modifiche sostanziali effettuate al Sort-Based. Si prosegue con l'adattamento realizzato dell'algoritmo su GPU ed i dettagli implementativi. Nel quinto capitolo si analizzano le prestazioni ottenute durante l'esecuzione dell'algoritmo utilizzato. Si descrivono i criteri di valutazione che hanno permesso di comprendere l'ottenimento del goal iniziale e si presentano i risultati ottenuti, descrivendo le rappresentazioni grafiche corredate dalle relative tabelle numeriche per una più corretta comprensione. Seguono le conclusioni con una riflessione e discussione dei risultati, corredati dai possibili sviluppi futuri dell'applicazione in oggetto alla tesi.
APA, Harvard, Vancouver, ISO, and other styles
34

Malerba, Diego Leonardo. "Failure Consequence Modelling of High Pressure Hydrocarbon Transmission Pipeline." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
In the present century, one of the challenges of the energy industry is the integrity and security of pipeline systems, that constitute the most efficient and safest means of transportation for oil and gas hydrocarbons. To pursue this goal, owing to the complex nature of interacting process governing the discharge rate, the use of a rigorous CFD model is an essential pre-requisite for producing reliable pipeline failure consequence data. For this reason, the Department of Chemical Engineering of The University College London (UCL) has developed a commercial software called PipeTech, which has been thought for predicting the outflow as well as the variation with space and time of the physical effects relative to all possible final scenarios following the release (i.e jet fire, pool fire, fireball, explosions) which can occur after a rupture along a pipe. Over the years, several updating have been conducted on the computer software PipeTech, with the aim to improve its reliability. Nowadays, 84 versions of this software exist. This work is focused on the investigation about the last two subsequent versions of PipeTech (V83 and V84), in order to understand which of these is the most reliable in predicting the outflow data following a rupture at the end of a long Pipeline (FBR/orifice). In particular, this aim will be pursued by a systematic in-depth investigation about the release models used in the last two versions of this software and by using some experimental data. In the second part of this work, the most reliable version of PipeTech will be identified and used to make a full validation of the jet fire model employed in such software. In order to achieve this purpose, some experimental data as well as the commercial software Phast (V8.0) were applied.
APA, Harvard, Vancouver, ISO, and other styles
35

SINGH, AKASH. "Mechanical Design and Thermal Management of a High-Performance Robotic Actuator." Doctoral thesis, Università degli studi di Genova, 2022. http://hdl.handle.net/11567/1084221.

Full text
Abstract:
New robotic applications in unstructured environments require fast motions in high torque operations, along with the ability to manage dynamic physical interactions. Classic robotic actuators with high reduction gearing cannot attain this level of performance. This dissertation proposes a Quasi Direct Drive actuator designed expressly for use in our novel hybrid legged-wheeled robot, which takes advantage of minimal reduction gearing to deliver over 26,Nm continuous torque while operating at speeds exceeding 37 rad/s. As a result of these qualities, the designed actuation unit has a high dynamic performance and can respond quickly to disturbances caused by unanticipated physical contact. The design and selection of gearing components were carried out to employ commercial items with minimum customization while resulting in a fairly uniform shape. A single-level planetary gearbox is devised for the reduction unit to ensure high back-drivability and transparency of the actuator, thereby making the actuator safe against external impacts while allowing for accurate torque control using motor current measurement. Given the radial space required for the gearbox dealing with the torque requirements, the actuator motor was chosen to be small in height (pancake type), which ensures high torque density within smaller dimensions at high-speed operation. The mechanical design of the actuator is detailed in this thesis, and the actuator specifications are compared with similar state-of-the-art actuators. Furthermore, the thesis describes the actuator's mechanical model and impedance replication in order to support its use in robotic joints. As the second contribution of this work, we propose a thermal control scheme to enhance the motor capability in operating at peak torque while ensuring that the thermal limits of the robotic actuators are respected. This permits extending the duration of high torque operating points while still respecting the thermal constraints. We propound regulating the maximum current flow based on the motor temperature. We also evaluate the effect of forced cooling of the stator on the actuator's performance in terms of steady-state current values and time for peak current operation. Finally, we assess the use of this actuator in a newly proposed hybrid legged-wheeled robot that we designed for high payload and high-speed applications on the ground and uneven terrains. We go into the intricacies of both the actuator and robot designs, and we show how we can design a robot that can use the stated actuator to meet the requirements of both high-speed wheel joints and high torque leg joints with minimal customization, complication, or articulation.
APA, Harvard, Vancouver, ISO, and other styles
36

Zammitti, Salvina. "Post-translational modifications of high mobility group a (HMGA) proteins in neoplastic transformation." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3614.

Full text
Abstract:
2008/2009
Le proteine HMG (High Mobility Group) sono la famiglia più ampiamente e meglio caratterizata fra le proteine cromosomiche non istoniche. Esse sono raggruppate in tre sottofamiglie: HMGA, HMGB ed HMGN. Ciascuna sottofamiglia è caraterizzata da una sequenza o motivo funzionale attraverso il quale sono capaci di legarsi a specifiche strutture sul DNA o sulla cromatina. La famiglia HMGA di mammifero consiste di due geni funzionali: HMGA1 and HMGA2. Lo splicing alternativo del trascritto del gene HMGA1 dà origine alle proteine HMGA1a ed HMGA1b. La proteina HMGA2 è codificata dall’altro gene. Le proteine HMGA partecipano a specifiche interazioni proteina-DNA e proteina-proteina inducendo sia cambiamenti strutturali della cromatina che la formazione di complessi macromolecolari su regioni promotrici//enhancer di diversi geni. Pertanto esse sono descritte come fattori archietturali della trascrizione. Grazie alla loro multifunzionalità, ese partecipano a diversi processi biologici quali l’integrazione virale, l’embriogenesi e la differenziazione, l’apoptosi, la senescenza, la trasformazione neoplastica ed il riparo del DNA. La caratteristica di proteine oncofetali attribuita alle HMGA prende origine dal fatto che esse sono (i) altamente espresse durante l’embriogenesi, (ii) assenti o espresse a bassi livelli nei tessuti adulti e (iii) altamente riespresse nelle cellule trasformate. Queste proteine sono, tra le proteine nucleari, quelle più soggette a modificazioni post-traduzionali e le loro attività sono modulate da una ampia varietà di modificazioni post-traduzionali. In questo lavoro di tesi, grazie all’uso di linee cellulari di cancro mammario in cui è stata indotta la reversione del fenotipo neoplastico tramite trattamento farmacologico e successive analisi di spettrometria di massa, si è ricercata una connessione tra le modificazioni post-traduzionali delle HMGA ed il processo di trasformazione neoplastica. Inoltre, grazie ad una nuova strategia in vitro sviluppata nel nostro laboratorio per l’identificazione di partner molecolari delle proteine HMGA, si è dimostrato che la proteina HMGA1a si associa con la proteina Ku70, che è un fattore chiave coinvolto nel riparo delle rotture al doppio filamento di DNA attraverso il “non-homologous end joining”. Numerose evidenze sperimentali suggeriscono che l’inibizione del riparo del DNA da parte delle HMGA posa contribuire alle instabilità genetiche e cromosomiche comunemente ritrovate nelle celle cancerose. Perciò, si è ricercata una relazione funzionale tra le proteine HMGA e le proteine chiave nel meccanismo di riparo del DNA attraverso “non-homologous end joining”, focalizzando l’attenzione in particolare sulla proteina DNA-PK (DNA-dependent protein kinase), che ha una funzione regolatrice chiave in questo processo.
XXII Ciclo
1973
APA, Harvard, Vancouver, ISO, and other styles
37

Avanzi, Elisabetta. "Antropologia ed organizzazione delle imprese creative dell'ICT - Analisi della nascita, ascesa e suicidio organizzativo di un micro-distretto di aziende di comunicazione multimediale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4958/.

Full text
Abstract:
Analisi "dall'interno" del settore della comunicazione multimediale, attraverso l'analisi di un caso aziendale complesso vissuto in prima persona dall'autrice. Il caso tratta di un micro-distretto di aziende della Grafica, del Web e del Multimedia nel suo ciclo di vita dal 1998 al 2003, analizzando le mutazioni del comportamento organizzativo nelle sue differenti fasi di nascita, ascesa e declino. L'obiettivo è quello di identificare i comportamenti organizzativi favorevoli e contrari alla sopravvivenza nel settore, fornendo indicazioni per un corretto comportamento manageriale in un ambito creativo relativo ad una rete di imprese co-specializzate.
APA, Harvard, Vancouver, ISO, and other styles
38

FICHERA, CLAUDIO. "High Strain-Rate and Temperature Behaviour of Metals: Advanced Testing and Modelling." Doctoral thesis, Politecnico di Torino, 2015. http://hdl.handle.net/11583/2598772.

Full text
Abstract:
The purpose of the thesis was the prediction of the dynamic behaviour of metals. In order to investigate the mechanical response of metals in dynamic conditions, different experimental techniques were developed and used. The experimental data were analyzed through different procedures with the aim to provide consistent methodologies suited to extract sets of model parameters usable in the commercial FE codes.
APA, Harvard, Vancouver, ISO, and other styles
39

PIGA, DANIELE. "FROM HIGH-PRESSURE TO IN-SITU POLYMERIZATION: DESIGN AND SYNTHESIS, NEW CHALLENGING OF POROUS MATERIALS." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2019. http://hdl.handle.net/10281/241207.

Full text
Abstract:
Il lavoro si è diviso in due parti. La prima parte è stato uno studio sulle capacità di adsorbimento di gas dei materiali porosi, in particolare sulla capacità di sistemi porosi organici nello stoccaggio di metano. Il lavoro si è basato su uno studio sistematico di una serie di materiali porosi organici, delle capacità di stoccaggio di metano ad alta pressione. I materiali sintetizzati sono stati confrontati con alcuni materiali porosi commerciali con alte prestazioni nello stoccaggio e hanno evidenziato un aumento delle quantità di gas possibilmente trasportabile al loro interno. I materiali sono stati confrontanti anche con i metodi comunemente usati per il trasporto di metano, risultando dei potenziali candidati per tale applicazione, considerando la facilità di produzione e la stabilità sia termica che chimica. Un'altra serie di materiali porosi con leggere modifiche alla struttura principale, ha dimostrato invece, la possibilità di modificare l'interazione del materiale con i differenti gas andando a ottenere dei composti con leggere modifiche strutturali ma con interazioni fisiche differenti. In una seconda parte mi sono concentrato sull'utilizzo dei pori di questi materiali come reattori per polimerizzazioni confinate. Il lavoro ha portato allo sviluppo per la prima volta della polimerizzazione anionica all'interno di tali materiali. Questa nuova e innovativa tecnica ha permesso di produrre polimeri con tatticità distinta e catene isolate. Successivamente, si è deciso di ancorare chimicamente il materiale poroso al polimero in crescita. Questo ha portato a polimeri con strutture diverse da quelle ottenibili con le classiche polimerizzazioni e allo sviluppo di un nuovo tipo di composito completamente carbonioso e chimicamente legato che impedisce il problema dello smiscelamento. Successivamente, l'utilizzo di materiali con pori monodimensionali, ha portato allo sviluppo di poliacrilonitrile all'interno dei canali del materiale. Il poliacrilonitrile successivamente è stato convertito attraverso trattamenti termici in fibra di carbonio, all'interno del materiale poroso. Il trattamento termico del poliacrilonitrile all'interno dei pori ha portato ad una struttura con meno difetti rispetto al trattamento in bulk, la miglior struttura, per successivi trattamenti termici porterà ad una fibra di carbonio con caratteristiche meccaniche migliori di quelle di una sintesi in bulk.
The work was divided into two parts. The first part was a study on the gas adsorption capacity of porous materials, in particular on the capacity of porous organic systems in methane storage. The work was based on a systematic study of a series of organic porous materials, of high pressure methane storage capacities. The synthesized materials were compared with some commercial porous materials with high performance in storage and showed an increase in the quantities of gas possibly transportable inside them. The materials were also compared with the methods commonly used for the transport of methane, resulting in potential candidates for this application, considering the ease of production and both thermal and chemical stability. Another series of porous materials with slight changes to the main structure, has shown, however, the possibility of modifying the interaction of the material with the different gases going to obtain compounds with slight structural changes but with different physical interactions. In a second part I focused on using the pores of these materials as reactors for confined polymerizations. The work led to the development of anionic polymerization in these materials for the first time. This new and innovative technique has allowed us to produce polymers with distinct tactics and isolated chains. Subsequently, it was decided to chemically anchor the porous material to the growing polymer. This has led to polymers with structures different from those obtainable with the classic polymerizations and to the development of a new type of completely carbonaceous and chemically bound composite that prevents the problem of de-mixing. Subsequently, the use of materials with one-dimensional pores, led to the development of polyacrylonitrile within the material channels. Polyacrylonitrile was subsequently converted through carbon fiber thermal treatments into the porous material. The thermal treatment of polyacrylonitrile inside the pores has led to a structure with fewer defects than the bulk treatment, the best structure, for subsequent heat treatments will lead to a carbon fiber with mechanical characteristics better than those of a bulk synthesis.
APA, Harvard, Vancouver, ISO, and other styles
40

Rablah, Blake Kenton. "A coupled-circuit representation of IGBT module geometry for high di/dt switching applications." Thesis, University of British Columbia, 2007. http://hdl.handle.net/2429/32231.

Full text
Abstract:
A coupled-circuit element representation of an IGBT module from Westcode Semiconductors Inc. has been developed, simulated, and experimentally confirmed at TRJUMF in Vancouver, BC. This model can be simulated in PSpice to predict the distribution of current within the IGBT module under high di/dt switching conditions. The goal of the simulations is to determine if the module is an acceptable candidate for implementation in a thyratron replacement switch for high-power pulse-power applications. The model developed has been shown to agree well with frequency domain measurements, and also with finite element method (FEM) simulations and boundary element method (BEM) simulations of the device.
Applied Science, Faculty of
Electrical and Computer Engineering, Department of
Graduate
APA, Harvard, Vancouver, ISO, and other styles
41

Di, Palma Irene [Verfasser]. "A first search for coincident gravitational waves and high energy neutrinos / Irene Di Palma." Hannover : Technische Informationsbibliothek und Universitätsbibliothek Hannover (TIB), 2012. http://d-nb.info/1028004613/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Croci, Chiocchini Anna Laura <1984&gt. "Azione immunomodulatoria del trattamento extracorporeo emodialitico e studio comparativo di diverse membrane high flux." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amsdottorato.unibo.it/9154/1/Tesi%20Croci%20Chiocchini.pdf.

Full text
Abstract:
Backgroud. L'infiammazione cronica, fattore di rischio cardiovascolare, dipende da fattori non correlati alla dialisi e correlati, come la biocompatibilità della membrana e la permeabilità alle medie molecole (citochine infiammatorie). L'uremia determina una disfunzione immunitaria con tendenza alle infezioni. Questo studio valuta l'effetto immunomodulatorio della singola sessione di dialisi e confronta tre diverse membrane ad alto flusso. Metodi. Sono stati arruolati 35 pazienti in emodialisi cronica trisettimanale e 10 volontari sani. Per due settimane i gruppi A e C sono stati sottoposti a emodialisi con Filtryzer-BGU 1.6 e THERANOVA, il gruppo B a emofiltrazione con HFR17. Cellule mononucleate del sangue periferico (PBMC) sono state raccolte all'inizio (T0) e alla fine (T1) della 5a sessione e all'inizio della 6a (T2) per eseguire citofluorimetria e saggi di proliferazione cellulare e apoptosi. Risultati. Nei pazienti in dialisi i linfociti CD3+, B e T si riducono, per aumento dell'apoptosi. NK, CD8+CD57+ senescenti e Th17 aumentano. Durante la seduta CD3+ subiscono un calo significativo secondario all'apoptosi, per incrementare, non significativamente, in T2. In T1 CD4+ aumentano per proliferazione, così come il rapporto Treg/Th17 e cala alla sessione successiva. CD8+ diminuiscono in T1 e T2, contestualmente ad una riduzione della produzione di IFN-γ. Il rapporto CD4+/CD8+ aumenta in T1 per diminuire nell'intervallo interdialitico. CD8+CD57+ e la produzione di IFN-γ diminuiscono durante il trattamento. NK e monociti diminuiscono durante la sessione per aumentare nell'intervallo interdialitico. Confrontando i filtri non sono state registrate variazioni statisticamente significative. Conclusioni. L’emodialisi rappresenta un trigger infiammatorio in un sistema immunitario iperattivo e disfunzionale, come testimoniato dall’incremento di sottopopolazioni linfocitarie ad elevato potenziale citotossico ed infiammatorio. Il singolo trattamento tende a correggere questo stato rimovendo mediatori dell’infiammazione, con progressivo ripristino delle condizioni basali nel corso dell’intervallo interdialitico. L’impiego di diverse membrane non influenza le sottopopolazioni linfocitarie né dal punto di visa numerico né funzionale.
Introduction. Chronic inflammation is a cardiovascular risk factor observed in hemodialysis patients. It depends both on dialysis-unrelated and related factors, as membrane biocompatibility and permeability to middle molecule, including inflammation cytokines. On the other hand, uremia is associated with immune dysfunction and high prevalence of infections. This study focuses on immunomodulatory effect of single dialysis session and compares three different high flux membranes. Methods. 35 maintenance hemodialysis three times per-week patients and 10 healthy volunteers were enrolled. For two weeks group A and C underwent hemodialysis with Filtryzer BGU 1.6 and THERANOVA respectively, group B hemofiltration with HFR17. Peripherical blood mononuclear cells (PBMC) were collected at the beginning (T0) and the end (T1) of the 5th session and starting the 6th session (T2). Previous sessions allowed wash-out from usual treatment. Cytofluorimetry, cellular proliferation and apoptosis essay were performed. Results. CD3+, B and T lymphocytes reduce, according to increased apoptosis in dialysis patients, compared to healthy volunteers. NK, senescence CD8+ CD57+ and Th17 increase. During session CD3+ suffer a significant drop secondary to apoptosis, to rise again, not significantly, on T2. On T1 CD4+ increase due to proliferation, as well as Treg/Th17 ratio and drop on next session. CD8+ decrease on T1 and T2 according to IFN-γ production. CD4+/CD8+ ratio is increased in T1 to decrease in interdialytic interval. CD8+ CD57+ and IFN-γ production drop during treatment, persisting on 6th dialysis. NK and monocytes decrease during session to rise in interdialytic interval. Comparing the three different dialyzer no statistically significant variations were recorded. Conclusions. Replacement therapy represents an acute inflammatory trigger in terminal uremia hyperactive and dysfunctional immune system, as evidenced by the increase in cytotoxic lymphocyte subpopulations compared to healthy population. Single dialysis session attempts to correct dysfunctional inflammatory state, removing mediators, with restoration of basal conditions in interdialytic interval.
APA, Harvard, Vancouver, ISO, and other styles
43

IMPOLLONIA, GIORGIO. "Telerilevamento multispettrale da APR per high-throughput phenotyping dei tratti di canapa e miscanto." Doctoral thesis, Università Cattolica del Sacro Cuore, 2022. http://hdl.handle.net/10280/119451.

Full text
Abstract:
Il telerilevamento basato su aeromobile a pilotaggio remoto (APR) è stato utilizzato per high-throughput phenotyping (HTP) dei tratti di canapa e miscanto. Il telerilevamento da APR, tramite l’acquisizione di immagini multispettrali ed il calcolo di diversi indici di vegetazione, permette di stimare i tratti delle colture. In questa tesi, i tratti stimati per la canapa sono stati l'indice di area fogliare e il contenuto di clorofilla fogliare, mentre per il miscanto sono stati l'intercettazione della luce, l'altezza della pianta, la biomassa delle foglie verdi, la biomassa epigea e il contenuto di umidità. La stima dei tratti è stata effettuata utilizzando algoritmi di machine learning e l’inversione del modello PROSAIL. L'HTP di canapa e miscanto è stata effettuata applicando il modello additivo generalizzato (GAM) alle serie temporali dei valori dei tratti stimati dai voli APR. Il telerilevamento da APR ha permesso di analizzare le dinamiche dei tratti durante la stagione di crescita. La combinazione di modelli di stima e modellazione GAM, applicata alle serie temporali dei valori dei tratti stimati da più immagini multispettrali acquisite da voli APR, si è rivelata un potente strumento per l'HTP.
Unmanned aerial vehicle (UAV) based remote sensing platform was used for high-throughput phenotyping (HTP) of hemp and miscanthus traits. UAV remote sensing, through the acquisition of multispectral images and the calculation of different vegetation indices, is able to estimate the crop traits. In this thesis, the crop traits estimated were leaf area index and leaf chlorophyll content for hemp, while light interception, plant height, green leaf biomass, standing biomass, and moisture content for miscanthus. The estimation of the traits was carried out using machine learning algorithms and the inversion of the PROSAIL model. The HTP of hemp and miscanthus was carried out by applying the generalized additive model (GAM) to the time series of traits values estimated from UAV flights. UAV remote sensing enabled to analyse of the traits' dynamics during the growing season. Combining estimation models and GAM modelling applied to time series of crop trait values estimated from multiple multispectral images of UAV flights proved to be a powerful tool for HTP.
APA, Harvard, Vancouver, ISO, and other styles
44

Cavalli, Bertolucci Cristina. "Lo sviluppo delle competenze di modellizzazione matematica nella scuola secondaria di secondo grado. Concezioni iniziali e processi di intervento didattico." Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3424286.

Full text
Abstract:
The present work investigates both the mathematical modelling competencies that high school students develop and the instructional design that teachers consider suitable to promote competencies. The research relies on the constructivist paradigm; the specific version elaborated at UC Berkeley from the group of work directed by A. di Sessa is used. In the dissertation, mathematical modelling is seen as a competence, in this way the link between “constructivism” and “competence“ is show. The investigation is exploratory and divided in two paths: In stage 1, through the use of Clinical Interviewing the modelling competency of the students is investigated. Particularly the basic elements of knowledge are investigated (phenomenological primitives or p-prims) of mathematical modelling in real phenomena and the complex shapes of the competence, are investigated through three different activities: the Taxi, the Statue and the Travel. The phenomenological primitives are the basis elements of knowledge, on which the more complex mathematical competence are constructed. In the analysis the p-prims that the students had presented during the activities are identified; in order to understand which points mathematical competence gets stuck. The students were mainly analyzed by interview about real situations, proving to counteract their representations and their behavior in everyday life. Furthermore, students were asked to express their conceptions about learning mathematics, their motivation to learn and their perception of their self-efficacy. In stage 2 of the research some semi-structured interviews with high school mathematical teachers are conducted. Through an initial reflection on scraps from the first stage, each interview inquires what are the obstacles faced by the students in the modeling processes and which are the possible ways to overcome such obstacles in the classroom, in order to develop in class, modelling as a competence. The qualitative analysis of content has generated nine categories for interpreting the modelling competence. The teachers’ participation gives us the chance to understand how they manage and discover students’ modelling competencies, what they think about the national framework for the curriculum, if it could help them in class and which elements could be worth considering in such a document. The teachers’ suggestions for fitting the modelling in daily practice were significant and should not be underestimated. From the constructivism point of view, the presence of the primitive conception is considered a fundamental aspect of learning and requires the implementation of effective teaching strategies to promote the development of mathematical competence.
Questa ricerca ha lo scopo di indagare le competenze di modellizzazione matematica degli studenti della scuola superiore di secondo grado e il modo in cui insegnanti pensano di adattare le loro metodologie in classe per far fronte agli ostacoli riscontrati. La ricerca si inscrive nel paradigma epistemologico costruttivista; si utilizza la versione elaborata a UC Berkeley da gruppo di lavoro di A. diSessa. Nella tesi la modellizzazione viene trattata come forma di competenza, sottolineando l’interazione fra “costruttivismo” e “competenze”. L’indagine è di tipo esplorativo e è divisa in due percorsi: Nella FASE 1, attraverso l’utilizzo dell’intervista clinica si indaga sulla competenza modellistica degli studenti, cercando di individuare i maggiori ostacoli da essi affrontati. In particolare si esplorano gli elementi di base della conoscenza (i primitivi fenomenologici o p-prims) della modellizzazione matematica di fenomeni reali e le forme più articolate della competenza attraverso lo svolgimento di tre attività di modellizzazione: il Taxi, la Statua e il Viaggio. I primitivi fenomenologici sono gli elementi di base della competenza, su cui si costruisce la competenza matematica più avanzata. Nell’analisi abbiamo identificato i p-prims presentati dagli studenti durante lo svolgimento delle attività; lo scopo di tale identificazione è capire quali sono i punti che ostacolano lo sviluppo della competenza di modellizzazione. Si è cercato di analizzare lo studente nelle situazioni concrete, provando a contrastare le sue rappresentazioni e il suo comportamento nella pratica. Inoltre, si presenta uno studio realizzato con gli studenti coinvolti in cui si presentano le loro motivazioni a imparare, la percezione della propria competenza, l’autoefficacia, quale sono le loro concezioni sull’apprendimento della matematica e le possibili connessioni dei contenuti imparati a scuola nel loro quotidiano. Nella FASE 2 della ricerca si svolge un’intervista semi strutturata a insegnanti di matematica della scuola superiore di secondo grado. Attraverso una riflessione iniziale sui frammenti riscontrati nella prima fase della ricerca, l’intervista ha indagato quali sono gli ostacoli del processo modellistico affrontato dagli studenti e quali sono le possibili vie di intervento da adattare in classe per sviluppare la modellizzazione come una competenza. L’analisi qualitativa del contenuto ha generato nove categorie per interpretare la competenza modellistica da un altro punto di vista. L’intervento con gli insegnanti ci ha permesso di conoscere come essi comprendono le competenze modellistiche degli studenti, come pensano che le Indicazioni nazionali per il curriculo possano aiutarli in classe e quali sarebbero gli elementi da considerare in tale documento. I suggerimenti per adattare la modellizzazione nella pratica didattica sono stati significativi e da non sottovalutare. Da una prospettiva costruttivista, la presenza di concezioni primitive è considerata un aspetto fondamentale e inevitabile dell’apprendimento ed esige la messa in atto di strategie didattiche efficaci per promuovere lo sviluppo della competenza indagata.
APA, Harvard, Vancouver, ISO, and other styles
45

Simoncig, Alberto. "The role of the electron recoiling mechanism in coherent light high-order harmonics generation: from the source to the applications." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3581.

Full text
Abstract:
2008/2009
I processi di generazione di armoniche di ordine superiore (High-order Harmonic Generation o HHG) in gas inerti rappresentano, attualmente, la tecnica piu` promettente per la creazione di impulsi di luce coerente nell'estremo ultra-violetto (EUV) in una configurazione table-top. I processi HHG si basano sull'interazione non-lineare, tra impulsi laser ultra-corti, tipicamente dell'ordine della decina di femtosecondi, e atomi di gas inerti. Le caratteristiche che distinguono i processi HHG sono la loro durata temporale, che puo` essere nel dominio degli attosecondo e il fatto che l'interazione e` non perturbativa. Invece, la natura quantistica dei processi HHG implica la presenza di meccanismi di diffusione che influenzano la funzione d'onda dell'elettrone atomico coinvolto nell'interazione con il campo laser. Il ruolo della diffusione viene usualmente trascurato nella letteratura corrente, sebbene quest'ultima sia strettamente legata al controllo dell'efficienza del processo HHG e dello stato di polarizzazione dei fotoni generati. Il lavoro di tesi e` focalizzato sullo studio sperimentale e teorico/fenomenologico del ruolo dei meccanismi di diffusione, e sul loro controllo, al fine di incrementare l'efficienza e la qualita` ottica, i.e. coerenza, struttura temporale, etc., dei fotoni HHG prodotti. Gli studi e gli esperimenti condotti forniscono, in base alla nostra attuale conoscenza, la prima dimostrazione quantitativa a supporto del modello di Leweinstein. Accanto alla caratterizzazione spettrale, viene presentato uno studio accurato circa le condizioni minime necessarie a generare impulsi HHG, sempre legate al ruolo della diffusione della funzione d'onda elettronica. I risultati hanno permesso di ottenere una piu` profonda comprensione della complessa dinamica non-lineare, che sta alla base dei processi HHG. Accanto allo studio della diffusione si e` cercato di ottenere il controllo sullo stato di polarizzazione degli impulsi HHG, i quali mantengono la polarizzazione della radiazione laser utilizzata. La stessa diffusione impedisce di creare efficientemente armoniche di ordine superiore con polarizzazione ellittica (o circolare). Per risovere questo problema e` stata abbiamo sviluppato una collaborazione con il gruppo CXRO del Lawrence Berkeley National Laboratory, (Berkeley, USA), grazie al quale sono state realizzate una serie di ottiche multistrati innovative basate sul principio dell'angolo di Brewster, e disegnate appositamente per polarizzare circolarmente impulsi di luce EUV. Queste ultime sono state preliminarmente testate con successo sulla beam-line 6.3.2 del sincrotrone di Berkeley. La parte finale della tesi presenta la prima sorgente di impulsi HHG, polarizzati circolarmente utilizzando i citati multistrati. Per verificare l'efficienza e` di questi multistrati e` stato condotto un esperimento di dicroismo magnetico circolare con radiazioni EUV (EUV-MCD), unico nel sul genere, in quanto utilizza gli impulsi HHG polarizzati circolarmente per sondare il comportamento dicroico in corrispondenza delle soglie di assorbimento M di metalli ferromagnetici come Fe e Ni o delle loro leghe. Il fine ultimo e` dato dalla realizzazione di un esperimento risolto in tempo capace di utlizzare impulsi HHG circolarmente polarizzati per comprendere il processo di demagnetizzazione di sistemi ferromagnetici, sulla scala temporale del femtosecondo.
XXII Ciclo
1982
APA, Harvard, Vancouver, ISO, and other styles
46

CANAVESE, DANIELE. "Automatic generation of high speed elliptic curve cryptography code." Doctoral thesis, Politecnico di Torino, 2016. http://hdl.handle.net/11583/2652694.

Full text
Abstract:
Apparently, trust is a rare commodity when power, money or life itself are at stake. History is full of examples. Julius Caesar did not trust his generals, so that: ``If he had anything confidential to say, he wrote it in cipher, that is, by so changing the order of the letters of the alphabet, that not a word could be made out. If anyone wishes to decipher these, and get at their meaning, he must substitute the fourth letter of the alphabet, namely D, for A, and so with the others.'' And so the history of cryptography began moving its first steps. Nowadays, encryption has decayed from being an emperor's prerogative and became a daily life operation. Cryptography is pervasive, ubiquitous and, the best of all, completely transparent to the unaware user. Each time we buy something on the Internet we use it. Each time we search something on Google we use it. Everything without (almost) realizing that it silently protects our privacy and our secrets. Encryption is a very interesting instrument in the "toolbox of security" because it has very few side effects, at least on the user side. A particularly important one is the intrinsic slow down that its use imposes in the communications. High speed cryptography is very important for the Internet, where busy servers proliferate. Being faster is a double advantage: more throughput and less server overhead. In this context, however, the public key algorithms starts with a big handicap. They have very bad performances if compared to their symmetric counterparts. Due to this reason their use is often reduced to the essential operations, most notably key exchanges and digital signatures. The high speed public key cryptography challenge is a very practical topic with serious repercussions in our technocentric world. Using weak algorithms with a reduced key length to increase the performances of a system can lead to catastrophic results. In 1985, Miller and Koblitz independently proposed to use the group of rational points of an elliptic curve over a finite field to create an asymmetric algorithm. Elliptic Curve Cryptography (ECC) is based on a problem known as the ECDLP (Elliptic Curve Discrete Logarithm Problem) and offers several advantages with respect to other more traditional encryption systems such as RSA and DSA. The main benefit is that it requires smaller keys to provide the same security level since breaking the ECDLP is much harder. In addition, a good ECC implementation can be very efficient both in time and memory consumption, thus being a good candidate for performing high speed public key cryptography. Moreover, some elliptic curve based techniques are known to be extremely resilient to quantum computing attacks, such as the SIDH (Supersingular Isogeny Diffie-Hellman). Traditional elliptic curve cryptography implementations are optimized by hand taking into account the mathematical properties of the underlying algebraic structures, the target machine architecture and the compiler facilities. This process is time consuming, requires a high degree of expertise and, ultimately, error prone. This dissertation' ultimate goal is to automatize the whole optimization process of cryptographic code, with a special focus on ECC. The framework presented in this thesis is able to produce high speed cryptographic code by automatically choosing the best algorithms and applying a number of code-improving techniques inspired by the compiler theory. Its central component is a flexible and powerful compiler able to translate an algorithm written in a high level language and produce a highly optimized C code for a particular algebraic structure and hardware platform. The system is generic enough to accommodate a wide array of number theory related algorithms, however this document focuses only on optimizing primitives based on elliptic curves defined over binary fields.
APA, Harvard, Vancouver, ISO, and other styles
47

Tempesta, Giuseppe. "Studio e realizzazione in ambiente HPC di un algoritmo fault-tolerant per la soluzione di sistemi lineari basato sul Metodo delle Interdizioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18670/.

Full text
Abstract:
Questo lavoro di tesi si inquadra nell’ambito di sistemi High Performance Computing (HPC) / High Availability Computing (HAC) , i quali vengono impiegati in moltissime applicazioni scientifiche. Il problema che si riscontra spesso è quello della fault-tolerance. Studi approfonditi ed analisi di dati mostrano che, con il progredire della tecnologia, il tempo medio tra un guasto ed un altro, ovvero il MTBF (Mean Time Between Failures), per un singolo nodo sia enormemente cresciuto. Questo significa che il verificarsi di un guasto risulta essere molto raro. Sebbene il MTBF per il singolo nodo sia cresciuto, quello dei sistemi HPC è diminuito, a causa della gran quantità di nodi presenti. Infatti, su cluster di grandi dimensioni è molto più probabile che si possa verificare un qualche tipo di guasto, facendo così abortire possibili job in esecuzione. Per ovviare a queste risapute problematiche spesso si utilizzano sistemi di checkpointing, i quali periodicamente salvano in maniera persistente il lavoro. In questo modo, in caso di guasto, sarà possibile riprendere l’esecuzione da dove si era bloccata. Occorre però pagare un costo in termini di tempo, speso per fermare l’esecuzione del job e salvare lo stato. La problematica affrontata in questo lavoro di tesi è legata alla risoluzione di sistemi lineari di grandi dimensioni. Questi sistemi vengono solitamente risolti su cluster HPC attraverso vari algoritmi, ma in questa tesi ci concentriamo su un metodo di soluzione per sistemi lineari chiamato Metodo delle Interdizioni (IMe), proposto dal prof. Filippo Ciampolini. L’idea è quella di realizzare un sistema di recovery diskless basato sul metodo prima menzionato; basandoci sulla formulazione matematica di checksum per il recovery, si procederà alla realizzazione di un sistema che non richiede di fermare l’esecuzione per il salvataggio dello stato. Successivi test proveranno l’efficacia di questa realizzazione.
APA, Harvard, Vancouver, ISO, and other styles
48

Zanier, Giulia. "High Resolution Model to Predict Oil Spill Dispersion in Harbour and Coastal Areas." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11124.

Full text
Abstract:
2013/2014
Mostriamo un modello allo stato dell’arte, che considera i principali processi fisici che governano il greggio in mare nelle prime ore dopo il rilascio, (Zanier, et al., 2014). Le particelle e i tar sono trattati come particelle lagrangiane, ognuna con la propria densità e il proprio diametro; consideriamo le forze principali che agiscono su di esse ossia: galleggiamento, trascinamento e la forza di Coriolis. Il greggio in forma di film sottile è modellato tramite le equazioni proposte da Nihoul (Nihoul 1983/84). Il modello originale di Nihoul considera le forze principali (ossia gravità, stress indotto da vento e correnti marine) che agiscono sulla macchia e governano il suo trasporto e diffusione, sulla superficie del mare, nelle prime 24 ore dopo il rilascio. Il nostro miglioramento al modello consiste nell’introduzione della forza di Coriolis evitando di utilizzare formulazioni empiriche (Zanier, et al., 2015). Infine i principali processi di weathering che agiscono sulla macchia nelle prime 12-24 ore dopo il rilascio (ossia emulsificazione ed evaporazione) sono considerate in accordo con i modelli presenti in letteratura (Mackay, Peterson, et al., 1980 e Mackay, Buist, et al., 1980, rispettivamente). Per preservare un’accuratezza del secondo ordine del metodo numerico, i termini convettivi, nel modello Euleriano, sono discretizzati usando SMART uno schema numerico upwind del terzo ordine (Gaskell and Lau 1988). Il modello è validato con dei casi test standard. Le correnti marine sono risolte con il modello LES-COAST (IEFLUIDS Università di Trieste), un modello numerico ad alta definizione, adatto per simulare flussi in aree costiere e portuali. Il modello LES-COAST risolve la forma filtrata delle equazioni di Navier-Stokes tridimensionali e non-idrostatiche, assumendo che valga l’approssimazione di Boussinesq; e l’equazione di trasporto degli scalari, salinità e temperatura. Il modello usa l’approccio della large eddy simulation per parametrizzare la turbolenza, le variabili sono filtrate con una funzione filtro, rappresentante la grandezza delle celle. I flussi di sottogriglia (SGS), che appaiono dopo l’operazione di filtraggio delle equazioni, sono parametrizzati con un modello di Smagorinsky anisotropo con due eddy viscosity, per adattare il modello a simulare flussi costieri dove le lunghezze scala orizzontali sono molto più grandi di quelle verticali (Roman et al., 2010 ). Le diffusività di sotto griglia della temperatura e salinità, cioè i numeri di Prandtl e Schmidt, sono imposti come $Pr_{sgs}=Sc_{sgs}=0.8$, assumendo che l’analogia di Reynolds sia valida per entrambi gli scalari. La complessità geometrica che caratterizza le aree costiere, è trattata con una combinazione di griglie curvilinee e il metodo dei contorni immersi (IBM) (Roman, Napoli, et al., 2009). L’azione del vento sulla superficie libera del mare è imposta tramite una formula proposta da Wu (Wu, 1982), nella quale lo stress del vento sul mare è calcolato dalla velocità del vento a 10 m sopra il livello del mare. Allo stress aggiungiamo una varianza del 20% per agevolare la generazione di turbolenza e per tener conto che l’azione del vento non è costante nel tempo e nello spazio. Inoltre vicino agli ostacoli, come moli, navi e frangiflutti, lo stress del vento è ridotto linearmente, per considerare la riduzione del vento che si ha nelle zone di ricircolo. Sui contorni aperti le velocità e le quantità scalari sono ottenute innestando il modello LES-COAST con modelli di larga scala (Petronio, et al., 2013) oppure sono impostati secondo dati rilevati. Vicino ai bordi solidi le velocità sono modellate tramite funzioni parete (Roman, Armenio, et al., 2009). Il modello di rilascio di petrolio e il modello idrodinamico sono stati applicati assieme per simulare degli ipotetici scenari di trasporto e diffusione del greggio in mare nel porto di Barcellona (Mar Mediterraneo Nord-Ovest, Spagna, Galea, et al. 2014) e nella baia di Panzano (Mar Adriatico, Nord, Italia).
We present a novel, state of the art model, which accounts for the relevant short-term physical processes governing oil spill at sea, (Zanier, et al., 2014). Particles and tars are modelled as Lagrangian phase having its own density and diameter; taking into account the main forces acting on them, namely: buoyancy, drag and Coriolis forces. Oil transported in form of thin-film is treated by means of an improved Nihoul’s model (Nihoul 1983/84). The latter considers the main forces (gravity, wind and sea currents stresses) governing oil slick spreading and transport in the first hours after spilling, up to 24h for large spill. Our main improvement to the classical model consists in the introduction of Coriolis effect, avoiding using empirical formulations (Zanier, et al., 2015). Finally the relevant short-term (12-24 hours) weathering processes (mainly emulsification and evaporation) are taken into account through established literature models (Mackay, Peterson, et al., 1980 and Mackay, Buist, et al., 1980, respectively). To preserve second-order accuracy of the overall numerical method, convective terms, in the Eulerian model, are discretized using SMART a third order accurate upwind numerical scheme (Gaskell and Lau 1988). We validate the model on standard test cases. The underground hydrodynamics is resolved using LES-COAST (IEFLUIDS University of Trieste), a high definition numerical model suited for coastal or harbour areas. LES-COAST model solves the filtered form of three dimensional, non-hydrostatic Navier-Stokes equations under Boussinesq approximation and the transport equation for salinity and temperature. It makes use of Large Eddy Simulation approach to parametrize turbulence, the variables are filtered by way of a top-hat filter function represented by the size of the cells. The subgrid-scale fluxes (SGS), which appear after filtering operations, are parametrized by a two-eddy viscosity anisotropic Smagorinsky model, to better adapt to coastal flow in which horizontal length scale is larger than vertical one (Roman et al., 2010). The subgrid-scale eddy diffusivities of temperature and salinity, Prandtl and Schmidt numbers, are set $Pr_{sgs}=Sc_{sgs}=0.8$, by assuming that Reynolds analogy holds also for both scalars. Complex geometry that characterizes coastal flow is treated by a combination of curvilinear grid and Immersed Boundary Method (IBM) (Roman, Napoli, et al., 2009). Wind action on the free surface is taken into account by means of the formula proposed by Wu (Wu, 1982), in which the wind stress on the sea surface is computed from the wind velocities at 10 m above the surface. A 20% of variance is added to the stress to ease the generation of turbulence and to take into account of wind stress variations in time and space. Moreover near obstacles such as docks, ships and breakwaters, the wind stress is linearly reduced considering the relevant reduction of stress in recirculation regions. On the open boundaries the velocities and scalars quantities are obtained by nesting LES-COAST within Large Circulation Models (Petronio, et al., 2013) or are imposed from in-situ measurements. Near the wall velocities are modelled using wall functions (Roman, Armenio, et al., 2009). We apply the coupled oil spill model and hydrodynamical one to simulate hypothetical oil spill events in real case scenarios in Barcelona harbour (North-west Mediterranean Sea, Spain, Galea, et al. 2014) and in Panzano bay (North Adriatic Sea, Italy).
XXVII Ciclo
1986
APA, Harvard, Vancouver, ISO, and other styles
49

Del, Puppo Norman. "High resolution ship hydrodynamics simulations in opens source environment." Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10983.

Full text
Abstract:
2013/2014
The numerical simulation of wake and free-surface flow around ships is a complex topic that involves multiple tasks: the generation of an optimal computational grid and the development of numerical algorithms capable to predict the flow field around a hull. In this work, a numerical framework is developed aimed at high-resolution CFD simulations of turbulent, free-surface flows around ship hulls. The framework consists in the concatenation of “tools” in the open-source finite volume library OpenFOAM®. A novel, flexible mesh-generation algorithm is presented, capable of producing high-quality computational grids for free-surface ship hydrodynamics. The numerical framework is used to solve some benchmark problems, providing results that are in excellent agreement with the experimental measures.
XXVII Ciclo
1981
APA, Harvard, Vancouver, ISO, and other styles
50

Crimaldi, Antonio. "Nuovi processi catalitici per la produzione di syngas." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19204/.

Full text
Abstract:
The study of the combined Steam/Dry Reforming (S/DR) process for the production of syngas (CO + H2) from clean biogas was carried out using Ni/Ir bimetallic catalysts on Mg and Al mixed-oxides, obtained by calcination of hydrotalcite-type precursors (Ht) prepared by co-precipitation. The presence of small amounts of Ir promoted the catalytic activity and limited the deactivation phenomena through the formation of a bimetallic alloy, which does the catalyst very active even at lowest temperature and in lack of steam. By integrating a High Temperature–WGS unit (HTS) after the S/DR reactor it was possible to increase the H2 yield of the process. The performance of the Zn/Al/Cu-based catalyst was improved using a templating agent during the synthesis of the catalyst, which increased the catalyst’s structural properties and activity especially at lowest temperatures and at highest contact times. Finally, starting from the laboratory data, it was possible to simulate the S/DR process on industrial scale, evaluating its scalability and environmental impact. The results showed that, using the S/DR technology instead of the current processes, it was possible to reduce the energy costs and the atmospheric emissions of the plant.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography