Teses / dissertações sobre o tema "High dI"
Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos
Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "High dI".
Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.
Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.
Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.
Gambato, Francesco. "Utilizzo di tecnologie avanzate per applicazioni di "high speed cooking"". Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3424635.
Texto completo da fonteNella progettazione di sistemi di cottura "high speed cooking" l"utilizzo della tecnologia a microonde si rivela essenziale. A differenza dei metodi tradizionali di riscaldamento in cui il calore fluisce dall"ambiente esterno verso l'interno, nel riscaldamento a microonde il campo elettromagnetico (EM) permette la generazione del calore all"interno del cibo stesso. Alcuni vantaggi di questo metodo sono i tempi di riscaldamento molto brevi e il rendimento elevato. Per contro, il riscaldamento a microonde è intrinsecamente non uniforme: la distribuzione del campo EM all'interno di una camera di cottura è disomogenea, altresì, l'onda EM che attraversa un workload cede energia e via via si attenua, determinando un assorbimento di energia non uniforme da parte del carico. Lo scenario si complica ulteriormente in relazione a geometria e dimensioni della cavità nonchè alla geometria, dimensioni, posizione e proprietà dielettriche del carico di cottura. Per migliorare l'uniformità del riscaldamento vengono adottate tecniche che favoriscono il rimescolamento del campo EM durante il processo, come ad esempio il piatto rotante e gli agitatori di campo (stirrers). Non sempre la tipologia del sistema di cottura permette l'utilizzo di parti meccaniche in movimento per l'agitazione del campo e quindi la mitigazione di hot spot e cold spot. In alcuni casi vengono utilizzate tecniche senza parti mobili quali: l'accensione intermittente di sorgenti a microonde di potenza o lo sfasamento tra le sorgenti. Quest'ultima tecnica, ed in particolare i suoi effetti sulla distribuzione del campo EM e sul riscaldamento del carico di cottura sono stati affrontati in questa tesi di dottorato. Lo studio delle sorgenti a microonde di potenza è diventato sempre più importante tra i ricercatori che si occupano di sistemi di cottura. Negli anni recenti, i dispositivi a stato solido, caratterizzati da prestazioni sempre più elevate, hanno trovato impiego in molte aree di applicazioni prima riservate ai magnetron. In particolare, l'utilizzo di generatori a stato solido consente un controllo della cottura più accurato garantendo un riscaldamento uniforme del cibo, per esempio agendo sullo sfasamento tra le diverse sorgenti a microonde. Una ulteriore tecnica, oggetto di indagine in questa tesi, per migliorare le prestazioni di cottura del cibo si giova dell'utilizzo di opportune aperture di accoppiamento tra le guide d'onda e la camera di lancio, ovvero antenne a fessura utilizzate per realizzare una schiera di antenne in una guida d'onda. L'efficacia delle tecniche proposte per migliorare l'obiettivo del riscaldamento uniforme è stata verificata tramite simulazione numerica di un prototipo d'interesse pratico: un sistema di cottura detto "panini grill" che grazie all'utilizzo della tecnologia a microonde permette di riscaldare un sandwich anche all'interno e ridurre significativamente i tempi di cottura. Il corrispondente modello multifisico 3D è stato realizzato mediante il software commerciale COMSOL Multiphysics che sfrutta il metodo degli elementi finiti per le simulazioni. In relazione agli accorgimenti impiegati, il problema di determinare quali siano i valori delle loro grandezze peculiari (e.g. sfasamento tra le sorgenti a microonde, layout schiera di antenne) che assicurano una cottura uniforme, è stato affrontato come un problema di ottimizzazione. In particolare, il metodo di ottimizzazione utilizzato si basa sulla costruzione di metamodelli al fine di ridurre la complessità ed il tempo complessivo di simulazione del modello numerico multifisico. Il processo di ottimizzazione ha coinvolto fasi di pre-elaborazione, programmazione e postelaborazione attraverso l'accoppiamento tra COMSOL e il software di calcolo scientifico Matlab
Sandrin, Enrico. "Pratiche di high involvement in contesti di mass customization: Una prospettiva contingente configurazionale". Doctoral thesis, Università degli studi di Padova, 2016. http://hdl.handle.net/11577/3427244.
Texto completo da fonteLa mass customization (MC), ossia fornire prodotti e servizi personalizzati senza considerevoli trade-off in termini di costi, tempi e qualità, continua a suscitare vasto interesse sia a livello pratico che accademico. In base al grado di personalizzazione di prodotto che un’azienda intende offrire ai propri clienti, in letteratura si distinguono diversi tipi di strategia di MC e la scelta del grado di personalizzazione di prodotto è ampiamente riconosciuta essere una decisione chiave nel perseguimento della MC. Accanto alla MC, un’altra sfida sempre più importante per le aziende oggi è quella di sfruttare appieno le potenzialità delle proprie risorse umane. Un modo per centrare questo obiettivo è rappresentato dall’high involvement, definito come un insieme coerente di pratiche di gestione delle risorse umane (HRM) che favoriscono la partecipazione al business nel suo complesso anche dei dipendenti ai livelli più bassi della gerarchia. Benché l'importanza di progettare sistemi di HRM specifici per la MC sia stata da lungo tempo riconosciuta in letteratura, nessuno studio ha esaminato l'impatto dell’high involvement sulla capacità di MC secondo la prospettiva contingente configurazionale sostenuta dalla letteratura di gestione strategica delle risorse umane. Per contribuire a colmare questa lacuna, la presente tesi sviluppa e testa, trovando supporto empirico per ciascuna di esse, le seguenti due ipotesi: che l’adozione dell’insieme coerente di pratiche di HRM che caratterizzano l’high involvement rafforzi la capacità di MC di un’azienda (prospettiva configurazionale) e che l’efficacia di questa configurazione di pratiche ai fini del miglioramento della capacità di MC sia influenzata dalla scelta strategica dell’azienda sul grado di personalizzazione di prodotto (prospettiva contingente). Alla luce dell’effetto di moderazione che questa scelta emerge avere sulla relazione fra high involvement e capacità di MC, la parte finale della tesi indaga empiricamente l’impatto di alcuni fattori ambientali su tale scelta, identificando nel dinamismo della domanda un fattore chiave che spinge l’azienda ad aumentare il grado di personalizzazione di prodotto.
Riscica, Fabio. "Online characterization of high - frequency percussive ventilator". Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4654.
Texto completo da fonteThe thesis describes the study on the characterization of the percussive ventilator; the activities have been carried out in cooperation with the “D.A.I. di Medicina Perioperatoria, Terapia Intensiva ed Emergenza - UCO di Anestesia, Rianimazione e Terapia Antalgica dell'Azienda Mista Universitaria - Ospedaliera di Trieste”. The first chapter describes the physiology of the respiratory system and the classical models presented in literature, the second chapter illustrates the main modes of mechanical ventilation, particularly in the percussive ventilation. The third chapter describes the classical laboratory equipment for the measurement of breathing. The fourth chapter examines the state of the art of methods and instruments for the analysis of respiratory parameters. The fifth chapter discusses the instruments for measuring respiratory parameters, developed in the biomedical laboratory of the DEEI of University of Trieste. The sixth chapter contains a detailed study on the characterization of the percussive ventilator: the model, the method for estimating parameters, the system tests and the results. Particularly, the ability to monitor respiratory parameters by using the instrument developed avoids the volutrauma (alveolar-capillary permeability increase owing to excessive distension of the lung) during controlled ventilation. The instrument also allows to accurately estimate the lung elastance, determining factor of the volume distribution in the used model. At the conclusion of the work, the seventh chapter summarizes the results from the study of the volumes distribution in the two-compartment model of the lung conditioned to percussive ventilation.
XXIII Ciclo
1965
Di, Francesco Francesco. "Metodi innovativi per la riduzione delle emissioni di ossidi di azoto negli impianti di combustione: la tecnologia SCR High Dust e il caso del Termoutilizzatore di Brescia". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/893/.
Texto completo da fonteRICCI, ADRIANA. "Gestione della complessità hardware nella metodologia di progettazione ad alto livello di sistemi multicore". Doctoral thesis, Università Politecnica delle Marche, 2019. http://hdl.handle.net/11566/263528.
Texto completo da fonteIn recent decades, the development of electronic systems design technology, supported by Electronic Design Automation (EDA), has allowed the creation of electronic systems with increasing complexity and performance. Moreover, in recent years it is possible to integrate a complex electronic system, equivalent to millions of transistors, into a single silicon chip: System-on-a-Chip (SoC). The design of a complex SoC can’t be managed by traditional design methods but requires system-level efficient modeling methodologies and high-level synthesis tools (High Level Synthesis - HLS) that generate an optimized RTL architecture from high-level functional specifications. The latest versions of HLS tools have made significant advances that make it possible to consider including the HLS methodology in the design flow. The use of HLS allows the management of complex systems, while ensuring high performance, leading to the increase in productivity. The research presents complex projects as case studies for both modeling and high-level synthesis, including comparison of HLS solutions with respect to design using traditional methodology. Several solutions have implemented with increasing degrees of complexity, to verify the limits of the system-level design methodology. Finally, a functioning system has been implemented on FPGA which provides for the integration of components designed using different methods. Part of the research was carried out in collaboration with Korg Italy, based in Osimo (AN), which provided know-how and advice regarding the field of application of digital synthesis of musical signals.
Paggi, Giulia. "Sviluppo di un algoritmo di trigger per la ricerca di particelle esotiche a lunga vita media a High Luminosity LHC con il rivelatore di muoni di CMS". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21605/.
Texto completo da fonteVarela, Corredor Felipe <1988>. "Membrane Contactors for High Temperature Applications". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7561/1/Thesis_Felipe_Varela-Corredor.pdf.
Texto completo da fonteVarela, Corredor Felipe <1988>. "Membrane Contactors for High Temperature Applications". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7561/.
Texto completo da fonteRenzi, Alessandro. "Sviluppo di un modulo VHDL per interfacciamento Ethernet-FPGA in applicazioni di high throughput screening". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4042/.
Texto completo da fonteRasenti, Matteo. "Algoritmi per la scoperta di outlier in sistemi di calcolo ad altissime prestazioni". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6797/.
Texto completo da fonteGava, Alessandra. "Utilità della tecnica denaturing high performance liquid chromatography per la diagnosi di deficit di mevalonato chinasi nelle febbri periodiche di sospetta natura autoinfiammatoria". Doctoral thesis, Università degli studi di Padova, 2009. http://hdl.handle.net/11577/3426441.
Texto completo da fonteSCOPO DEL LAVORO La Mevalonate Kinase Deficency (MKD), già nota come sindrome da Iper IgD (HIDS), è una rara malattia autoinfiammatoria di tipo autosomico recessivo caratterizzata da febbre ricorrente e disturbi muscoloscheletrici. La MKD è dovuta a mutazioni del gene mvk, mappato sul cromosoma 12q24, il quale codifica per l’enzima mevalonato chinasi (MK); polimorfismi nel gene mvk sono la causa di un’alterata attività enzimatica di MK. L’individuazione della mutazione genica della mevalonato chinasi ha reso l’indagine genetica indispensabile per la diagnosi, soprattutto in pazienti con valori sierici di IgD normali, tuttavia il sequenziamento dell’intera regione codificante è costoso e la determinazione di mutazioni può essere resa più efficiente utilizzando tecniche di pre-screening in grado di identificare l’esone mutato. In questo studio è stata effettuata un’indagine genetica utilizzando l’analisi in DHPLC come tecnica di pre-screening per identificare le alterazioni nella regione codificante del gene mvk in pazienti con sospetta sindrome autoinfiammatoria. MATERIALI E METODI: A partire da gennaio 2007 sono stati presi in esame 19 pazienti (età media 33 anni, range 13 – 61 anni) seguiti presso la Cattedra e UOC di Reumatologia dell’Università di Padova per febbri ricorrenti non imputabili ad infezioni o a malattie autoimmuni e compatibili con sospetta MKD e 10 controlli sani. In ogni paziente è stato effettuato il dosaggio delle IgD nel siero. L’analisi del DNA, estratto da linfociti del sangue periferico, è stata effettuata mediante un protocollo di amplificazione per frammenti di 210-250 bp messo a punto da noi stessi, utilizzando primers specifici per le sequenze dei 10 esoni codificanti del gene mvk. I prodotti di amplificazione sono stati analizzati mediante DHPLC utilizzando il sistema Wave® Fragment Analysis (Transgenomic, Omaha, NE, USA). Le temperature di melting (Tm) sono state calcolate con Navigator Software 1.7.0 (Transgenomic). Le sequenze degli stessi frammenti amplificati sono state determinate mediante l’uso di un sequenziatore automatico ABI PRISM 3130 Genetic Analyzer (APPLIED BIOSYSTEMS, USA). RISULTATI: I valori sierici di IgD erano normali (<100 mg/L) in 14/19 pazienti. Nessun campione di controllo presentava alterazioni dei profili DHPLC e delle sequenze. Dodici dei 19 pazienti esaminati presentavano almeno un profilo di DHPLC alterato e i dati sono stati confermati con il sequenziamento. Sono state evidenziate le mutazioni S52N (paziente 2-13-15), D170D e c.632-18A>G (paziente 4-5-6-10-12-17-19), S135S (pz 13-16) c.78+61A>G (pz 6-11-19), c.885+24G>A (pz 6-19) già descritte in letteratura e nel database INFEVERS (http://fmf.igh.cnrs.fr/infevers). Lo screening con DHPLC ha permesso di ottenere i risultati in minor tempo (10 ore / paziente) e con costi inferiori (40 euro / paziente) rispetto alla tecnica di sequenziamento diretto (tempo: 25 ore / paziente , costi: 150 euro / paziente). CONCLUSIONI: Un elevato livello sierico di IgD non rappresenta più un marker per fare diagnosi di MKD, come già riportato in letteratura. La DHPLC è una tecnica capace di effettuare uno screening rapido e a basso costo nell’analisi di mutazioni in pazienti con sospetta sindrome autoinfiammatoria legata al gene mvk. Tuttavia, essendo una tecnica di analisi indiretta, è necessario considerare che la DHPLC aumenta l’efficienza dell’analisi ma non la sua sensibilità in quanto è in grado di evidenziare un polimorfismo di sequenza ma non la sua posizione. Sette pazienti della nostra coorte sono risultati portatori delle varianti alleliche D170D e c.632-18A>G; tale evento suggerisce che questi SNP potrebbero essere in linkage disequilibrium e che tali mutazioni potrebbero indurre una diminuzione nell’attività della MK predisponendo quindi alla MKD.
Carletti, Jacopo. "Modello sperimentale di sintesi tra fluidodinamica computazionale e tecniche di Machine Learning". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.
Encontre o texto completo da fonteStipcich, Goran. "High-order methods for computational fluid dynamics". Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7764.
Texto completo da fonteIn the past two decades, the growing interest in the study of fluid flows involving discontinuities, such as shocks or high gradients, where a quadratic-convergent method may not provide a satisfactory solution, gave a notable impulse to the employment of high-order techniques. The present dissertation comprises the analysis and numerical testing of two high-order methods. The first one, belonging to the discontinuous finite-element class, is the discontinuous control-volume/finite-element method (DCVFEM) for the advection/ diffusion equation. The second method refers to the high-order finite-difference class, and is the mixed weighted non-oscillatory scheme (MWCS) for the solution of the compressible Euler equations. The methods are described from a formal point of view, a Fourier analysis is used to assess the dispersion and dissipation errors, and numerical simulations are conducted to confirm the theoretical results.
XXIV Ciclo
1980
Berto, Andrea <1992>. "Il caso OSRAM: analisi del processo di sviluppo High Power". Master's Degree Thesis, Università Ca' Foscari Venezia, 2017. http://hdl.handle.net/10579/11564.
Texto completo da fonteMoretti, Elena. "Upper Limits on High Energy emissions from GRB". Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3721.
Texto completo da fonteThe intense and unpredictable flashes of gamma rays in the energy band (10 keV – 1 MeV), called Gamma-Ray Bursts (GRB), were discovered in the late 60's. Since then several experiments were dedicated to detect and understand these phenomena. Up to now, we do not have yet a complete explanation for the GRB progenitors and their emission mechanism. In the first phase, the so-called prompt phase, lasting from few ms to tens of seconds, these bursts emit mainly in the band from hard-X to soft gamma. In a longer second phase, called afterglow, the GRB emission ranges from the radio frequencies to the X-ray band. The hard gamma band (>50 MeV), both in the prompt and in the afterglow phase, was poorly explored until the gamma-ray experiment EGRET flown on the Compton Gamma-ray Observatory (CGRO). Nevertheless EGRET detected only 5 GRBs in the band >200 MeV in 7 years of operation. Nowadays 2 gamma-ray experiments AGILE and Fermi/LAT are currently in operation. The number of detected burst with emitted energy >50 MeV is already more than duplicated by these two missions. The two experiments are based on the same high energy gamma-ray detection technique so these two experiments are similar: their core is made of a silicon tracker with tungsten conversion layers, surrounded by a plastic scintillator to veto cosmic-ray particles events. Below the tracker, a calorimeter provides the measure of the energy of the produced pairs. The main differences between the experiments are the larger effective area of the Fermi/LAT (~10 times larger) and its deeper calorimeter. On board of the satellites that host LAT and AGILE there are other 2 experiments respectively: the Fermi/GBM dedicated to the GRB science in the 8 keV-40 MeV band and the SuperAGILE that is a X-ray detector operational in the 18-60 keV band. Fermi/GBM, SuperAGILE and the Mini Calorimeter in the AGILE mission can independently trigger on a burst event respectively in the energy band (8 keV – 40 MeV), (18-60 keV) and (0.3-100 MeV). Their FoV is quite different however, ranging from 2 sr for SuperAGILE to almost 4 sr for MiniCalorimeter and 6 sr for FermiGBM. If the burst, triggered by these instruments or by other missions, is in the field of view of one of the two gamma-ray detectors a high energy signal is searched. In the AGILE pipeline the GRB signal is searched in the burst prompt time interval. During this time interval both background and signal are supposed to follow a Poisson distribution and the signal to be non-negative. The background average rate is computed before the burst trigger, in the same signal extraction region (15deg from the GRB position), with the same analysis cuts and in a time interval at least 10 times longer than the signal duration. Instead in the Fermi/LAT pipeline a map of the test statistic variable is computed. The test statistic distribution indicates how much the data differ from the background model used. In this thesis the non-detection cases are considered: a methodology for the computation of the upper limit on the signal is proposed. This method is based on the Bayesian statistics and was elaborated from Helene in 1984 (Helene, O. 1984, Nuclear Instruments and Methods 228, 120), it considers a Poisson fluctuation of the known background mean and of the estimated signal in the region of interest. The applications of this upper limit computing method to the AGILE and the Fermi/LAT data are also showed deriving upper limit on GRB flux. The AGILE energy coverage is smaller but starts from lower energy with respect the actual Fermi/LAT energy band. In the AGILE energy range above 30 MeV and till 2 GeV, the estimated GRB flux upper limits range between 1x10-3 and 1x10-2 ph s-1cm-2. Instead the Fermi/LAT flux upper limit is roughly 5x10-5 ph s-1cm-2 in the energy range from 100 MeV to 100 GeV. The studies of the upper limits help to understand the GRB emission mechanisms: most of these bursts are not detected in the highest energy band even if the extrapolation of their spectra from the low energy band predicts a detectable flux from those two instruments. On the other case there are some GRBs with low energy spectra predicting a non detectable H.E. flux but with high energy photons clearly detected. These photons indicate the existence of a new component above 100 MeV in the GRB photon spectrum extending up to the GeV region. This thesis gives a new contribution on the computation of the upper limits on the GRB flux in both the gamma-ray experiments operating nowadays. The thesis will concentrate in particular on the study of the upper limits in the interesting cases, when a high energy signal is predicted but not detected, giving some interesting hints on the GRB source physics.
1982
Fantini, Sara. "Uso della tecnica di HRM (High Resolution Melt) PCR per la caratterizzazione della flora microbica dominante di alcuni prodotti alimentari". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Encontre o texto completo da fontePiccirilli, Federica. "High pressure studies of amyloid proteins". Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7435.
Texto completo da fonteIn questa tesi viene presentato lo studio di due proteine amiloidi, l'insulina e l' -sinucleina , condotto attraverso l'utilizzo della spettroscopia infrarossa a trasformata di Fourier in alta pressione. Con il nome di brille amiloidi ci si riferisce ad aggregati proteici altamente ordinati che si vengono a depositare in diversi organi o tessuti durante lo sviluppo di molte importanti patologie, le amiloidosi. Tra queste, vista la crescente di usione nelle popolazioni occidentali, vale la pena citare il morbo di Parkinson, e il morbo di Alzheimer. Le conoscenze relative alla termodinamica degli aggregati amiloidi e alle cinetiche di aggregazione sono ancora limitate. Ci o che maggiormente complica la ricerca di strategie atte ad inibire la reazione e la sostanziale irreversibilit a del processo di aggregazione. Le brille amiloidi dimostrano infatti una sorprendente stabilit a termodinamica. L'introduzione di tecniche di alta pressione nello studio dei sistemi biologici ha negli ultimi anni evidenziato le potenzialit a e l'utilit a della bio sica delle alte pressioni in particolare nello studio degli stati conformazionali delle proteine . Attraverso una variazione di pressione, si possono infatti gestire le distanze intra- e inter-molecolari in modo controllato. Dal presente studio emerge che l'applicazione dell'alta pressione e in grado di indurre la rottura degli aggregati amiloidi con un'e cienza che dipende dallo stato di maturazione della brilla (nel caso dell'insulina) e dalla speci ca mutazione genetica (nel caso della sinucleina). E' stato inoltre individuata una sequenzialit a nel processo di dissociazione indotto, che sembra ri ettere la pre-esistente gerarchia di strutture della catena peptidica. Attraverso l'applicazione dell'alta pressione e stato dunque possibile stabilizzare stati intermedi di brillazione. Quest'ultimo rappresenta il punto di forza della bio sica in alta pressione, che permette di popolare e quindi caratterizzare stati energeticamente instabili a pressione ambiente, fornendo dunque nuove linee di ricerca da seguire per la comprensione delle amiloidosi.
In this thesis is presented the investigation of the infrared properties at high pressures of two amyloidogenic proteins: insulin and -synuclein. Amyloid brils are highly ordered protein aggregates occurring during the development of many serious diseases, like Alzheimer's and Parkinson's diseases. Despite a major e ort both from the biological and biophysical communities, very little is known about the thermodynamics of the aggregated protein state and the kinetic mechanisms of its formation. Fibrillation is an irreversible process and a key challenge is the development of therapeutical strategies able to inhibit or reverse the formation of amyloids. Hydrostatic pressure has proven to be a powerful tool for the study of biological systems. Contrary to temperature - whose e ects show both on volume and thermal energy simultaneously - pressure leads to a controlled change of inter- and intramolecular distances, and enables to determine the stability of a protein structure. From the present study, it comes out that high pressure is able to induce the disaggregation of brils with an e cacy which depends on the maturation stage (insulin) and on speci c point mutations (synuclein). Our results show how high pressure disaggregation occurs following a sequential mechanism that re ects the protein's structure hierarchy. Pressure allows to address intermediate states, which are probably occurring along the aggregation reaction pathway, thus providing a new clue to the understanding of amyloidosis.
XXIV Ciclo
1979
Cneazovici, Fabian. "Effetti di ambienti di Realtà Virtuale sulla variabilità della frequenza cardiaca". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16578/.
Texto completo da fonteMORO, TATIANA. "Dalla molecola al bilanciere: analisi degli effetti di una metodica di allenamento high intensity interval resistance training (HIIRT)". Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3423938.
Texto completo da fonteNegli ultimi anni sta sempre di più affermando il concetto che l’allenamento contro resistenza, o Resistance Training (RT), sia un ottimo stimolo anabolico, e che la sua pratica costante possa migliorare la composizione corporea, contrastare i rischi di patologie cardiovascolari o metaboliche. Tuttavia, la struttura del RT è molto complessa e prevede l’interazione di numerose variabili che rendono disomogenei i protocolli utilizzati in letteratura per descrivere gli effetti di questa metodica di allenamento. Per questo motivo, l’argomento su cui fa perno questa ricerca, è lo studio di una specifica metodica di RT, in cui l’intensità è stata definita come il rapporto tra il carico sollevato (%1RM) e la durata del recupero tra le serie dell’esercizio. In considerazione della frenesia che contraddistingue la vita nella società odierna, uno dei principali ostacoli alla pratica continua di esercizio fisico è la mancanza di tempo: a tale scopo sarebbe importante trovare metodiche di allenamento che possano essere efficaci e al contempo avere una breve durata. La metodica HIIRT (High Intensity Interval Resistance Training) consiste nell’eseguire 6 ripetizioni ad esaurimento con un carico pari a circa l’80% di 1RM, 20” di pausa, per poi richiedere nuovamente al soggetto di effettuare il massimo numero di ripetizioni che è in grado di sostenere con il medesimo carico, altri 20” di pausa e ancora una serie. Lo scopo di questa ricerca è comprendere gli effetti della metodica HIIRT sulla salute ed il benessere dei soggetti mediante un’analisi a 360°, che comprenda sia lo studio degli adattamenti cellulari che le risposte in termini di performance muscolare. A tale scopo il progetto di ricerca è stato suddiviso in quattro fasi. In una prima parte sperimentale abbiamo confrontato l’effetto in acuto sul signalling muscolare di tre differenti protocolli di allenamento: Resistance Training Tradizionale (TRT), High Intensity Resistance Training (HIIRT) e High Intensity Training (HIT). Le prime due tipologie rappresentano due differenti intensità di allenamento con sovraccarichi, la terza proposta è invece un esercizio di tipo aerobico. Per il progetto ho reclutato 16 soggetti i quali sono stati assegnati random ai tre differenti protocolli. Le biopsie muscolari mediante ago sottile, sono state effettuate una settimana prima di ogni allenamento, immediatamente dopo la seduta, a 6h e 24h di distanza. I soggetti sono stati inoltre monitorati durante l’allenamento per valutare la risposta pressoria e cardiaca ai differenti protocolli di RT. L’analisi del signalling ha evidenziato una preferenziale attivazione di Akt in HIIRT, mentre il gruppo TRT sembra attivare maggiormente ERK1/2, invece le proteine ribosomiali 4EBP1 e S6 hanno subito la medesima influenza. TRT e HIT attivano in modo similare le vie di ossidazione mitocondriale (AMPK, ACC e PCG-1), mentre HIIRT sembra avere solo un effetto limitato alle prime ore successive all’allenamento. Nessuna differenza significativa è stata evidenziata per la risposta pressoria o cardiaca tra le due tipologie di RT. Nella seconda fase sperimentale abbiamo considerato gli effetti degli stessi protocolli di RT effettuati per un periodo di 8 settimane. Abbiamo reclutato 20 soggetti di età compresa da 20 e 30 anni. Prima e dopo il periodo di allenamento sono state effettuate le analisi ematochimiche ed ormonali, DEXA, test di forza, VO2max, e metabolismo basale. Il protocollo HIIRT ha migliorato la forza e la resistenza muscolare ma non la composizione corporea dei soggetti ,né è riuscito ad aumentare il metabolismo basale. La terza fase sperimentale prevedeva lo studio della metodica HIIRT su una popolazione di anziani sedentari. Per il progetto ho reclutato 35 anziani di età superiore ai 60 anni, di cui 23 hanno concluso lo studio. La sperimentazione ha avuto una durata complessiva di 6 mesi. I soggetti hanno iniziato un medesimo protocollo di RT a carichi progressivi per 4 mesi e, dopo una valutazione dei risultati raggiunti, sono stati assegnati random ai due differenti protocolli (HIIRT e TRT). È stato valutato l’effetto dell’allenamento sull’espressione di forza, sulla composizione corporea e su alcuni parametri ematochimici ed ormonali. Al termine dell’esperimento abbiamo potuto confermare quanto sta già emergendo dalla letteratura, ovvero che protocolli troppo intensi di allenamento non sono la metodica più efficace in una popolazione anziana. Nello specifico abbiamo rilevato un miglioramento di forza paragonabile al protocollo a bassa intensità; non si sono apprezzate differenze di massa muscolare dall’analisi della composizione corporea mediante BIA; il profilo ormonale ha mostrato una diminuzione in entrambi i gruppi della concentrazione basale degli ormoni anabolici (IGF-1; GH; testosterone) mentre, le lipoproteine ematiche hanno risposto in maniera positiva all’allenamento HIIRT. Infine, abbiamo confrontato la metodica HIIRT ed un’altra metodica ad alta intensità, chiamata piramidale (PYR) su indici di danno muscolare. Per questo studio sono stati reclutati 6 soggetti con esperienza nel mondo del body building. La procedura sperimentale prevedeva l’analisi degli indici di danno muscolare quali Creatin Kinase (CK), Colesterolo totale (CHOL TOT) e Acido Lattico (LAT) in seguito ad una singola seduta dei due protocolli allenanti. I campioni ematici sono stati raccolti a riposo, immediatamente dopo l’esercizio, e a distanza di 2 e 48 ore. Le due tipologie di allenamento somministrate non sembrano influenzare in modo significativo i valori di CK, mentre vi è una diminuzione significativa del CHOL TOT (indice di danno muscolare) con la metodica HIIRT rispetto alla metodica PYR; vi è stato un maggior aumento del lattato con metodica PYR rispetto a quella HIIRT. La percezione della dolenzia muscolare è stata maggiore dopo PYR. Questi dati, sembrano dimostrare che, in atleti esperti, la metodica HIIRT induce un maggior danno muscolare ma una minor sensazione di fatica rispetto al PYR. In conclusione, la metodica HIIRT è una buona soluzione per aumentare la forza muscolare, ed è ben tollerata dai praticanti. Tuttavia è troppo intensa per soggetti anziani, e non efficace nel migliorare la composizione corporea se non accompagnata, probabilmente, da una dieta controllata.
PIENNE, CYRIL. "Etude d'un calorimetre electromagnetique pour hades (high acceptance di-electron spectrometer)". Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF21851.
Texto completo da fonteMarra, Matteo. "Sviluppo di un modulo di acquisizione dati ad elevato throughput da amplificatori per elettrofisiologia". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8860/.
Texto completo da fonteBorghesi, Andrea <1988>. "Power-Aware Job Dispatching in High Performance Computing Systems". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amsdottorato.unibo.it/7982/1/master.pdf.
Texto completo da fonteAUDASSO, EMILIO. "Simulation of High Temperature Fuel Cells for Carbon Capture". Doctoral thesis, Università degli studi di Genova, 2021. http://hdl.handle.net/11567/1038604.
Texto completo da fonteCensoni, Rita. "Sintesi di polialchilmetacrilati ad alto peso molecolare". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24390/.
Texto completo da fonteBONACCI, MIKI. "Automatizzazione di un'accurata descrizione delle funzioni di risposta nei sistemi a bassa dimensionalità tramite teoria delle perturbazioni dei sistemi a molti corpi". Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1289906.
Texto completo da fonteIn materials science, the combination of theoretical simulations with high-throughput (HT) techniques is gaining larger attention, as it can speed up the search and discovery of novel materials expressing desired properties. In the last decade, HT methods have been mostly applied to density functional theory (DFT) demonstrating great success. Nevertheless, DFT lacks of predictive accuracy when dealing with excitations and spectroscopies, as for instance in the prediction of quasiparticle properties (ARPES experiments), or absorption and electron energy loss spectra (EELS) where an accurate description of the excitonic effects is needed. In this Thesis we want to combine the power of HT screening with the accuracy of many-body perturbation theory (MBPT) to study the electronic and optical properties of low-dimensional systems. In particular, we adopt the GW approximation to study the electronic band structure and the Bethe-Salpeter equation to compute optical spectra. The first part of the work has been devoted to developing a set of workflows to perform automated convergence studies of the main computational parameters entering in MBPT calculations. Being convergence tests in MBPT of paramount importance to obtain meaningful results, also representing the most human time-consuming part of a GW/BSE calculation, this step has been essential in the effort of joining MBPT with HT schemes. The above mentioned workflow was first validated on well-known systems like hBN or TiO2, and then applied to study excitonic effects in C3N, a recently synthesized 2D system. Monolayer C3N is an emerging 2D indirect gap semiconductor with interesting mechanical, thermal, and electronic properties. In this thesis we have performed a complete description of C3N electronic and dielectric properties, focusing on the momentum-resolved excitonic band structure. As for other 2D materials, we find a linear non-analytic excitonic dispersion close to q=0, which however shows a downward convexity related to the indirect nature of the band gap. Next, these workflows were used to study the accuracy of the Godby-Needs plasmon-pole approximation (GN-PPA) implemented in the Yambo code on the GW100 set, a set of 100 molecules used to benchmark the main MBPT codes by means of G0W0 approximation. For all the molecules we computed converged ionization potential (IP) and electron affinity (EA), and compared the results with the other MBPT codes with available GW100 data. The results of this study allowed us to conclude that the GN-PPA scheme outperforms other commonly used approximations such as the Hybertsen-Louie plasmon pole model, and provides results in a reasonable agreement with more sophisticated implementation of GW as the full-frequency and contour deformation methods. Recently, the EPFL-THEOS (Lausanne, CH) group, led by Prof. Nicola Marzari, performed a HT computational exfoliation of experimentally known 3D compounds, discovering more than 1800 exfoliable layered materials. The final part of this Thesis is dedicated to the investigation of the electronic and optical properties of a subset of these recently discovered 2D systems, in order to possibly identify candidate materials that can realize the long sought excitonic insulator (EI) phase.The EI phase is a correlated phase of matter, proposed more than 50 years ago by L. Keldysh, W. Kohn, in which the ground state of a system, below a critical temperature, is formed by a Bose condensate of excitons. To make prediction on the possibile excitonic instabilities in the ground state, very accurate estimation of the electronic band gap and excitonic binding energies are indispensable and workflows capable of making automatic calculations based on MBPT constitute an extremely effective tool for this research.
Hushi, Bajram. "Sviluppo di un modulo di visualizzazione, memorizzazione e analisi dati in real-time con elevato parallelismo". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9257/.
Texto completo da fonteNigro, Michele. "Progettazione di un cluster sul cloud con il framework HPC". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20316/.
Texto completo da fonteBORTOLINI, CRISTIAN. "Caratterizzazione della diversità microbica in fave di cacao fermentate". Doctoral thesis, Università Cattolica del Sacro Cuore, 2017. http://hdl.handle.net/10280/19074.
Texto completo da fonteThe quality of commercial cocoa beans, the principal raw material for chocolate production, depends on several factors including type of plantations, the agricultural practices and the post-harvest processing. Among these, fermentation and drying are generally considered the most relevant, since during these phases cocoa flavors precursors are formed and fixed. Furthermore, they represent crucial steps during which filamentous fungi contamination might occur. Fermentation is characterized by a well-defined succession of yeasts, lactic acid bacteria and acetic acid bacteria, so that, the aim of the described studies was to explore total bacterial and fungal communities involved in cocoa bean fermentation and to evaluate if geographical origin and fermentation method might affect their composition. To achieve these results, 16s rRNA gene was used as marker to assess the total bacterial community by using High Throughput Sequencing (HTS), indicating that this approach has the ability to provide a comprehensive view of the cocoa bean microbiota at the species level. In a second approach, Internal Transcribed Spacer 1 (ITS1) and the D1/D2 domain of the Large subunit (LSU) of the nuclear ribosomal RNA (26S rRNA) were screened to assess the total fungal community. Results revealed the ability of these two genomic regions to describe reliably the general composition, even if D1/D2domain was able to go deeper into the fungal composition resulting in a higher resolution. In the last approach the same samples subjected to HTS investigation were analyzed through SPME-GC-MS in order to underline the principal key-aroma compounds formed during the post-harvest processing. Overall, results point out clearly that HTS approach has the ability to provide a comprehensive view of the total bacterial and fungal communities, and statistical analyses have shown how analyses of ITS1 sequences and volatile compounds might be useful for the geographical traceability of the processed cocoa beans samples.
BORTOLINI, CRISTIAN. "Caratterizzazione della diversità microbica in fave di cacao fermentate". Doctoral thesis, Università Cattolica del Sacro Cuore, 2017. http://hdl.handle.net/10280/19074.
Texto completo da fonteThe quality of commercial cocoa beans, the principal raw material for chocolate production, depends on several factors including type of plantations, the agricultural practices and the post-harvest processing. Among these, fermentation and drying are generally considered the most relevant, since during these phases cocoa flavors precursors are formed and fixed. Furthermore, they represent crucial steps during which filamentous fungi contamination might occur. Fermentation is characterized by a well-defined succession of yeasts, lactic acid bacteria and acetic acid bacteria, so that, the aim of the described studies was to explore total bacterial and fungal communities involved in cocoa bean fermentation and to evaluate if geographical origin and fermentation method might affect their composition. To achieve these results, 16s rRNA gene was used as marker to assess the total bacterial community by using High Throughput Sequencing (HTS), indicating that this approach has the ability to provide a comprehensive view of the cocoa bean microbiota at the species level. In a second approach, Internal Transcribed Spacer 1 (ITS1) and the D1/D2 domain of the Large subunit (LSU) of the nuclear ribosomal RNA (26S rRNA) were screened to assess the total fungal community. Results revealed the ability of these two genomic regions to describe reliably the general composition, even if D1/D2domain was able to go deeper into the fungal composition resulting in a higher resolution. In the last approach the same samples subjected to HTS investigation were analyzed through SPME-GC-MS in order to underline the principal key-aroma compounds formed during the post-harvest processing. Overall, results point out clearly that HTS approach has the ability to provide a comprehensive view of the total bacterial and fungal communities, and statistical analyses have shown how analyses of ITS1 sequences and volatile compounds might be useful for the geographical traceability of the processed cocoa beans samples.
Bellomo, Alessandra <1992>. "Hannibal Lecter nell'era della convergenza: da fenomeno di genere a narrazione high concept". Master's Degree Thesis, Università Ca' Foscari Venezia, 2016. http://hdl.handle.net/10579/8728.
Texto completo da fonteLEOGRANDE, MARCO. "High Speed and Flexible Network Processing". Doctoral thesis, Politecnico di Torino, 2014. http://hdl.handle.net/11583/2542314.
Texto completo da fonteSTRAZZERI, ELISABETTA. "Energy calibration and ultra-high energy cosmic ray spectrum at the Southern Pierre Auger Observatory". Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2008. http://hdl.handle.net/2108/411.
Texto completo da fonteAn empirical method to estimate the spectrum of cosmic rays with zenith angles of arrival direction ζ < 60° and energies E > 3 EeV is presented. The recorded data at the Southern Pierre Auger Observatory from January 2004 up to the end of August 2007 have been used. The Auger Observatory is a hybrid detector, which observes the air shower particles at a ground array of 1600 particle detectors (the Surface Detector) and the associated fluorescence light at 24 optical telescopes (the Fluorescence Detector) that overlook the surface array. To extract the attenuation curve, which allows the conversion from the shower size Sζ(1000) to the energy parameter S38°, and to obtain the model-independent energy calibration of the SD from FD calorimetric measurements, which follows the conversion from the signal S38° to the primary energy E, high quality golden events are used. An exact linear relation between logE and logS38° describes the golden data with energies above 3 EeV. Specifically, for any reconstructed signal Sζ(1000), the primary energy E is determined from the relation , x â ¡ (cosζ)2 â (cos38°)2 The energy spectrum is obtained from SD data, since the SD absolute acceptance for E > 3 EeV does not depend on energy and its calculation is purely geometrical. The â cleanâ SD exposure for the time interval, which has been used in the measure of the spectrum, rejecting the â badâ periods is 7000 (km2 yr sr) with an accuracy of 1%. To ensure an excellent data quality, the periods that have been affected by lightning and hardware difficulties are removed. The observed results show an evident suppression of the events above 50 EeV, which suggests a GZK cut-off scenario. From 3 EeV up to 125 EeV the energy spectrum can be described by a power-law form with a â variable spectral indexâ given by Ð (E) = 2.77 + 0.23 ε â ¡ The statistical and systematic uncertainties in the energy scale are of the order of 6% and 22%, respectively. The integrated CR energy flux per steradian (derived from SD data using showers with ζ < 60°) is (1.22 ± 0.06sta ± 0.27sys) (kmâ 2 yrâ 1) above 3 EeV, and (15.13 ± 0.79sta ± 3.31sys) (kmâ 2 centuryâ 1) above 10 EeV.
Poggi, Giovanni. "Implementazione CUDA su GPU di un algoritmo sort-based per la distribuzione efficiente di dati in simulazioni distribuite". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24988/.
Texto completo da fonteMalerba, Diego Leonardo. "Failure Consequence Modelling of High Pressure Hydrocarbon Transmission Pipeline". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.
Encontre o texto completo da fonteSINGH, AKASH. "Mechanical Design and Thermal Management of a High-Performance Robotic Actuator". Doctoral thesis, Università degli studi di Genova, 2022. http://hdl.handle.net/11567/1084221.
Texto completo da fonteZammitti, Salvina. "Post-translational modifications of high mobility group a (HMGA) proteins in neoplastic transformation". Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3614.
Texto completo da fonteLe proteine HMG (High Mobility Group) sono la famiglia più ampiamente e meglio caratterizata fra le proteine cromosomiche non istoniche. Esse sono raggruppate in tre sottofamiglie: HMGA, HMGB ed HMGN. Ciascuna sottofamiglia è caraterizzata da una sequenza o motivo funzionale attraverso il quale sono capaci di legarsi a specifiche strutture sul DNA o sulla cromatina. La famiglia HMGA di mammifero consiste di due geni funzionali: HMGA1 and HMGA2. Lo splicing alternativo del trascritto del gene HMGA1 dà origine alle proteine HMGA1a ed HMGA1b. La proteina HMGA2 è codificata dall’altro gene. Le proteine HMGA partecipano a specifiche interazioni proteina-DNA e proteina-proteina inducendo sia cambiamenti strutturali della cromatina che la formazione di complessi macromolecolari su regioni promotrici//enhancer di diversi geni. Pertanto esse sono descritte come fattori archietturali della trascrizione. Grazie alla loro multifunzionalità, ese partecipano a diversi processi biologici quali l’integrazione virale, l’embriogenesi e la differenziazione, l’apoptosi, la senescenza, la trasformazione neoplastica ed il riparo del DNA. La caratteristica di proteine oncofetali attribuita alle HMGA prende origine dal fatto che esse sono (i) altamente espresse durante l’embriogenesi, (ii) assenti o espresse a bassi livelli nei tessuti adulti e (iii) altamente riespresse nelle cellule trasformate. Queste proteine sono, tra le proteine nucleari, quelle più soggette a modificazioni post-traduzionali e le loro attività sono modulate da una ampia varietà di modificazioni post-traduzionali. In questo lavoro di tesi, grazie all’uso di linee cellulari di cancro mammario in cui è stata indotta la reversione del fenotipo neoplastico tramite trattamento farmacologico e successive analisi di spettrometria di massa, si è ricercata una connessione tra le modificazioni post-traduzionali delle HMGA ed il processo di trasformazione neoplastica. Inoltre, grazie ad una nuova strategia in vitro sviluppata nel nostro laboratorio per l’identificazione di partner molecolari delle proteine HMGA, si è dimostrato che la proteina HMGA1a si associa con la proteina Ku70, che è un fattore chiave coinvolto nel riparo delle rotture al doppio filamento di DNA attraverso il “non-homologous end joining”. Numerose evidenze sperimentali suggeriscono che l’inibizione del riparo del DNA da parte delle HMGA posa contribuire alle instabilità genetiche e cromosomiche comunemente ritrovate nelle celle cancerose. Perciò, si è ricercata una relazione funzionale tra le proteine HMGA e le proteine chiave nel meccanismo di riparo del DNA attraverso “non-homologous end joining”, focalizzando l’attenzione in particolare sulla proteina DNA-PK (DNA-dependent protein kinase), che ha una funzione regolatrice chiave in questo processo.
XXII Ciclo
1973
Avanzi, Elisabetta. "Antropologia ed organizzazione delle imprese creative dell'ICT - Analisi della nascita, ascesa e suicidio organizzativo di un micro-distretto di aziende di comunicazione multimediale". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4958/.
Texto completo da fonteFICHERA, CLAUDIO. "High Strain-Rate and Temperature Behaviour of Metals: Advanced Testing and Modelling". Doctoral thesis, Politecnico di Torino, 2015. http://hdl.handle.net/11583/2598772.
Texto completo da fontePIGA, DANIELE. "FROM HIGH-PRESSURE TO IN-SITU POLYMERIZATION: DESIGN AND SYNTHESIS, NEW CHALLENGING OF POROUS MATERIALS". Doctoral thesis, Università degli Studi di Milano-Bicocca, 2019. http://hdl.handle.net/10281/241207.
Texto completo da fonteThe work was divided into two parts. The first part was a study on the gas adsorption capacity of porous materials, in particular on the capacity of porous organic systems in methane storage. The work was based on a systematic study of a series of organic porous materials, of high pressure methane storage capacities. The synthesized materials were compared with some commercial porous materials with high performance in storage and showed an increase in the quantities of gas possibly transportable inside them. The materials were also compared with the methods commonly used for the transport of methane, resulting in potential candidates for this application, considering the ease of production and both thermal and chemical stability. Another series of porous materials with slight changes to the main structure, has shown, however, the possibility of modifying the interaction of the material with the different gases going to obtain compounds with slight structural changes but with different physical interactions. In a second part I focused on using the pores of these materials as reactors for confined polymerizations. The work led to the development of anionic polymerization in these materials for the first time. This new and innovative technique has allowed us to produce polymers with distinct tactics and isolated chains. Subsequently, it was decided to chemically anchor the porous material to the growing polymer. This has led to polymers with structures different from those obtainable with the classic polymerizations and to the development of a new type of completely carbonaceous and chemically bound composite that prevents the problem of de-mixing. Subsequently, the use of materials with one-dimensional pores, led to the development of polyacrylonitrile within the material channels. Polyacrylonitrile was subsequently converted through carbon fiber thermal treatments into the porous material. The thermal treatment of polyacrylonitrile inside the pores has led to a structure with fewer defects than the bulk treatment, the best structure, for subsequent heat treatments will lead to a carbon fiber with mechanical characteristics better than those of a bulk synthesis.
Rablah, Blake Kenton. "A coupled-circuit representation of IGBT module geometry for high di/dt switching applications". Thesis, University of British Columbia, 2007. http://hdl.handle.net/2429/32231.
Texto completo da fonteApplied Science, Faculty of
Electrical and Computer Engineering, Department of
Graduate
Di, Palma Irene [Verfasser]. "A first search for coincident gravitational waves and high energy neutrinos / Irene Di Palma". Hannover : Technische Informationsbibliothek und Universitätsbibliothek Hannover (TIB), 2012. http://d-nb.info/1028004613/34.
Texto completo da fonteCroci, Chiocchini Anna Laura <1984>. "Azione immunomodulatoria del trattamento extracorporeo emodialitico e studio comparativo di diverse membrane high flux". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amsdottorato.unibo.it/9154/1/Tesi%20Croci%20Chiocchini.pdf.
Texto completo da fonteIntroduction. Chronic inflammation is a cardiovascular risk factor observed in hemodialysis patients. It depends both on dialysis-unrelated and related factors, as membrane biocompatibility and permeability to middle molecule, including inflammation cytokines. On the other hand, uremia is associated with immune dysfunction and high prevalence of infections. This study focuses on immunomodulatory effect of single dialysis session and compares three different high flux membranes. Methods. 35 maintenance hemodialysis three times per-week patients and 10 healthy volunteers were enrolled. For two weeks group A and C underwent hemodialysis with Filtryzer BGU 1.6 and THERANOVA respectively, group B hemofiltration with HFR17. Peripherical blood mononuclear cells (PBMC) were collected at the beginning (T0) and the end (T1) of the 5th session and starting the 6th session (T2). Previous sessions allowed wash-out from usual treatment. Cytofluorimetry, cellular proliferation and apoptosis essay were performed. Results. CD3+, B and T lymphocytes reduce, according to increased apoptosis in dialysis patients, compared to healthy volunteers. NK, senescence CD8+ CD57+ and Th17 increase. During session CD3+ suffer a significant drop secondary to apoptosis, to rise again, not significantly, on T2. On T1 CD4+ increase due to proliferation, as well as Treg/Th17 ratio and drop on next session. CD8+ decrease on T1 and T2 according to IFN-γ production. CD4+/CD8+ ratio is increased in T1 to decrease in interdialytic interval. CD8+ CD57+ and IFN-γ production drop during treatment, persisting on 6th dialysis. NK and monocytes decrease during session to rise in interdialytic interval. Comparing the three different dialyzer no statistically significant variations were recorded. Conclusions. Replacement therapy represents an acute inflammatory trigger in terminal uremia hyperactive and dysfunctional immune system, as evidenced by the increase in cytotoxic lymphocyte subpopulations compared to healthy population. Single dialysis session attempts to correct dysfunctional inflammatory state, removing mediators, with restoration of basal conditions in interdialytic interval.
IMPOLLONIA, GIORGIO. "Telerilevamento multispettrale da APR per high-throughput phenotyping dei tratti di canapa e miscanto". Doctoral thesis, Università Cattolica del Sacro Cuore, 2022. http://hdl.handle.net/10280/119451.
Texto completo da fonteUnmanned aerial vehicle (UAV) based remote sensing platform was used for high-throughput phenotyping (HTP) of hemp and miscanthus traits. UAV remote sensing, through the acquisition of multispectral images and the calculation of different vegetation indices, is able to estimate the crop traits. In this thesis, the crop traits estimated were leaf area index and leaf chlorophyll content for hemp, while light interception, plant height, green leaf biomass, standing biomass, and moisture content for miscanthus. The estimation of the traits was carried out using machine learning algorithms and the inversion of the PROSAIL model. The HTP of hemp and miscanthus was carried out by applying the generalized additive model (GAM) to the time series of traits values estimated from UAV flights. UAV remote sensing enabled to analyse of the traits' dynamics during the growing season. Combining estimation models and GAM modelling applied to time series of crop trait values estimated from multiple multispectral images of UAV flights proved to be a powerful tool for HTP.
Cavalli, Bertolucci Cristina. "Lo sviluppo delle competenze di modellizzazione matematica nella scuola secondaria di secondo grado. Concezioni iniziali e processi di intervento didattico". Doctoral thesis, Università degli studi di Padova, 2015. http://hdl.handle.net/11577/3424286.
Texto completo da fonteQuesta ricerca ha lo scopo di indagare le competenze di modellizzazione matematica degli studenti della scuola superiore di secondo grado e il modo in cui insegnanti pensano di adattare le loro metodologie in classe per far fronte agli ostacoli riscontrati. La ricerca si inscrive nel paradigma epistemologico costruttivista; si utilizza la versione elaborata a UC Berkeley da gruppo di lavoro di A. diSessa. Nella tesi la modellizzazione viene trattata come forma di competenza, sottolineando l’interazione fra “costruttivismo” e “competenze”. L’indagine è di tipo esplorativo e è divisa in due percorsi: Nella FASE 1, attraverso l’utilizzo dell’intervista clinica si indaga sulla competenza modellistica degli studenti, cercando di individuare i maggiori ostacoli da essi affrontati. In particolare si esplorano gli elementi di base della conoscenza (i primitivi fenomenologici o p-prims) della modellizzazione matematica di fenomeni reali e le forme più articolate della competenza attraverso lo svolgimento di tre attività di modellizzazione: il Taxi, la Statua e il Viaggio. I primitivi fenomenologici sono gli elementi di base della competenza, su cui si costruisce la competenza matematica più avanzata. Nell’analisi abbiamo identificato i p-prims presentati dagli studenti durante lo svolgimento delle attività; lo scopo di tale identificazione è capire quali sono i punti che ostacolano lo sviluppo della competenza di modellizzazione. Si è cercato di analizzare lo studente nelle situazioni concrete, provando a contrastare le sue rappresentazioni e il suo comportamento nella pratica. Inoltre, si presenta uno studio realizzato con gli studenti coinvolti in cui si presentano le loro motivazioni a imparare, la percezione della propria competenza, l’autoefficacia, quale sono le loro concezioni sull’apprendimento della matematica e le possibili connessioni dei contenuti imparati a scuola nel loro quotidiano. Nella FASE 2 della ricerca si svolge un’intervista semi strutturata a insegnanti di matematica della scuola superiore di secondo grado. Attraverso una riflessione iniziale sui frammenti riscontrati nella prima fase della ricerca, l’intervista ha indagato quali sono gli ostacoli del processo modellistico affrontato dagli studenti e quali sono le possibili vie di intervento da adattare in classe per sviluppare la modellizzazione come una competenza. L’analisi qualitativa del contenuto ha generato nove categorie per interpretare la competenza modellistica da un altro punto di vista. L’intervento con gli insegnanti ci ha permesso di conoscere come essi comprendono le competenze modellistiche degli studenti, come pensano che le Indicazioni nazionali per il curriculo possano aiutarli in classe e quali sarebbero gli elementi da considerare in tale documento. I suggerimenti per adattare la modellizzazione nella pratica didattica sono stati significativi e da non sottovalutare. Da una prospettiva costruttivista, la presenza di concezioni primitive è considerata un aspetto fondamentale e inevitabile dell’apprendimento ed esige la messa in atto di strategie didattiche efficaci per promuovere lo sviluppo della competenza indagata.
Simoncig, Alberto. "The role of the electron recoiling mechanism in coherent light high-order harmonics generation: from the source to the applications". Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3581.
Texto completo da fonteI processi di generazione di armoniche di ordine superiore (High-order Harmonic Generation o HHG) in gas inerti rappresentano, attualmente, la tecnica piu` promettente per la creazione di impulsi di luce coerente nell'estremo ultra-violetto (EUV) in una configurazione table-top. I processi HHG si basano sull'interazione non-lineare, tra impulsi laser ultra-corti, tipicamente dell'ordine della decina di femtosecondi, e atomi di gas inerti. Le caratteristiche che distinguono i processi HHG sono la loro durata temporale, che puo` essere nel dominio degli attosecondo e il fatto che l'interazione e` non perturbativa. Invece, la natura quantistica dei processi HHG implica la presenza di meccanismi di diffusione che influenzano la funzione d'onda dell'elettrone atomico coinvolto nell'interazione con il campo laser. Il ruolo della diffusione viene usualmente trascurato nella letteratura corrente, sebbene quest'ultima sia strettamente legata al controllo dell'efficienza del processo HHG e dello stato di polarizzazione dei fotoni generati. Il lavoro di tesi e` focalizzato sullo studio sperimentale e teorico/fenomenologico del ruolo dei meccanismi di diffusione, e sul loro controllo, al fine di incrementare l'efficienza e la qualita` ottica, i.e. coerenza, struttura temporale, etc., dei fotoni HHG prodotti. Gli studi e gli esperimenti condotti forniscono, in base alla nostra attuale conoscenza, la prima dimostrazione quantitativa a supporto del modello di Leweinstein. Accanto alla caratterizzazione spettrale, viene presentato uno studio accurato circa le condizioni minime necessarie a generare impulsi HHG, sempre legate al ruolo della diffusione della funzione d'onda elettronica. I risultati hanno permesso di ottenere una piu` profonda comprensione della complessa dinamica non-lineare, che sta alla base dei processi HHG. Accanto allo studio della diffusione si e` cercato di ottenere il controllo sullo stato di polarizzazione degli impulsi HHG, i quali mantengono la polarizzazione della radiazione laser utilizzata. La stessa diffusione impedisce di creare efficientemente armoniche di ordine superiore con polarizzazione ellittica (o circolare). Per risovere questo problema e` stata abbiamo sviluppato una collaborazione con il gruppo CXRO del Lawrence Berkeley National Laboratory, (Berkeley, USA), grazie al quale sono state realizzate una serie di ottiche multistrati innovative basate sul principio dell'angolo di Brewster, e disegnate appositamente per polarizzare circolarmente impulsi di luce EUV. Queste ultime sono state preliminarmente testate con successo sulla beam-line 6.3.2 del sincrotrone di Berkeley. La parte finale della tesi presenta la prima sorgente di impulsi HHG, polarizzati circolarmente utilizzando i citati multistrati. Per verificare l'efficienza e` di questi multistrati e` stato condotto un esperimento di dicroismo magnetico circolare con radiazioni EUV (EUV-MCD), unico nel sul genere, in quanto utilizza gli impulsi HHG polarizzati circolarmente per sondare il comportamento dicroico in corrispondenza delle soglie di assorbimento M di metalli ferromagnetici come Fe e Ni o delle loro leghe. Il fine ultimo e` dato dalla realizzazione di un esperimento risolto in tempo capace di utlizzare impulsi HHG circolarmente polarizzati per comprendere il processo di demagnetizzazione di sistemi ferromagnetici, sulla scala temporale del femtosecondo.
XXII Ciclo
1982
CANAVESE, DANIELE. "Automatic generation of high speed elliptic curve cryptography code". Doctoral thesis, Politecnico di Torino, 2016. http://hdl.handle.net/11583/2652694.
Texto completo da fonteTempesta, Giuseppe. "Studio e realizzazione in ambiente HPC di un algoritmo fault-tolerant per la soluzione di sistemi lineari basato sul Metodo delle Interdizioni". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18670/.
Texto completo da fonteZanier, Giulia. "High Resolution Model to Predict Oil Spill Dispersion in Harbour and Coastal Areas". Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/11124.
Texto completo da fonteMostriamo un modello allo stato dell’arte, che considera i principali processi fisici che governano il greggio in mare nelle prime ore dopo il rilascio, (Zanier, et al., 2014). Le particelle e i tar sono trattati come particelle lagrangiane, ognuna con la propria densità e il proprio diametro; consideriamo le forze principali che agiscono su di esse ossia: galleggiamento, trascinamento e la forza di Coriolis. Il greggio in forma di film sottile è modellato tramite le equazioni proposte da Nihoul (Nihoul 1983/84). Il modello originale di Nihoul considera le forze principali (ossia gravità, stress indotto da vento e correnti marine) che agiscono sulla macchia e governano il suo trasporto e diffusione, sulla superficie del mare, nelle prime 24 ore dopo il rilascio. Il nostro miglioramento al modello consiste nell’introduzione della forza di Coriolis evitando di utilizzare formulazioni empiriche (Zanier, et al., 2015). Infine i principali processi di weathering che agiscono sulla macchia nelle prime 12-24 ore dopo il rilascio (ossia emulsificazione ed evaporazione) sono considerate in accordo con i modelli presenti in letteratura (Mackay, Peterson, et al., 1980 e Mackay, Buist, et al., 1980, rispettivamente). Per preservare un’accuratezza del secondo ordine del metodo numerico, i termini convettivi, nel modello Euleriano, sono discretizzati usando SMART uno schema numerico upwind del terzo ordine (Gaskell and Lau 1988). Il modello è validato con dei casi test standard. Le correnti marine sono risolte con il modello LES-COAST (IEFLUIDS Università di Trieste), un modello numerico ad alta definizione, adatto per simulare flussi in aree costiere e portuali. Il modello LES-COAST risolve la forma filtrata delle equazioni di Navier-Stokes tridimensionali e non-idrostatiche, assumendo che valga l’approssimazione di Boussinesq; e l’equazione di trasporto degli scalari, salinità e temperatura. Il modello usa l’approccio della large eddy simulation per parametrizzare la turbolenza, le variabili sono filtrate con una funzione filtro, rappresentante la grandezza delle celle. I flussi di sottogriglia (SGS), che appaiono dopo l’operazione di filtraggio delle equazioni, sono parametrizzati con un modello di Smagorinsky anisotropo con due eddy viscosity, per adattare il modello a simulare flussi costieri dove le lunghezze scala orizzontali sono molto più grandi di quelle verticali (Roman et al., 2010 ). Le diffusività di sotto griglia della temperatura e salinità, cioè i numeri di Prandtl e Schmidt, sono imposti come $Pr_{sgs}=Sc_{sgs}=0.8$, assumendo che l’analogia di Reynolds sia valida per entrambi gli scalari. La complessità geometrica che caratterizza le aree costiere, è trattata con una combinazione di griglie curvilinee e il metodo dei contorni immersi (IBM) (Roman, Napoli, et al., 2009). L’azione del vento sulla superficie libera del mare è imposta tramite una formula proposta da Wu (Wu, 1982), nella quale lo stress del vento sul mare è calcolato dalla velocità del vento a 10 m sopra il livello del mare. Allo stress aggiungiamo una varianza del 20% per agevolare la generazione di turbolenza e per tener conto che l’azione del vento non è costante nel tempo e nello spazio. Inoltre vicino agli ostacoli, come moli, navi e frangiflutti, lo stress del vento è ridotto linearmente, per considerare la riduzione del vento che si ha nelle zone di ricircolo. Sui contorni aperti le velocità e le quantità scalari sono ottenute innestando il modello LES-COAST con modelli di larga scala (Petronio, et al., 2013) oppure sono impostati secondo dati rilevati. Vicino ai bordi solidi le velocità sono modellate tramite funzioni parete (Roman, Armenio, et al., 2009). Il modello di rilascio di petrolio e il modello idrodinamico sono stati applicati assieme per simulare degli ipotetici scenari di trasporto e diffusione del greggio in mare nel porto di Barcellona (Mar Mediterraneo Nord-Ovest, Spagna, Galea, et al. 2014) e nella baia di Panzano (Mar Adriatico, Nord, Italia).
We present a novel, state of the art model, which accounts for the relevant short-term physical processes governing oil spill at sea, (Zanier, et al., 2014). Particles and tars are modelled as Lagrangian phase having its own density and diameter; taking into account the main forces acting on them, namely: buoyancy, drag and Coriolis forces. Oil transported in form of thin-film is treated by means of an improved Nihoul’s model (Nihoul 1983/84). The latter considers the main forces (gravity, wind and sea currents stresses) governing oil slick spreading and transport in the first hours after spilling, up to 24h for large spill. Our main improvement to the classical model consists in the introduction of Coriolis effect, avoiding using empirical formulations (Zanier, et al., 2015). Finally the relevant short-term (12-24 hours) weathering processes (mainly emulsification and evaporation) are taken into account through established literature models (Mackay, Peterson, et al., 1980 and Mackay, Buist, et al., 1980, respectively). To preserve second-order accuracy of the overall numerical method, convective terms, in the Eulerian model, are discretized using SMART a third order accurate upwind numerical scheme (Gaskell and Lau 1988). We validate the model on standard test cases. The underground hydrodynamics is resolved using LES-COAST (IEFLUIDS University of Trieste), a high definition numerical model suited for coastal or harbour areas. LES-COAST model solves the filtered form of three dimensional, non-hydrostatic Navier-Stokes equations under Boussinesq approximation and the transport equation for salinity and temperature. It makes use of Large Eddy Simulation approach to parametrize turbulence, the variables are filtered by way of a top-hat filter function represented by the size of the cells. The subgrid-scale fluxes (SGS), which appear after filtering operations, are parametrized by a two-eddy viscosity anisotropic Smagorinsky model, to better adapt to coastal flow in which horizontal length scale is larger than vertical one (Roman et al., 2010). The subgrid-scale eddy diffusivities of temperature and salinity, Prandtl and Schmidt numbers, are set $Pr_{sgs}=Sc_{sgs}=0.8$, by assuming that Reynolds analogy holds also for both scalars. Complex geometry that characterizes coastal flow is treated by a combination of curvilinear grid and Immersed Boundary Method (IBM) (Roman, Napoli, et al., 2009). Wind action on the free surface is taken into account by means of the formula proposed by Wu (Wu, 1982), in which the wind stress on the sea surface is computed from the wind velocities at 10 m above the surface. A 20% of variance is added to the stress to ease the generation of turbulence and to take into account of wind stress variations in time and space. Moreover near obstacles such as docks, ships and breakwaters, the wind stress is linearly reduced considering the relevant reduction of stress in recirculation regions. On the open boundaries the velocities and scalars quantities are obtained by nesting LES-COAST within Large Circulation Models (Petronio, et al., 2013) or are imposed from in-situ measurements. Near the wall velocities are modelled using wall functions (Roman, Armenio, et al., 2009). We apply the coupled oil spill model and hydrodynamical one to simulate hypothetical oil spill events in real case scenarios in Barcelona harbour (North-west Mediterranean Sea, Spain, Galea, et al. 2014) and in Panzano bay (North Adriatic Sea, Italy).
XXVII Ciclo
1986
Del, Puppo Norman. "High resolution ship hydrodynamics simulations in opens source environment". Doctoral thesis, Università degli studi di Trieste, 2015. http://hdl.handle.net/10077/10983.
Texto completo da fonteThe numerical simulation of wake and free-surface flow around ships is a complex topic that involves multiple tasks: the generation of an optimal computational grid and the development of numerical algorithms capable to predict the flow field around a hull. In this work, a numerical framework is developed aimed at high-resolution CFD simulations of turbulent, free-surface flows around ship hulls. The framework consists in the concatenation of “tools” in the open-source finite volume library OpenFOAM®. A novel, flexible mesh-generation algorithm is presented, capable of producing high-quality computational grids for free-surface ship hydrodynamics. The numerical framework is used to solve some benchmark problems, providing results that are in excellent agreement with the experimental measures.
XXVII Ciclo
1981
Crimaldi, Antonio. "Nuovi processi catalitici per la produzione di syngas". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19204/.
Texto completo da fonte